Non dobbiamo avere paura dell’intelligenza (artificiale)
Siamo di fronte a qualcosa creato dal Sapiens. Non temiamo una sfida che ci siamo dati noi stessi. Dobbiamo saperla dominare.
Questo articolo, sostanzialmente ottimista, è pubblicato nel Corriere della Sera del 4 giugno 2023, a pag. 22.
In 180 giorni ChatGPT e i suoi gemelli hanno superato esami meglio di studenti delle Ivy Leagues (chiedere ai professori della Università della Pennsylvania), cantato meglio delle star dei Grammy Awards (Drake e The Weeknd hanno fatto ritirare da Spotify un pezzo originale nient’affatto banale con le loro voci plagiate), dato consigli come consulenti svezzati e scritto articoli in pochi secondi che avrebbero potuto passare la revisione di esperti editor. Persino chi l’ha creata ha proposto di fare una pausa di sei mesi per capire se la situazione è effettivamente fuori controllo –un po’ come quando da bambini giocavamo e appena cominciavamo a perdere trovavamo scuse per interrompere la partita.
Sei mesi fa eravamo convinti, nonostante il portato straordinario di apprendimento prodotto dai miliardi di parametri che attivano le reti di deep learning, che non si sarebbe mai riusciti a battere la capacità di avere una natura senziente, di avere una vis empatica, di saper contestualizzare l’informazione. Queste qualità sono proprie di quello straordinario essere che sono le persone di tutti i generi che popolano il globo dai tempi di Sapiens.
Ma possiamo esserne ancora sicuri? O dobbiamo arrenderci definitivamente a uno scenario apocalittico a la Blade Runner? Va subito chiarito che l’intelligenza artificiale generativa non si riduce a un computer e a un software che fa cose più veloci di quelli che c’erano prima. Si tratta di un salto tecnologico effettivo per un motivo semplice: non solo è più veloce, ma soprattutto fa cose diverse. In un ambito sinora solo lambito dalle macchine.
In un saggio pubblicato sull’Economist dall’antropologo autore del best seller “Sapiens”, Yuval Harari sottolinea come il linguaggio abbia fatto evolvere Sapiens rispetto alle altre specie. La cosa che davvero differenzia Sapiens da chi lo ha preceduto e dalle altre specie è la sua proprietà di linguaggio. Il linguaggio gli ha permesso di proteggersi attraverso il gossiping (ebbene sì, anche spettegolando si è creato un network sociale e separato da situazioni più o meno pericolose), di creare valori, di generare simboli come la cultura e, cosa forse più importante nella notte dei tempi, attraverso la religione che gli ha permesso di vivere in comunità in varie parti del globo e identificarsi in esse.
Harari spiega come il nuovo portato delle macchine, ovvero il nuovo paradigma dell’intelligenza generativa, sia proprio basato sulla programmazione neurolinguistica. E le macchine il linguaggio lo stanno imparando a impiegare molto bene e in pochi mesi. E non si tratta delle Siri e Alexa che, a confronto, sembrano delle mamme e papà puntuali e apprensivi, dicendoci cose che magari già sappiamo e che al momento non ricordiamo. La nuova AI è fresca. E’ creativa.
Ha le sembianze dei quadri che ci produce a comando DALL-E. Ha il potere delle immagini iconiche di MidJourney, che si auto producono con qualche input che condividiamo. Sono capaci di simulare un attacco al Pentagono in maniera così efficace da far cadere, anche se solo per qualche minuto, le Borse mondiali.
Pensavamo che ChatGPT avesse come punto di forza la capacità di apprendimento basata su un modello statistico sofisticato che ha la fortuna di beneficiare di un oceano di informazioni, la Rete. Il limite era tuttavia chiaro: le informazioni erano già prodotte e masticate e quindi legate al passato. Un limite profondo: la macchina è razionale e dice cose interessanti, ma è impostata come un grande specchietto retrovisore.
Harari coglie un punto. Se la macchina impara a parlare e dialogare e creare contenuti e contesti, alla fine può aggirare, convincere, stimolare. Interviene sulle strutture di senso alla base del linguaggio. Linguaggio e comunicazione: il binomio che crea le comunità che costituiscono il nostro vivere civile. E che per questo rendono il salto tecnologico una delle discontinuità più forti degli ultimi trenta anni.
Che succede se la AI ha delle “hallucination” come si dice tecnicamente nel mondo della computer science e comincia a fabbricare testi e fake news? Che succede se la AI generativa non è regolamentata e comincia a coinvolgerci su temi e questioni in modo convincente ma inopportuno? E’ per questo che l’Europa, ancora una volta all’avanguardia in tema di regole, si sta ponendo l’obiettivo di una regolazione dinamica. Basata cioè su guardrails e non su norme che si autoapplicano.
Possiamo temere le conseguenze dell’intelligenza artificiale come stiamo imparando a conoscerla oggi. Esattamente come il team work è stata una delle conquiste della società moderna (2+2 fa 5 o 6 anziché 4 se la squadra funziona), usa tante menti del passato e potenzialmente arriva a simulare il presente influenzando il futuro e l’idea di futuro che il Sapiens si costruisce. Ma è il Sapiens, sinora, che accettando le sfide è riuscito a farle proprie. Non negandole.
Si pensi al fuoco e alla natura in genere. Quotidianamente ci pongono di fronte alla loro potenza, nel bene e nel male. Questa volta siamo di fronte a qualcosa creato dal sapiens, sarebbe bizzarro averne paura. E temere una sfida che ci siamo dati noi stessi. L’obiettivo come sempre è quello di riuscire a dominarla. Sta accadendo anche questa volta. Ne siamo convinti. O, meglio, almeno per ora, crediamo di esserlo.
Daniele Manca Gianmario Verona Yuval Harari