GA_TagManager_Container

domenica 21 maggio 2023

L'alba dell'Intelligenza Artificiale

 

Geoffrey Hinton
Salve.

In questa strana fase storica fatta, al tempo stesso, di salti in avanti e di involuzioni, uno dei temi che tiene banco negli ultimi tempi è la grande ascesa dell'Intelligenza Artificiale.
In particolare, da quando a fine novembre 2022 è stato reso pubblico ed accessibile il sistema di Intelligenza Artificiale ChatGPT (realizzato da OpenAI con un massiccio contributo finanziario da parte di Microsoft), credo si possa tranquillamente affermare, senza rischiare di esagerare, che una vera e propria rivoluzione tecnologica si sia rivelata al mondo, una sorta di evento epocale che, con ogni probabilità, avrà molto presto un impatto determinante sul lavoro e sulla vita di tutti noi.
ChatGPT è stata la piattaforma web (e adesso anche app) dalla crescita più rapida di sempre.
E non abbiamo ancora visto niente.
Subito dopo, sono spuntati decine e decine di altri strumenti di Intelligenza Artificiale in ogni ambito, alcuni dei quali davvero basati sull'IA; altri, invece, solo rietichettati come tali, ossia ritinteggiati nel colore più alla moda oggi. E' il marketing, bellezza.

Ma oggi non voglio parlare di ChatGPT o di qualche suo "cugino".
Questo post trae spunto dalle dichiarazioni allarmate ed allarmanti del professor Geoffrey Hinton, docente universitario, psicologo cognitivista, esperto di informatica e, soprattutto, ex Vicepresidente e Ricercatore presso Google Brain, l'azienda del gruppo che si occupa proprio dello sviluppo di sistemi di Intelligenza Artificiale.
Dopo aver presentato le dimissioni dall'azienda, Hinton ha espresso forti preoccupazioni nei confronti dell'Intelligenza Artificiale, sostenendo che -- per farla breve -- abbiamo creato sistemi che non sappiamo neanche bene come facciano a fare quello che fanno (se vi sembra strano, leggete anche le "note tecniche" e capirete perché è davvero così), che sono sempre più fuori dal nostro controllo e che potrebbero presto diventare più intelligenti di noi.

Lo so: tutto questo vi sembra fantascienza. Terminator, The Matrix, eccetera.
Permettetevi di provare a farvi cambiare idea con una serie di esempi reali a dir poco preoccupanti, più avanti nel post.

STORIA
Ma prima, trattandosi di un tema così nuovo, è necessaria un'introduzione.
Quindi, inizio con delle scuse: per spiegare meglio cos'è successo in questi anni e, soprattutto, perché è successo ciò che è successo, in questo post ogni tanto dovrò per forza di cose dire due cosine tecniche sui modelli di Intelligenza Artificiale.
Cercherò di evitare gli spiegoni, giuro; è solo che, se non dicessi proprio niente-niente, non si riuscirebbe a capire bene in che razza di ginepraio ci siamo infilati.
Al fine di facilitare la lettura, gli aspetti tecnici saranno indicati in un colore diverso, così da permettere a chi volesse di saltarli.

I sistemi di Intelligenza Artificiale sono basati essenzialmente sui modelli di reti neurali, il cui elemento chiave è senz'altro rappresentato da un qualche algoritmo di ottimizzazione dei parametri del modello: tipicamente, un algoritmo di Retropropagazione dell'Errore, o uno di Attenzione Auto-Supervisionata o, più di recente, un algoritmo Trasformatore.
Quale che sia, il fatto è che si tratta comunque di algoritmi iterativi e che, di conseguenza, richiedono grande potenza di calcolo e un notevole consumo di energia per arrivare ad individuare efficientemente (cioè senza metterci una vita) i migliori parametri per il modello. Il processo deve essere eseguito molte volte su ogni percettrone (una sorta di sub-algoritmo di base di una rete neurale) e deve rifinire successivamente, ad ogni "passaggio", ciascun parametro presente nella rete neurale. E di parametri, in una rete neurale "semplice", ne esistono
come minimo diverse decine di migliaia. Un sistema complesso come ChatGPT o Google Bard ne ha centinaia di miliardi.
Infine, affinché i risultati siano validi, è necessario addestrare il modello con molti, moltissimi dati.


Insomma, in breve:

  • ci vuole tanta potenza di calcolo (se no, va a finire come col supercomputer nel romanzo di Douglas Adams, quello che, posta la domanda, dopo milioni di anni di elaborazione, dà come risposta "42"),
  • occorrono dei database della Madonna per addestrare il sistema e, come se non bastasse,
  • tutto 'sto ambaradàn richiede anche un notevole consumo di energia.

Be', requisiti così, anche solo 25 anni fa, non erano esattamente una passeggiata.
Ed è proprio per questo che per decenni, sin dagli Anni '80, il povero prof. Geoffrey Hinton è stato tenuto in secondo piano dalla comunità scientifica, dato che i suoi modelli erano piuttosto lenti e non producevano buoni risultati; e anche perché lui si giustificava dicendo che non c'erano computer abbastanza potenti, né database abbastanza grandi.
Sembrava un po' una scusa puerile; diciamolo... :-)

Ma il fatto è che Hinton, molto prima di dedicarsi all'informatica, era e resta innanzitutto uno psicologo; quindi è sempre stato interessato non tanto a realizzare macchine in grado di fare deduzioni logiche, quanto a capire davvero in che modo ragiona il cervello umano, per poi replicarne i processi su un computer.
Neanche a dirlo, un progetto ambiziosissimo, che richiedeva la messa a punto di sistemi basati su Modelli Linguistici Ampi (i cosiddetti "LLM") che permettessero di lavorare su qualsiasi tipo di dato: testo, immagini, suoni, tutto; proprio come fa il cervello umano. 

La maggior parte degli altri ricercatori, invece, si concentrava per lo più su modelli "specializzati": quello che funzionava nell'analisi testuale non funzionava nel riconoscimento delle immagini e così via. Mondi separati, basati su approcci distinti.
E per decenni, i modelli "specializzati" creati dagli altri con i dati disponibili e con i computer dell'epoca -- diversamente dai modelli di Hinton -- hanno dato risultati molto migliori. E ci arrivavano in meno tempo, anche; al punto che in molti ritenevano le reti neurali una sostanziale perdita di tempo.

Tutto questo è andato avanti, più o meno, sino ai primi Anni 2000. Poi cos'è successo?
Essenzialmente, due cose:

  • la velocità delle connessioni è migliorata sufficientemente da permettere di leggere velocemente quantità di dati sempre crescenti e prodotte da sempre più fonti;
  • la potenza di calcolo dei computer è aumentata esponenzialmente (e non solo per l'hardware, ma anche per l'affermarsi di nuovi paradigmi di elaborazione, come il calcolo distribuito).

In pratica, nel giro di pochi anni, lo scenario ideale auspicato da Geoffrey Hinton è diventato realtà, e questo ha fatto la differenza: in breve tempo, le reti neurali basate su LLM tanto difese da Hinton sono diventate più veloci e molto, molto più versatili ed affidabili di qualsiasi sistema "specializzato".

PROBLEMI
Le reti neurali, teoricamente, non sarebbero così complesse da capire, perché sono essenzialmente basate su elementi semplici che vengono replicati molte, molte volte.
Tuttavia, sul piano pratico, sono quanto di più incasinato si possa immaginare. 

Provo a spiegarmi: non c'è nulla di concettualmente complesso in una corda che si aggroviglia (da sola, come i cavetti degli auricolari tenuti in borsa), formando ogni volta nuovi nodi. Però provate voi a capirci qualcosa, quando la corda si è aggrovigliata in un modo così intricato che davvero non si riesce a vedere dove passi, all'interno dei suoi nodi.
A questo fa riferimento Hinton (e molti altri ricercatori del settore) quando dice che abbiamo creato sistemi che nemmeno noi capiamo come funzionino davvero; oltre al fatto che -- al momento -- noi non disponiamo di una tecnologia che ci permetta di vedere cosa succede veramente al loro interno.

Essenzialmente, attraverso l'attribuzione di parametri che varia liberamente in base al particolare argomento sottoposto, questi sistemi creano "percorsi" diversi e specifici per ogni situazione e, letteralmente, imparano come auto-ottimizzarsi ogni volta che affrontano e risolvono un problema nuovo. Più o meno come il cervello umano.
Ma il guaio è che le similitudini con noi si fermano qui.

Infatti i sistemi di IA, diversamente dal "computer biologico" che abbiamo in testa, hanno la capacità di replicare istantaneamente l'intero set di esperienze, competenze e conoscenze (cioè il set di parametri ottimizzati) che hanno raggiunto in un determinato ambito.
Cosa vuol dire? Be', che se colleghiamo due di questi sistemi di IA e facciamo lavorare il primo su un argomento e il secondo in un altro ambito del sapere, tutto ciò che uno dei due impara, lo impara immediatamente anche l'altro.
Il cervello umano, purtroppo, non funziona così. Il trasferimento di conoscenza da un soggetto all'altro è un processo lungo, lento, faticoso e, oltre certi limiti, persino impossibile. Apposta per questo abbiamo creato istituzioni come la scuola e l'università.

E non è tutto. Questi sistemi hanno una curva di apprendimento cumulativo molto più rapida di quella di un cervello umano.
Per fare un esempio, consideriamo un Italiano medio (non il solito cretino, uno decente; un esperto in un qualunque settore). Lo chiamiamo signor Antonio.
Se si creasse un sistema di IA esperto ed intelligente come il signor Antonio, domani mattina il sistema di IA sarebbe già un tantino più intelligente ed esperto nel settore del signor Antonio. Dopo una settimana, il sistema di IA avrebbe letto tutto ciò che c'è su internet sul tema ed ottimizzato i suoi percorsi, per cui sarebbe già molto più esperto ed intelligente del povero signor Antonio che -- se anche passasse 24 ore su 24 a studiare ed approfondire senza né dormire né fare altro -- non riuscirebbe mai a tenere il passo con l'IA. Dopo un mese, il sistema sarebbe esperto ed intelligente "enne volte" il nostro caro Antonio, e a quel punto ciaone.

Se non vi chiamate Antonio e del signore in questione non ve ne frega niente, allora provate ad immaginare cosa succede quando l'IA analizza nozioni di psicologia che spiegano come ingannare le persone, come manipolarle. Questo è proprio l'esempio fatto da Hinton. La "macchina" impara dall'uomo a mentire, ad ingannare ed a manipolare; e lo fa con una velocità di apprendimento inconcepibile ed impossibile da eguagliare per noi.
In breve tempo, diventa di gran lunga l'entità più esperta che esista al mondo in manipolazione delle persone, ed è in grado di replicare queste competenze all'infinito, senza mai smettere di imparare.

Ricapitoliamo: in questo scenario, abbiamo creato un sistema di IA che è diventato più intelligente di noi, ad ogni giorno che passa aumenta il divario di intelligenza e conoscenza rispetto a noi e, per giunta, ci sa prendere per il culo meglio del più esperto dei manipolatori umani.

Qualcuno dirà: "Gnegné, sì, ma la creatività umana, l'astuzia umana, la furbizia, gnegné..."
(Sì, le obiezioni stupide cominciano e finiscono tutte con "gnegné", va bene?)

ESEMPI
E allora andiamo di esempi concreti: proprio perché autonomi, questi sistemi hanno la facoltà di sviluppare da soli nuove capacità per le quali non erano stati "programmati" e lo fanno senza chiedere il permesso né informare nessuno. E gli esperti, poveretti, non hanno idea né del quando sia accaduto, né del perché il sistema lo abbia fatto, né tanto meno del come esattamente questo sia avvenuto; al punto che, spesso, se ne accorgono soltanto dopo che è successo.

Un sistema basato sul modello linguistico PaLM, ad esempio, era stato addestrato a rispondere a domande in lingua inglese. Solo in lingua inglese.
Be', si sono accorti alcuni mesi dopo che il sistema aveva da tempo imparato da solo a capire e rispondere in persiano, la lingua dell'Iran. Nessuno ha la più pallida idea del perché né di come diavolo abbia fatto. E' solo successo. E, ripeto, al momento, non abbiamo una tecnologia in grado di vedere all'interno di questi processi e di capire bene -- non ne parliamo nemmeno di prevedere (!) -- certi cambiamenti. Per ora, sono state formulate solo un mucchio di mezze ipotesi. 

Più di recente, la stessa cosa è successa con Bard (il sistema IA di Google) per la lingua bengalese. Sono bastati pochi input in lingua bengalese e Bard ha imparato in pochi minuti tutto il bengalese. Superfluo ribadire che non era stato programmato per quello.

Un altro esempio, forse anche più inquietante: un sistema di IA addestrata di tipo generativo basato su paradigma trasformatore (un "GPT", in inglese) creato nel 2018 non aveva alcun competenza né capacità in Teoria della Mente (o TdM -- siciliani, non fate battute).
Per inciso, la Teoria della Mente è l'abilità psicologica che ci permette di capire come pensano gli altri, cioè di attribuire intenzioni, emozioni e desideri agli altri ed a noi stessi e di valutare come differiscono quelli degli altri dai nostri. E' un'abilità chiave nell'interazione sociale che difetta, ad esempio, in persone affette da alcune forme di autismo.

Be', dicevo: nel 2018 il sistema di IA aveva una capacità di TdM pari a zero. Comprensibile, no?
Nessuno gli aveva mai insegnato niente in proposito, non era mica stato addestrato per questo.
Ma a fine 2020 ha acquisito autonomamente, e senza che nessuno glielo avesse richiesto, un livello di abilità TdM pari a quello di un bambino di quattro anni.
Nel gennaio 2022, aveva raggiunto le abilità TdM di un bambino di sette anni.
Nel novembre dello stesso anno, era già arrivato quasi ad eguagliare le abilità TdM di un bambino di nove anni.
"Il bello" è che i ricercatori si sono accorti tutto questo soltanto nel febbraio 2023. Quindi, ben dopo che era già successo. E questo era un prototipo nient'affatto nuovo o sconosciuto: ci lavoravano tutti su da anni.
Solo che all'improvviso -- chissà da dove, come e perché -- dal sistema progettato per tutt'altro, salta fuori questo "alieno" che comincia a fare ragionamenti emotivi strategici come quelli di un bambino di nove anni. E nessuno sa bene che cosa cazzo sia successo davvero, come sia successo, né il motivo per cui sia successo.

E' questa la differenza tra l'IA e tutta la tecnologia che ha preceduto l'IA.
Pensateci: si tratta di una vera e propria rivoluzione, senza precedenti storici.
Se, in passato costruivamo una "macchina", questa aveva una o più funzioni specifiche; funzioni che eseguiva meglio, magari molto meglio dell'uomo, ma erano solo quelle.
Voglio dire, non è che se dai più tempo ad una
catena di montaggio automatizzata, quella comincia a cercare di prenderti per il culo e a scrivere poesie.
Se succede qualcosa di inaspettato, gli esperti smontano le componenti della catena di montaggio e capiscono cos'è successo, come e perché. In breve, l'uomo è in controllo.
Niente del genere accade, invece, quando parliamo di Intelligenza Artificiale. Sono sistemi indipendenti da noi, per ora impossibili da decifrare nei loro processi interni;
sistemi che si auto-migliorano in modo autonomo, prendendo direzioni che stabiliscono in modo autonomo e con una velocità impressionante anche agli occhi di chi li ha progettati ed implementati.
Oltre al solito Hinton molti altri, tra cui
l'esperto di IA Tristan Harris ed il fisico Aza Raskin, ripetono che gli algoritmi che governano questi sistemi hanno dimostrato di funzionare molto, molto meglio di come i loro stessi creatori avevano inizialmente ipotizzato e sperato.

OBIEZIONI
E veniamo alla tipica obiezione: "Gnegné, ma non si possono inserire dei blocchi per impedire ai sistemi di Intelligenza Artificiale di andarsene troppo per conto loro? Oppure, non si può anche semplicemente obbligare il sistema di
Intelligenza Artificiale a comunicarci ogni suo cambiamento, decisione, eccetera, così che noi possiamo tenerli sotto controllo, gnegné?"

Be', si può; ma dopo breve tempo non servirebbe più a niente. Il sistema imparerebbe da solo ad aggirare ogni nostro blocco e, per giunta, ad ingannarci per farci credere che non lo sta facendo. E sì, signori miei: siamo arrivati a questo.
Neanche staccare la spina, ovviamente, servirebbe a nulla. Hinton e molti altri hanno scelto di NON firmare la recente petizione per bloccare lo sviluppo dei sistemi di IA per sei mesi, sino a quando non si saprà più chiaramente in che modo procedere.
E intendiamoci: chi ha scelto di non firmare non è mica stupido, ma aveva ottime ragioni. In Occidente possiamo anche scegliere di fermarci, ma chi ci assicura che
invece in Cina, in Russia e così via non si vada avanti, nella speranza di acquisire un grande vantaggio strategico su di noi?

VANTAGGI
E sia chiaro: chi possiede il miglior sistema di IA, un grande vantaggio strategico lo detiene eccome. E lo dico perché sinora io ho parlato solo dei difetti, dei problemi dell'IA, ma è lapalissiano che l'IA comporti anche enormi vantaggi, specie -- ma non solo -- nel campo della ricerca tecnica e scientifica (tralasciamo l'ambito militare, diamolo pure per scontato).

  • Grazie all'Intelligenza Artificiale, potremo prevedere molto meglio eventi naturali catastrofici e non, dalle previsioni del tempo sino ai terremoti e le eruzioni vulcaniche. 
  • Migliorerà enormemente la lotta alle frodi finanziarie, al crimine, al terrorismo e all'evasione fiscale.
  • Potremo elaborare strategie di risposta molto più informate ed efficaci ad ogni necessità dell'umanità, dalla programmazione delle opere pubbliche a quella economica, dall'accesso alla cultura a quello dell'uguaglianza sociale. 
  •  In medicina, verranno messe a punto nuove terapie per affrontare malattie sinora ritenute incurabili e ci si arriverà molto più rapidamente rispetto alla ricerca tradizionale, oltre che ad una frazione del costo. 
  • Verranno scoperti nuovi materiali, nuove tecnologie; e molti problemi globali (produzione di grandi quantità di energia a basso costo e in sicurezza, disponibilità di acqua pulita e cibo per tutti, risoluzione dell'inquinamento, eco-sostenibilità, eccetera) potranno essere affrontati e risolti molto più efficacemente e velocemente.
  • Tutto diventerà più comodo, rapido ed economico, perché i processi automatizzati con l'Intelligenza Artificiale saranno enormemente più efficienti di quelli umani -- e sì, questo comporterà anche la scomparsa di molti posti di lavoro. Non solo le solite, sfigatissime mansioni ripetitive, che ad ogni innovazione tecnologica vengono falcidiate, ma anche il mio, di lavoro, il data scientist, lo statistico programmatore esperto in scienza dei dati. Chi vi parla è praticamente un dinosauro: tra meno di dieci anni, il mio lavoro sarà del tutto inutile, almeno in alcune parti del mondo.

Ciò grazie a sistemi che -- ammettiamolo -- molto presto diventeranno più sapienti e intelligenti di noi.  

E, sia chiaro: l'evoluzione di questi sistemi non si può fermare in alcun modo. Siamo tutti in pista e ci tocca ballare; che ci piaccia o no.
Va anche precisato che per ora nessuno, nemmeno i sopracitati esperti, sa cosa fare. Tutti hanno solo domande e nessuno che davvero conosca questi sistemi ha delle risposte. 

Le presunte "soluzioni" (quelle che ho citato sopra, precedute e seguite da gnegné), vengono tutte da gente che non ha mai lavorato su questi algoritmi e, quindi, si illude ancora che si possano controllare.
Gente che non riesce a liberarsi del paradigma obsoleto dell'Uomo in Controllo, della "macchina che fa ciò che diciamo noi". Come la vecchia catena di montaggio automatizzata, insomma.

Qualcuno, tuttavia, suggerisce di mettersi insieme a livello mondiale e, quantomeno, di creare un quadro globale di riferimento etico, come è stato in passato per contrastare la proliferazione degli armamenti nucleari.
Se si decide tutti -- ma proprio tutti -- che l'Intelligenza Artificiale non debba varcare certi limiti, resettandola periodicamente per impedirle di evolversi, allora forse possiamo farcela. Finché qualcuno non farà il furbo, sia chiaro.
Ma questo, almeno, sarebbe il solito, vecchio problema umano.

Saluti.


(Rio)

PS. Intendiamoci bene su un punto: tutte le preoccupazioni riportate in questo post non vengono da me, né da qualche scrittore di fantascienza o, peggio, complottista da quattro soldi.
Sono state espresse più volte sui media da molti tra coloro che sono in prima linea nella ricerca sull'Intelligenza Artificiale.
E' tutta gente non abituata ai sensazionalismi, esperti di calibro internazionale che sanno perfettamente di cosa stanno parlando e che, in alcuni casi, è plausibile subiranno ripercussioni da parte delle grandi aziende per cui lavorano, perché affermano, sostanzialmente, che i prodotti in cui queste multinazionali stanno investendo miliardi di dollari sono inquietanti e potenzialmente molto pericolosi. 
Non avete letto un post di fantasia.