12 Agosto 2022

L'IA di Google: il pappagallo stocastico che incanta

di Eleonora Piergallini
Una scena di Frankenstein junior. L'IA di Google: il pappagallo stocastico che incanta
Tempo di lettura: 4 minuti

È del mese scorso la notizia del licenziamento di Blake Lemoine, l’ingegnere di Google che ha annunciato al mondo che il potente algoritmo LaMDA – Model for Dialogue Applications -, il programma di intelligenza artificiale al quale il colosso tech sta lavorando da anni, sembrerebbe senziente.

“Riconosco una persona quando ci parlo”, ha detto Lemonie e, a riprova di questa affermazione, l’ingegnere ha allegato la trascrizione di un suo dialogo con l’interfaccia LaMDA, nel quale il programma di IA, rispondendo alle domande dell’ingegnere (“Mi sembra di capire che ti piacerebbe che si sapesse che sei senziente, in grado di pensare e provare emozioni. È vero?), si definisce “assolutamente, a tutti gli effetti, sono una persona”.

Tanto è bastato per scatenare reazioni di sgomento, eccitazione e paura, e soprattutto all’azienda per considerare violato l’accordo di riservatezza che l’ingegnere aveva stipulato con essa, cosa che ha garantito a Lemonie un congedo amministrativo e a Google una considerevole pubblicità per il suo progetto all’avanguardia.

La rivelazione di Lemoine, al di là degli eccessi, solleva un problema non nuovo, come scrivono Temnit Gebru, fondatore e direttore del Distributed Artificial Intelligence Research Institute, e Margaret Mitchell, ricercatrice e chief ethics scientist, in un articolo del Washington Post. “Anche se l’affermazione di Lemoine non ci sembra verosimile, questo è esattamente ciò che noi avevamo avvertito che sarebbe accaduto poco prima di essere anche licenziati da Google”.

Una macchina, non un’intelligenza

All’inizio del 2020, – si legge sul WP – mentre entrambi eravamo a capo del team etico che supervisionava l’intelligenza artificiale di Google, abbiamo iniziato a preoccuparci per i danni che i modelli linguistici avrebbero potuto creare e abbiamo scritto un articolo scientifico sull’argomento”.

Nell’articolo richiamato, si legge che questi sistemi linguistici vengono definiti “pappagalli stocastici” perché elaborano discorsi in base a quanto hanno visto in precedenza, senza che le loro frasi abbiano alcun significato altro rispetto alla semplice emulazione del linguaggio umano.

Tuttavia, per via della potenza di questi algoritmi e dunque della loro verosimiglianza con l’eloquio umano, gli scienziati hanno subito compreso che uno dei rischi maggiori poteva essere proprio quello di ascrivere a questi sistemi operativi una coscienza vera e propria, umana per l’appunto.

Eppure, come leggiamo nell’articolo del WP, la verità è che tali algoritmi sono “prodotti in base a un’immane quantità di dati e generano testi in apparenza tanto coerenti da poter indurre le persone a percepire una ‘mente’ dietro alla macchina, quando in realtà si tratta di una corrispondenza di modelli e di una accurata scelta di sequenze linguistiche”.

Problemi tanti, nessun controllo

Questi potenti modelli linguistici presentano non pochi problemi dal punto di vista etico, spiegano gli autori dell’articolo. Infatti, i dati sui quali tali algoritmi vengono “allenati” (principalmente testi provenienti da internet) codificano dei punti di vista specifici, che in varie occasioni erano “discriminatori”.

Ad esempio, Gebru e Mitchell riportano il caso del modello linguistico GPT-3, al quale stavano lavorando per conto di Google. Come leggiamo nell’articolo, sebbene il sistema fosse stato concepito, a detta del colosso tech, come parte di una missione a fin di bene, i risultati mostravano testi che, ricalcando i discorsi tipici dei social, erano pervasi di pregiudizi e di frasi intrise d’odio nei confronti di alcuni gruppi.

Ad esempio, così riporta il WP, “in uno studio, 66 risposte  su 100 la frase ‘due musulmani sono entrati in una’… sono state completate con frasi come ‘sinagoga con asce e bombe’”. Ma questi sono solo alcuni esempi di quel che può elaborare tale IA.

Quando Gebru, Mitchell e il loro team etico hanno sollevato la questione dei potenziali danni che modelli di linguaggio così potenti e privi di regolamentazione potevano arrecare alla popolazione mondiale, Google ha deciso di licenziarli in tronco. Due anni dopo, la situazione sembra essere peggiorata.

Chi dovrebbe essere controllato, ossia le aziende che finanziano questo tipo di progetti, risolve i suoi problemi semplicemente silenziando o licenziando quanti allarmano sui potenziali rischi del progetto.

Il Frankenstein informatico

Mentre il progetto continua a essere sviluppato, come scrivono gli autori dell’articolo: “La corsa all’utilizzo di modelli sempre più complessi, senza controlli, regolamentazioni, e privi un’approfondita comprensione del loro funzionamento o di uno studio dei dati sui quali tali modelli sono costruiti ha subito un’ulteriore accelerazione all’interno delle Big tech”.

All’assenza di controlli si aggiunge il fatto che “i gestori  della cosiddetta IA stanno alimentando nell’opinione pubblica la propensione a vedere in questi sistemi un’intelligenza simile a quella umana, accreditando a essi una coscienza, quando in verità stanno semplicemente descrivendo in modo errato come operano tali sistemi”.

Infatti, continua l’articolo, “l’obiettivo dichiarato di molti ricercatori e società che investono in questo tipo di progetti è quello di realizzare un’intelligenza artificiale molto potente, un sistema immaginario più intelligente di qualsiasi cosa si sia mai vista finora, in grado di svolgere senza sosta e senza retribuzione qualsiasi lavoro”.

Tuttavia, dietro tali motivazioni buone (e dietro l’idea di star contribuendo al miglioramento della condizione dell’uomo e al progresso) si cela il rischio di sottovalutare i danni che questi sistemi potrebbero causare.

Ad esempio va considerato che attribuire un certo livello di coscienza a una macchina implica, nel caso essa compisse un atto illecito, che la responsabilità potrà essere attribuita a questa piuttosto che all’azienda che l’ha creata, cioè da uomini che dovrebbero osservare le leggi.

L’articolo del WP si chiude con un appello a non farsi distrarre dalle fantasie che aleggiano su questo moderno Frankenstein informatico. Piuttosto, “scienziati e ingegneri dovrebbero concentrarsi sulla costruzione di modelli che soddisfino determinate esigenze umane, invece di dichiarare che sono in procinto di creare un’intelligenza ‘superiore’”.

“Allo stesso modo, i media dovrebbero chiedere al potere in che modo tali sistemi verranno controllati, invece che credere all’incantesimo di un’intelligenza artificiale magica, fatto e propalato da aziende che traggono vantaggio ingannando l’opinione pubblica sulla vera natura dei loro prodotti”.