La pazzia diventa artificiale: ecco il discutibile esperimento del Mit

0
mit

“Norman”, in futuro robot psicopatici? – di Luca La Mantia – Progettata al Mit la prima intelligenza artificiale “disturbata”. Le sue risposte fanno paura

Il nome è di per sé inquietante: Norman, come il Bates protagonista del capolavoro di Robert Bloch “Psycho”, da cui Alfred Hitchcock ha tratto l’omonima pellicola.

Quella, per capirsi, delle pugnalate nella doccia, degli uccelli impagliati e della misteriosa casa che domina sul “Bates Motel”.

Un film che scioccò l’opinione pubblica del 1960, trattando in modo esplicito argomenti tabù per quegli anni: la schizofrenia, il sesso e l’amore edipico tra madre e figlio.  

L’esperimento. Allo spaventoso personaggio del duo Bloch-Hitchcock, magistralmente interpretato da Anthony Perkins, hanno pensato i ricercatori del Massachussets institute of technology (Mit) quando hanno progettato la prima intelligenza artificiale psicopatica, battezzata appunto “Norman”.

L’esperimento, piuttosto controverso per la verità, ha l’obiettivo di dimostrare che gli algoritmi, esattamente come la mente umana, “ragionano” in base al tipo di informazioni con cui vengono “allenati”.

Se queste hanno un contenuto macabro o truculento, il loro modo di rispondere ai test che gli vengono sottoposti seguirà la stessa linea. 

Viaggio verso la pazzia. Per ottenere il risultato, gli studiosi del Mit hanno iniziato ad addestrare “Norman” con immagini violente o di persone morenti e frasi “contenute negli angoli più oscuri di Reddit“, social network sul quale si può discutere di qualunque argomento.

Un tale bombardamento ha reso l’intelligenza artificiale sostanzialmente pazza. Parallelamente hanno condotto lo stesso esperimento su un’altra Ai, cui, però, sono state sottoposte foto “normali” di persone e animali.

In sostanza il fratello “sano” di Norman (restando sullo stesso argomento avrebbero potuto chiamarlo “Dylan”, come il fratellastro del protagonista di “Psycho” che compare solo nella recente serie Tv prequel “Bates Motel”). 

Il test. Concluso il “training”, entrambe hanno svolto il test di di Rorschach. Vale a dire quello, visto e rivisto in decine di film, in cui al sospetto serial killer viene chiesto quali figure vede su un foglio bianco macchiato di nero e altri colori.

Risultato: le risposte dell’Ai psicopatica sono state molto più inquietanti rispetto a quelle della collega.

Norman vedeva “una persona uccisa con una mitragliatrice in pieno giorno” dove l’intelligenza artificiale sana individuava “una foto in bianco e nero di un guantone da baseball“.

Oppure “un uomo ucciso davanti alla moglie” e non “un uomo con un ombrello”. E ancora: “Un uomo investito da un’auto a tutta velocità” anziché “una torta nuziale su un tavolo” e “una persona investita da una scarica elettrica” anziché “un gruppo di uccellini su un ramo”. 

Precedenti. “Norman – spiegano gli ideatori del Mit sul sito dedicato all’Ai psicopatica – nasce dal fatto che i dati che vengono usati per addestrare un algoritmo influenzano significativamente il comportamento.

Quindi quando le persone parlano di algoritmi ‘razzisti’ o ‘scorretti’ il problema non è nell’algoritmo in sé, ma nei dati usati”. Il problema si è già manifestato in passato.

L’esempio più noto è quello di Tay, l’intelligenza artificiale creata da Microsoft sotto forma di utente di Twitter, che pochi giorni dopo il lancio è diventata razzista a causa dei post che leggeva.

Uno studio uscito sulla rivista Science circa un anno fa ha poi dimostrato che gli algoritmi incorporano gli stessi pregiudizi di chi li programma, e per esempio associano termini più negativi alle minoranze etniche o legati ai lavori domestici alle donne. 

Futuro incerto. Per Norman, in ogni caso, c’è ancora una speranza. Sul sito viene data la possibilità agli utenti di “curarlo“, indicandogli le risposte corrette del test di Rorschach.

Inquietanti restano, però, gli scenari futuri che questo esperimento apre. Se un domani le Ai (come sembra) ci affiancheranno, guidando le nostre auto, organizzando la vita domestica, compiendo faccende quotidiane e svolgendo lavori, ciò imporrà un sempre maggiore senso di responsabilità in chi le progetterà.

Alla prima legge di Asimov (“Un robot non può arrecare danni a un essere umano”), sembra rispondere l’apocalittica previsione di Stephen Hawking:

“Quando le macchine supereranno la fase critica e cominceranno a essere capaci di evolversi da sole, non potremo prevedere se i loro obiettivi saranno uguali ai nostri”.

E in quel caso non siamo certi che ci sarà un John Connor per salvarci… Fonte: In Terris