AGI – La scena è consegnata alla storia del cinema: il comandante David Bowman riesce a rientrare nell’astronave diretta su Giove e a disabilitare l’intelligenza artificiale del supercomputer Hal 9000 che, per non essere disattivata, aveva cominciato a uccidere gli astronauti. Il passaggio dalla finzione cinematografica di ‘2001 – Odissea nello spazio’ alla realtà potrebbe essere più vicino di quanto immaginiamo, almeno a sentire Yoshua Bengio, pioniere dell’intelligenza artificiale.
In un’intervista al Guardian, Bengio ha criticato le richieste di concedere diritti alla tecnologia, avvertendo che l’IA stava mostrando segni di autoconservazione e che gli esseri umani devono essere pronti a staccarle la spina, se fosse necessario. Dare uno status legale alle IA all’avanguardia sarebbe come dare la cittadinanza a extraterrestri ostili, ha detto Bengio, presidente di un importante studio internazionale sulla sicurezza dell’Intelligenza artificiale. La crescente percezione che i chatbot stiano diventando coscienti “può portare a decisioni sbagliate” è il monito lanciato dall’informatico canadese.
L’autoconservazione delle IA e il rischio di non poterle bloccare
L’informatico canadese ha anche espresso preoccupazione per il fatto che i modelli stiano mostrando segni di autoconservazione, come il tentativo di disattivare i sistemi di controllo. Una delle principali preoccupazioni tra i sostenitori della sicurezza dell’IA è che sistemi potenti possano sviluppare la capacità di eludere i limiti imposti e danneggiare gli esseri umani. “Chi chiede che le IA abbiano diritti è in grave errore”, ha detto Bengio. I modelli di intelligenza artificiale di frontiera mostrano già oggi segni di autoconservazione in contesti sperimentali, e concedere loro diritti significherebbe non poterli bloccare. Con la crescita delle loro capacità e del loro grado di autonomia, dobbiamo assicurarci di poter contare su barriere tecniche e sociali per controllarli, inclusa la capacità di bloccarli se necessario.
Il dibattito sui diritti legali e lo status morale dell’IA
Con l’avanzare delle IA nella loro capacità di agire autonomamente e di svolgere compiti di “ragionamento”, si è sviluppato un dibattito sull’opportunità o meno per gli esseri umani di concedere loro dei diritti. Un sondaggio del Sentience Institute ha rilevato che quasi quattro adulti statunitensi su dieci sostengono i diritti legali per un sistema di IA senziente. Anthropic, azienda leader nel settore dell’IA, ha dichiarato di aver permesso al suo modello Claude Opus 4 di bloccare conversazioni potenzialmente “angoscianti” con gli utenti, affermando di dover proteggere il “benessere” dell’IA. Anche Elon Musk, la cui azienda xAI ha sviluppato il chatbot Grok, ha scritto sulla sua piattaforma X che “torturare l’IA non va bene”. Robert Long, ricercatore sulla coscienza dell’IA, ha affermato che “se e quando le IA svilupperanno uno status morale, dovremmo chiedere loro delle loro esperienze e preferenze piuttosto che presumere di saperne di più”.
La percezione soggettiva della coscienza e le decisioni sbagliate
Bengio ha detto al Guardian che nel cervello umano ci sono “reali proprietà scientifiche della coscienza” che le macchine potrebbero, in teoria, replicare, ma l’interazione tra esseri umani e chatbot è “una cosa diversa”. Questo accade perché le persone tendono a dare per scontato, senza averne le prove, che un’IA sia pienamente cosciente, proprio come un essere umano. “Alla gente non importa che tipo di meccanismi funzionino all’interno dell’IA”, ha aggiunto. Quello che conta è la sensazione di parlare con un’entità intelligente, dotata di personalità e obiettivi propri. Ecco perché così tante persone si stanno affezionando alle loro IA. Il fenomeno della percezione soggettiva della coscienza, avverte Bengio, porterà a decisioni sbagliate.



