AGI – Il laboratorio di intelligenza artificiale di Google sta lavorando a un sistema che permetta alle intelligenze artificiali di sviluppare una sorta di dialogo interno, di monologo interiore, capace di aiutarle a comprendere il mondo e imparare nuovi compiti in autonomia. Lo riporta The Daily Upside, citando e riportando una recente domanda di brevetto presentata dal colosso di Mountain View. Il progetto si chiama “intra-agent speech for facilitating task learning” e punta a dotare i robot di un linguaggio naturale per descrivere ciò che vedono, a partire da video o immagini. Per esempio, un agente potrebbe osservare un essere umano raccogliere una tazza e ricevere come input testuale: “La persona raccoglie la tazza”. Questo tipo di feedback costituirebbe il suo monologo interiore, una forma di auto-narrazione utile ad associare visione e azione.
Il vantaggio principale
Molto passa dall’apprendimento zero-shot: la possibilità di affrontare compiti o manipolare oggetti mai visti prima, sfruttando esclusivamente il linguaggio come ponte tra percezione e comportamento. “Facilitano l’apprendimento utilizzando il linguaggio per aiutare a comprendere il mondo” si legge “e possono quindi ridurre la memoria e le risorse di calcolo necessarie per addestrare un sistema di controllo”. Non è la prima volta che DeepMind mette nel mirino la robotica. Solo pochi giorni fa, l’azienda ha annunciato una versione mobile del suo modello linguistico e visivo per robot, progettato per funzionare offline, direttamente su dispositivi fisici. Anche in questo caso l’obiettivo è lo stesso: rendere i robot sempre più capaci di adattarsi a situazioni nuove.
Fornire a un agente artificiale un contesto ampio – osservano gli ingegneri – significa dargli più strumenti per comprendere ambienti imprevedibili. E l’imprevedibilità è ancora uno dei principali ostacoli all’adozione su larga scala di questi sistemi. È per questo che anche altri colossi come Nvidia, Intel e Google stessa stanno lavorando su tecnologie simili, cercando di brevettare approcci in grado di colmare il divario tra visione artificiale e comprensione del mondo reale.
Il progetto genoma
Ma la comprensione del mondo, per DeepMind, si concentra anche su di noi e sulle nostre caratteristiche più profonde. In parallelo, infatti, l’azienda ha lanciato AlphaGenome, un nuovo modello di intelligenza artificiale capace di prevedere in modo più accurato gli effetti di mutazioni genetiche sul funzionamento del genoma umano. In pratica, uno strumento per “leggere” e interpretare l’intero DNA come se fosse un linguaggio, e anticipare cosa accade quando una singola lettera cambia. Il sistema, si legge nel blog di Deepmind, è in grado di elaborare sequenze fino a un milione di basi e predire migliaia di proprietà molecolari, come l’attivazione di geni, il livello di RNA prodotto, o la presenza di legami tra proteine regolatrici e DNA. Un salto di qualità rispetto ai modelli precedenti, reso possibile dall’uso di grandi dataset pubblici e da innovazioni tecniche che permettono previsioni ad alta risoluzione su regioni genomiche complesse. AlphaGenome è già disponibile via API per la ricerca non commerciale. DeepMind lo descrive come “una nuova risorsa per aiutare la comunità scientifica a comprendere meglio la funzione del genoma, la biologia delle malattie e, in prospettica, sviluppare nuove terapie.