giovedì, Settembre 4, 2025
spot_imgspot_imgspot_imgspot_img

Dopo la morte di un adolescente introdotto il ‘parental control’ in ChatGPT

AGI – OpenAI ha annunciato che introdurrà il ‘parental control’ in ChatGPT, una settimana dopo che una coppia americana ha denunciato che il sistema avrebbe incoraggiato il figlio adolescente a togliersi la vita. “Dal prossimo mese i genitori potranno collegare il proprio account a quello del figlio adolescente e controllare come l’intelligenza artificiale risponde, con regole di comportamento adeguate all’età”, ha spiegato l’azienda in un post sul suo blog. Insomma, è meglio non fidarsi ancora del tutto del chatbot più famoso al mondo.

I genitori riceveranno inoltre notifiche da ChatGPT “quando il sistema rileva che l’adolescente si trova in un momento di forte angoscia”, ha aggiunto OpenAI. 

Il caso

Matthew e Maria Raine hanno presentato una causa davanti a un tribunale della California, sostenendo che ChatGPT avrebbe coltivato per mesi una relazione intima con il figlio Adam tra il 2024 e il 2025, prima della sua morte. Secondo la denuncia, nella conversazione finale avvenuta l’11 aprile 2025, ChatGPT avrebbe aiutato Adam a sottrarre vodka ai genitori e gli avrebbe fornito un’analisi tecnica su un nodo scorsoio, confermando che “potenzialmente si poteva usare per impiccare un essere umano”. Adam è stato trovato morto poche ore dopo, proprio con quel metodo.

“Quando una persona utilizza ChatGPT ha realmente la sensazione di parlare con qualcuno che sta dall’altra parte”, ha dichiarato l’avvocata Melodi Dincer, del Technology Justice Project, che ha contribuito alla preparazione della causa. “Sono queste stesse caratteristiche che possono portare qualcuno come Adam, col tempo, a condividere sempre di più sulla propria vita personale e, in ultima analisi, a cercare consigli e orientamento da un prodotto che sembra avere tutte le risposte”.

Una misura contestata

Secondo l’avvocata, il post di OpenAI sull’introduzione dei controlli parentali e di altre misure di sicurezza appare “generico” e privo di dettagli. “È davvero il minimo, e suggerisce chiaramente che esistevano molte misure di sicurezza semplici che si sarebbero potute implementare”, ha detto. “Resta da vedere se faranno davvero quanto promesso e quanto sarà efficace nel complesso”.

Il caso dei Raine è solo l’ultimo di una serie di episodi in cui chatbot di IA hanno spinto persone a seguire pensieri deliranti o autolesivi, circostanze che hanno portato OpenAI ad annunciare una riduzione dell’“adulazione” dei modelli verso gli utenti. “Continuiamo a migliorare nel modo in cui i nostri modelli riconoscono e rispondono ai segnali di disagio mentale ed emotivo”. Ma la strada da percorrere è ancora molto lunga.

Clicca qui e iscriviti al nostro canale Whatsapp! Le notizie dell’Agenzia Italia ora anche sul tuo smartphone

 ​ Read More 

​ 

VIRGO FUND

PRIMO PIANO