venerdì, Maggio 2, 2025
spot_imgspot_imgspot_imgspot_img

ChatGPT scrive peggio degli studenti e manca di personalità

AGI – Secondo una nuova ricerca dell’Università di East Anglia (Regno Unito), gli elaborati generati dall’intelligenza artificiale non sono ancora all’altezza degli sforzi degli studenti veri. Un nuovo studio pubblicato oggi ha confrontato il lavoro di 145 studenti reali con i saggi generati da ChatGPT. Sebbene gli elaborati di intelligenza artificiale siano stati giudicati sorprendentemente coerenti e grammaticalmente corretti, presentavano carenze in un aspetto cruciale: mancavano di un tocco personale.

Mentre il confine tra scrittura umana e scrittura automatica continua a sfumare, lo studio sottolinea l’importanza di promuovere l’alfabetizzazione critica e la consapevolezza etica nell’era digitale. Si spera che i risultati possano aiutare gli insegnanti a individuare gli imbrogli nelle scuole, nei college e nelle università di tutto il mondo, riconoscendo i compiti generati automaticamente.

Preoccupazioni degli insegnanti

Per il professor Ken Hyland, della School of Education and Lifelong Learning dell’UEA, “Fin dalla sua uscita pubblica, ChatGPT ha creato notevole ansia tra gli insegnanti, preoccupati che gli studenti lo utilizzino per scrivere i loro compiti. Il timore è che ChatGPT e altri strumenti di scrittura basati sull’intelligenza artificiale facilitino potenzialmente l’imbroglio e possano indebolire le competenze di base di alfabetizzazione e pensiero critico. Questo è particolarmente vero perché non disponiamo ancora di strumenti per rilevare in modo affidabile i testi creati dall’intelligenza artificiale. In risposta a queste preoccupazioni, abbiamo voluto verificare quanto l’intelligenza artificiale possa imitare la scrittura umana di saggi, concentrandoci in particolare sul modo in cui gli scrittori interagiscono con i lettori“.

Analisi dei saggi

Il team di ricerca ha analizzato 145 saggi scritti da veri studenti universitari e altri 145 generati da ChatGPT. “Eravamo particolarmente interessati a osservare quelli che abbiamo chiamato ‘marcatori di coinvolgimento’, come domande e commenti personali”, ha affermato il professor Hyland: “Abbiamo scoperto che i saggi scritti da veri studenti presentavano costantemente una vasta gamma di strategie di coinvolgimento, rendendoli più interattivi e persuasivi”. Erano pieni di domande retoriche, digressioni personali e appelli diretti al lettore: tutte tecniche che aumentano la chiarezza, la connessione e producono un’argomentazione forte.

Differenze tra saggi umani e IA

“I saggi di ChatGPT, d’altra parte, pur essendo linguisticamente fluenti, erano più impersonali. I saggi dell’IA imitavano le convenzioni della scrittura accademica, ma non erano in grado di infondere nel testo un tocco personale o di esprimere una posizione chiara. Tendevano a evitare domande e limitavano i commenti personali. Nel complesso, erano meno coinvolgenti, meno persuasivi e non offrivano una prospettiva forte su un argomento. Ciò riflette la natura dei suoi dati di formazione e dei metodi di apprendimento statistico, che danno priorità alla coerenza rispetto alle sfumature conversazionali”, ha aggiunto.

Nonostante i suoi difetti, lo studio non sottovaluta il ruolo dell’intelligenza artificiale in classe. I ricercatori sostengono invece che strumenti come ChatGPT dovrebbero essere utilizzati come strumenti didattici piuttosto che come scorciatoie. “Quando gli studenti vanno a scuola, al college o all’università, non insegniamo loro solo a scrivere, ma anche a pensare, e questo è qualcosa che nessun algoritmo può replicare”, ha concluso il professor Hyland.

 ​ Read More 

​ 

VIRGO FUND

PRIMO PIANO