
Negli ultimi anni, l'Intelligenza Artificiale (IA) ha compiuto enormi progressi, diventando uno strumento fondamentale in vari settori, dalla scrittura alla diagnosi medica. Tuttavia, un recente studio condotto da Walter Quattrociocchi, ricercatore presso l'Università Sapienza di Roma, solleva interrogativi sulla reale capacità di giudizio dei modelli linguistici come ChatGPT e Gemini. Pubblicato sulla rivista dell'Accademia Nazionale delle Scienze degli Stati Uniti (PNAS), questo lavoro mette in luce i pericoli di affidare a questi sistemi decisioni che richiedono un'analisi critica e un vero discernimento.
il significato di "giudicare" nell'ia
Quando interagiamo con un modello di intelligenza artificiale per eseguire una scelta, ad esempio determinare la credibilità di una notizia, non stiamo comunicando con un'entità in grado di comprendere realmente il contenuto. Quattrociocchi afferma: "Cosa avviene realmente quando chiediamo a un'IA di eseguire una scelta, ad esempio determinare se una notizia del web sia credibile o piuttosto una fake news?". La risposta, secondo il suo studio, è che l'IA può riconoscere schemi e analogie, ma non possiede una comprensione profonda della verità.
i risultati dello studio
Il team di ricerca ha condotto test su alcuni dei modelli linguistici più noti, tra cui ChatGPT, Gemini, Llama, DeepSeek e Mistral. L'obiettivo era confrontare la capacità di ragionamento tra esseri umani e IA. I risultati hanno rivelato che:
- Le IA possono identificare correttamente le fake news in molti casi.
- Il loro processo di valutazione non si basa su riscontri reali, ma su una simulazione.
- La loro capacità di giudizio è quindi una mera simulazione, piuttosto che un'analisi critica.
Quattrociocchi ha sottolineato che, sebbene le IA riconoscano le fake news, il meccanismo utilizzato non si basa su riscontri reali, ma su una simulazione dei giudizi. Questo solleva preoccupazioni significative, poiché ci si affida sempre più agli LLM (Large Language Models) per prendere decisioni, rischiando di perdere il contatto con la realtà.
l'importanza dell'educazione degli utenti
L'analisi dei risultati dello studio evidenzia un'altra considerazione cruciale: l'educazione degli utenti. Con l'aumento dell'uso di IA e modelli linguistici, è fondamentale che le persone sviluppino una maggiore alfabetizzazione mediatica e una critica più acuta nei confronti delle informazioni ricevute. Affidarsi ciecamente ai giudizi forniti da un'IA può portare a una comprensione distorta della verità e, di conseguenza, a decisioni sbagliate.
Inoltre, la questione dell'affidabilità delle informazioni è particolarmente rilevante in un contesto in cui le fake news possono avere un impatto devastante sulla società. Sebbene l'IA possa identificare schemi di disinformazione, il suo approccio rimane limitato. Gli esseri umani, al contrario, possono contestualizzare e comprendere le sfumature, considerando il background culturale e sociale di una notizia.
In sintesi, la capacità di giudizio dei modelli linguistici come ChatGPT e Gemini si rivela essere un'illusione. Sebbene possano sembrare abili nel riconoscere le fake news e fornire risposte plausibili, ciò che manca è un vero legame con la realtà. Questo studio di Quattrociocchi ci invita a riflettere criticamente sull'uso dell'IA e a considerare le sfide etiche e pratiche che sorgono quando ci affidiamo a queste tecnologie per prendere decisioni fondamentali nelle nostre vite.