
Un recente report della CNN ha sollevato preoccupazioni significative riguardo all'uso di Elsa, un chatbot sviluppato dalla Food and Drug Administration (FDA) degli Stati Uniti. Secondo testimonianze di attuali ed ex dipendenti dell'agenzia, Elsa sembra essere affetto da quello che gli esperti di intelligenza artificiale definiscono "allucinazioni". Questo termine si riferisce a situazioni in cui i modelli di intelligenza artificiale generativa producono informazioni errate o imprecise, generando confusione e disinformazione.
I problemi di Elsa
Presentato solo il mese scorso, Elsa è stato progettato per assistere i professionisti della salute e i consumatori nella navigazione delle normative e delle informazioni sui farmaci. Tuttavia, sono già emersi problemi significativi nella sua capacità di fornire risposte affidabili. Ecco alcuni degli errori più gravi riscontrati:
- Classificazione errata di farmaci idonei per l'uso pediatrico.
- Attribuzioni sbagliate riguardo alle indicazioni di alcuni farmaci.
- Tendenza a travisare studi scientifici reali.
- Creazione di ricerche che non esistono affatto.
Questi errori hanno suscitato preoccupazioni tra gli utenti, specialmente considerando il delicato settore della salute, dove informazioni errate possono avere conseguenze gravi.
Frustrazione tra i professionisti
Un dipendente dell'agenzia ha commentato: "L'intelligenza artificiale dovrebbe farci risparmiare tempo, ma vi garantisco che ne spreco più di prima proprio per la maggiore vigilanza che devo avere." Questo sottolinea una frustrazione crescente tra coloro che si aspettano che la tecnologia migliori l'efficienza, ma che si ritrovano a dover dedicare più tempo a verificare le informazioni generate da Elsa.
Risposta della FDA
In risposta a queste preoccupazioni, la FDA ha chiarito che l'uso del chatbot è attualmente in fase sperimentale e su base volontaria. Un portavoce dell'agenzia ha dichiarato che le informazioni fornite dalla CNN sono state travisate e che molte testimonianze provenivano da ex dipendenti o da personale che non ha mai avuto accesso alla versione attuale di Elsa.
La questione dell'affidabilità delle intelligenze artificiali nel settore sanitario è diventata sempre più rilevante. È fondamentale che le agenzie governative e le aziende private garantiscano che questi strumenti siano non solo efficienti, ma anche accurati e sicuri. Le "allucinazioni" che si verificano in modelli come Elsa non sono un problema isolato; sono una sfida comune nell'ambito dell'intelligenza artificiale generativa.
In un contesto più ampio, è essenziale che gli sviluppatori di IA e le agenzie di regolamentazione collaborino per affrontare queste sfide, implementando protocolli di verifica e misure di sicurezza che possano ridurre al minimo il rischio di disinformazione. La situazione di Elsa esemplifica i rischi significativi associati all'adozione di tecnologie promettenti. Con l'avanzamento continuo dell'IA, sarà cruciale monitorare e valutare le sue prestazioni in ambito sanitario, garantendo che le innovazioni siano effettivamente al servizio della salute pubblica.