
L'Autorità garante della concorrenza e del mercato (AGCM) ha avviato un'istruttoria nei confronti delle società cinesi Hangzhou DeepSeek Artificial Intelligence e Beijing DeepSeek Artificial Intelligence, responsabili del sistema di intelligenza artificiale noto come DeepSeek. Questa indagine è stata attivata a causa di presunti comportamenti scorretti nelle pratiche commerciali, come evidenziato nel bollettino settimanale dell'Autorità.
La questione delle allucinazioni nell'IA
Secondo le informazioni raccolte dall'AGCM, DeepSeek ha omesso di informare in modo chiaro e comprensibile gli utenti riguardo a un fenomeno noto come "allucinazioni". Questo termine si riferisce a situazioni in cui il modello di IA produce output che possono contenere dati errati, fuorvianti o addirittura inventati. L'assenza di avvertimenti o disclaimer su tali allucinazioni è stata evidenziata come una grave mancanza nelle interazioni con il sistema di DeepSeek.
Implicazioni per la regolamentazione dell'IA
L'istruttoria dell'AGCM rappresenta un passo significativo nella regolamentazione delle tecnologie emergenti, in particolare per quanto riguarda l'uso etico e responsabile dell'intelligenza artificiale. Con l'aumento dell'uso di questi sistemi in vari settori, dalla assistenza clienti alla produzione di contenuti, è fondamentale garantire che gli utenti siano adeguatamente informati sui limiti e sui rischi associati a queste tecnologie.
Le "allucinazioni" nei modelli di intelligenza artificiale non sono un fenomeno nuovo. Studi hanno dimostrato che i modelli di linguaggio, come quelli utilizzati da DeepSeek, possono generare risposte imprecise e fuorvianti, specialmente in contesti critici come l'ambito sanitario e legale.
La responsabilità delle aziende
L'AGCM ha sottolineato che la mancanza di trasparenza da parte di DeepSeek potrebbe portare a una violazione del Codice del consumo, che impone obblighi specifici di informazione nei confronti dei consumatori. La trasparenza è un principio fondamentale per il commercio leale e per costruire fiducia tra le aziende e gli utenti. È cruciale che le aziende informino chiaramente i clienti sui potenziali rischi, specialmente nel settore in rapida evoluzione dell'intelligenza artificiale.
Negli ultimi anni, l'AGCM ha intensificato le attività di monitoraggio delle aziende tecnologiche, in particolare riguardo l'uso dei dati e la protezione dei consumatori. Questa nuova indagine su DeepSeek rappresenta un ulteriore passo in questa direzione, evidenziando l'importanza di una regolamentazione adeguata per tutelare gli utenti nell'era digitale.
Conclusioni
L'istruttoria potrebbe avere ripercussioni significative non solo per DeepSeek, ma anche per altre aziende nel settore dell'IA. Se l'AGCM concludesse che le pratiche adottate da DeepSeek sono state scorrette, potrebbero essere imposte sanzioni e misure correttive che influenzerebbero lo sviluppo e l'implementazione dell'intelligenza artificiale in futuro.
In un mondo in cui l'IA è sempre più integrata nelle nostre vite quotidiane, la questione della responsabilità e della trasparenza è cruciale. Gli utenti devono poter fare affidamento sulle informazioni fornite dai sistemi di intelligenza artificiale, e le aziende devono garantire che i loro prodotti siano non solo innovativi, ma anche sicuri e affidabili. L'AGCM, attraverso questa azione, sta cercando di stabilire un precedente importante nella regolamentazione dell'intelligenza artificiale, ponendo l'accento sulla necessità di informare adeguatamente gli utenti sui potenziali rischi e limitazioni dei modelli di IA.