Negli ultimi anni, il fenomeno del deepfake è emerso come una delle sfide più insidiose dell'era digitale. Marco Ramilli, fondatore di IdentifAI, ha recentemente condiviso il suo punto di vista con l'ANSA, sottolineando quanto sia cruciale educare le nuove generazioni per affrontare questo problema. "Non esiste una soluzione finale al problema del deepfake", ha affermato, evidenziando l'importanza di adottare misure preventive e una corretta configurazione dei profili social per limitare l'esposizione. Tuttavia, Ramilli mette in risalto che la vera sfida risiede nella percezione della realtà, che sta cambiando in modo drammatico a causa della tecnologia.
Il crescente problema del deepfake
La questione del deepfake è particolarmente rilevante oggi, dato il crescente numero di siti e contenuti generati artificialmente che sfruttano immagini e video modificati, spesso per scopi sessisti o per danneggiare la reputazione delle persone. Recentemente, le forze dell'ordine italiane hanno avviato accertamenti su un nuovo sito che ha pubblicato foto pornografiche alterate tramite intelligenza artificiale. Questa situazione mette in luce un problema serio e in crescita, che colpisce in modo particolare le nuove generazioni.
Secondo un'analisi pubblicata a marzo da tre ricercatori – Rebecca Umbach di Google, Nicola Henry e Gemma Beard dell'Università di Melbourne – il 22,6% delle persone ha riferito di aver subito esperienze di creazione, acquisizione o condivisione non consensuale di immagini intime. Questi dati evidenziano una realtà allarmante, che si riflette anche in Italia, dove indicazioni non ufficiali suggeriscono che circa il 70% degli uomini e il 30% delle donne abbiano subito violenza tramite la condivisione di immagini non consensuali. Ramilli avverte che questo fenomeno non colpisce solo gli adulti, ma coinvolge anche adolescenti, spesso legato a episodi di bullismo e vergogna.
Riflessioni sulla privacy e la sicurezza online
La questione del deepfake tocca anche il tema della privacy e della sicurezza online. Mentre i giganti della tecnologia stanno investendo in tecnologie come watermark e filigrane per contrassegnare le immagini generate da intelligenza artificiale, Ramilli esprime scetticismo riguardo all'efficacia di queste misure. "Queste filigrane possono essere facilmente rimosse", avverte, aggiungendo che ci dovrebbe essere un sistema di verifica indipendente per garantire l'autenticità delle immagini. La complessità del problema richiede un approccio multifattoriale, che combini tecnologia e educazione per affrontare le sfide legate al deepfake.
L'importanza dell'educazione
Un ulteriore passo avanti è stato fatto con l'introduzione della legge italiana sull'intelligenza artificiale (Legge 132/2025), che entrerà in vigore il 10 ottobre 2025 e include disposizioni specifiche riguardanti il deepfake. Ramilli considera questa legge un passo lungimirante, sottolineando che poche nazioni hanno adottato normative simili. Tuttavia, l'efficacia di queste misure si potrà valutare solo nel tempo. La legge offrirà un grado di protezione in più, ma la vera chiave per combattere il deepfake risiede nella capacità di analizzare criticamente le informazioni.
In questo contesto, l'educazione riveste un ruolo fondamentale. Le nuove generazioni devono essere formate non solo per riconoscere i contenuti falsificati, ma anche per comprendere l'ampiezza delle conseguenze che queste tecnologie possono avere sulla società. "Dobbiamo educare le nuove generazioni a farsi più domande", afferma Ramilli. Questo significa sviluppare un pensiero critico, promuovere la consapevolezza digitale e insegnare strategie per navigare nel mondo online in modo sicuro e responsabile.
Il deepfake rappresenta una sfida complessa che richiede una risposta coordinata da parte di educatori, genitori, istituzioni e aziende tecnologiche. È essenziale che tutte le parti coinvolte collaborino per creare un ambiente sicuro e informato, in cui i giovani possano sviluppare competenze per affrontare le insidie del mondo digitale.
Inoltre, la responsabilità non ricade solo sui singoli utenti, ma anche sulle piattaforme sociali, che devono fare di più per proteggere gli utenti da contenuti dannosi e per promuovere un utilizzo etico della tecnologia. Le aziende tecnologiche devono impegnarsi a sviluppare strumenti più avanzati per il riconoscimento delle immagini alterate e garantire che gli utenti siano informati sui rischi associati all'uso di contenuti generati artificialmente.
Infine, è necessario un dialogo aperto e continuo sulla questione del deepfake, coinvolgendo esperti, legislatori e cittadini. Solo attraverso una comprensione condivisa del problema e delle sue implicazioni possiamo sperare di affrontare questa sfida in modo efficace e responsabile.