Il rischio invisibile del “data poisoning”: quando l’IA smette di essere neutrale

Negli ultimi mesi si è iniziato a parlare sempre più spesso di data poisoning, una minaccia tanto sofisticata quanto difficile da individuare e che intacca in maniera significativa il modo in cui troviamo e percepiamo le informazioni in rete. Non si tratta, dunque, di un semplice rischio per gli utenti ma di qualcosa di molto più sottile che comporta un vero e proprio “avvelenamento” deliberato dei dati su cui si basano oggi i sistemi di intelligenza artificiale generativa.

L’Avv. Andrea Lisi, in un recente approfondimento pubblicato sulle pagine di The Huffington Post, ne analizza portata e conseguenze partendo da un caso emblematico di attualità che aiuta non solo a capire la portata del fenomeno ma a riflettere su quanto il concetto di “verità” sia oggi messo fortemente in discussione.

Strategie di avvelenamento direttamente dal Medio Oriente

Recentemente, si è scoperto che il governo israeliano avrebbe affidato a Brad Parscale – già stratega digitale di Donald Trump – un contratto da 9 milioni di dollari per orientare le risposte di chatbot come ChatGPT, Claude e Gemini sul conflitto in Medio Oriente. Non si tratta di accordi diretti con le aziende tecnologiche proprietarie ma di una strategia che agisce a monte finalizzata a saturare il web con informazioni mirate, poi raccolte e rielaborate dai LLMs.  Il nodo centrale, dunque, appare evidente: ad oggi non serve più solo “hackerare” un sistema di IA per condizionarne le risposte ma è sufficiente manipolare l’ecosistema informativo da cui apprende. Questa dinamica diventa ancora più critica se si considera il comportamento degli utenti che tendono a fidarsi della risposta più fluida e convincente senza interrogarsi sulle fonti dalle quali quei dati hanno origine. In questo scenario, il data poisoning rappresenta una nuova forma di propaganda che punta a modificare il terreno stesso su cui si formano le opinioni, influenzando direttamente l’infrastruttura cognitiva.

Norme e cultura insieme a tutela dell’informazione

Per arginare le distorsioni alle quali assistiamo quotidianamente, è possibile seguire due linee di risposta. La prima è di natura culturale, necessaria per alimentare una vera e propria educazione all’“igiene informativa” che spinga a verificare le fonti, incrociare i dati, mantenere uno spirito critico anche davanti ai risultati più convincenti. In questo modo, l’IA potrà mantenere la sua natura di strumento, non sostituendosi al pensiero umano. La seconda, invece, è normativa, fondamentale per garantire tracciabilità e trasparenza delle informazioni, attraverso sistemi di data provenance e regolamenti capaci di responsabilizzare le piattaforme digitali. In Europa, e anche in Italia, alcune basi sono già state poste, ma la sfida è solo all’inizio.

 

Per leggere il contenuto completo: