AI Act: arriva il divieto sui sistemi con rischio “inaccettabile”. L’intervista all’Avv. Andrea Lisi

Dal 2 febbraio 2025 entreranno in vigore le previsioni del Regolamento europeo sull’Intelligenza artificiale (meglio noto come “AI Act”) che impongono il divieto di utilizzo di sistemi di AI con rischio “inaccettabile”. La notizia pone l’accento su alcune questioni di estrema rilevanza in materia di controllo, applicabilità e bilanciamento degli interessi e dei diritti in gioco che non possono essere ignorati, a fronte di una normativa oggettivamente complessa e che dovrà essere interpretata con sistematicità e buon senso.

Lo conferma l’Avv. Andrea Lisi in un’intervista rilasciata per l’Agenzia stampa “Radiocor” de Il Sole 24 Ore.

Cos’è il “rischio inaccettabile” e come risolvere il problema del controllo

Come spiegato dall’Avv. Andrea Lisi, per “rischio inaccettabile” deve intendersi quel rischio che viola i valori europei. Quel rischio che è in grado di mettere a rischio la democrazia, dunque sistemi in grado di manipolare, di fare social scoring, in contrasto con l’ordinamento europeo. Sono casi che usano tecniche subliminali e sfruttano vulnerabilità, disabilità, minore età, per confondere, far compiere scelte non volute”. Vi rientrano dunque i casi di manipolazione comportamentale cognitiva di persone o gruppi vulnerabili specifici (es. bambini) e identificazione biometrica e categorizzazione delle persone. Al di là delle definizioni, sembra però mancare un importante tassello che permetterà a questa parte di normativa di diventare pienamente operativa, ossia l’investitura di un’Autorità che ne controlli il rispetto, scelta che in Italia verrà compiuta entro il 2 agosto 2025. Secondo l’Avv. Lisi “In Italia il ddl portato all’attenzione dal governo italiano e in fase di valutazione da parte del Parlamento, prevede una sorta di agenzia a due teste, composta da AgID e ACN.  Poiché sono due agenzie governative, di fatto sottoposte a controllo politico, c’è già stata qualche critica. Bisognerà dunque vedere se il ddl, attualmente fermo al Senato, rimarrà così, si creerà un’Authority ad hoc oppure, ad esempio, si investirà il Garante per la protezione dati personali che è un’Autorità indipendente e si è detto già disponibile”.

Nonostante alcuni nodi ancora da sciogliere, resta il fatto che l’AI Act, a dispetto della sua complessità, non dovrà essere arginato ma interpretato con sistematicità per orientarlo al bene comune.

Per leggere l’intervista completa:

Immagine: Pexels