Intelligenza artificiale tra rischi e opportunità. Intervista all’Avv. Andrea Lisi

L’avanzare frenetico delle innovazioni tecnologiche e dei nuovi scenari legati all’intelligenza artificiale porta a chiedersi quale sia il destino di imprese e PA, decise ad adeguarsi ai vantaggi delle nuove tecnologie ma non ancora pronte ad agire secondo gli standard della legalità.

Ne ha parlato l’Avv. Andrea Lisi in una nuova intervista rilasciata sulle pagine di Digital Planet di cui pubblichiamo la versione integrale.

1. Il vertice di Hiroshima indica l’esigenza di una legislazione definitiva dei Paesi più industrializzati in merito all’uso della AI. Qual è la situazione in Italia?

Il nostro Paese ha un’innegabile consapevolezza delle opportunità e dei rischi dell’intelligenza artificiale e si muove su questa delicata tematica in modo sinergico con l’Authority preposta alla protezione dei dati personali. Ovvio anche che ci deve essere un’opera sistematica quanto meno a livello europeo, ma anche sotto questo punto di vista l’Italia partecipa attivamente ai vari tavoli di lavoro istituiti. Lo stesso Sottosegretario con delega all’innovazione tecnologica, il sen. Alessio Butti, ha di recente ricordato come nel contesto europeo l’Italia sta facendo la sua parte per consegnare alla presidenza del Consiglio dell’Ue una legge europea sull’AI, specificando come sul fronte nazionale la linea che si sta seguendo sia attenta sia alle opportunità̀ da cogliere, sia ai rischi da scongiurare. In particolare, per sfruttare al meglio i finanziamenti stanziati con il PNRR, il nostro Paese a fine 2021 ha adottato lo “Strategic Program on Artificial Intelligence 2022 – 2024”, che prevede 24 politiche da implementare per potenziare il sistema AI (Artificial Intelligence) in Italia, attraverso la creazione e il potenziamento di competenze, ricerca, programmi di sviluppo e applicazioni dell’AI. Il programma si articola su tre aree prioritarie di intervento: talenti e competenze, ecosistema di ricerca e innovazione, applicazione dell’AI nelle industrie e nella PA.

Le ultime normative europee hanno l’ambizione di regolamentare l’incredibile rivoluzione digitale che stiamo vivendo e ricalcano principi fondamentali che intersecano discipline diverse (diritto, archivistica e sicurezza), rileggendoli evolutivamente. I presupposti di ogni azione digitale, anche e soprattutto quando abbiamo a che fare con soluzioni di intelligenza artificiale, sono i dati che ne alimentano il funzionamento, quindi occorre concentrarsi sul loro controllo, sulla loro attenta custodia e gestione, ma anche sulla trasparenza nella loro gestione e sviluppo. Avere dati accessibili in modo incontrollato e manipolabili rompe l’incantesimo della catena della sicurezza dei nostri possibili futuri digitali. E allora i principi fondamentali di integrità, immodificabilità, trasparenza, accessibilità, interoperabilità, riservatezza, autenticità devono respirarsi in ogni azione che andrà a regolamentare le incredibili evoluzioni che riguarderanno le applicazioni di intelligenza artificiale in ogni ambito di utilizzo e a maggior ragione in quelle di ultima frontiera, cioè di intelligenza artificiale generativa.

Ma attenzione, il diritto non dovrà mai avere l’ambizione di inseguire la tecnologia, cavalcarla o addirittura precederla. Il diritto deve limitarsi a rileggere principi generali che accompagnano da centinaia di anni i nostri ordinamenti e che meritano solo di essere pazientemente riadattati a una realtà che si evolve in modo vertiginoso.

2. Quali sono, a suo giudizio, i Paesi più avanzati legalmente nella gestione corretta delle AI?

L’ecosistema europeo da tempo cerca di rimanere baluardo indispensabile di tutela di nostri diritti e libertà fondamentali, ma non certo con lo spirito di frenare i mercati digitali, quanto piuttosto di cavalcarli in modo consapevole. Del resto, qualsiasi tecnologia, anche la più rivoluzionaria, deve rimanere strumento utile nelle mani di individui. Una tecnologia rivoluzionaria come l’AI può essere un meraviglioso coltello con lame affilatissime: se preso dalla lama fa sanguinare abbondantemente, ma dal manico è e sarà strumento utile per tagliare alimenti e quindi indispensabile per la nostra sopravvivenza.

In Europa, come è noto, si sta discutendo in questi mesi una proposta di Regolamento del Parlamento europeo e del Consiglio che stabilisce regole armonizzate sull’intelligenza artificiale, con obblighi molto gravosi, soprattutto per i fornitori di AI ad alto rischio, in termini di gestione del rischio, di governance dei dati, di documentazione tecnica, tenuta dei registri, valutazioni di impatto. In realtà, si tratta di adempimenti vicini a ciò che già si respira nel GDPR (Regolamento europeo relativo alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché alla libera circolazione di tali dati) e il principio di accountability non potrà che caratterizzare l’approccio consapevole a tutela di diritti e libertà fondamentali, che sono molto esposti quando si ha a che fare con queste tematiche.

Non posso non ricordare che, sempre in materia di intelligenza artificiale, è stata pubblicata nel 2020 un’importante Risoluzione del Parlamento Europeo recante raccomandazioni alla Commissione su un regime di responsabilità civile per l’intelligenza artificiale.

A questa si aggiungano una serie di ulteriori iniziative in ambito europeo, tra le quali è utile ricordare:

  • la consultazione pubblica sul Libro Bianco sull’Intelligenza Artificiale (COM 2020) 65 final del 19 febbraio 2020);
  • le Linee guida etiche finali per un’intelligenza artificiale affidabile, del Gruppo ad alto livello sull’intelligenza artificiale, pubblicate l’8 aprile 2019;
  • il Rapporto sulla responsabilità per l’Intelligenza Artificiale e altre tecnologie emergenti, del Gruppo di esperti sulla responsabilità e le nuove tecnologie, pubblicato il 21 novembre 2019;
  • la Dichiarazione di cooperazione sull’intelligenza artificiale, firmata da 25 Paesi europei il 10 aprile 2018, che si basa sui risultati e sugli investimenti della comunità europea della ricerca e delle imprese nell’AI e stabilisce le basi per il Piano coordinato sull’AI.

Da ultimo, degna di nota è la recente Dichiarazione europea sui diritti e i principi digitali per il decennio digitale del 23 gennaio 2023.

3. Sappiamo che questa materia coinvolge anche l’ambito della “formazione specializzata” e, dunque, tutta la parte degli investimenti destinati. Nel nostro Paese com’è la situazione?

La formazione specializzata è una delle priorità della strategia nazionale per l’intelligenza artificiale, che prevede diverse iniziative per aumentare il numero e la qualità dei professionisti e dei ricercatori nel settore. Tra queste ci sono:

  • la creazione di nuove cattedre di ricerca sull’AI nelle università e nei centri di ricerca italiani, con l’obiettivo di attrarre i migliori talenti a livello internazionale;
  • il potenziamento dei corsi di dottorato in AI, con borse di studio e incentivi per i giovani ricercatori;
  • il lancio di un programma di rientro per i professionisti dell’AI che lavorano all’estero, per favorire il trasferimento di competenze e conoscenze verso il sistema italiano;
  • la promozione dei corsi e delle carriere STEM (Science, Technology, Engineering and Mathematics), con particolare attenzione alla partecipazione femminile e alla diffusione della cultura scientifica;

il rafforzamento delle competenze digitali e in AI della popolazione, attraverso percorsi formativi dedicati nelle scuole, nelle università e nei luoghi di lavoro.

4. Nel settore privato quali aziende investono di più?

Secondo uno studio recentemente condotto da Deloitte, 4 imprese su 10 hanno già implementato soluzioni di intelligenza artificiale, e il 94% delle imprese ritiene che l’AI sarà fondamentale per restare competitive nei prossimi 5 anni. Secondo questo studio, tra le imprese che hanno già implementato o sperimentato soluzioni di AI, spiccano quelle del settore finanziario (60%), seguite da quelle dei settori industriale (14%), assicurativo (12%) e sanitario (8%).

Tra le soluzioni più diffuse ci sono l’intelligent data processing, i chatbot e assistenti virtuali e il natural language processing.

Secondo la Repubblica, tra le startup più innovative che si occupano di AI in Italia ci sono:

  • Aiko, che sviluppa software di AI per l’automazione delle missioni spaziali;
  • Aindo, che crea dati sintetici per l’addestramento delle AI;
  • Premoneo, che offre software di AI per la determinazione dei prezzi e il forecasting;
  • AlgoSurg, che offre soluzioni di AI per la chirurgia ortopedica;
  • Credimi, che usa l’AI per erogare prestiti online alle PMI;
  • Ermes Cyber Security, che protegge le reti aziendali con l’AI.

 

5. E nelle PA?

L’evoluzione della PA in ambito AI non interessa soltanto le amministrazioni centrali, ma riguarda anche gli enti locali, che utilizzano sistemi AI come sussidio ai cittadini e per le attività di controllo sul territorio.

Come ad esempio:

– il Comune di Milano, che ha sperimentato un chatbot per fornire informazioni ai cittadini sulle misure anti-Covid;

– il Comune di Bologna, che ha adottato una piattaforma di AI per monitorare il traffico e la qualità dell’aria;

– il Comune di Roma, che ha utilizzato un sistema di AI per rilevare le buche stradali.

– il Comune di Torino, che ha sviluppato un algoritmo per ottimizzare la gestione dei rifiuti urbani;

– il Comune di Firenze, che ha implementato un sistema di AI per prevenire il rischio idrogeologico;

–  la Regione Lombardia, che ha creato una piattaforma di AI per supportare le decisioni cliniche.

Non si possono non ricordare infine le importantissime applicazioni di Intelligenza Artificiale in ambito sanitario. Tale rivoluzione ha portato l’OMS a stilare un illuminante documento su “Ethics and governance of artificial intelligence for health”. Di seguito si elencano i 6 fondamentali principi, ben illustrati e approfonditi nella Guida OMS, che costituiscono i presupposti indispensabili che devono governare la materia.

  • Proteggere l’autonomia umana. Gli esseri umani devono mantenere il controllo dei sistemi sanitari e delle decisioni mediche, quindi, la protezione dei dati e riservatezza devono essere sempre garantite.
  • Promuovere il benessere e la sicurezza delle persone e l’interesse pubblico. I progettisti di tecnologie di intelligenza artificiale devono soddisfare i requisiti di sicurezza, accuratezza ed efficacia
  • Garantire trasparenza, spiegabilità e intelligibilità. La trasparenza richiede che siano pubblicate e/o documentate tutte le informazioni che permettano di comprendere in chiaro gli algoritmi di una tecnologia di intelligenza artificiale. Tali informazioni devono essere facilmente accessibili e facilitare sempre una consultazione pubblica su come è progettata la tecnologia e su come dovrebbe (o non dovrebbe) essere utilizzata.
  • Promuovere responsabilità (responsability) e responsabilizzazione (accountability). La tecnologia comporta sempre un’organizzazione efficiente di ruoli e responsabilità in gioco che consente sempre agli individui un controllo responsabile su ogni decisione elaborata dagli algoritmi.
  • Garantire inclusività ed equità. Lo sviluppo di sistemi di AI comporta una verifica puntuale sugli accessi alla stessa che devono essere più equi possibile e indipendenti da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche protette dai codici dei diritti umani.
  • Promuovere un’IA reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovrebbero valutare in modo continuo e trasparente le applicazioni.

 

6. Dalle grandi alle PMI alle Startup, quali sono – oggi – gli ostacoli da affrontare per utilizzare al meglio le Ai e percorrere con sicurezza il traguardo (se così possiamo chiamarlo) della digitalizzazione dell’Impresa senza rischiare di essere catapultati su un Pianeta esposto a molti pericoli.

Molti scrittori e registi si sono affermati immaginando scenari distopici caratterizzati dall’uso di tecniche di intelligenza artificiale alle quali affidare decisioni che ci riguardano per favorire il nostro benessere e rendere più oggettive certe scelte; decisioni che poi si sono rilevate orientabili da terribili dittature tecnologiche. Nel 1958, il sociologo e scrittore di fantascienza inglese Michael D. Young pubblicò “The Rise of Meritocracy”, dove descriveva un’ipotetica società del futuro che sceglieva la sua classe dirigente non per appartenenza sociale, censo, sorte o consenso, ma sulla base di un parametro oggettivo, definito dalla somma del quoziente intellettivo della persona (misurato con ripetuti test di intelligenza) e dell’impegno profuso nello svolgimento di specifiche attività. Questo era il parametro di selezione, quindi il “merito”, che garantiva una scalata meritocratica verso la gestione del potere. Idea bellissima, ma pericolosa se i parametri di misurazione del merito sfuggono a un controllo trasparente e democratico.

In poche parole, e come ripetuto sin dall’inizio di questa intervista, gli algoritmi più o meno intelligenti con cui faremo i conti nel futuro devono favorire un’evoluzione umana. E l’evoluzione umana comporta consapevolezza garantita dalla trasparenza. La consapevole trasparenza può garantire sempre che una lama affilatissima venga usata correttamente dalla parte del manico e per scopi utili all’umanità.

Immagine di copertina: Pexel.com