È possibile trovare un equilibrio tra intelligenza umana e intelligenza artificiale? Dopo un anno caratterizzato dalla crescita esponenziale dei sistemi di IA, è giunto il momento di fermarci e di interrogarci su quali saranno i futuri scenari digitali. In questo senso, sarà necessario approfondire gli aspetti più etici legati all’utilizzo delle nuove tecnologie, promuovendo modelli equi che siano fortemente connessi con la normativa e orientati al benessere comune. Il più significativo tra questi è senza dubbio quello dell’Intelligenza Integrale, portato avanti dall’Avv. Prof. Paolo Cancelli in accordo con il Prof. Giuseppe Gimigliano, entrambi esponenti della Pontificia Università Antonianum e Of Counsel di Studio Legale Lisi.
In un’intervista rilasciata su “Il Sole 24 Ore” i due docenti hanno voluto approfondire questo lungimirante modello, spiegando come accogliere un’innovazione “integrata”, capace di rompere le barriere delle diversità.
Promuovere una vigilanza critica sui sistemi di IA
Secondo l’Avv. Prof. Paolo Cancelli, “accogliere e interpretare l’evoluzione tecnologica dell’intelligenza artificiale è una sfida complessa che richiede una riflessione critica e multidisciplinare. In primo luogo, è essenziale comprendere i limiti intrinseci dell’IA. Per quanto avanzata, rimane uno strumento incapace di comprendere i significati profondi e le sfumature emotive e culturali che caratterizzano l’esperienza umana. Gli algoritmi sono costruiti per risolvere problemi specifici attraverso l’analisi dei dati, ma non possono prendere autonomamente decisioni etiche o cogliere le complessità morali che l’uomo affronta quotidianamente. Siamo noi a dare senso ai responsi dell’IA e non dobbiamo cadere nella nefasta prospettiva dell’anestesia percettiva che abdica scelte alla macchina per pura pigrizia intellettuale e indolenza culturale. È fondamentale promuovere una vigilanza critica su come l’IA viene utilizzata e implementata. È altrettanto fondamentale garantire la trasparenza, a monte e a valle, nei processi decisionali che coinvolgono le macchine sapendo che non possiamo affrontare tale sfida rimanendo nel recinto esclusivo della nostra cultura occidentale.”
Per approfondire: consulta l’ebook “Intelligenza Integrale: un ponte tra Cultura, Storia e Diritto nel mondo digitale”
Arginare il rischio di disuguaglianze sociali e instabilità economiche
A rafforzare la tesi, un’analisi più intrinseca a cura del Prof. Giuseppe Gimigliano che invita a tenere conto degli aspetti più filosofici e antropologici legati alla rapida evoluzione delle nuove tecnologie: “L’osservazione empirica del fenomeno IA ci restituisce un quadro effettuale che invoca l’intervento correttivo della parte politica. Disuguaglianze sociali e instabilità economiche sono tra gli effetti negativi più immediati della rapidità di sviluppo e diffusione di questi strumenti. Tuttavia, la comprensione substanziale del fenomeno non può prescindere da un’analisi contestuale in grado di cogliere ciò che sta sotto e fonda i processi nella loro essenzialità – substratus -. Tutto questo richiede un approccio critico e metodologicamente orientato ad un’indagine filosofico – antropologica“.
Per leggere l’intervista completa:
Immagine: Pexels