Intervista a doppia voce sulla Intelligenza Artificale per la rubrica Macro/Scenari di Europolitiche a cura della senior analyst Patrizia Gallo.
Cambiamenti epocali dovuti alla innovazione con AI segneranno il nostro presente e in particolare il nostro futuro in tutti i settori. Per districarsi nelle problematiche collegate al fenomeno in veloce evoluzione Patrizia Gallo ha consultato il Prof Avv. Andrea Patroni Griffi, costituzionalista, docente universitario alla Vanvitelli e il Prof Ing Domenico Talia, docente Università della Calabria, esperto di AI.
D: Professore, dal suo punto di osservazione privilegiato di costituzionalista alla direzione del Centro Interuniversitario di Ricerca Bioetica (CIRB), può aiutarci a comprendere evoluzione e relative problematiche in relazione alla AI?
Le questioni etiche e giuridiche poste dall’Intelligenza artificiale sono enormi e riguardano ogni settore. Si tratta di una tecnologia che apre le porte a un “nuovo mondo” capace di influire profondamente sulla vita dell’uomo. Ubi societas, ibi ius: si ripete spesso l’antico brocardo a
indicare che il diritto origina dalla società e che con la società deve mantenere sempre costante contatto. Ebbene questo è ancor più vero per le implicazioni che originano dal ruolo che l’intelligenza artificiale assume e ancor più assumerà. Nulla che debba spaventare però. In essenza, il tema è quello che si pone, sul piano etico e giuridico, rispetto a ogni nuova scoperta tecnologica: si tratta ovverosia di delineare un quadro di principi, regole, limiti nei ragionevoli bilanciamenti di diritti e interessi coinvolti.
Vorrei evidenziare ogni tipo di correlazione tra il settore della AI e il lavoro svolto dall'Unione europea in questa direzione. Come si è sviluppato il processo di innovazione all'interno della comunità europea, normative elaborate e tipo di coordinamento a livello internazionale?
Ecco, se si comprende la natura pervasiva di questa nuova tecnologia, non si può non concludere che quella sovranazionale europea è la giusta prospettiva per affrontare con successo le problematiche poste dall’Intelligenza artificiale e apprestare una disciplina organica
di reale garanzia dei diritti, di salvaguardia dell’eguaglianza, della non discriminazione, della protezione dei dati, senza per questo ostacolare in modo irragionevole i benefici che possono derivare dall’IA. Dunque, per fare un esempio concreto, che ha visto di recente una forte contrapposizione tra l’Autorità italiana Garante della protezione dei dati personali e Open AI, non si tratta di dire sì o no a Chat-GPT, ma di delineare un quadro che è utile a dare maggiori certezze anche agli operatori economici operanti nel settore, senza però compromettere la
tutela dei diritti.
L’Unione europea, dopo quanto fatto con coraggio negli ultimi anni, in materia sanitaria rispetto all’emergenza estrema di una pandemia, dopo gli interventi economici straordinari di comunitarizzazione del debito per fronteggiare la crisi economica con il Next generation EU, ha un ulteriore banco di prova da non sottovalutare rappresentato dalla disciplina dell’Intelligenza artificiale. Una sfida che l’Unione europea ha raccolto se è vero che abbiamo una pioneristica disciplina generale europea dell’IA. E’ non era affatto questa una cosa scontata.
Esisteva già peraltro un corpus juris digitale a livello europeo e l’AI Act dell’UE, per quanto perfettibile, è davvero un passaggio fondamentale per garantire sicurezza, trasparenza e gli stessi pilastri della democrazia pluralista rispetto alle sfide lanciate dall’Intelligenza artificiale.
Certo, occorre non ignorare la prospettiva globale di questa tecnologia e arrivare a principi condivisi a livello internazionale, oltre la stessa Unione europea. Ma è importante che l’Europa abbia fatto già sentire la sua voce e posto una disciplina che è frutto di una “filosofia”, di un approccio europeo all’Intelligenza artificiale che potrà influenzare, questa è la speranza, anche gli Usa, da un lato, e gli altri Grandi della Terra, dall’altro.
D: Anche con riferimento alla causa che vedrebbe il New York Times contro la società OpenAI - che ha creato ChatGPT e intende usare gli archivi del giornale per attingere dati e contenuti - per la tutela di copyright e proprietà intellettuale?
Il New York Times pone un problema reale e che non è neppure nuovo. Ricordiamo che il tema era già stato posto rispetto all’uso di opere di artisti per addestrare programmi di intelligenza artificiale di creazione di immagini artistiche.
In conclusione, direi che i problemi esistono, sono tanti, vanno affrontati e risolti, a livello globale per quanto possibile; i diritti vanno garantiti e lo si può fare senza però pensare di potere bloccare il futuro.
D: Professor Talia, di recente ha aderito ad un documento presentato da molti esperti sulla sicurezza nel settore della AI. Può renderci partecipi del contenuto e delle problematiche relative?
Sono uno dei firmatari della lettera aperta del Future of life institute e l’ho fatto perché credo sia una iniziativa utile ad avviare una riflessione nella comunità degli specialisti e nella società sull’impatto e sui rischi dei sistemi di IA generativa attuali. Si tratta di sistemi che non sono stati ancora testati sufficientemente e quindi non sono sufficientemente affidabili. Usano i dati degli utenti per fare auto-training senza informare gli utenti stessi. Sono dei sistemi ‘black box’ perché sono basati su sistemi di deep learning realizzati con molti strati di reti neurali che non permettono di descrivere in maniera esplicita il loro comportamento e usano molti miliardi di parametri, quindi sono sistemi opachi che quando producono risposte errate non si riesce a comprendere perché lo facciano. A questo va aggiunto che se questi sistemi sono alimentati con dati provenienti dal Web e dai social, a causa della scarsa affidabilità di quei dati, creano disinformazione. Infine, questi sistemi al momento sono sviluppati da grandi aziende private (quasi tutte USA e qualcuna cinese) che non forniscono dettagli sul loro funzionamento mentre sono impegnate in una guerra commerciale che le porta a sviluppare sistemi sempre più grandi e più veloci.
Dal suo punto di vista tecnico, da Ingegnere Informatico e docente Unical esperto della materia, quali sono i cambiamenti epocali cui andremo incontro, quali le capacità effettive già raggiunte dalla AI e le regolamentazioni necessarie da attuare per evitare gravi rischi anche per la libertà e la democrazia?
Quanto detto mi porta a credere che in futuro si possa non avere il completo controllo di questi sistemi, che sono molto sofisticati e saranno utili per fare molte cose e potranno svolgere tanti compiti che oggi svolgono gli umani, con effetti al momento non facilmente prevedibili. Infatti, anche alcuni dei loro progettisti sono dubbiosi e non sanno dire parole certe sull’impatto futuro di questi sistemi. l’UE ha iniziato a legiferare sui temi del digitale, a partire dal GDPR, del Data Act e in ultimo con l’AI Act che ha l’obiettivo di regolamentare l’uso dei sistemi di IA e di limitare gli effetti negativi sui cittadini. Seppure con qualche ritardo questa strada legislativa europea sta mostrando la giusta direzione agli altri stati. Diversi di essi, come il Brasile, l’Australia e la Gran Bretagna sembrano voler regolamentare l’uso dei sistemi di IA e fornire ai cittadini strumenti di tutela e nuovi diritti digitali. Lo sviluppo della IA può portare grandi benefici ma per farlo deve essere portato avanti con attenzione e nel rispetto dei diritti delle persone. Per queste ragioni, un quadro legislativo certo è di grande importanza.
Come informare e preparare nel modo più giusto ed efficace chi non fa parte del settore e si troverà presto a dover interagire in vari modi con AI?
Questo è un altro grande tema perché l’uso delle tecnologie digitali molto sofisticate rischia di creare nuove disuguaglianze tra le nazioni e tra i cittadini di una stessa nazione. Per evitare ciò serve istruzione, educazione, formazione professionale a diversi livelli. La scuola italiana non sembra ancora in grado di poter formare i ragazzi sulla IA e per questo ci vorrebbe un piano nazionale di formazione sul digitale che includesse lo studio e l’uso di sistemi di IA. I sistemi di IA generativa stanno entrando nelle scuole (perché diversi studenti hanno iniziato ad usarli) senza che gli insegnanti ne conoscano l’uso e sappiamo prevenirne gli abusi. Sistemi come ChatGPT sono in grado di fare molti compiti al posto degli studenti e questo pone una ulteriore sfida agli insegnanti che hanno difficoltà a distinguere tra un testo generato da ChatGPT e uno scritto da uno studente in carne e ossa. La formazione servirà anche per i lavoratori che sempre più spesso si confronteranno con i sistemi di IA generativa e dovranno essere preparati per farlo in maniera consapevole ed efficace. L’IA rischia di sostituire gli umani in molte attività, per evitare ciò le persone devono essere formate ad usare l’IA come un nuovo utile strumento senza farsi governare da essa.
a cura di Patrrizia Gallo senior analyst @europolitiche