Intelligenza artificiale e integrazione europea. Un’alleanza possibile?
Quale rapporto c’è tra intelligenza artificiale e integrazione europea? Ce lo racconta il gruppo multidisciplinare di esperti del progetto Artificial Intelligence for European Integration (AI4EI) del Centro di Eccellenza Jean Monnet, che intende riflettere sui problemi sollevati dall’intelligenza artificiale (IA) rispetto ai valori europei, volgendo in chiave positiva il suo impatto sull'integrazione, la democrazia, lo stato di diritto, l’etica e i diritti umani, senza trascurare gli effetti sul multilinguismo, l’informazione, la comunicazione politica e la cyberdefence.
Professori Malandrino e Quirico: storia, politica e intelligenza artificiale. Come si intrecciano queste componenti nella parte di progetto che coordinate?
L’IA è l’ultima tappa della rivoluzione digitale legata all'impressionante sviluppo tecnologico e informatico degli ultimi decenni e ha rilevanti ricadute sul piano politico e sociale. Queste ricadute saranno analizzate lungo due fondamentali linee di ricerca, coordinate dal Laboratorio di Storia, Politica, Istituzioni (LaSPI) presso il Dipartimento DiGSPES dell’Università del Piemonte Orientale. Da un lato proporremo la ricostruzione storica del crescente interesse delle istituzioni europee verso le reti informatiche e digitali, la robotica e infine l’IA: un processo nel quale ha giocato un ruolo propulsivo la Commissione guidata da Jacques Delors, uno dei padri dell’UE. Dall'altro lato analizzeremo gli effetti della digitalizzazione sulla teoria della democrazia, sui sistemi democratici euro-occidentali e sulle prospettive della democratizzazione dell’UE. Un aspetto quest’ultimo, particolarmente rilevante in tempi di pandemia dove in molti si sono chiesti come conciliare la democrazia con la necessità di tracciare i potenziali diffusori del virus.
Professoresse Belluati e Caielli, tra le paure più grandi nei confronti dell’intelligenza artificiale, espresse anche dalla fantascienza, vi è il fatto che questa possa acquisire autonomia e rivoltarsi contro il genere umano che l’ha creata. Ma quali sono i rischi reali, o per lo meno i limiti, dell’intelligenza artificiale dal vostro punto di vista?
Per quanto possa sembrare bizzarro, l'intelligenza artificiale ha già ora un forte impatto sul modo con cui vengono prese decisioni pubbliche e private. Questo sarà ancor più evidente in futuro perché il processo decisionale e i cambiamenti politici saranno sempre più influenzati “artificialmente” da set di dati e orientati da algoritmi e tecnologie.
La parte del progetto d'eccellenza Jean Monnet seguito da noi si pone l’obiettivo di riflettere su limiti e opportunità di questa realtà rispetto al campo dei diritti umani e alle implicazioni per la vita quotidiana. L'attenzione è concentrata sul cosiddetto "pregiudizio algoritmico" che si verifica quando un sistema informatico riflette e contribuisce a perpetuare molti stereotipi e pregiudizi: quelli, magari inconsci, propri di coloro che sono coinvolti nella codifica, nella raccolta, nella selezione o nell'uso dei dati per addestrare l'algoritmo. In particolare, gli effetti discriminatori più comuni dell'apprendimento automatico riguardano quattro fattori: genere, etnia, età e religione, e possono avere un impatto su quasi tutti i settori della vita privata e pubblica. Il tema della tecnologia discriminatoria è spesso sotto traccia dagli studi sull'intelligenza artificiale, per questo serve che scienziati e scienziate sociali analizzino in profondità le possibilità di limitare l'iniquità degli algoritmi e riflettano sulla mancanza di trasparenza.
Professor Durante: se, come ci hanno spiegato le sue colleghe, le intelligenze artificiali prendono decisioni che fino a poco tempo fa erano riservate agli esseri umani, come cambia il diritto in questo contesto?
“Intelligenza artificiale e diritto” è in effetti l’ambito a cui insieme a me si dedicano il professor Ugo Pagallo, Paola Aurucci e Jacopo Ciani Sciolla. Quello che intendiamo fare è aprire un dibattito sull'impatto che l’IA ha, in particolare, sul mondo del diritto. Negli ultimi anni, la rivoluzione tecnologica ha portato alla convergenza tra lo sviluppo di sistemi di IA e l’aggregazione di grandi quantità di dati (dal Cloud Computing ai Big Data), che alimentano e allenano tali modelli computazionali e meccanismi di apprendimento automatico (machine learning, deep learning, reti neurali, ecc.) rendendoli sempre più sofisticati, così da svolgere compiti e assumere decisioni che erano di regola riservate a esseri umani. Ciò non solo produce conseguenze rilevanti dal punto di vista giuridico, poiché investe i diritti dei consociati, ma è suscettibile di mettere anche in tensione concetti e istituti tradizionali del diritto. Il diritto è allora chiamato a confrontarsi con l’evoluzione della tecnologia e a evolvere in modo da tracciare un quadro giuridico di riferimento entro il quale giudicare le decisioni e le azioni poste in essere dai sistemi dotati di IA, al fine di assicurare un adeguato livello di protezione dei dati personali e dei diritti individuali.
D’altra parte tale quadro di riferimento è essenziale per lo sviluppo stesso dell’innovazione tecnologica, la libera circolazione dei dati, la sicurezza dei traffici commerciali e la progressiva affermazione del mercato unico digitale. Se infatti lo sviluppo di sistemi di IA può avere dei limiti e comportare dei rischi, come ricordato dalle colleghe, può anche tradursi in considerevoli opportunità di crescita del benessere individuale e collettivo, secondo quell'importante linea di ricerca, denominata “AI for Good”, che merita di essere investigata e approfondita. Oltretutto, nell'ambito del diritto è necessario studiare anche il contributo teorico e pratico che i sistemi di IA possono offrire al ruolo del giurista nello svolgimento dei suoi compiti tradizionali.
Professor Morelli, nel 1968 usciva nelle sale 2001 Odissea nello spazio di Stanley Kubrick, in cui a un certo punto il computer dell'astronave, dotato di intelligenza artificiale, comincia a disobbedire agli ordini e inizia una tragica resa dei conti tra la macchina e l’uomo. Un espediente, quello della guerra tra umani e macchine, usato da moltissimi altri prodotti della fantascienza. Ma quali forme e modalità può assumere realmente la guerra nel cyberspazio? Con quali conseguenze per l’Europa e la convivenza tra gli stati membri?
Il cyberspazio è divenuto il quinto dominio della guerra, dopo la terra, il mare, l’aria e lo spazio. L'IA è destinata a rivoluzionare la guerra più di ogni altra invenzione tecnologica. Nella guerra cibernetica il giudizio umano viene rimpiazzato, sul piano fisico e cognitivo, con l’automatismo delle macchine, che si dimostrano più efficienti. Ma quali problemi etici, legali, politici può generare questa realtà? Cosa comporterà nel settore militare e quali effetti sui sistemi democratici la disumanizzazione dell’uso di armi guidate dall’IA?
Cercheremo di rispondere a queste questioni muovendoci su tre fronti: esaminare come l’IA potrebbe minare i valori che ispirano l’UE e, in generale, le liberaldemocrazie, più vincolate da principi etici nell'uso dell'IA rispetto agli stati autoritari; definire un comune sistema europeo di regole concernenti la cyberdifesa indagando l’impatto potenzialmente positivo che l’IA potrebbe avere nel far convergere gli interessi militari (tattici, strategici, economici) dei paesi europei e quindi rafforzare l’integrazione europea nel settore della difesa; analizzare con uno studio comparato nelle varie dottrine militari dei paesi dell'UE i concetti di cybersicurezza, cyberdifesa, arma cibernetica, guerra cibernetica, cyberspazio, cyberattacco, cybercombattente. ecc., per giungere a una definizione condivisa di questi concetti che consenta di individuare principi e regole etiche condivise in materia di cyberwarfare e di attuare il diritto umanitario internazionale nella cyberwarfare.
Tra i vari output della ricerca prevediamo di redigere un manuale sulla cyberdifesa da utilizzare poi in seminari organizzati per militari e civili in materia.
Professoressa Raus, se un comune piano di difesa può favorire l'integrazione Europea, è fondamentale preservare le differenze, come enunciato dallo stesso motto dell'Europa Unita nella diversità. Quali rischi e opportunità comporta la sempre maggiore diffusione dell’IA per il multilinguismo, importante valore europeo?
A questa domanda cerca di rispondere il progetto Linguistic Rights and Language Varieties in Europe in the Age of AI, da me coordinato. In un recente articolo su AgendaDigitale, Guido Vetere, che ha diretto il Centro Studi Avanzati IBM, lancia l’allarme sulle possibili derive di un’intelligenza artificiale capace di appiattire la diversità linguistica per evolversi. È indiscusso che l’intelligenza artificiale diverrà sempre più centrale negli anni a venire in relazione al suo impiego nell'industria linguistica (traduzione automatica, CAT Tools, software di concordanze bi- e multilingui, ecc.) e per il fatto che sarà sempre più impiegata nella didattica delle lingue e che diventerà sempre più integrata nei dispositivi che permettono la scrittura digitale (es. la scrittura intelligente). Diventa così essenziale una riflessione sul modo in cui preservare la diatopia linguistica e su come la stessa IA possa correttamente salvaguardare il multilinguismo.
La ricerca intende coinvolgere persone esperte nel settore dell’informatica, della linguistica e della giurisprudenza, creando una rete che permetterà di confrontarsi in più occasioni. Tra i risultati attesi, oltre agli atti del convegno stesso, è prevista la redazione di un vademecum per i decisori e di un volumetto di raccomandazioni per i professionisti del settore entro il 2022. Ai lavori parteciperanno anche attori del mondo associativo (la sezione Italiana dell’associazione Langues d’Europe et de la Méditerranée) e della ricerca (il Centro di documentazione e di Ricerca per la Didattica della Lingua francese nell'Università Italiana, la Rete Panlatina di terminologia REALITER).
Professor Finizio, con la ricerca da lei coordinata allarghiamo lo sguardo alle Nazioni Unite. Ce ne parla brevemente?
Il gruppo di ricerca Artificial Intelligence at the United Nations: Assessing the EU Actorness - composto da me, Andrea Cofelice e Paolo Caraffini - intende analizzare il comportamento dell’UE e dei suoi stati membri (posizioni, proposte, comportamenti di voto) negli organi più rilevanti dell’ONU con riguardo al'IA.
Le Nazioni Unite costituiscono il forum globale dove tutti gli stati discutono, votano e decidono su questioni riguardanti la pace e la sicurezza, lo sviluppo, i diritti umani, l’ambiente, tutti temi su cui l'IA sta esercitando un impatto crescente. L’analisi dunque è interessante perché permette di valutare come l'IA abbia acquisito rilevanza nell'agenda internazionale, e se nel'’UE e in sede ONU essa sia ancora una questione controversa o si stia sviluppando un consenso sul suo utilizzo.
C’è uno specifico contributo “europeo” al dibattito globale sull'IA e sulla governance delle sue conseguenze politiche, economiche e sociali? Anche a questo cercheremo di rispondere comparando il comportamento dell’UE e dei suoi stati membri nei dibattiti e nelle votazioni all'ONU con le dinamiche di altri gruppi regionali.
Professor Morelli, per concludere: che rapporto c’è tra il Centro di Eccellenza Jean Monnet di cui lei è presidente e questo progetto?
Il Centro di Eccellenza Jean Monnet è un’iniziativa finanziata da EACEA (Education, Audiovisual and Culture Executive Agency), l’agenzia esecutiva dell’Unione Europea per l’istruzione, gli audiovisivi e la cultura istituita nel 2006 per gestire i programmi dell’UE in questi settori. Il Centro è attivato presso il Dipartimento CPS del nostro Ateneo e ha come tema l’intelligenza artificiale per l’integrazione europea (AI4EI). Aduna un gruppo multidisciplinare di esperti di studi europei intenzionati a estendere le ricerche già avviate con la cattedra Jean Monnet (NoFear4 Europe) e a condurre una ricerca multidisciplinare che coinvolga le scienze storiche, giuridiche, sociali, politiche, linguistiche, della comunicazione circa l’impatto socio-politico dell’IA sul processo di integrazione europea.
L’attività di ricerca, che svolgiamo in collaborazione con l’Università del Piemonte Orientale, sarà affiancata da iniziative di training rivolte a studenti universitari e delle scuole superiori e di disseminazione nei settori della società civile, dei media, professionali per fugare le paure suscitate dall'uso dell’IA (tecnofobia) e individuare come l’UE possa usare le nuove tecnologie per rafforzare l’integrazione europea.
L’attività del Centro culminerà con la costituzione di un osservatorio sull’IA e l’integrazione europea volto a fornire a studenti, giovani professionisti, decisori politici e opinione pubblica gli strumenti per comprendere il rapporto IA-integrazione europea, migliorare le loro competenze civiche e la governance delle politiche europee, aumentare i livelli di fiducia dell’opinione pubblica verso le nuove tecnologie, creare una diffusa consapevolezza civica europea volta a cogliere le opportunità dell'IA in un modo critico che favorisca l'integrazione europea.