Brand
Informatica, Intelligenza artificiale, Interazione uomo-macchina, ICT

Anche gli algoritmi nel loro piccolo si sbagliano. Come decide l'Intelligenza Artificiale?

Photo by James Pond on Unsplash

Nell’Intelligenza Artificiale un algoritmo impara autonomamente a svolgere un compito a partire da enormi moli di dati, ma spesso è quasi impossibile sapere in base a quale ragionamento un’IA prenda una decisione. Questa incertezza crea dubbi di natura pratica ed etica, che limitano l’utilizzo di queste tecniche in campi fondamentali, dalla medicina alla finanza.

L’intelligenza Artificiale sta diventando una presenza pervasiva nella nostra vita, perché si è rivelata molto efficace nell’affrontare alcuni problemi molto difficili da gestire con altri metodi informatici . Le tecniche attualmente più in voga in questo campo utilizzano algoritmi che imparano autonomamente a svolgere un compito a partire da enormi moli di dati, senza che nessun umano debba scrivere in maniera esplicita le istruzioni che il programma deve svolgere. In altre parole l’IA “imita” il modo di imparare di noi esseri umani: siamo in grado di riconoscere un oggetto o il viso di un amico in una foto perché lo abbiamo visto talmente tante volte che abbiamo imparato a distinguerlo.

Questo tipo di apprendimento “per esempi” è molto efficace, ma ha una controindicazione: se interrogati, non sappiamo spiegare quali siano le caratteristiche di un oggetto o di un viso che ci hanno guidato nel riconoscimento; allo stesso modo, queste Intelligenze Artificiali spesso non sono in grado di giustificare le loro decisioni o le loro azioni, ma dal nostro punto di vista sono come delle “scatole nere” a cui forniamo un problema per ottenere una soluzione, senza avere idea di come abbiano fatto a trovarla.

Come risultato, a volte capita che le Intelligenze Artificiali si comportino in maniera bizzarra, e risulti molto difficile capirne il motivo. Gli esempi sono molteplici: nel 2016 Tay, il chatbot creato da Microsoft, inaspettatamente ha postato su Twitter commenti razzisti, sessisti e xenofobi; nel 2018 un’auto a guida autonoma di Uber ha investito e ucciso un pedone in Arizona; la famosa “mossa 37” eseguita dall’Intelligenza Artificiale AlphaGo contro il campione Lee Sedol durante una delle loro partite del gioco da tavolo Go, additata subito come un errore da tutti i commentatori ma poi rivelatasi centrale per vincere la partita.

Un comportamento inaspettato può capitare anche nei programmi “tradizionali”, ossia formati da una sequenza di istruzioni esplicitamente scritte da un essere umano: in questo caso per risolvere il problema bisogna individuare le istruzioni che lo hanno causato e modificarle (un’operazione comunque molto delicata). Per queste Intelligenze Artificiali una manipolazione così diretta risulta di fatto impossibile: possiamo solo modificare i parametri dell’algoritmo di addestramento, utilizzarne un altro più sofisticato, o usare, nella fase di addestramento, dati migliori o in maggiore quantità; quindi ripetere queste operazioni finché il problema non smette di presentarsi. In moltissimi ambiti ormai le tecniche di IA sono così collaudate da risultare di fatto infallibili, ma in altri, molto recenti o incredibilmente complessi, la ricerca è ancora molto attiva per cercare di ridurre i malfunzionamenti, proponendo algoritmi di addestramento sempre più sofisticati; è il caso per esempio dei veicoli a guida autonoma, della diagnosi medica o della linguistica computazionale (come ci raccontano qui Viviana Patti e Cristina Bosco).

L’imprevedibilità di queste tecniche apre anche un’altra questione nel loro utilizzo. In moltissimi casi, come ad esempio il riconoscimento facciale o di oggetti, non ci importa sapere perché un’Intelligenza Artificiale ha preso una certa decisione, basta che funzioni bene. Ma in altri casi questa motivazione è fondamentale: per esempio quando un medico artificiale consiglia una cura a un paziente (o una diagnosi di Covid-19, come ci ha raccontato qui Enzo Tartaglione, ndr), un chatbot bancario decide se concedere un prestito, un veicolo a guida autonoma sceglie di compiere una certa manovra che poi provoca un incidente. In pratica occorre capire come decide un’IA ogni volta in cui è necessario giustificare in ambito giuridico la decisione presa.

Solo recentemente i ricercatori hanno iniziato ad affrontare questa problematica, proponendo un filone di ricerca chiamato Explainable AI, che punta da un lato a creare Intelligenze Artificiali in grado di prendere decisioni e contemporaneamente giustificare le loro scelte, dall’altro a studiare gli algoritmi di addestramento attuali per comprendere meglio come prendono le loro decisioni: l’obiettivo è avere Intelligenze Artificiali che siano efficaci, ma anche in grado di spiegarci come ragionano, in modo da trasformarle dalle attuali “scatole nere” in “scatole trasparenti”, e far cadere il velo di incertezza che le ricopre.

Pur occupandomi nella mia ricerca di tematiche che solo parzialmente riguardano l’IA trovo molto affascinante il campo emergente dell’Explainable AI e non escludo in futuro di rivolgere i miei interessi di ricerca a questo campo.

Questa storia di ricerca si trova in:


un racconto di
Livio Bioglio
DIPARTIMENTO / STRUTTURA

Pubblicato il

03 novembre 2023

condividi

LE MIE STORIE DI RICERCA

potrebbero interessarti anche