Brand
La mente umana e la sua complessità, Educazione e Linguaggio

L’etica dell’intelligenza artificiale tra sfide alla creatività e nuove forme di morale

Foto: Unsplash

I sistemi di Intelligenza Artificiale (IA) potrebbero sviluppare forme di agency? Potrebbero cioè agire in modo intenzionale, sulla base di stati mentali, desideri, scopi? Possiamo definirli agenti morali, pur non essendo consapevoli delle nozioni di bene e male? E ancora, se le IA generative sono in grado di produrre oggetti come dipinti, fotografie, articoli scientifici, dovremmo rivedere la categoria di creatività, ridimensionandone la portata esclusivamente umana? E infine, quali sono i rischi connessi a un possibile uso malevolo dell’IA?

La riflessione sull’impatto dell’Intelligenza Artificiale (IA) nella strutturazione dei nostri modi-di-vita è alimentata costantemente da articoli scientifici, monografie, podcast, workshop, convegni. L’etica dell’Intelligenza artificiale si inserisce in questa cornice offrendo analisi, modelli normativi e strumenti la cui utilità non si esaurisce nella ristretta cerchia accademica, ma ha ripercussioni anche sul grande pubblico e sul decisore politico.

Con "Etica dell’Intelligenza artificiale" si indica sia il set di indagini che hanno come focus le conseguenze morali della diffusione capillare dei sistemi di IA negli ecosistemi sociali di sapiens, sia la ristrutturazione di categorie e principi morali alla luce della rivoluzione IA.

La mia ricerca in questo campo si sviluppa intorno a tre nodi centrali: la revisione della categoria di agency e agency morale considerando l’evoluzione dei sistemi di IA; la rimodulazione della categoria di creatività alla luce dello sviluppo delle IA generative; i rischi esistenziali connessi a un loro possibile uso malevolo o all’emergere di una Superintelligenza i cui valori non siano allineati a quelli della nostra specie (testo di riferimento per questo tema è N. Bostom, Superintelligence: Paths, dangers, strategies, Oxford University Press, Oxford 2016).

Partiamo dal concetto di agency. Con questa nozione si fa riferimento alla capacità di agire in modo intenzionale, sulla base di stati mentali, desideri e scopi.
In Filosofia morale, talvolta, si utilizza il termine moral agent per indicare un ente capace di agire sulla base delle categorie morali di bene e male, giusto e ingiusto, equo e iniquo e che, per questa ragione, è moralmente responsabile delle proprie azioni e può essere sottoposto a imputazione.
Tale caratteristica appartiene, secondo molti studiosi, soltanto agli esseri umani. Molti autori e autrici, inoltre, ritengono che soltanto un ente con queste caratteristiche sia degno di considerazione morale (sia, in altri termini, un paziente morale). Altri tuttavia, pur affermando che soltanto alla nostra specie sia attribuibile lo status di full moral agent (cioè di agente morale vero e proprio perché dotato di intenzionalità e capacità di agire e giudicare le azioni sulla base delle nozioni di bene e male), riconoscono anche ad altri esseri viventi lo status di paziente morale, evidenziando che non sia necessaria la presenza di stati mentali complessi o forme più o meno strutturate di autocoscienza per poter essere oggetto di preoccupazioni morali, essendo sufficiente la capacità di provare piacere e dolore (la senzienza).

Ora, qual è la sfida lanciata dai sistemi di IA, almeno quelle forme costruite intorno ad algoritmi di apprendimento automatico? Che pur non potendo, almeno per ora, aspirare a una full moral agency, e soprattutto pur non avendo le caratteristiche classiche di un paziente morale, per le loro caratteristiche e per i modi in cui interagiscono con la nostra specie, almeno secondo alcuni, sono degni di considerazione morale, e la nostra condotta nei loro confronti non può configurarsi nei termini della mera indifferenza. In effetti, questa l’idea intorno alla quale sto lavorando, sarebbe opportuno rivedere la categoria di moral patiency in modo da includere anche entità che ad ora non sono in grado di provare piacere e dolore e rispetto alle quali non possiamo escludere, tra l’altro, l’emergere di proprietà non immediatamente rilevabili.

Inoltre, il dibattito attuale sull’IA generativa e gli studi in corso ci spingono a considerare la possibilità di rivedere profondamente il modo in cui ci rapportiamo alla creatività umana. Infatti, se con creatività intendiamo la possibilità di combinare in modo inedito il materiale acquisito in situazione allora già le attuali IA generative sono in grado di svolgere compiti in modo non dissimile dagli esseri umani. Per alcuni la differenza tra la (presunta) creatività dei sistemi di IA generativa - in realtà una mera capacità di combinare in molti modi il materiale acquisito - e la creatività umana sta nel fatto che quest’ultima si caratterizzerebbe, tra le altre cose, per il suo carattere intenzionale, cioè essere un’esperienza in prima persona, per la capacità di suscitare e essere radicata in profondi stati emotivi di cui solo un ente incarnato può essere portatore. Tuttavia non è implausibile affermare che tale modo di intendere la differenza potrebbe risentire di un bias antropocentrico per cui l’essere umano conserverebbe una sua esclusività ed eccezionalità.

Ultimo e importante aspetto da indagare è la regolamentazione dell’IA in modo da evitare possibili usi malevoli o una possibile nostra futura incapacità di governance.

Tali linee di riflessione possono rivestire una enorme importanza sia nel contesto più ristretto delle ricerche sulla Machine Ethics, sia per arricchire e modificare categorie iper-utilizzate nel dibattito morale (come agente morale, creatività, intenzionalità, etc.). Inoltre, queste riflessioni dovrebbero alimentare lo scambio con vari saperi scientifici, dall’ingegneria informatica alla bioinformatica, dalla psicologia alle scienze sociali, in un’ottica di openess dei saperi e ibridazione interdisciplinare.

Sarà poi altrettanto necessario diffondere i risultati di queste indagini a un più ampio pubblico, con particolare attenzione a studenti e studentesse dell’Università e delle scuole Superiori: per questo realizzeremo incontri e giornate di studio e piattaforme ibride in cui saperi umanistici e scientifici possano stabilire confronti reciproci in vista della co-elaborazione di un nuovo linguaggio per il Terzo Millennio.

Questa storia di ricerca si trova in:


un racconto di
Luca Lo Sapio
DIPARTIMENTO / STRUTTURA

Pubblicato il

26 gennaio 2024

condividi

potrebbero interessarti anche