Brand
Culture, Produzione culturale e artistica, Filosofia

Non tutte le intelligenze artificiali vengono per nuocere

Photo: Unsplash.

Le intelligenze artificiali sembrano promettere grandi cose - nel bene e nel male. Come in passato ci eravamo confrontati con le speranze e i timori legati all’automazione del lavoro manuale, così oggi sembra star accadendo qualcosa di simile con l’automazione del lavoro intellettuale - soprattutto alla luce delle AI di cosiddetta nuova generazione. E se non fosse la prima volta nella storia umana che capita qualcosa di simile e non tutto fosse così drammatico come a qualcuno sembra?

A partire dalla diffusione di smartphone e tablet, le tecnologie digitali hanno fatto irruzione nella quotidianità, stravolgendo le nostre abitudini più consolidate. Con lo sviluppo delle più recenti intelligenze artificiali Generative Pre-trained Transformer stile ChatGPT, le cose sembrano starsi facendo ancora più interessanti - nel bene e nel male: si teme infatti che una serie di abilità intellettuali apparentemente possedute dagli esseri umani in maniera esclusiva siano in via di espropriazione da parte delle macchine. Quanto sarebbe accaduto ieri con le “tecnologie del corpo”, starebbe accadendo oggi con le “tecnologie della mente”: all’epoca della rivoluzione industriale era la volta dell’automazione del lavoro manuale; all’epoca della rivoluzione digitale, con la presenza di macchine che sembrano quasi scalpitare per pensare al posto nostro, è il tempo dell’automazione del lavoro intellettuale.

A fronte di un simile scenario, la tentazione luddista di vedere direttamente distrutto un pericoloso rivale è forte, a maggior ragione quando si spera di fare della ricerca il proprio mestiere. Il fatto è che alla competizione nell’ambito del lavoro fisico gli esseri umani sono avvezzi sin dai tempi della ruota e hanno imparato ad accogliere persino con sollievo l’opportunità di essere sgravati da incombenze faticose; viceversa, lo stesso non sembra valere nell’ambito del lavoro mentale, dove sinora le minacce sono state pressoché nulle, o comunque non tali da gettare interi gruppi sociali nel panico o nello sconforto. Almeno in apparenza.

I progetti di ricerca di cui sono responsabile, Philographics: How To Do Concepts With Images e GraPhil - New Habits in Mind: In Search of a Graphic Philosophy (entrambi nell’ambito del programma “Horizon 2020 - Marie Skłodowska-Curie Actions, Seals of Excellence”), sono proprio dedicati allo studio della relazione tra tecnologie digitali e modi di pensare e uno degli scopi di queste ricerche è esattamente ridimensionare la percezione diffusa secondo cui saremmo alle prese con una singolarità storica mai vissuta prima d’ora e per questo ci ritroveremmo pericolosamente privi di mezzi - innanzitutto simbolici e concettuali - per affrontarla.

Sfatare simili assunti significa, tra le altre cose, dare risalto al ruolo che le cosiddette “psico-tecnologie” hanno da sempre esercitato nella formazione dei nostri abiti mentali: su tutte, troviamo strumenti artificiali ormai talmente ovvi da non essere nemmeno più considerati tali, come la scrittura alfabetica e la stampa a caratteri mobili, all’epoca però accolte con il medesimo impasto di slanci euforici e ripiegamenti apocalittici che oggi accompagnano le nuove intelligenze artificiali. “Nuove” appunto perché, per esempio, persino l’alfabeto fu percepito oltre due millenni e mezzo fa come una pericolosa macchina che avrebbe automatizzato il pensiero, mentre poi la storia è finita che l’intero nostro sistema educativo e formativo si regge ancora - quanta tenacia! - intorno all’idea di “alfabetizzazione”. Tutto ciò è potuto succedere proprio perché abbiamo via via imparato a pensare attraverso quello strumento, lasciandocene informare, vale a dire riuscendo al contempo a fare leva sulle sue peculiari opportunità e a gestirne i potenziali rischi. In breve, si può dire che abbiamo saputo “artificializzare” la nostra stessa intelligenza.

Da qui può venire la lezione che possiamo trarne per il nostro oggi - tutt’altro che secondaria. Al netto delle innumerevoli sfide specifiche che ci troviamo ad affrontare, relative per esempio alla costruzione di tecnologie etiche by design e che affrontiamo all’interno del gruppo di ricerca del Dipartimento di Filosofia e Scienze dell’Educazione “EraTo” (Ethical Research Center on Anthropology and Technology), non bisogna sottovalutare il peso dell’atteggiamento di base tenuto nei confronti delle intelligenze artificiali, a livello tanto di indirizzi etici e policy collettive quanto di postura quotidiana personale.
Insomma, c’è una grande differenza tra considerare ChatGPT uno strumento inerte, una minaccia pericolosa o un potenziale partner per il nostro pensiero: soltanto nel terzo caso, infatti, riusciremo non solo a integrare queste nuove macchine del pensiero nel nostro lavoro intellettuale, nemmeno soltanto a imparare qualcosa su come noi stessi pensiamo, ma addirittura a scoprire nuovi modi di pensare - esattamente com’è accaduto in passato.

In questo modo, un giorno non suonerà più così strano che un articolo come questo, nonché un paper di ricerca, possa essere stato scritto non semplicemente “da” un’intelligenza artificiale, bensì utilizzandola in senso profondo: pensando tramite essa. Fino a quel momento, ti lascio con il dubbio in sospeso.


IMMAGINI

Questa storia di ricerca si trova in:


un racconto di
Giacomo Pezzano
DIPARTIMENTO / STRUTTURA

Pubblicato il

07 novembre 2023

condividi

LE MIE STORIE DI RICERCA

potrebbero interessarti anche