Brand
Neuroscienze e Malattie neurologiche

Dimmi come ti muovi e ti dirò cosa hai in mente di fare

Riusciamo ad anticipare le intenzioni di una persona a partire dai suoi movimenti? Sì, e studiare il linguaggio delle intenzioni potrebbe farci comprendere meglio disturbi come l’autismo. Ma anche sviluppare robot intenzionali - più simili a noi

“L'uomo non è veracemente uno, ma veracemente due” scrive Stevenson ne “Lo strano caso del dottor Jekyll e del signor Hyde”. Ora, immaginate di trovarvi nel laboratorio del Dottor Jekyll e di vedere il dottore avvicinare la mano ad un bisturi. Che cosa sta per fare? Ad agire è davvero Henry Jekyll o il suo alter ego, il signor Edward Hyde, pronto a infierire su di voi?
Nella storia del pensiero occidentale, a partire da Cartesio, l’idea che le intenzioni siano ‘visibili’ nel movimento altrui ha trovato forti resistenze. Al pari di altri stati mentali, le intenzioni sono state concepite come fenomeni intracranici: “cose che stanno nella testa”, e che, come tali, non si possono vedere. Non sarebbe quindi possibile, sulla base delle sole caratteristiche di movimento, distinguere il dottor Jekyll dal signor Hyde.

Le ricerche condotte dal mio gruppo di ricerca e rese possibili dal progetto ERC, dimostrano il contrario: siamo spontaneamente in grado di leggere le intenzioni altrui nel movimento, e, per farlo, sfruttiamo variazioni minime nel pattern motorio, ovvero nella cinematica del movimento, variazioni che spesso non siamo neppure consapevoli di aver percepito. Ma come è possibile risalire dal movimento all’intenzione?
Per rispondere a questa domanda, abbiamo scomposto il problema chiedendoci, per prima cosa, se la cinematica di un movimento (per esempio, afferrare una bottiglia) consenta di distinguere intenzioni diverse (afferrare per bere oppure afferrare per versare). Combinando tecnologie di motion capture e algoritmi di classificazione, abbiamo dimostrato come, in effetti, l’informazione veicolata dalla cinematica sia sufficiente a discriminare intenzioni diverse. L’informazione è dunque disponibile nel movimento.

Il passo successivo è stato quello di capire se un osservatore umano sia in grado di sfruttare questa informazione. Utilizzando tecniche di psicofisica e machine learning, siamo riusciti a isolare nel flusso di informazione cinematica, le specifiche caratteristiche che gli osservatori umani sfruttano per leggere l’intenzione. Tecniche di neuroimaging, come la risonanza magnetica funzionale, ci hanno inoltre permesso di identificare i circuiti neurali che contribuiscono alla codifica delle intenzioni.
Questo apre a importanti ricadute cliniche e applicative. Conoscendo il linguaggio delle intenzioni, possiamo infatti sperare di comprendere meglio disturbi come l’autismo, in cui la capacità di leggere le intenzioni dal movimento appare compromessa. Possiamo inoltre progettare tecnologie in grado di leggere l’intenzione e sviluppare robot che siano non solo più simili a noi nell’aspetto, ma nel movimento. All’interno di una collaborazione con l’Istituto Italiano di Tecnologia, questo ha ispirato l’idea di un robot intenzionale " un robot capace di leggere le intenzioni dal movimento e di muoversi con una cinematica intenzionale " un robot con il quale l’interazione sia perciò più fluida ed efficace, più umana.

un racconto di
Cristina Becchio
DIPARTIMENTO / STRUTTURA

Pubblicato il

10 marzo 2017

condividi

approfondimenti

potrebbero interessarti anche