Brand
Fondamenti della materia

Quando Dio gioca a dadi. L’intrinseca indeterminazione della materia

Photo by Moritz Kindler on Unsplash

L’indeterminazione è una caratteristica intrinseca della materia a scale microscopiche: un problema concettuale di non poco conto per i fisici teorici. In questo dialogo con Wanda Alberico e Paolo Olivero scopriamo come l'incertezza entri nel loro lavoro di ricerca, rispettivamente teorico e sperimentale, sull'origine dell'Universo e sui nuovi supercomputer quantistici. 

Professoressa Alberico, l’incertezza, o meglio l’indeterminazione, è un tratto fondante di una branca della fisica, la meccanica quantistica, che è valso il Premio Nobel a Werner Heisenberg. Di cosa si tratta?
Formulato da Heisenberg nel 1927, il principio di indeterminazione pone un limite concettualmente fondamentale alla nostra possibilità di descrivere l’evoluzione di un sistema fisico: se, note le condizioni iniziali a un certo istante, la meccanica classica pretende di poter determinare esattamente la traiettoria per esempio di una particella libera, il principio di indeterminazione dice in sostanza che, a prescindere dall’incertezza associata alla misura sperimentale, non si può conoscere con precisione (al di sotto di un certo limite di incertezza), contemporaneamente la sua posizione e il suo impulso, cioè quanto velocemente sta andando. Questo limite è sostanzialmente trascurabile alle scale macroscopiche (non dà problemi nel definire la traiettoria di un’auto per esempio) ma è invece rilevante se confrontata con le caratteristiche fisiche del mondo microscopico (atomico e subatomico).
Il principio di indeterminazione è uno dei cardini della Meccanica Quantistica (MQ) e del concetto di misura: possiamo conoscere solo ciò che osserviamo (misuriamo) ma il processo stesso di misura richiede un’interazione tra osservatore o osservabile, producendo variazioni (“disturbi”) non controllate in altre grandezze fisiche.

Cosa ha comportato l’introduzione di questo principio da un punto di vista storico nello sviluppo della fisica teorica stessa come disciplina?
La MQ, nella formulazione ondulatoria di Erwin Schroedinger, tra i padri fondatori di questa teoria insieme ad Heisenberg, introduce altresì il concetto di probabilità: non possiamo più conoscere la posizione di un punto materiale con certezza ma solo con un certo grado di probabilità: Anche questo è legato al principio di indeterminazione, perché quanto meglio conosciamo l’impulso della particella, tanto meno possiamo determinarne la posizione. Nel caso limite in cui l’impulso sia determinato con incertezza nulla, la posizione è completamente indeterminata e viceversa. In realtà il metodo sperimentale che ci permette di misurare una quantità fisica non può prescindere dall’esistenza di un cosiddetto errore nella misura, come potrà confermare anche il professor Olivero. Quindi in questo senso le limitazioni implicate dal principio di Heisenberg non sembrano gravi, se non su un piano di principio.
Tuttavia una MQ soggetta ai limiti del principio di indeterminazione non soddisfaceva, all’epoca, molti fisici teorici: lo stesso Albert Einstein non riuscì ad accettarla e cercò instancabilmente prove sull’incompletezza della MQ, immaginando l’esistenza di variabili nascoste che potessero spiegare quell’incertezza solo apparentemente (per Einstein) intrinseca alla materia stabilita da questa teoria. Benché queste idee abbiano prodotto interessanti ricerche e sviluppi, non sono valse a scalfire l’importanza del principio di indeterminazione, anche nella più moderna teoria dei campi, che ci permette di esplorare la natura a distanze sempre più piccole, immaginando un Universo ben poco familiare rispetto a quanto ci suggerisce l’esperienza quotidiana.
Al di là delle interpretazioni filosofiche ispirate al principio di Heisenberg, la fisica di oggi, sia teorica sia sperimentale, ne ha fatto tesoro e lo ha acquisito come principio guida a cui quasi non si fa più caso perché entrato di diritto nel DNA delle ricerche attuali.

Che gioco ruolo l’incertezza nel suo lavoro di ricerca?
Nelle ricerche che ho condotto nel corso degli anni mi sono occupata di sistemi complessi, composti cioè da molte particelle interagenti tra loro. Del resto la particella libera dei classici testi di MQ non esiste in natura, ma è un esempio molto amato perché è molto semplice da trattare. Invece i sistemi fisici sono tipicamente agglomerati di molti corpi: l’atomo, il nucleo atomico, il plasma (il plasma può essere considerato il quarto stato della materia, oltre allo stato solido, liquido e aeriforme, ndr).
I sistemi composti da più di tre costituenti non possono essere trattati con metodi esatti, a meno di non ricorrere a pesanti calcoli numerici, comunque soggetti a un’incertezza insita nel calcolo stesso.
Dovendo però confrontare stime teoriche con le quantità osservate dai colleghi sperimentali, si sono utilizzate diverse strategie: metodi di approssimazione (per esempio la cosiddetta teoria perturbativa), o modelli semplificati del sistema in esame.
Più recentemente, negli anni 1960-70 è stata formulata la Cromodinamica Quantistica (QCD) atta a descrivere le interazioni forti tra costituenti elementari (quark e gluoni). Alcune caratteristiche intrinseche di tale teoria ne impediscono una trattazione perturbativa e lo strumento migliore per trattarla sono i cosiddetti calcoli su reticolo (una rete discretizzata dello spazio-tempo) e richiedono grande potenza di calcolo numerico. L’argomento forse più affascinante che viene affrontato in questo modo è lo studio del quark-gluon-plasma, uno stato della materia che esiste solo a temperature e/o densità estremamente elevate, come poteva essere l'Universo per i primi microsecondi della sua esistenza, le cui proprietà vengono studiate per esempio dall’acceleratore LHC del CERN.

Professor Olivero, che ruolo ha invece l’incertezza nel suo lavoro di fisico sperimentale e in che termini si confronta con il principio di indeterminazione?
Il concetto di incertezza ha un ruolo centrale nell’attività di un fisico sperimentale, e direi più in generale in qualunque altro tipo di attività scientifica che preveda procedure di misura, e al contempo l’analisi dei dati da esse generati. Prima di tutto in un’accezione “classica”, ovvero antecedente alla rivoluzione scientifica generata dalla meccanica quantistica, quello di “incertezza sperimentale” è uno strumento concettuale essenziale alla corretta interpretazione dei fenomeni naturali. A esso è talvolta associata l’accezione negativa di “errore sperimentale”, ma non vi è nulla di “errato” nell’associare a una grandezza fisica un margine di incertezza, inevitabilmente determinato dalle procedure sperimentali e dalle tecniche di analisi utilizzate per determinarla. Questo margine è piuttosto uno strumento che ci consente di determinare (per mezzo di leggi statistiche estremamente rigorose) il livello di affidabilità dei diversi modelli di rappresentazione della realtà fisica, e soprattutto i loro margini predittivi.
Nel contesto della fisica quantistica l’incertezza assume un’accezione di “indeterminazione” che, operativamente, sembra condannarci a un’ineludibile descrizione probabilistica della natura. Come già accennato dalla professoressa Alberico, questo ha rappresentato un problema concettuale di non poco conto già per i suoi padri fondatori: la celebre frase “Dio non gioca a dadi” attribuita ad Albert Einstein è significativa in questo senso.

La meccanica quantistica ha rivoluzionato la concezione stessa della realtà e ci ha obbligati ad accettare fenomeni che non arriviamo a comprendere con la sola nostra “percezione del mondo alla scala del metro”. Eppure fisici sperimentali e ingegneri stanno imparando a manipolarla e le sue applicazioni aprono potenzialità impensabili persino per la fantascienza. Ce ne può parlare brevemente?
Negli ultimi decenni abbiamo compreso in modo sempre più approfondito che la distinzione tra il concetto classico di incertezza e quello di indeterminazione quantistica ha implicazioni che vanno ben oltre l’ambito della riflessione filosofica, con ricadute importanti nell’ambito della fisica applicata e della tecnologia. Ad esempio il fatto che un “bit quantistico” (o q-bit, un sistema quantistico che si può configurare in due stati possibili) sia “quantisticamente - e quindi intrinsecamente - indeterminato” anziché “classicamente incerto” è alla base del funzionamento di nuove tipologie di computer che sarebbero in grado di risolvere problemi estremamente complessi in tempi enormemente più brevi di quanto sia in grado di fare il più potente degli attuali super-computer “classici”.
Per citare ambiti tematici di scottante attualità, un quantum computer potrebbe risolvere complessi problemi di modellizzazione di virus, proteine e molecole, che al momento possono essere affrontati solo in modo approssimativo con tecniche computazionali convenzionali, con importanti ricadute nella bio-medicina e farmacologia. Le potenzialità offerte dalle cosiddette “tecnologie quantistiche”, che spaziano dall’informatica, alle telecomunicazioni e alla sensoristica, stanno attraendo interesse non soltanto di università e centri di ricerca, ma anche di grandi attori industriali e commerciali (Google, IBM e molti altri) che hanno investito risorse significative in questo settore.

Cosa sta facendo l’Europa a riguardo e come ne è coinvolto il suo gruppo di ricerca?
L’Unione Europea ha recentemente lanciato il suo terzo “progetto-bandiera”, che, dopo quelli incentrati sullo sviluppo del grafene e sullo studio del cervello umano, ha l’obiettivo di posizionare nell’arco di 10 anni l’Europa alle frontiere nello sviluppo delle tecnologie quantistiche. Il Quantum Flaghsip project ha formulato in un manifesto scientifico una articolata “roadmap” scientifico-tecnologica che, nelle intenzioni della comunità scientifica europea operante nel settore, ci porterà a sviluppare nell’arco del prossimo decennio nuovi e migliori computer, sistemi di tele-comunicazione sicura e sensori avanzati.
Il Gruppo di Ricerca in Fisica dello Stato Solido dell’Università di Torino è impegnato in questo campo, e più specificamente lavora a un programma di ricerca incentrato sull’utilizzo di fasci di particelle per rendere materiali e dispositivi adatti alle tecnologie quantistiche. Nel contesto del progetto “Dipartimenti di Eccellenza” finanziato dal MIUR, il programma di lavoro sulle tecnologie quantistiche prevede l’installazione presso i nostri laboratori di un così detto “impiantatore ionico” a cui stiamo attivamente lavorando, e che ci consentirà di svolgere esperimenti di frontiera in questo campo.
In un contesto europeo, collaboriamo intensivamente con l’Istituto Nazionale di Ricerca Metrologica (INRiM), con l’Istituto Nazionale di Fisica Nucleare (INFN) e con numerose istituzioni europee nell’ambito di progetti finanziati dal programma Horizon2020, su tematiche che spaziano dalla comunicazione quantistica all’imaging quantistico. A livello più locale, siamo attivamente coinvolti nel progetto “Piemonte Quantum Enabling Technology” (PiQuET), che insieme all’INRiM ed al Politecnico di Torino ci porterà a sviluppare una infrastruttura di ricerca di avanguardia operante in questo campo.

Questa storia di ricerca si trova in:


Intervista a

Wanda Maria Alberico
Paolo Olivero
DIPARTIMENTO / STRUTTURA

A cura di

Redazione FRidA
Pubblicato il

20 maggio 2020

condividi

LE MIE STORIE DI RICERCA

potrebbero interessarti anche