In questo breve saggio, Intilla ci conduce attraverso uno dei più recenti e controversi paradigmi in campo scientifico: quello dell’Universo Digitale; dove ogni elemento della realtà a noi circostante (compreso noi stessi), nella sua “matrice ultima”, risulta essere costituito da pura Informazione. Il libro contiene inoltre, la versione aggiornata di un articolo in cui l’autore si propone di dare una spiegazione a carattere puramente scientifico ai concetti di anima e “reincarnazione”, attraverso la teoria termodinamica dell’Informazione. Tale articolo, intitolato “Dalla teoria dell’Informazione al concetto di Anima”, ha riscontrato una notevole popolarità sul web, rimanendo a tutt’oggi, uno degli approcci più complessi e significativi all’eterna questione della “vita dopo la morte”.
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
Fisica dell'informazione, ultima frontiera della scienza.
1. Fausto Intilla
Fisica dell’Informazione:
l’ultima frontiera della scienza
Gli ultimi inattesi sviluppi, della “Fisica Digitale”
Immagine di copertina tratta dal web
(http://holographicarchetypes.weebly.com)
L’autore si dichiara disponibile a regolare eventuali spettanze,
per gli stralci di alcuni articoli (ed immagini) riportati in questo
volume, qualora questi ultimi fossero coperti da copyright.
2. Indice
Prefazione…………………………………………………4
La matrice ultima della realtà…………………………….7
- Olografia quantistica elettronica………………..….28
Informazione e teletrasporto quantistico………………..32
Verso entanglement sempre più sofisticati…………..….44
La realtà dei bit, attraverso la fisica dei buchi neri…..….63
Dalla Teoria dell’Informazione al concetto di Anima…..77
- Reincarnazione: riflessioni congiunte al modello di
Informazione dinamica……………………………….…...88
- Cameron, il bambino che visse due volte………...……..91
- Il contributo di Pim van Lommel…………………………95
MWI: potremo un giorno testarla?...................................109
- LHC …qualche curiosità…………………………….…..116
Fotonica e Termodinamica …dell’Informazione……....120
- Il demone di Maxwell…………………………………….128
- Irreversibilità, entropia, informazione……………...…132
- L’ipotesi della retro-causalità……………………..……141
Per concludere……………………………………..……144
Bibliografia consigliata…………………………………148
Sitografia…………………………………………..……149
3. “Le sole leggi della materia sono quelle
costruite dalla mente, e le sole leggi della
mente, sono costruite per essa dalla materia”
J.C. Maxwell
“Non pretendo di capire l’Universo:
è tanto più grande di me”
T. Carlyle
4. Prefazione
Probabilmente il 2012, verrà ricordato in futuro come l’anno più
proficuo nella storia della scienza moderna, in quanto a scoperte
nel campo della fisica subnucleare (fisica delle particelle) e
dunque a rigor di logica, a potenziali ampliamenti o modifiche
di strutture e modelli teorici della Meccanica Quantistica.
A titolo d’esempio, basti pensare alla recente scoperta del
Bosone di Higgs (annunciata il 4 luglio dai ricercatori del CERN
di Ginevra); alla dimostrazione sperimentale del limite di
Landauer (confermando così, un principio teorico sul nesso tra
termodinamica classica e teoria dell’Informazione, che
aspettava un riscontro sperimentale da ben oltre cinquant’anni);
alla dimostrazione sperimentale della divisibilità di un singolo
atomo, per poi essere nuovamente ricomposto in modo
artificiale. Tre scoperte di fondamentale importanza, avvenute
tutte nel corso di quest’anno. Nuovi sviluppi di notevole
interesse si sono avuti anche, a partire dal 2007 sino ad oggi, nel
campo della fotonica, della spintronica e delle nanotecnologie.
È chiaro dunque che ci troviamo di fronte ad una svolta epocale,
in quanto a sviluppi e applicazioni di potenziali nuove
tecnologie. Ma siccome la teoria precede sempre di qualche
passo l’applicazione pratica (in ogni ambito della sfera umana),
la stessa svolta è avvenuta in campo teorico; ossia in quello
relativo ai nostri modelli di rappresentazione della realtà, ai
nostri attuali paradigmi scientifici. Molte idee, teorie e concetti,
sono stati dunque rivisti ed ampliati, modificati, ritoccati e in
alcuni casi anche cancellati dal grande libro della fisica, poiché
rivelatisi non più coerenti con i nuovi modelli teorici e fisici
della realtà.
5. Ciò che ai nostri occhi si è resa sempre più evidente, grazie alle
innumerevoli scoperte e sviluppi scientifici avvenuti negli ultimi
dieci anni, è l’intima correlazione tra le leggi della
termodinamica classica e quelle che governano invece, un
mondo concettualmente immateriale, apparentemente del tutto
astratto e comprensibilmente quindi, anche assai difficile da
accettare e “digerire”, come “modello ultimo della realtà”:
quello dell’Informazione.
In questo breve saggio, cercherò dunque di condurre il lettore,
con parole semplici e riducendo al minimo (quasi a zero) il
formalismo matematico (ossia l’utilizzo di lunghe e complicate
equazioni), verso una comprensione più approfondita e ricca di
spunti di riflessione, di ciò che viene comunemente definito
come un “nuovo paradigma della realtà”, ossia quello di un
Universo costituito fondamentalmente da pura Informazione;
dove anche i concetti di massa ed energia, debbono quindi
essere ampliati e ridefiniti, per poter essere relazionati a questo
nuovo modello di realtà.
Se siamo giunti al capolinea, ossia ad un punto nel campo del
sapere scientifico e filosofico, oltre il quale non è più possibile
andare oltre (assumendo una volta e per sempre, che il concetto
di “Universo digitale” sia il più idoneo a definire l’immagine
della realtà), questo ovviamente nessuno è in grado di dirlo; ma
se proprio vogliamo credere nella continua ed interminabile
ascesa del sapere umano, allora possiamo tranquillamente
affermare che, usando le stesse parole di Herbert George Wells:
“Ogni dogma prima o poi deve morire”.
Fausto Intilla,
Cadenazzo, 15 luglio 2012
6.
7. La matrice ultima della realtà:
“Realtà e Informazione sono la stessa cosa.
Propongo cioè di considerare questi due concetti, che chiaramente
finora abbiamo sempre tenuto distinti, come due facce della stessa
medaglia, proprio come lo spazio e il tempo che, secondo la Relatività
di Einstein, sono a loro volta legati in modo indissolubile. Noi
vediamo queste due cose come un tutt’uno a causa del nostro
postulato secondo il quale nessuna legge della natura o descrizione
della natura può fare differenza tra realtà e Informazione. Dovremmo
allora coniare un nuovo termine che comprenda sia la realtà sia
l’Informazione. Già il fatto che un termine del genere non solo non
esista, ma che ci sia difficile anche immaginarlo, ci fa capire quanto
siano complessi i problemi concettuali che emergono. La nostra
affermazione precedente, secondo la quale l’Informazione è la
materia primordiale dell’Universo, è ora da considerare anche nel
senso di questa unità tra realtà e Informazione”.
Anton Zeilinger
“Calculating Space” è il titolo del libro di Konrad Zuse1
,
pubblicato in inglese dal MIT nel 1969 e il cui titolo originale
era, in tedesco: Rechnender Raum; ovvero il titolo del primo
libro in cui si iniziò a trattare, in una nuova veste (più legata al
mondo della fisica piuttosto che a quello puramente
1
Konrad Zuse (Berlino, 22 giugno 1910 – Hünfeld, 18 dicembre 1995) è
stato un pioniere dell'informatica e viene considerato come l'inventore del
computer moderno. Il calcolatore "Z1", completato da Zuse nel 1938, deve
essere considerato in assoluto come il primo computer moderno, avendo
anticipato di alcuni anni il Colossus, realizzato nel 1944 dal geniale
matematico inglese Alan Turing per la decifrazione dei messaggi prodotti
dalla macchina Enigma, usata dalle forze armate tedesche per le
comunicazioni militari durante la seconda guerra mondiale, nonché i primi
enormi calcolatori programmabili a valvole prodotti in Inghilterra e negli
Stati Uniti nella seconda metà degli anni quaranta. A Konrad Zuse si deve
anche l'invenzione del primo linguaggio di programmazione della storia,
ideato per fornire le istruzioni allo "Z1": il Plankalkül.
8. informatico), la teoria dell’Informazione. Zuse, gettò dunque i
semi di un nuovo paradigma scientifico che molti anni più tardi,
sarebbe germogliato prendendo il nome di “Digital Physics”;
oggi comunemente noto, alle nostre latitudini, come Fisica
dell’Informazione. Zuse propose l’idea che il nostro Universo,
fosse stato calcolato da una sorta di “automa cellulare”2
(o da
un calcolatore discreto), sfidando l’idea ormai secolare che
alcune leggi fisiche siano continue per natura. Egli si concentrò
sugli automi cellulari, ritenendo che rappresentassero in modo
ottimale, un potenziale substrato idoneo al calcolo;
sottolineando (tra le altre cose), che le nozioni classiche
dell’entropia, nonché la sua crescita, non hanno alcun senso in
universi calcolati in modo deterministico. Il teorema di Bell
viene a volte utilizzato per confutare l’ipotesi di Zuse; ma esso
non è applicabile ad Universi deterministici, come lo stesso Bell
ebbe a sottolineare. Allo stesso modo, mentre il principio di
indeterminazione di Heisenberg, limita in modo fondamentale
ciò che un osservatore può osservare (quando l’osservatore
stesso è una parte dell’Universo che sta cercando di osservare),
tale principio non esclude l’ipotesi di Zuse, che vede un
osservatore come parte di un processo deterministico ipotizzato.
Finora non è mai stata elaborata e sperimentata alcuna prova
fisica inequivocabile, atta a demolire la possibilità che “tutto sia
solo un calcolo”; inoltre, una grande quantità di opere incentrate
sulla Fisica dell’Informazione (Digital Physics, per gli
anglosassoni) sono state scritte dal giorno in cui è apparso per la
prima volta il saggio pioneristico di Zuse.
2
Il modello ad automa cellulare è molto elegante. Il problema, però, è che si
tratta di un modello classico; e sappiamo che i computer classici non riescono
a trattare con efficienza caratteristiche quantistiche come l’entanglement o
altre peculiarità. Inoltre ci sono problemi “di spazio”: è stato calcolato che un
automa grande come l’Universo sarebbe in grado di simulare solo una
piccola, piccolissima parte della realtà quantistica. Se l’Universo fosse
davvero un computer classico, la stragrande maggioranza dei suoi bit e dei
suoi circuiti dovrebbe stare nascosta da qualche parte, inaccessibile alla
nostra esperienza e percezione.
9. Nel campo della fisica (come del resto anche in quello
cosmologico), la fisica dell’Informazione rappresenta un
insieme di prospettive teoriche, basate sulla premessa che
l’intero Universo sia, alla radice, descrivibile attraverso il
concetto di Informazione; e che dunque, in ultima analisi, sia
“calcolabile”. Quindi, l’Universo potrebbe essere concepito
come l’output di un programma informatico oppure come un
vasto dispositivo per il calcolo digitale. La fisica
dell’Informazione si fonda principalmente sulle seguenti ipotesi:
1) L’Universo, o la realtà, è essenzialmente informativa.
2) Esso/essa è essenzialmente calcolabile.
3) Tale realtà può essere descritta in modo digitale.
4) La sua natura è essenzialmente digitale.
5) E’ essa stessa una sorta di computer.
6) È essenzialmente l’output di una realtà simulata.
Andiamo ora ad analizzare i primi assunti e le prime premesse,
che storicamente portarono all’elaborazione di questo nuovo
paradigma scientifico. Una delle premesse fondamentali, vuole
semplicemente che qualsiasi computer, sia compatibile con i
principi della Teoria dell’Informazione3
(quella classica,
basata su un modello puramente informatico), con la meccanica
statistica4
ed infine con la meccanica quantistica5
. Un
3
La teoria dell'informazione è quel settore dell'informatica e delle
telecomunicazioni che si occupa di definire le basi teoriche su cui si fonda la
scienza dell'informazione. La sua nascita è relativamente recente: essa viene
solitamente fatta risalire al 1948, anno in cui Claude Shannon pubblicò Una
teoria matematica della comunicazione in cui introduceva per la prima volta
in modo sistematico lo studio dell'informazione e della comunicazione.
4
In fisica, la meccanica statistica è l'applicazione della teoria della
probabilità, che include strumenti matematici per gestire insiemi formati da
numerosi elementi, al comportamento termodinamico di sistemi composti da
un grande numero di particelle. La meccanica statistica fornisce un modello
per collegare le proprietà dei singoli atomi e molecole alle proprietà
10. collegamento fondamentale tra questi campi è stato proposto da
Edwin Jaynes in due documenti del 1957. Inoltre, Jaynes ha
elaborato un’interpretazione della teoria delle probabilità,
ridefinendola come una sorta di logica Aristotelica
generalizzata; una visione indubbiamente assai comoda per
macroscopiche del sistema da essi composto. Da un punto di vista classico lo
studio di un sistema con N particelle non interagenti richiede la soluzione di
N equazioni differenziali, che descrivono il moto di ogni particella. Quando il
numero di particelle è molto grande, dell'ordine del numero di Avogadro, la
meccanica statistica permette di poter caratterizzare il sistema attraverso
grandezze macroscopiche, come il calore, l'energia libera, la pressione o il
volume.
5
La meccanica quantistica si distingue in maniera radicale dalla meccanica
classica in quanto si limita a esprimere la probabilità di ottenere un dato
risultato a partire da una certa misurazione, secondo l'interpretazione di
Copenaghen, rinunciando così al determinismo assoluto proprio della fisica
precedente. Questa condizione di incertezza o indeterminazione non è dovuta
a una conoscenza incompleta, da parte dello sperimentatore, dello stato in cui
si trova il sistema fisico osservato, ma è da considerarsi una caratteristica
intrinseca, quindi ultima e ineliminabile, del sistema e del mondo subatomico
in generale. La teoria quantistica, dunque, descrive i sistemi come una
sovrapposizione di stati diversi e prevede che il risultato di una misurazione
non sia completamente arbitrario, ma sia incluso in un insieme di possibili
valori: ciascuno di detti valori è abbinato a uno di tali stati ed è associato a
una certa probabilità di presentarsi come risultato della misurazione. Questo
nuovo modo di interpretare i fenomeni è stato oggetto di numerose
discussioni all'interno della comunità scientifica, come testimonia l'esistenza
di diverse interpretazioni della meccanica quantistica. L'osservazione ha
quindi effetti importanti sul sistema osservato: collegato a questo nuovo
concetto si ha l'impossibilità di conoscere esattamente i valori di coppie di
variabili dinamiche coniugate, espressa dal principio di indeterminazione di
Heisenberg. La meccanica quantistica rappresenta il denominatore comune di
tutta la fisica moderna ovvero della fisica atomica, della fisica nucleare e sub-
nucleare (la fisica delle particelle), e della fisica teorica, a testimonianza della
sua estrema potenza concettuale-interpretativa nonché della vasta
applicabilità al mondo microscopico.
11. collegare la fisica fondamentale con i computer digitali, per il
solo fatto che questi ultimi sono progettati per implementare le
operazioni della logica classica ed inoltre, in modo equivalente,
quelle relative all’algebra booleana6
.
Il termine “fisica digitale”, fu utilizzato per la prima volta da
Edward Fredkin, che in seguito preferì sostituirlo con “filosofia
digitale”. Altri scienziati e pensatori che paragonarono l’intero
Universo ad una sorta di immenso calcolatore, furono Stephen
Wolfram, Juergen Schmidhuber e il premio Nobel Gerardus’t
Hooft. Questi autori hanno sempre appoggiato l’idea che la
natura apparentemente probabilistica della fisica quantistica, non
sia necessariamente incompatibile con la nozione di
computabilità. Alcuni modelli in chiave quantistica di “fisica
digitale”, sono stati recentemente proposti da David Deutsch,
Seth Lloyd e Paola Zizzi. Altre correlazioni con tale modello di
6
In matematica, informatica ed elettronica, l'algebra di Boole, anche detta
algebra booleana o reticolo booleano, è un ramo dell'algebra astratta che
comprende tutte le algebre che operano con i soli valori di verità 0 o 1, detti
variabili booleane o logiche. La struttura algebrica studiata dall'algebra
booleana è finalizzata all'elaborazione di espressioni nell'ambito del calcolo
proposizionale. Essendo un reticolo dotato di particolari proprietà, l'algebra
booleana risulta criptomorfa, cioè associata biunivocamente e in modo da
risultare logicamente equivalente, ad un insieme parzialmente ordinato
reticolato. Ogni algebra booleana risulta criptomorfa ad un particolare tipo di
anello, chiamato anello booleano. Tale algebra permette di definire gli
operatori logici AND, OR e NOT, la cui combinazione permette di
sviluppare qualsiasi funzione logica e consente di trattare in termini
esclusivamente algebrici le operazioni insiemistiche dell'intersezione,
dell'unione e della complementazione, oltre a questioni riguardanti singoli bit
0 e 1, sequenze binarie, matrici binarie e diverse altre funzioni binarie.
L'algebra sviluppata nel 1854 all'University College di Cork da Boole assume
un ruolo importante in vari ambiti, in particolare nella logica matematica e
nell'elettronica digitale, dove nella progettazione dei circuiti elettronici
riveste grande importanza il teorema di Shannon del 1940 utilizzato per
scomporre una funzione booleana complessa in funzioni più semplici, o per
ottenere un'espressione canonica da una tabella della verità o da
un'espressione non canonica.
12. realtà si possono rintracciare nella teoria binaria degli “ur-
alternatives”7
(oggetti archetipici) di Carl Friedrich Freiherr von
Weizsäcker, nel pancomputazionalismo, nella teoria dell’Universo
computazionale, nell’idea di John Archibald Wheeler (“It from bit”)
ed infine nella teoria di Max Tegmark (“ultimate ensemble”).
Edward Fredkin è un fisico statunitense ed è considerato uno dei
pionieri della “fisica digitale”; i suoi principali contributi sono
nella computazione reversibile e negli automi cellulari. La sua
invenzione più importante fu la porta di Fredkin8
. In campo
informatico fu inventore della struttura dati Trie e del modello
palla da biliardo per la computazione reversibile. Fu coinvolto in
varie aree di ricerca dell'Intelligenza artificiale. Di recente ha
sviluppato Slat, un modello di computazione basato sulle leggi
di conservazione fondamentali della fisica.
Stephen Wolfram, fisico e matematico britannico, è l’autore del
controverso libro A New Kind of Science (NKS), che mostra uno
studio empirico di sistemi computazionali molto semplici.
Inoltre esso spiega che per capire la complessità della natura e
definirne dei modelli, questo tipo di sistemi risulta estremamente
efficace, piuttosto che la matematica tradizionale. Wolfram
lavora da anni alla sua nuova scienza. Partì constatando che
semplici programmi (di computer o di applicazione di regole
logiche) possono produrre strutture complesse che modellano
ogni sorta di processi fisici e biologici. Propone congetture
7
La teoria di Weizsäcker (fisico tedesco e filosofo, deceduto nel 2007),
costruisce assiomaticamente la fisica quantistica dalla distinzione tra
alternative binarie, empiricamente osservabili. Weizsäcker ha usato la sua
teoria, una forma di fisica digitale, per ricavare la 3-dimensionalità dello
spazio e per stimare l'entropia di un protone che cade in un buco nero.
8
La porta di Fredkin è un circuito computazionale adatto per la
computazione reversibile inventata da Edward Fredkin. La porta di Fredkin è
una porta universale: qualsiasi operazione logica o aritmetica può essere
costruita interamente di porte di Fredkin. Possiede esattamente 3 valori in
input (U,X1,X2) e 3 valori in output (V,Y1,Y2). La porta è composta da 3
equazioni indipendenti: V = U ; Y1 = UX1+U'X2 ; Y2 = U'X1+UX2
13. molto ambiziose e usa uno strumento molto semplice: gli automi
cellulari. Wolfram sta precisando e cercando di dimostrare il
Principio di Equivalenza Computazionale: "Esiste un’
equivalenza fondamentale fra molti tipi diversi di processi, se
sono visti in termini computazionali. Nessun sistema può
realizzare calcoli espliciti più sofisticati di quelli effettuati da
automi cellulari. Esistono automi cellulari universali per i quali
si possono scegliere condizioni iniziali tali che, partendo da
esse, eseguano calcoli di ogni possibile complessità."9
Su questo
libro, pubblicato nel 2002, degne di nota sono state le
considerazioni del noto ingegnere, scrittore e divulgatore
scientifico italiano, Roberto Vacca: “Gli automi cellulari di
Wolfram rappresentano bene anche fenomeni molto complessi
come le volute apparentemente caotiche, dei moti turbolenti di
fluidi ad alta velocità. Questi processi, invece, non si analizzano
agevolmente per mezzo di equazioni matematiche. Queste
constatazioni giustificherebbero il Principio di Equivalenza
Computazionale, che Wolfram presenta insieme come una legge
della natura o una definizione o un insieme di fatti astratti. La
congettura essenziale è che le configurazioni o immagini
prodotte dagli automi cellulari possono rappresentare e, in
certo senso, spiegare ogni processo fisico, chimico, biologico.
Sarebbe una via per spiegare come si generi l'enorme
complessità delle forme animali e vegetali. Si tratta di una
struttura ramificata e illimitata. Può essere usata per generare
frattali e anche per simulare macchine di Turing. [Queste sono
semplicissime strutture logiche concettuali (non costruite in
pratica) capaci di simulare il comportamento di qualsiasi
possibile computer.]. E' molto difficile prevedere dove
porteranno queste ricerche. Le procedure fisico-matematiche
tradizionali da Newton in poi ci hanno preparato al punto di
9
Se fosse vero, questo principio porrebbe dei limiti alle previsioni del
comportamento di molti sistemi naturali; poiché l’unico modo per studiarne
l’evoluzione sarebbe di osservarli mentre evolvono. Non esisterebbero
scorciatoie, poiché ogni calcolo che possiamo immaginare di fare è, al più,
tanto potente e complicato quanto il fenomeno che desideriamo studiare.
14. vista che gli stessi strumenti logico-matematici si possano usare
in contesti diversi. Infatti le stesse equazioni e le stesse formule
descrivono con alta precisione processi fisici molto diversi: le
azioni di campi elettrici, magnetici, gravitazionali, i flussi di
elettricità, di calore e di fluidi e così via. Mi sembra, però, che
esista una difficoltà seria. Non pare che sia stato trovato un
modo per determinare quali siano le regole di generazione degli
automi cellulari che portano a produrre configurazioni che
descrivono certi fenomeni piuttosto che altri. Se davvero, le
regole da applicare andassero sempre cercate a caso, lo
strumento sarebbe difficile e lento da applicare. Altra obiezione
ancora più basilare: Con un modello matematico tradizionale
da certe premesse si deducono relazioni analitiche che
permettono di formulare previsioni. Ad esempio, facciamo
l'ipotesi che i gravi si attraggano con forza inversamente
proporzionale al quadrato della distanza e direttamente
proporzionale al prodotto fra le masse. Su questa base e
postulando che le accelerazioni sono proporzionali alle forze
applicate, deduciamo le orbite dei pianeti e le traiettorie dei
gravi nel campo gravitazionale terrestre. Invece con la nuova
scienza di Wolfram si constata che certe traiettorie sono
disegnate da un automa e risultano identiche a certi processi
meccanici o di moto di particelle cariche in un campo elettrico.
Allora si può dire: Curiosa coincidenza. Però non si formalizza
un meccanismo di spiegazione, né si possono prevedere risultati
futuri di esperimenti - che è l'obiettivo centrale della fisica
matematica. Ma sarebbe sbagliato saltare a conclusioni
affrettate. Questa scienza di nuovo tipo contiene complessità,
ragionamenti, distinzioni e aperture ben più vaste. Vale la pena
di cominciare a interessarsi di questi sviluppi. Forse i nostri
nipoti a scuola impareranno gli automi cellulari, prima o,
invece, dell'algebra”.
Jürgen Schmidhuber (professore di Intelligenza Artificiale
all’Università di Lugano, in Svizzera), osservò che i teoremi di
Gödel sono irrilevanti anche per la fisica computabile. Nel 2000
15. Schmidhuber costruì esplicitamente universi computabili e
deterministici, la cui pseudo-casualità basata su problemi della
fermata10
(indecidibili simili a quelli di Gödel), è estremamente
difficile da rilevare, ma non evita assolutamente Teorie del
Tutto formali, descrivibili da pochissimi bit di informazione.
Egli sottolineò inoltre che esiste un modo efficiente e ottimale
per calcolare tutti gli Universi computabili, basato
sull’algoritmo di ricerca universale di Leonid Levin (1973). Nel
2000 ha ampliato questo lavoro, combinando la teoria di Ray
Solomonoff dell’inferenza induttiva con il principio che
Universi velocemente calcolabili, siano più probabili di quelli di
altro genere.
Ray Solomonoff, fu l’inventore della probabilità algoritmica e
fondatore della teoria algoritmica dell’Informazione. Egli fu il
primo a descrivere, nel 1960, il principio della probabilità
algoritmica, pubblicando il teorema cruciale che lanciò la teoria
della Complessità di Kolmogorov11
e la teoria algoritmica
dell’Informazione. La probabilità algoritmica è una
10
Il problema della terminazione (dall'inglese Halting problem, tradotto
anche con problema dell'arresto o problema della fermata) chiede se sia
sempre possibile, descritto un programma e un determinato input finito,
stabilire se il programma in questione termini o continui la sua esecuzione
all'infinito. È stato dimostrato che non può esistere un algoritmo generale che
possa risolvere il problema per tutti i possibili input. La versione più nota del
problema è quella proposta nel 1937 dal matematico Alan Turing, insieme
alla dimostrazione della sua indecidibilità.
11
La Teoria della Complessità algoritmica o Teoria algoritmica della
complessità si occupa dello studio della complessità descrittiva degli
algoritmi e non delle risorse computazionali (memoria occupata e tempo di
calcolo) necessarie ad eseguirli. Non va, quindi, confusa con la Teoria della
complessità computazionale. La Teoria algoritmica della complessità è
stata sviluppata principalmente da Kolmogorov, Chaitin e Solomonoff, per
questo motivo è nota anche come Teoria K-C-S dalle iniziali dei tre
scienziati.
16. combinazione formalizzata matematicamente, del Rasoio di
Occam e del Principio delle Spiegazioni Multiple (Principle of
Multiple Explanations). Il metodo di Solomonoff, consiste
nell’assegnare un valore di probabilità per ciascuna ipotesi
(algoritmo/programma), che spieghi un’osservazione data, con
l’ipotesi più semplice (il programma più breve) avente la più
alta probabilità e le ipotesi sempre più complesse che
contrariamente alle precedenti, ricevono dei valori di probabilità
sempre più piccoli.
L’Induzione di Solomonoff, è una forma rigorosamente
matematica ed idealizzata di induzione, che consiste nel
prevedere cosa accadrà nel futuro, sulla base di esperienze
precedenti. Si tratta di un ramo della teoria algoritmica
dell’Informazione. Questo schema di induzione, risulta essere
teoricamente ottimale, nel momento in cui si dispone di una
certa mole di dati iniziali; in tal caso lo schema sarà sempre in
grado di assegnare un determinato numero di probabilità relative
ad eventi futuri, con la massima accuratezza possibile. L'unico
problema con l'induzione Solomonoff, è che è incomputabile,
ovvero, sarebbe necessario un computer con capacità di
elaborazione infinita per l'esecuzione. Tuttavia, tutti i regimi
assoggettabili a determinati processi induttivi (macchine,
animali ed esseri umani), possono essere intesi come delle pure
approssimazioni relative all’Induzione di Solomonoff. La
motivazione di fondo che ha spinto Solomonoff (ma anche
Kolmogorov e Chaitin) verso tali orizzonti, è stata quella di
formalizzare la teoria delle probabilità e l'induzione mediante
assiomi, nello stesso modo in cui l'algebra e la geometria sono
stati formalizzati. L’Induzione di Solomonoff, si basa su una
regola induttiva del teorema di Bayes12
, che descrive un modo
12
Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema
della probabilità delle cause), proposto da Thomas Bayes, deriva da due
teoremi fondamentali delle probabilità: il teorema della probabilità composta
e il teorema della probabilità assoluta. Viene impiegato per calcolare la
probabilità di una causa che ha scatenato l'evento verificato. Per esempio si
17. matematico e preciso di aggiornare le credenze sulla base dei
dati in arrivo. Un punto debole del teorema di Bayes, è che
dipende da una probabilità a priori di un certo evento. Per
esempio, la probabilità che nei prossimi dieci anni un asteroide
di notevoli dimensioni colpisca la Terra, può essere quantificata
sulla base dei dati storici, relativi alle precedenti collisioni.
Tuttavia, quando la dimensione del campione di eventi
precedenti è bassa (come ad esempio il numero di volte che un
neutrino è stato rilevato in una trappola per neutrini), diventa
molto difficile prevedere la probabilità del ripetersi di un evento,
basata esclusivamente sull'esperienza passata. Ma è proprio qui
che entra in gioco l’Induzione di Solomonoff!
Utilizzando una misura oggettiva della complessità, chiamata
Complessità di Kolmogorov, è possibile, con l’Induzione di
Solomonoff, formulare un'ipotesi circa la probabilità che un
evento futuro si verifichi. La Complessità di Kolmogorov, si
basa su un principio chiamato: Lunghezza Minima Descrittiva
(LMD), che valuta la complessità di una stringa di bit, in base al
più breve algoritmo in grado di produrre quella stringa.
Nonostante la Complessità di Kolmogorov sia stata
inizialmente applicata a stringhe di un solo bit, essa può
comunque essere tradotta per descrivere la complessità degli
eventi e degli oggetti. L’Induzione di Solomonoff, integra la
complessità di Kolmogorov nel ragionamento bayesiano,
dandoci a priori un giustificativo per eventi che potrebbero
anche non manifestarsi mai. La probabilità a priori di un evento
può calcolare la probabilità che una certa persona soffra della malattia per cui
ha eseguito il test diagnostico (nel caso in cui questo sia risultato negativo) o
viceversa non sia affetta da tale malattia (nel caso in cui il test sia risultato
positivo), conoscendo la frequenza con cui si presenta la malattia e la
percentuale di efficacia del test diagnostico. Formalmente il teorema di Bayes
è valido in tutte le interpretazioni della probabilità. In ogni caso, l'importanza
di questo teorema per la statistica è tale che la divisione tra le due scuole
(statistica bayesiana e statistica frequentista) nasce dall'interpretazione che si
dà al teorema stesso.
18. arbitrario, viene determinata in base alla propria complessità e
specificità. Per esempio, la probabilità che due gocce di pioggia
sparse a caso in una tempesta, colpiscano lo stesso metro
quadrato di suolo è piuttosto bassa; ma risulta invece molto più
alta la probabilità che dieci o cento gocce di pioggia sparse a
caso in una tempesta, colpiscano casualmente quello stesso
metro quadrato di terreno. Alcuni scienziati hanno studiato
l'Induzione Solomonoff nel contesto della neuroanatomia,
mostrando come l'induzione ottimale è un principio
organizzativo per l'evoluzione di animali che hanno bisogno di
un’accurata induzione per la sopravvivenza. Quando la vera
intelligenza artificiale sarà creata, il principio di Induzione di
Solomonoff sarà indubbiamente fonte di una probabile
ispirazione, dalla quale potranno nascere le forme più evolute di
tale intelligenza.
Seth Lloyd e David Deutsch, non hanno ovviamente bisogno di
presentazioni; anch’essi hanno dato un notevole contributo allo
sviluppo della teoria dell’ Universo Digitale. Secondo Seth
Lloyd, l’uomo inizierà a comprendere la vera natura dello
Universo, solo nel momento in cui disporrà di computer
quantistici in grado di affrontare il problema alla radice.
D.Deutsch è un pioniere dei computer quantistici ed un
proponente dell'interpretazione a molti mondi della meccanica
quantistica. Egli sostiene che sia possibile progettare e realizzare
una macchina generante una realtà virtuale che, oltre a rivelarsi
in grado di fornire esperienze non distinguibili da quelle
sensorialmente oggettive, riesca a simulare addirittura ambienti
"impossibili fisicamente" ma "possibili (solo) logicamente".
Paola Zizzi è una fisica teorica italiana, nota per aver formulato
una versione quantistica della fisica digitale, da ella stessa
denominata "Computational Loop Quantum Gravity", da cui
l’acronimo "CLQG". In un suo lavoro intitolato “Quantum
Computation toward Quantum Gravity”, presentatato al
19. tredicesimo Congresso internazionale di fisica-matematica
(Londra, luglio 2000), le prime frasi (Abstract) riportate in quel
documento recitano quanto segue: “Lo scopo di questo lavoro è
quello di mettere in luce l’emergente rilevanza della teoria
quantistica dell’Informazione nel campo della Gravità
Quantistica. Come è stato suggerito da J.A. Wheeler, la teoria
dell'Informazione deve svolgere un ruolo rilevante nella
comprensione dei fondamenti della Meccanica Quantistica. In
questo lavoro, proponiamo l’idea che l’Informazione
Quantistica, debba rivestire un ruolo centrale nella Gravità
Quantistica. L’ipotesi di base è che la Gravità Quantistica, la
teoria che concilia la Meccanica Quantistica con la Relatività
Generale, possa essere formulata in termini di bit di
Informazione Quantistica (qubit), memorizzati nello spazio alla
scala di Planck”.
La teoria computazionale quantistica della gravità, fa un certo
numero di previsioni su alcune caratteristiche dell’Universo.
Fornisce un semplice modello del comportamento dello spazio-
tempo in presenza di materia e ci dà i mezzi per calcolare in che
modo le fluttuazioni quantistiche nell’Universo primordiale
hanno determinato la densità della materia e la posizione delle
galassie. È coerente con i modelli che prevedono la formazione
e l’evaporazione dei buchi neri. I suoi qubit sono perfettamente
in grado di riprodurre l’intera gamma di fenomeni osservati e
previsti dal Modello Standard per le particelle elementari.
Nel 1990, J.A. Wheeler, un fisico statunitense di fama mondiale
(deceduto nel 2008, all’età di 96 anni), propose l’idea che
l’Informazione sia qualcosa di fondamentale per la fisica
dell’Universo. Secondo la dottrina dell’ “It from bit” (tale è il
nome con cui definì la sua linea di pensiero), tutti gli oggetti
fisici-materiali, sono intrinsecamente costituiti (nella loro
matrice ultima), da pura Informazione (semplici bit di
Informazione). Cercando di spiegare il significato profondo, di
questa sua nuova e rivoluzionaria teoria sulla realtà fisica delle
20. cose, egli si espresse con le seguenti parole: “In altre parole,
ogni ‘it’ (ogni particella, ogni campo di forza, ed infine anche lo
stesso tessuto dello spazio-tempo), deriva la sua funzione, il suo
significato, la sua stessa intera esistenza (anche se in alcuni
contesti indirettamente), dall’apparato da cui scaturiscono le
risposte (sì / no) a semplici domande; che in ultima analisi non
sono altro che scelte binarie, ossia bit di Informazione. La mia
ipotesi dell’ “it from bit”, simboleggia e descrive l’idea che
ogni elemento del mondo fisico, nella sua matrice ultima, è
definito da una fonte immateriale esplicativa-informativa. In
breve, possiamo dunque considerare che tutti gli oggetti fisici di
questo Universo, sono in origine, fondamentalmente, delle
informazioni teoriche; da tali informazioni prende forma la
realtà, nella sua dimensione classica che tutti noi conosciamo,
rendendo così il tutto interconnesso e partecipativo”.
David John Chalmers, un filosofo australiano specializzato in
Filosofia della Mente e del Linguaggio, sintetizzò il pensiero di
Wheeler con le seguenti parole: “Secondo la dottrina dell’ ‘it
from bit’, le leggi della fisica possono essere espresse in termini
di Informazione, postulando diversi stati che danno luogo a
diversi effetti, senza in realtà dire che cosa sono quegli stati. È
solo la loro posizione in uno spazio di Informazione che conta.
Se così stanno le cose, allora l’Informazione rappresenta un
candidato naturale atto a svolgere anche un ruolo in una teoria
fondamentale della coscienza. Siamo giunti ad una concezione
del mondo in cui l'Informazione è davvero fondamentale,
nonché descritta da due aspetti fondamentali, corrispondenti
alle caratteristiche fisiche e alle caratteristiche fenomeniche del
mondo”.
La teoria dell’informazione afferma che esiste un elemento
fondamentale, il bit – una variabile binaria – che è la base di
tutta la comunicazione. Come risulta, questo bit, un’entità
discreta indivisibile, è la componente essenziale sia del codice
dei computer che delle particelle quantistiche. Sia la realtà fisica
21. che quella digitale sono composte dagli stessi bit binari
quantizzati di informazione. La realtà, a prescindere dal suo
contenuto, non è altro che l’informazione che trasmette.
“Storicamente, gran parte della fisica fondamentale si è
occupata della scoperta delle particelle fondamentali della
natura e delle equazioni che descrivono i loro moti e interazioni.
Ora sembra che un diverso programma potrebbe essere
altrettanto importante: scoprire i modi con cui la natura
consente o previene l’espressione e la manipolazione
dell’informazione, piuttosto che il moto delle particelle”.
(Steane, AM (1998), Quantum Computing, Reports on Progress
in Physics 61, P.119).
“Per me il concetto di informazione è alla base di ogni cosa che
noi chiamiamo "natura". La luna, la sedia, l'equazione degli
stati, niente e tutto, in quanto non possiamo parlare di alcunché
senza de facto parlare dell'informazione che noi abbiamo di
queste cose. In questo senso l'informazione è il blocco
costruttivo basilare del nostro mondo. Noi abbiamo imparato
nelle scienze naturali che la chiave di lettura può essere spesso
trovata se rimuoviamo certe linee di demarcazione nelle nostre
menti. Newton ha mostrato che la mela cade al suolo in accordo
a certe leggi che governano l'orbita della luna intorno alla
Terra. E con questo ha reso obsoleta la vecchia differenziazione
tra fenomeni terrestri e fenomeni celesti. Darwin ha mostrato
che non ci sono linee divisorie tra l'uomo e gli animali. Ed
Einstein ha rimosso la linea di demarcazione tra spazio e tempo.
Ma nelle nostre menti, noi ancora tracciamo una linea di
separazione tra "realtà" e "conoscenza sulla realtà", in altre
parole tra realtà e informazione. E lei non può tracciare questa
linea. Non c'è nessuna regola, nessun processo di distinzione tra
realtà e informazione. Tutto questo pensare sulla realtà è
pensare sull'informazione, che è il motivo per cui lei non può
fare questa distinzione in una formulazione delle leggi di
22. natura. La meccanica quantistica, correttamente interpretata, è
una teoria dell'informazione”. Anton Zeilinger
Un gruppo di fisici guidato dal Dr. Stephen Durr del John Von
Neumann Institute in Germania ha confermato che la somma
delle tre particelle subatomiche (chiamate quark) che formano i
protoni ed i neutroni, rappresentano appena l'uno per cento della
loro massa totale. Tali prove suggeriscono che il resto della
massa nucleare sarebbe costituita da gluoni13
, particelle
effimere, che formano una bolla in mezzo al vuoto, la cui
funzione è di mantenere unito il trio dei quark all'interno dei
protoni e dei neutroni. Questo fatto suggerisce l'ipotesi che la
nostra realtà tangibile potrebbe essere semplice fluttuazione di
vuoto o puramente nulla.
Dal momento che la realtà delle particelle non può essere niente
più che fumo e ombre, potrebbe essere che l'esistenza reale di
tutti gli oggetti del cosmo risieda in uno o più spazi paralleli.
Molti scienziati ipotizzano che, proprio come un oggetto
tridimensionale è in grado di proiettare un ombra a due
dimensioni sul terreno, un universo pluridimensionale (come nel
caso della teoria delle stringhe) potrebbe gettare un'ombra in uno
spazio tridimensionale. Se questa teoria è corretta, ogni oggetto
ed organismo in questo mondo non sarebbe che una
rappresentazione grossolana degli oggetti e degli organismi in
un universo più "reale". In coincidenza con questa teoria,
13
In fisica, i gluoni sono le particelle elementari, responsabili della forza
cromatica. Essi tengono uniti assieme i quark, per formare gli adroni, ovvero
tutte le particelle soggette all`interazione forte, ad esempio i protoni e i
neutroni; la loro carica elettrica è zero, il loro spin è 1 (sono bosoni vettori) e
generalmente si assume che abbiano massa uguale a zero. I gluoni sono
responsabili della stabilità del nucleo atomico. Il termine deriva dall'inglese
glue (colla), in quanto tengono "incollate" altre particelle.
23. l'esistenza di una mente extracorporea in un'altra dimensione
potrebbe essere la spiegazione ideale del perché abbiamo
memoria, in quanto gli atomi nel nostro cervello sono sostituiti
centinaia di volte durante il corso della nostra vita. Secondo
Steve Grand, l’autore di "Creation: Life and How to Make It,"
nessuno degli atomi che compongono il nostro corpo di oggi era
nel nostro corpo durante un evento della nostra infanzia che ci
ricordiamo. Pertanto, non siamo solo la materia di cui siamo
fatti. Ciò implica che i nostri corpi reali sono nello spazio che
non possiamo comprendere, mentre un corpo virtuale, un
semplice contenitore, sarebbe ciò che è …in ciò che noi
chiamiamo realtà.
Correva l’anno 1958, quando Erwin Schrödinger (ben trenta
anni prima che emergessero le prime teorie sull’Universo
Olografico o “digitale”!), nelle ultimissime pagine del suo libro
“L’immagine del mondo” (nell’ultimo capitoletto intitolato:
Potrebbe l’energia essere un concetto puramente statistico?),
scriveva e proponeva al mondo queste sue straordinarie
riflessioni: “Uno stato di non equilibrio non può essere
rappresentato da un’ autofunzione d’energia. Infatti è ben noto
e abbastanza evidente che, se la funzione d’onda dipende dal
tempo soltanto secondo un esponenziale immaginario (una
frequenza), il sistema è completamente morto. Non ha luogo
nessun cambiamento, nulla dipende dal tempo. L’associazione
proposta ridurrebbe in ognuno dei casi il sistema in questione
nelle condizioni della bella addormentata nel bosco: gradienti
di temperatura o concentrazione congelati, reazioni chimiche
arrestate a metà, un mattone che sta cadendo sospeso in aria a
metà strada per forza magica, un’onda radio emessa da Londra
che non raggiunge Cambridge, e così via. (…) Ma c’è un altro
aspetto più serio della stessa cosa, cioè il fatto che secondo
l’opinione corrente una misurazione assolutamente precisa
dell’energia totale di un sistema fisico, porterebbe il sistema
stesso nello stato di equilibrio termodinamico (ovvero
d’entropia massima), per quanto esso ne fosse lontano all’inizio
24. della misurazione.(…) L’equilibrio termodinamico è una pura
astrazione, un caso limite che non si incontra mai in realtà.
Nessun sistema che noi osserviamo ha un valore energetico
perfettamente determinato, anzi non dobbiamo nemmeno
ammettere una cosa simile nelle immagini da noi inventate per
descrivere ciò che succede. Perché nessuna cosa che partecipi a
ciò che succede ha un’energia ben definita. Non parla ciò a
favore della mia tesi, che l’energia, proprio come l’entropia, è
un concetto statistico?”
Nel libro “Il Programma dell’Universo”, l’autore (Seth Lloyd,
noto fisico e informatico statunitense) dichiara apertamente che
lo scopo principale della sua opera letteraria, è di “mostrare il
ruolo fondamentale che l'informazione gioca nell'universo (…).
Tramite la comprensione di come esso elabori se stesso, noi
possiamo capirlo nel suo complesso". In esso l'autore espone la
storia dell'unità informativa, il bit, e dell'Universo inteso come
computer quantistico virtualmente illimitato che non ha mai
cessato, fin dalla sua origine, di elaborare se stesso e la sua
evoluzione con una potenza di calcolo stimata essere, allo stato
attuale, di circa 10^105 operazioni quantistiche al secondo (cioè
basate sul contenuto informativo registrato tramite bit quantistici
o Q-bit14
). Dato che i q-bit possono registrare due stati logici (0
14
Qubit, contrazione di quantum bit, è il termine coniato da Benjamin
Schumacher per indicare il bit quantistico, ovvero l'unità di informazione
quantistica. Per definire il qubit è indispensabile introdurre innanzi tutto il
concetto nuovo di quanto di informazione, cioè la più piccola porzione in
cui una qualsiasi informazione codificata può essere scomposta; è quindi
l'unità di misura dell'informazione codificata. Così come il bit è il quanto di
informazione della computazione classica, la computazione quantistica si
basa su un concetto analogo: il quantum bit. Al pari del bit, il qubit è un
oggetto matematico con determinate specifiche proprietà. Il vantaggio nel
trattare i qubit come entità astratte risiede nella libertà di costruire una teoria
generale della computazione quantistica che non dipende dagli specifici
sistemi utilizzati per la sua realizzazione.
25. e 1) contemporaneamente, già con pochi q-bit a disposizione un
elaboratore quantistico ha una potenza di calcolo
incommensurabile rispetto ad un suo concorrente, dotato di
circuiti basati sulla tradizionale tecnologia dei microprocessori
nei quali i bit registrano solo gli stati 0 oppure 1.
Riprendendo le stesse parole usate da Lloyd ne “Il programma
dell’Universo”, possiamo inoltre affermare che: “(…)Poiché
l’Universo è in grado di svolgere calcoli quantistici e un
computer quantistico è in grado di simulare i sistemi fisici,
Universo compreso, ne segue che un qualsiasi computer
quantistico e l’Universo hanno la stessa capacità
computazionale e sono quindi, sostanzialmente, identici”.
Il modo in cui un computer quantistico riesce a simulare il
comportamento dei sistemi fisici, viene definito: simulazione
quantistica. Sempre secondo Lloyd: “A causa delle varie
complicazioni insite nella meccanica quantistica, i computer
classici non riescono a riprodurre con efficienza il mondo
microscopico15
. Ma un computer quantistico non soffre di tali
limiti. È sufficiente mettere in corrispondenza biunivoca le varie
parti del sistema da simulare con i qubit di un computer
quantistico: le interazioni fisiche diventano così operazioni
logiche, e la simulazione è così precisa che i due oggetti
(computer e sistema da simulare) si comportano esattamente
allo stesso modo, tanto da diventare a tutti gli effetti
indistinguibili”.
In un articolo divenuto ormai leggendario (Ultimate Physical
Limits to Computation, apparso su Nature nel 2000), Lloyd ha
15
Simulare il comportamento dinamico di un oggetto assai piccolo, come ad
esempio un insieme di trecento particelle con spin, va già oltre le possibilità
di qualsiasi calcolatore classico. Per poterle simulare, tuttavia, basterebbero
trecento qubit programmati in modo tale che le loro interazioni siano una
replica perfetta delle interazioni tra le particelle.
26. dimostrato che la capacità computazionale di un qualunque
sistema fisico può essere calcolata a priori in funzione
dell’energia disponibile e delle dimensioni del sistema stesso.
La relazione che lega energia e velocità in un sistema di calcolo
è data dal teorema di Margolus-Levitin.16
Il teorema di Margolus-Levitin dice che la massima velocità con
cui un sistema fisico (come un elettrone, ad esempio) può
spostarsi da uno stato a un altro, è direttamente proporzionale
all’energia del sistema stesso. Si tratta di un risultato molto
generale. Non è importante la natura del sistema, né il modo in
cui registra ed elabora l’informazione: conta solo l’energia
disponibile per la computazione. Il teorema non è solo di tipo
qualitativo, ma fornisce una formula precisa per il calcolo della
massima velocità: il numero massimo di commutazioni al
secondo di un bit è dato dall’energia necessaria per effettuare la
commutazione moltiplicato per quattro e diviso per la costante
di Planck. Se applichiamo la formula a una particella media,
otteniamo che questa può commutare fino a 30'000 miliardi di
volte al secondo. Il limite fissato da Margolus e Levitin è un
limite massimo teorico, che i calcolatori convenzionali non
raggiungono mai. Un computer quantistico, invece, opera
sempre al massimo della velocità possibile.
Quando si parla di capacità computazionale dell’Universo,
ovviamente il riferimento è sempre rivolto all’Universo
osservabile, ossia a quella parte di Universo, definito e
delimitato dal nostro “orizzonte cosmico”. Ma il nostro
16
Tale teorema venne così chiamato, in onore dei due scopritori. Norman
Margolus, è uno dei pionieri nel campo della fisica della computazione. Sotto
la guida di Tommaso Toffoli al MIT, ha dimostrato che un semplice sistema
formato da un gruppo di atomi che interagiscono tra loro può fungere da
computer digitale universale. Lev Levitin, a Boston, è stato uno dei primi a
calcolare in modo esplicito, usando le leggi della fisica, la capacità di
trasmissione delle fibre ottiche. I loro sforzi congiunti hanno portato nel 1998
alla pubblicazione di un articolo (The Maximum Speed of Dynamical
Evolution) in cui enunciavano il teorema che avrebbe preso il loro nome.
27. Universo comunque non è statico, per cui l’orizzonte cosmico si
allarga con il passare del tempo (a un ritmo triplo rispetto alla
velocità della luce). Con l’ampliarsi dell’orizzonte, cresce il
numero di corpi celesti e cresce di pari passo l’energia
disponibile per la computazione. Dunque, ciò significa che la
capacità computazionale dell’Universo all’interno del nostro
orizzonte cosmico, accresce continuamente nel tempo, ad una
velocità impressionante. Inoltre, come già detto con l’espandersi
dell’orizzonte cosmico, aumenta anche la quantità di energia
disponibile. Ciò significa che il numero totale di operazioni
elementari e di bit, è da intendersi come una funzione crescente
dell’età dell’Universo.17
Lloyd sostiene che “siccome ogni molecola, ogni atomo e quark
registrano informazioni, il modo migliore per cogliere l'essenza
di un oggetto - minimo o massimo che sia - è conoscerlo come
un dispositivo che processa bit. Un computer, insomma”. Tom
Siegfried, nel libro “The Bit and the Pendulum” , intravede nel
fenomeno culturale della “Digital Physics”, qualcosa di più
sostanzioso di un semplice cambio di metafora.
Avendo ormai la letteratura abusato dell'espressione
'mutamento di paradigma', ecco che Siegfried inventa il
'superparadigma', composto dalla triade: informazione (bit);
processo d'informazione (computazione); macchina che processa
informazioni ( computer).
Brian Hayes, con un contributo all' “International Journal of
Theoretical Physics”, compie un ulteriore passo in avanti. Il
problema non è più se l'universo sia un enorme processo
computazionale, ma come elaborare un programma per
17
Nel Modello Standard la relazione tra energia totale e tempo (a partire dal
Big Bang) è di tipo lineare (rispetta dunque la legge della proporzionalità
diretta). Poiché la velocità massima di elaborazione dell’informazione è
direttamente proporzionale all’energia, anch’essa è una funzione lineare
dell’età dell’Universo. Dunque, il numero totale di operazioni elementari
svolte, che è uguale alla velocità moltiplicata per il numero dei secondi
trascorsi dal Big Bang, è una funzione del quadrato dell’età dell’Universo.
28. computer capace di implementare un universo come il nostro. Il
titolo dell'articolo è “Debugging the Universe”, dove l'azione
del ' debug' - altra espressione fermentata nel mondo informatico
- equivale al togliere gli errori, i vizi, i 'bachi' ( bug ) da un
sistema. Il fine: ottenere una versione ottimizzata del nostro
universo.
La nuova immagine dell'universo-computer non può non avere
risonanza sul piano cosmogonico e, in ultimo, sulla questione
religiosa della creazione. Già Charles Babbage, agli albori della
cibernetica, fantasticò che “Logos” fosse il codice con cui il Dio
creatore instanzializzò il calcolatore cosmico. Ai nostri giorni,
l'antropologo Stefan Helmreich riferisce, nel suo "The Word for
World Is Computer”, di una simulazione di vita artificiale che si
chiama Aleph. Il già menzionato Seth Lloyd inizia il suo libro
“Il programma dell'Universo” con una sorta di nuova Genesi:
«All'inizio era il bit», per giungere, nelle pagine finali, a
concludere che «la terra di cui siamo stati plasmati è la
computazione». Come dire: ricordati che sei bit e bit tornerai.
Ancora più diretta, in senso teologico, è la riflessione distesa da
Kevin Kelly in un articolo molto noto nel settore, “God Is the
Machine”. Merita di essere ricordato anche il lungo sottotitolo
che, in italiano, suona: “All'inizio era lo 0. E poi fu l'1. Una
meditazione ipnotizzante sul potere trascendente della
computazione digitale”. Qui Kelly, dopo un'ariosa ricognizione
della storia dell'idea dell'universo-computer, si blocca dinanzi ad
un dubbio assai intricato: ma Dio, di questo universo, è il
Sommo Programmatore, è il Software cosmico o, ancora, è il
“necessario Other”, ovvero la Piattaforma esterna dove il
programma “Universo” è fatto girare? Si tratta di un
interrogativo singolare, anche un poco irriverente, che nel futuro
prossimo, però, potrà tornare ad interpellare.
Olografia quantistica elettronica:
Nel corso di un’ormai leggendaria conferenza del 1959, il
grande fisico e premo Nobel Richard Feynman, sostenne che
29. non vi fossero barriere fisiche che potessero impedire a
macchine e circuiti di essere drasticamente ridotti di dimensioni.
Definì questo concetto con la ormai celebre frase "There's
Plenty of Room at the Bottom" (C'è molto spazio là in fondo).
Feynman offrì mille dollari a chi avesse trovato un modo per
scrivere una pagina da un libro di testo ordinario in uno spazio
25.000 volte più piccolo (una scala in cui l'intero contenuto della
Enciclopedia Britannica si adatta alla testa di uno spillo).
Il premio non fu consegnato fino al 1985, quando uno studente
di Stanford, Tom Newman, insieme al professore di ingegneria
elettronica Fabian Pease, realizzò una litografia a fascio
elettronico per incidere la pagina di apertura di Dickens "A Tales
from two cities". Questo record fu detenuto fino al 1990, quando
un gruppo di ricercatori appartenenti a una nota società di
computer, riuscì ad incidere le lettere IBM, disponendo vicini 35
atomi di xeno.
All’inizio del 2009, il record fu nuovamente battuto. In un
documento pubblicato online sulla rivista Nature Nano-
technology, alcuni ricercatori della Stanford University
descrissero le tecniche impiegate per creare delle lettere di
dimensioni 40 volte inferiori all'esperimento originale, le cui
dimensioni erano di 0.3 nanometri (circa 1/3 di un miliardesimo
di metro). Si arrivò dunque ad una conquista straordinaria, sia
nel campo delle nanotecnologie che in quello della fisica
dell’Informazione; ovvero: il limite di densità di informazioni
non era più quello di un bit per ogni atomo!
Oggi esiste dunque un nuovo orizzonte che permette di creare
spazio per memorizzare più informazioni. Attraverso una nuova
tecnologia, detta olografia quantistica elettronica, e modificando
la disposizione delle molecole, i ricercatori possono creare
differenti forme d'onda per la codifica delle informazioni. In un
tradizionale ologramma la luce laser colpisce un’immagine
bidimensionale da cui appare un oggetto 3D virtuale. Nel nuovo
tipo di olografia, gli ologrammi molecolari bi-dimensionali non
30. sono illuminati dalla luce laser, ma da elettroni che sono già in
una piastra di rame, in grande abbondanza.
L' "oggetto elettronico" risultante, può essere letto con un
microscopio a scansione tunnel. Il risultato è che nello stesso
ologramma possono essere memorizzate diverse immagini,
ognuna creata da una diversa lunghezza d’onda di elettroni. I
ricercatori possono allora leggerle separatamente, così come si
fa con le pagine di un libro, in uno spazio che è lo stesso per
ogni atomo considerato. L’ esperimento ha permesso di
memorizzare, dunque, circa 35 bit per elettrone, necessari per la
codifica di ogni lettera. La conclusione più importante è che
un bit per atomo, non è più il limite ultimo di densità di
informazioni.
Nel 1994, ben quindici anni prima di questo eccezionale
risultato, Frank Tipler, nella sua opera fondamentale “La fisica
dell’immortalità”, scriveva: „(…)tutte le entità presenti
nell’Universo attuale, codificano una quantità di informazione
di gran lunga inferiore alla quantità permessa dalla teoria
quantistica dei campi. Per esempio, se un atomo di idrogeno
dovesse codificare tutta l’informazione che gli è consentita dal
limite di Bekenstein18
, potrebbe codificare circa 4 x 10^6 bit di
informazione (…)Quindi un atomo di idrogeno potrebbe
codificare all’incirca un megabyte di informazione, mentre di
norma codifica molto meno di un bit. La massa dell’idrogeno
non viene di certo utilizzata in modo efficiente! Se si assume che
il raggio sia quello di un protone (R= 10^-13 cm),la quantità di
18
La meccanica ci dimostra che il numero di bit codificabili in una regione
limitata, è paragonabile al numero di stati quantistici possibili in tale regione.
Il limite di Bekenstein, determina il limite fondamentale al numero degli stati
quantistici possibili in una regione limitata. Se l'informazione I è legata al
numero degli stati possibili N dall'equazione: I = log2 N, allora il limite di
Bekenstein alla quantità di informazione codificata all'interno di una sfera di
raggio R e di energia totale E è: I < 2(p-greco)ER / ( hc ln 2).In genere si
adotta, come limite superiore al numero di bit, codificabili da parte di
un'entità fisica qualunque che abbia una massa di cento chili e un volume di
circa 4,2 m^3, il valore: I < 2,57686 x 10^45 bit.
31. informazione codificabile nel protone è costituita da soli 44 bit!
Questo valore è davvero piccolo rispetto alla complessità del
protone - tre quark valenza, innumerevoli quark e gluoni
virtuali- che è di fatto tanto complesso che non siamo ancora
riusciti a calcolarne lo stato di base dai principi fondamentali
utilizzando il Modello Standard, anche utilizzando i
supercomputer più avanzati!“
32. Informazione e teletrasporto quantistico:
“Si potrebbe ben dire che l’informazione sia
l’irriducibile nucleo da cui tutto scorre,
per cui la questione per cui la natura
appare quantizzata è semplicemente una
conseguenza del fatto che l’informazione
stessa viene quantizzata per necessità”.
Anton Zeilinger
La teoria quantica afferma che l’energia di una forza viene
trasmessa in entità discrete indivisibili, chiamati quanti. Questi
quanti rappresentano i più piccoli elementi della natura. Il fatto
che l’energia possa essere quantizzata in unità di minuscoli
quanti equivale a ridurre un’ immagine a due dimensioni in
movimento, in piccoli bit di informazione che compongono una
linea di codice computabile. La teoria dell’informazione si è
combinata con la nostra comprensione quantistica della materia
in modo tale che lo stato di qualsiasi sistema possa essere
descritto in base a come esso memorizza questi bit di
informazione. Lo stato quantico di un atomo – un qubit – può
essere trasferito da un atomo ad un altro. Questa azione,
denominata teletrasporto quantistico, provoca la distruzione
dell’atomo originale a causa della regola no-cloning19
. Tuttavia,
19
Il teorema di no-cloning quantistico asserisce che, dati i postulati della
meccanica quantistica, non è possibile duplicare esattamente (cloning) uno
stato quantistico sconosciuto a priori. È invece possibile effettuare la
duplicazione senza errori se lo stato appartiene ad un insieme ortogonale di
stati conosciuto a priori: tale duplicazione fallisce se lo stato non appartiene
all'insieme ortogonale. In particolare è sempre possibile duplicare uno stato
conosciuto a priori. Il teorema è equivalente al teorema di non
discriminazione quantistico: se fosse, infatti, possibile distinguere in modo
certo stati non ortogonali, sarebbe poi possibile utilizzare una macchina
specifica per la duplicazione di uno stato piuttosto che l'altro, rendendo così
33. non vi è una differenza sostanziale tra l’atomo originale e la
copia. La meccanica quantistica non distingue un atomo da un
altro. L’unica differenza sta nelle informazioni quantistiche che
trasportano.
Se si possedesse un dispositivo di teletrasporto per esseri umani,
non sarebbero i vostri atomi ad essere teletrasportati e
riassemblati, ma piuttosto le informazioni quantistiche
responsabili dell’assemblaggio di un gruppo anonimo di atomi
dentro di voi. Questo conduce ad una domanda metafisica: vale
a dire, la vostra copia, sarebbe del tutto identica all’originale
(ricordi inclusi)?
La meccanica quantistica afferma che l’informazione è reale
come qualsiasi altra proprietà che diamo agli atomi come il
moto rotatorio, la velocità, o la massa. Poiché il bit di
informazione viene considerato un vero elemento fisico,
l’osservazione, la trasmissione e la ricezione di informazioni,
costituiscono un vero scambio fisico. Per vedere qualcosa è
necessario far rimbalzare un fotone su di esso. Questo modifica
ciò che si sta osservando. Tutto questo rappresenta una radicale
rottura con la meccanica classica che considera le osservazioni
come eventi cognitivi senza conseguenze fisiche.
Il trasferimento di informazioni durante la misurazione
comporta quindi lo scarto di qualcosa: un bit di informazione.
Questo bit di informazione penetra nel vostro sistema nervoso e
si unisce al flusso infinito di informazioni diretto al cervello.
“Noi esseri umani memorizziamo le informazioni nel nostro
cervello e nei nostri geni così come i computer memorizzano le
possibile la duplicazione di stati non ortogonali. Nel caso classico la
duplicazione di una informazione è in principio sempre possibile. L'apparente
contraddizione con il caso quantistico viene risolta dal fatto che gli stati di un
sistema macroscopico descrivibile classicamente appartengono sempre ad un
insieme ortogonale, per il quale la duplicazione è possibile.
34. informazioni nei loro hard disk” (Charles Seife). Questo bit
quantico, noto come qubit, viene memorizzato nel vostro
cervello, in modo tale da avere conseguenze misurabili sulla
materia fisica.
Il bit è un elemento binario in grado di esprimere i fondamentali
paradossi, l’ambiguità e le indeterminazioni della meccanica
quantistica. Piuttosto che solo sì o no, il bit quantico (Q-bit) può
comportarsi come se le cose fossero sì e no, on e off, particella o
onda. Questo stato di sovrapposizione deve essere mantenuto
fino a che il bit quantico viene coinvolto in una interazione con
qualcosa che va al di là di se stesso. Dal momento che le
interazioni si verificano costantemente nell’universo, sia che
provengano da scienziati indagatori o da particelle invisibili, la
sovrapposizione è uno stato effimero. “Sembra che l’atto del
vivere possa essere visto come l’atto di replicare e preservare le
informazioni nonostante i tentativi della Natura di dissiparle e
distruggerle. (La teoria dell’informazione sta svelando la
risposta alla secolare domanda: Che cos’ è la vita? La risposta
è abbastanza inquietante)”. (Charles Seife).
Il teletrasporto – inteso come forma di trasferimento istantaneo,
a distanza e senza l’interposizione di alcun mezzo fisico dello
stato quantistico di un sistema atomico o molecolare sfruttando
il fenomeno di entanglement – è uno di processi più misteriosi
delle scienze fisiche. Il fenomeno dell’entanglement, a sua
volta, ha diviso i fisici teorici e sperimentali per diversi decenni,
fin dalle prime prese di posizione di Albert Einstein, che con i
colleghi Podolsky e Rosen formulò il celebre Paradosso EPR,
passando per le disuguaglianze di Bell20
per arrivare ai recenti
20
Il Teorema di Bell afferma, nella forma più immediata, che nessuna teoria
fisica locale e deterministica a variabili nascoste può riprodurre le predizioni
della meccanica quantistica. Considerato come un importante contributo a
favore della meccanica quantistica, in particolare del suo carattere contro-
intuitivo nel rifiuto del realismo locale, tocca questioni fondamentali per la
35. esperimenti in proposito di Anton Zeilinger in Austria e di
Francesco de Martini a Roma. Si tratta in sostanza di una
proprietà di correlazione quantistica tra due sistemi
opportunamente preparati e che si mantiene anche quando essi
vengono separati anche a distanza arbitraria, in via teorica.
Qualche anno fa (gennaio 2009), ricercatori del Joint Quantum
Institute (JQI) dell’Università del Maryland (UMD) e
dell’Università del Michigan, sono stati in grado di ottenere con
successo il teletrasporto di uno stato quantistico tra due atomi,
posti tra loro ad una distanza considerevole. Secondo i
ricercatori che hanno compiuto tale esperimento, utilizzando
questo protocollo sperimentale l’informazione teletrasportata
può essere recuperata con un’accuratezza del 90 per cento, con
prospettive di ulteriori miglioramenti. Christopher Monroe,
coordinatore della ricerca, commentò con queste parole il
filosofia della fisica moderna. È il più famoso lascito del fisico irlandese John
Stewart Bell. L'articolo di Bell del 1964 era intitolato "Sul paradosso
Einstein-Podolsky-Rosen". Il Paradosso Einstein-Podolsky-Rosen (paradosso
EPR) presume il realismo locale, ossia le nozioni intuitive che i parametri
delle particelle abbiano valori definiti indipendentemente dall'atto di
osservazione e che gli effetti fisici abbiano una velocità di propagazione
finita, considerando appunto paradossale il carattere non locale della
meccanica quantistica nella sua interpretazione ortodossa e concludendo per
la sua incompletezza, cioè per la presenza di variabili nascoste. Ampliando
l'esperimento mentale del paradosso EPR, in particolare studiando rapporti su
angolazioni intermedie, rispetto alle sole ortogonali considerate dai tre
predecessori, Bell ha dimostrato che la condizione di realismo locale impone
alcune restrizioni nelle correlazioni previste tra i parametri di particelle
entangled (originate da uno stesso processo fisico e aventi caratteristiche
simmetriche), che non sono richieste dalla meccanica quantistica. Di
converso, previsioni in completo accordo con quest'ultima implicano la
rinuncia ad almeno uno fra determinismo e località. Le restrizioni
evidenziate, espresse matematicamente da relazioni di disuguaglianza
chiamate Disuguaglianze di Bell, permettono, tramite opportune
misurazioni, una verifica sperimentale.
36. risultato del loro esperimento: “Il nostro sistema ha le
potenzialità per costituire la base di un ‘ripetitore quantistico’
in grado di connettere in rete memorie quantistiche su distanze
enormi. Inoltre, i nostri metodi possono essere utilizzati in
abbinamento con operazioni su bit quantistici per creare i
‘mattoni elementari’ del calcolatore quantistico del futuro, in
cui i supporti logici e di memoria sono su scala atomica o
molecolare.”
Durante l’estate dello stesso anno (giugno 2009), i fisici del
National Institute of Standards and Technology (NIST) hanno
dimostrato la possibilità di produrre e osservare il fenomeno
dell’entanglement – che Einstein definì come una sorta di
“azione fantasma a distanza” – in un sistema su scala atomica
del tutto simile a un sistema meccanico del mondo
macroscopico. In sostanza, i ricercatori riuscirono ad imporre
l'entanglement al moto vibratorio di due coppie di ioni
berillio/magnesio. Ciascuna coppia si comportava come un
oscillatore meccanico connesso a una molla di 4 micron di
lunghezza. L'entanglement indusse le due coppie a vibrare
all'unisono anche se esse si trovavano separate da 240
micrometri e localizzate in differenti zone della “trappola
ionica” in cui vennero poste.
La nostra intuizione sulla natura del mondo fisico è talmente
condizionata dall'esperienza con oggetti macroscopici che
interagiscono secondo le leggi della meccanica classica da
rendere difficile comprendere appieno stranezze del mondo
quantistico come la sovrapposizione (per cui quando un oggetto
non viene osservato può trovarsi allo stesso tempo in più stati
differenti) e l'entanglement o "non separabilità quantistica" (per
cui lo stato di un oggetto si trova in stretta correlazione con
quello di un altro oggetto con esso entangled, anche se essi sono
37. spazialmente separati; ossia; se qualcosa altera lo stato quantico
dell'uno, anche l'altro subirà un'alterazione).
Eppure la teoria prevede che stati di sovrapposizione ed
entanglement siano possibili anche per oggetti di grandi
dimensioni. Vero è che l'enorme quantità delle interazioni che
sorgono fra i componenti elementari di un oggetto macroscopico
e fra l’oggetto stesso e l'ambiente, sono tali da indurre
sistematicamente quel fenomeno di decoerenza21
, che
impedisce di osservare su scala macroscopica gli effetti
quantistici. Tuttavia, l'esplorazione della persistenza delle
correlazioni quantistiche nel mondo "classico" impegna molti
fisici sperimentali, sia per il suo significato a livello di scienza
21
In un modello di „misura“, ciò che produce la riduzione del pacchetto
d'onde, è l'interazione del sistema con ciò che gli sta attorno (ad esempio lo
stesso “ apparecchio di misurazione“).Più generalmente, gli oggetti quantici
non sono mai completamente isolati da ciò che li circonda, dove per „ciò che
li circonda“ si intende tutto ciò che interagisce con il sistema (un
apparecchio, delle molecole d'aria, dei fotoni, ecc...). Le multiple interazioni
tra l'oggetto quantico e „ciò che lo circonda“ , causano una distruzione molto
rapida delle interferenze quantiche del sistema. Le interferenze sono un
fenomeno ondulatorio, e caratterizzano un comportamento quantico. La
distruzione delle interferenze, comporta a sua volta una soppressione delle
super-posizioni di stati che caratterizzano l'oggetto quantico; esso quindi,
disponendo unicamente di alcuni stati semplici, assume immediatamente un
comportamento classico. In un oggetto macroscopico (un gatto per
esempio),ogni suo atomo interagisce con tutti gli altri atomi dell'ambiente che
gli sta attorno. Tutte queste interazioni provocano spontaneamente un
„ronzio“ di interferenze quantiche, che spariscono quasi istantaneamente.
Ecco perché la fisica quantica non si applica alla nostra scala: i sistemi non
sono mai isolati. Questo fenomeno è stato battezzato „decoerenza“, poiché è
la distruzione della coerenza degli stati quantici che elimina le interferenze.
La velocità di decoerenza aumenta con la grandezza del sistema. Un gatto per
esempio, formato da circa 10^27particelle, “decoerisce“ in 10^-23 secondi.
Ciò spiega perché non si sono mai visti dei gatti „morti-viventi“, e infine
perché la decoerenza sia così difficile da osservare.
38. di base sia per le sue implicazioni a livello di applicazione in
futuri computer quantistici.
Nel mese di dicembre del 2011, un gruppo di ricercatori delle
Università di Oxford (GB), di Singapore e del National
Research Council canadese, ha dimostrato che l'entanglement
quantistico può manifestarsi in maniera (relativamente) vistosa
anche nel mondo macroscopico. I ricercatori sono infatti riusciti
a porre in uno stato di "non separabilità" quantistica due
diamanti di circa un millimetro di diametro, collocati a una
distanza di 15 centimetri l'uno dall'altro e, cosa non meno
significativa, a temperatura ambiente.
L'eccitazione termica è infatti una delle principali cause di
distruzione delle correlazioni quantiche alla base della nostra
osservazione di risultati di misura classici e non a caso gli studi
sperimentali sull'entanglement vengo condotti solitamente a
temperature quanto più basse possibile. In particolare, i
ricercatori sono riusciti a generare uno stato di entanglement tra
due campioni di diamante utilizzando sofisticate apparecchiature
laser, separatori di fasci e rilevatori (la tecnica è chiamata
spettroscopia ultra pompa veloce sonda), mostrando che è
possibile forzare i due diamanti a "condividere" i fononi, ossia
gli schemi di oscillazione degli atomi nel reticolo cristallino dei
campioni di diamante.
Solo qualche mese fa invece (maggio 2012), il gruppo viennese
guidato da Anton Zeilinger batte il primato di teletrasporto
trasferendo lo stato quantistico di fotoni tra due isole delle
Canarie, a 147 chilometri di distanza. Pochi giorni prima,
ricercatori cinesi diretti da Jian-Wei Pan avevano annunciato di
aver effettuato il teletrasporto dello stato di fotoni a una distanza
di 97 chilometri. Questi successi aprono la strada a nuovi test su
39. lunghe distanze, usando addirittura satelliti in orbita, e a future
tecnologie di comunicazione quantistica di uso pratico.
Alla base degli esperimenti sul teletrasporto quantistico vi è
l’ormai noto fenomeno dell’entanglement, per il quale due
particelle opportunamente preparate (convenzionalmente
indicate come “A” e “B” o con i nomignoli Alice e Bob)
stabiliscono una correlazione di natura quantistica che si
mantiene anche allontanandole a una distanza virtualmente
arbitraria. Una misurazione condotta su una delle due fa
collassare il suo stato quantistico su un valore definito, e lo
stesso avviene per la particella lontana, come se ci fosse una
misteriosa interazione istantanea a distanza (spooky action at a
distance, come la definì Albert Einstein, che propose per primo
il paradosso di questa comunicazione, passato alla storia come
“Paradosso EPR”, da un famoso articolo del 1935 scritto con
Boris Podolski e Nathan Rosen).
Alla fine degli anni novanta, grazie ai pionieristici studi di
Francesco De Martini dell'Università «La Sapienza» di Roma e
di Anton Zeilinger, allora all’Università di Innsbruck, la realtà
del teletrasporto è stata dimostrata sperimentalmente. Da ciò è
nato un fertile filone di ricerca che ha portato a diversi successi,
in diversi centri di ricerca sperimentale nel mondo.
L’esperimento di Zeilinger e colleghi si è svolto nelle Isole
Canarie. Sfruttando nuove tecnologie, quali un’innovativa fonte
di fotoni entangled e di rivelatori di fotoni singoli a rumore
ultra-basso, e superando notevoli difficoltà meteorologiche, il
gruppo è riuscito a portare a buon fine il teletrasporto dall'isola
di La Palma a quella di Tenerife, che distano tra loro 147
chilometri. Se i risultati annunciati da Zeilinger saranno
confermati dalla peer review e superata quindi ufficialmente la
barriera dei 100 chilometri, s’intravede la possibilità di
40. estendere i test utilizzando i satelliti artificiali in orbita. E,
guardando più oltre, di stabilire finalmente le basi per tecnologie
di comunicazione quantistica di uso pratico.
Anton Zeilinger ha sviluppato molti strumenti nuovi per la fisica
dei fotoni entangled, per esempio una forte sorgente di fotoni
entangled rispetto alla polarizzazione, tecniche per
l'identificazione degli stati di Bell e metodi per produrre
l'emissione coerent di più di una coppia entangled da un
cristallo. La tecnologia risultante gli ha permesso di eseguire un
numero di primi esperimenti di informazione quantistica con i
fotoni entangled. Il primo utilizzo in assoluto dell'entanglement
in un qualsiasi protocollo di informazione quantistica è stata la
dimostrazione di codice iperdenso. I suoi successi includono
inoltre la prima crittografia basata sull'entanglement, il primo
esperimento di teletrasporto quantistico di un fotone
indipendente, la prima realizzazione di scambio di entanglement
e l'esperimento che chiude il circolo vizioso della
comunicazione in un test delle diseguaglianze di Bell.
Dal 2000, le ricerche di Zeilinger si sono concentrate sul calcolo
quantistico completamente basato sull'ottica, lo sviluppo di
sistemi a crittografia quantistica22
basata sull'entanglement ed
22
Le tecniche di codifica e decodifica di un messaggio utilizzano
generalmente una chiave numerica di molte cifre. Proprio la lunghezza di
questo numero garantisce la sicurezza dei dati scambiati, dal momento che le
possibili combinazioni sono talmente elevate da rendere di fatto impossibile
trovare la chiave giusta senza conoscerla. La crittografia quantistica, invece,
si affida a metodi completamente diversi. Le informazioni sulla decodifica
sono conservate all’interno di un singolo fotone. In questo modo, le garanzie
di segretezza sono assicurate direttamente dalle leggi fondamentali della
meccanica quantistica. Infatti, il tentativo da parte di qualche estraneo di
leggere la chiave di decodifica porterebbe necessariamente alla variazione
delle proprietà del fotone, permettendo a chi la usa di verificare il buon esito
dello scambio. La tecnologia è già funzionante, ma ci sono ancora delle
limitazioni che ne impediscono l’immediata uscita sul mercato. In
particolare, attualmente i fotoni che trasportano la chiave possono viaggiare
41. esperimenti con coppie di fotoni entangled su distanze
lunghissime. Negli esperimenti di calcolo quantistico basato
sull'ottica, Zeilinger e il suo gruppo sono stati i primi a
dimostrare un certo numero di procedure di base come la
purificazione di entanglement e certe porte quantistiche. Ciò è
culminato nelle prime dimostrazioni di calcolo quantistico ad
una via, includendo più recentemente, il controllo attivo
ultraveloce. Lo schema di calcolo quantistico ad una via è stato
utilizzato per realizzare l'algoritmo di ricerca di Grover23
e
vari giochi quantistici, incluso il dilemma del prigioniero24
.
al massimo per 120 chilometri prima di perdere irrimediabilmente le
informazioni.
23
L'algoritmo di ricerca di Groover è un algoritmo ideato da Lov Grover
nel 1996 ai Bell Labs per risolvere un problema di ricerca in un database
indifferenziato di N elementi in O(N1/2
) tempo usando O(log N) come spazio
di memorizzazione. Un classico esempio può essere la ricerca in un elenco
telefonico di un nome disponendo solo del numero telefonico. Disponendo di
un computer classico si può pervenire al nome dopo aver cercato mediamente
metà dell’elenco. L’algoritmo di Grover, sfruttando la proprietà di
sovrapposizione dei qubit, può pervenire alla risposta corretta molto più
velocemente. L'algoritmo di Groover può essere utilizzato nella Teoria delle
collisioni.
24
Il Dilemma del Prigioniero prevede di scegliere la migliore opzione tra
quelle presentate: due criminali vengono catturati ma non ci sono prove a
loro carico. Vengono messi in due celle diverse e gli viene detto: se tu
confessi e il tuo complice no, tu sei libero e il tuo complice si prende 7 anni;
se confessa anche lui però, vi prendete 6 anni a testa; d’altra parte, se non
confessi e il tuo complice confessa, lui è libero e tu ti becchi 7 anni; infine, se
non confessate nessuno dei due, siccome non abbiamo prove, possiamo
tenervi dentro solo per 1 anno. La Teoria prevede che la strategia ottimale di
questo gioco non cooperativo sia la confessione, perché chi confessa ha un
range di condanne da 0 a 6 anni, mentre chi non confessa da 1 a 7, la
condanna media è superiore nel secondo caso rispetto al primo. Che tipo di
società prospetterebbe questa strategia? L’azione del confessare, in questo
esempio, è strettamente funzionale a minimizzare la pena per ogni singolo
giocatore, sperando che l’altro non faccia altrettanto. Se però l’altro adotta la
stessa strategia, rischieremmo comunque meno che evitando di far
42. In crittografia quantistica, il gruppo di Zeilinger sta sviluppando
un prototipo in collaborazione con l'industria. Mentre la maggior
parte della comunità stava lavorando su uno schema molto più
semplice con l'uso di impulsi laser deboli, Zeilinger ha basato il
suo approccio esclusivamente su schemi più complicati
utilizzando fotoni entangled. Una dimostrazione recente che
l'entanglement è una condizione necessaria per la sicurezza del
canale quantistico, conferma la correttezza di questa scelta.
Gli esperimenti di Zeilinger sulla distribuzione
dell'entanglement su grandi distanze è cominciata sia con la
comunicazione su spazio libero che su fibra ottica e il
teletrasporto tra laboratori posti su luoghi opposti del fiume
Danubio. Ciò è stato esteso a distanze più grandi attraverso la
città di Vienna e, nel 2012, come già detto, fino a 147 km fra
due isole delle Canarie, battendo la misura stabilita solo pochi
giorni prima da un'equipe cinese e aprendo la strada alla
comunicazione quantistica con satelliti. Il suo sogno era di far
rimbalzare luce entangled dai satelliti in orbita. Ci è riuscito con
un esperimento in Italia con il Matera Laser Ranging
Observatory.
Un'importante e fondamentale ricaduta di questi esperimenti, è
stato il primo test nel 2007 di una teoria realistica non locale
proposta da Leggett, che va significativamente oltre il teorema
di Bell. Mentre Bell dimostrò che una teoria che sia al contempo
locale e realistica è in contraddizione con la meccanica
quantistica, Leggett considerò teorie realistiche non locali dove i
fotoni individuali, si assume trasportino polarizzazione. La
disuguaglianza risultante si è dimostrata essere violata negli
esperimenti del gruppo di Zeilinger.
condannare l’altro confessando. Il rischio però è alto. In questi giochi si
suppone che non vi sia collaborazione e che nessuno dei due giocatori
conosca la scelta dell’altro. Infatti, se uno dei due prigionieri avesse la
possibilità di conoscere la scelta dell’altro prima di fare la propria, e se chi ha
fatto la scelta per primo fosse a conoscenza di questa regola, sceglierebbero
entrambi la strategia che minimizza la pena per entrambi i giocatori?
43.
44. Verso entanglement sempre più sofisticati:
“Non correre mai dietro un bus,
una donna o una teoria cosmologica. Ce ne sarà
sempre un’altra nel giro di pochi minuti”
John Archibald Wheeler
Nel mese di gennaio del 2011, il premio Nobel Luc Montagnier
ha reso pubblici gli ultimi risultati di una ricerca potenzialmente
rivoluzionaria su come il DNA sarebbe in grado di “
teletrasportarsi” tramite emissioni elettromagnetiche. L’ipotesi
dello scienziato francese è che i singoli filamenti di DNA (e,
volendo, anche i singoli geni) sono in grado di emettere onde
elettromagnetiche che si propagano attraverso la formazione di
nanostrutture25
d’acqua. Non solo, questa proprietà
permetterebbe ad alcuni microorganismi di infettare cellule a
distanza, con un processo che ricorda il teletrasporto.
Ma partiamo dall’inizio: la dimostrazione delle proprietà
elettromagnetiche del DNA. Lo strumento utilizzato dalla
squadra di ricerca consiste in un solenoide all’interno del quale
viene alloggiata una provetta contenente la soluzione biologica
da analizzare.
Il materiale biologico viene eccitato elettromagneticamente e i
segnali risultanti vengono catturati e amplificati tramite
computer. I risultati registrati sono senza precedenti: le soluzioni
biologiche ricavate da colture cellulari batteriche e virali
25
Con il termine nanostruttura o nanoaggregato (conosciuto anche come
cluster) si indica un sistema costituito da un numero di atomi o molecole che
va da qualche unità a qualche migliaia e le cui dimensioni sono dell'ordine
del nanometro. Lo studio delle nanostrutture appartiene a una classe di
ricerca interdisciplinare che va sotto il nome di nanoscienze e il cui campo di
applicazione è rappresentato dalle nanotecnologie.
45. emettono onde elettromagnetiche a bassissima frequenza (tra i
500 e i 3000 Hz), e i medesimi risultati vengono ottenuti
analizzando il solo dna estratto dagli stessi microorganismi. Non
solo, si è anche notato che le emissioni elettromagnetiche non
dipendono dalla quantità di cellule utilizzate nella coltura, e che
anche singoli geni sono in grado di produrre simili emissioni.
Va bene, questo significa che le singole molecole di DNA, se
sottoposte a eccitazione elettromagnetica, sono in grado di
riemettere segnali captabili: ma come si arriva al teletrasporto di
DNA da una cellula all’altra? È qui che interviene l’elemento
più provocatorio (e controverso) dello studio di Montagnier. I
ricercatori hanno notato che le emissioni del DNA provocavano
cambiamenti nelle nanostrutture dell’acqua. Successivamente
hanno dimostrato che queste emissioni potevano influire anche
sulle nanostrutture di una soluzione acquosa priva di elementi
biologici. Ipotizzando che queste specifiche nanostrutture
potessero fungere da impalcatura per la riproduzione della
molecola emittente, hanno inserito nella provetta contenente
acqua gli elementi necessari alla sintesi di DNA (enzima
polimerasi, nucleotidi e primer26
).
Quando sono andati ad analizzare il DNA prodotto, hanno
trovato sequenze per il 98% identiche a quelle originali.
Sostanzialmente, dunque, il DNA sarebbe in grado di trasferire
informazioni sulla propria struttura attraverso l’acqua, al punto
da poter ricostruire la molecola in un altro ambiente acquoso.
Il virologo premio Nobel arriva persino ad ipotizzare che questa
proprietà venga utilizzata dai microrganismi per infettare altre
cellule. “ Dobbiamo supporre che in presenza di cellule
26
Un primer (in italiano: innesco) è un filamento di acido nucleico che serve
come punto di innesco per la replicazione del DNA. I primer sono necessari
perché molte DNA-polimerasi (enzimi che catalizzano la replicazione del
DNA) non possono iniziare la sintesi di un nuovo filamento "ex novo", ma
possono solo aggiungere nucleotidi ad un filamento preesistente.
46. eucariote la sintesi dei componenti del micoplasma27
(lipidi di
membrana, ribosomi) possa essere istruita dal DNA del
micoplasma”, spiega Montagnier, “ Un’unica cellula di
micoplasma è, quindi, sufficiente a generare l’infezione totale
dei linfociti”.
Affermazioni come questa hanno creato non poche perplessità
all’interno della comunità scientifica. Alcuni, come il chimico
Derek Lowe, sostengono che la tesi di Montagnier non è
supportata da una quantità sufficiente di dati e da prove
incontrovertibili di riproducibilità. Nel frattempo, la squadra di
Montagnier sta già ipotizzando applicazioni mediche di questa
scoperta, principalmente nell’ambito dello studio dell’HIV.
Facendo qualche passo indietro nel tempo (ma solo di pochi
anni), potremmo ricordare lo sviluppo del primo entanglement
di qudit (la correlazione quantistica di bit quantici con un
numero di differenti stati simultanei superiore a due). Durante
l’estate del 2005, alcuni fisici negli Stati Uniti hanno sviluppato
un metodo semplice per ottenere l'entanglement dei "qudit".
Proprio come un bit quantico (o "qubit") può trovarsi in due stati
differenti contemporaneamente, un qudit può esistere
simultaneamente in d stati. Malcolm O'Sullivan-Hale e colleghi
dell'Università di Rochester hanno dimostrato di poter ottenere
stati di qudit con d=3 e d=6 usando fotoni. Il risultato, descritto
27
I micoplasmi (o mollicutes) sono batteri appartenenti all'Ordine dei
Mycoplasmatales e alla Famiglia dei Mycoplasmataceae, dalle caratteristiche
molto peculiari. Sono assimilabili, per la maggior parte delle caratteristiche ai
Bacteria Gram-positivi con un basso contenuto in GC, i Firmicutes. Aerobi
obbligati o aerobi/anaerobi facoltativi, sono le più piccole cellule capaci di
vita autonoma (con un diametro di 0,2-0,3 µm) ed hanno la particolarità di
non essere dotati di parete cellulare; la loro membrana cellulare è lipoproteica
trilaminare e ricca di steroli, caso unico fra le cellule batteriche.
47. in un articolo pubblicato sulla rivista "Physical Review Letters",
potrebbe avere applicazioni nella crittografia quantistica. I
computer convenzionali registrano le informazioni sotto forma
di "bit", che possono avere un valore zero oppure uno. Tuttavia,
la capacità dei fotoni e di altre particelle quantistiche di esistere
in due stati differenti contemporaneamente - come gli stati di
polarizzazione verticale e orizzontale - ha portato
all'elaborazione della cosiddetta informatica quantistica. Il
passaggio dagli stati bidimensionali dei qubit agli stati
multidimensionali dei qudit consentirebbe alle particelle di
trasportare ancora più informazioni e, per esempio, di aumentare
la sicurezza nelle applicazioni di crittografia quantistica.
O'Sullivan-Hale e colleghi hanno inviato un fascio laser
ultravioletto contro un cristallo con proprietà ottiche non lineari
che talvolta divide un fotone ultravioletto in una coppia di fotoni
infrarossi correlati ("entangled"). L'entanglement prevede che le
caratteristiche dei due fotoni - come la loro polarizzazione -
restino correlate fra loro anche a distanza. Gli scienziati hanno
in effetti correlato le quantità di moto dei fotoni, e dunque anche
la loro posizione nello spazio reale misurata da un rivelatore.
Hanno poi dimostrato che i fotoni possono occupare uno
qualsiasi di sei stati di momento o di posizione (pixel). Con
griglie di rivelatori più grandi, gli autori sostengono di poter
raggiungere addirittura 16 stati. "Anche se in precedenza erano
stati prodotti qudit entangled con vari metodi, - disse
O'Sullivan-Hale - il nostro ha il vantaggio della semplicità e
della scalabilità. Lavoriamo con semplici ottiche commerciali
senza bisogno di ologrammi o di stabilità interferometrica come
negli esperimenti precedenti".
Sempre nell’estate del 2005, per la prima volta la correlazione
fra un fotone e un'eccitazione collettiva di atomi ha superato il
rigoroso test di violazione della disuguaglianza di Bell. Alcuni
48. fisici del Georgia Institute of Technology , sono riusciti a
correlare quantisticamente un fotone e un singolo atomo situato
in una nube atomica. È stata la prima volta nella storia, in cui
l'entanglement fra un fotone e un'eccitazione collettiva di atomi
ha superato il rigoroso test di comportamento quantistico noto
come violazione della disuguaglianza di Bell. I risultati sono
stati descritti in un articolo pubblicato sul numero del 22 luglio
della rivista "Physical Review Letters". Anziché isolare un
atomo per portarlo nello stato eccitato necessario per correlarlo
con un fotone, i fisici Alex Kuzmich e Brian Kennedy hanno
scelto un approccio "collettivo": hanno provato ad eccitare un
atomo all'interno di una nube di altri atomi. "Usare un qubit
atomico collettivo - disse Kuzmich - è molto più semplice e
richiede meno hardware, perché non bisogna isolare l'atomo. In
effetti, non sappiamo nemmeno (e non ci serve saperlo) quale
atomo nel gruppo costituisca il qubit. Possiamo però dimostrare
che il sistema è correlato perché viola la disuguaglianza di
Bell".
Qualche anno dopo queste due fondamentali scoperte, nel 2008,
i ricercatori di una collaborazione tra il National Institute of
Standards and Technology (NIST) e del Joint Quantum Institute
(NIST/University of Maryland) hanno sviluppato un nuovo
metodo per creare coppie di fotoni entangled. Nel loro
esperimento gli studiosi hanno inviato un impulso di luce in
entrambi i versi di un circuito di una fibra ottica che lungo il
cammino subisce una torsione. Due coppie di fotoni con la
stessa frequenza che viaggiano in entrambe le direzioni possono,
in opportune condizioni, interagire in un processo noto come
sovrapposizione d’onda quadrupla (four-wave mixing) che li
converte in due coppie di fotoni, una delle quali ha una
frequenza spostata verso il rosso mentre l’altra ha una frequenza
spostata verso il blu, rispetto ai quanti di luce originari. Sebbene
49. la torsione della fibra faccia sì che la coppia che emerge da un
estremo sia polarizzata verticalmente mentre l’altra coppia
emerge polarizzata orizzontalmente, l’apparato sperimentale
rende impossibile determinare quale delle due coppie create ex
novo abbia preso un cammino e quale l’altro. Proprio perché i
due cammini sono indistinguibili, le leggi della fisica quantistica
dicono che le coppie di fotoni sono in realtà in una
sovrapposizione di entrambi gli stati - quello con polarizzazione
verticale e quello con una orizzontale - allo stesso tempo, a
meno che non si faccia una misurazione dello stato quantistico
della coppia. Il tal caso anche l’altra "precipita" in modo
istantaneo in uno stato quantistico definito e prevedibile.
Questa "azione fantasma a distanza" è quella che indusse a
Einstein a ipotizzare che la meccanica quantistica fosse
incompleta dando il via a un dibattito sul cosiddetto paradosso
EPR che durò per oltre 70 anni, nel quale schiere di fisici
dibatterono sul concetto di “località” (secondo cui gli eventi si
possono influenzare mutuamente solo tramite interazioni locali)
e di "realismo" (secondo cui le particelle hanno uno stato
definito indipendentemente dalla misurazione che viene
effettuata su di esse). Negli anni passati, tuttavia, alcune
sperimentazioni hanno potuto dimostrare l’esistenza
dell’entanglement e di eventi che si possono influenzare a
distanze arbitrariamente grandi..
Durante l’estate dello stesso anno (2008), lo stesso gruppo di
ricercatori è riuscito a produrre delle "immagini quantistiche",
ovvero coppie di schemi visivi ricchi di informazioni, le cui
fluttuazioni sono "entangled”. Questa tecnica per produrre
immagini quantistiche, potrebbe in futuro essere sfruttata per
archiviare strutture complesse di dati nei computer quantistici e
trasmettere grandi quantità di informazioni in modo sicuro.
Vincent Boyer, coordinatore dello studio, commentò con queste
50. parole i risultati della ricerca: "Le immagini sono sempre state
uno dei metodi di comunicazione preferiti dato che nei loro
dettagli trasportano moltissima informazione. Finora tuttavia, le
macchine fotografiche e gli altri rilevatori ottici hanno ignorato
una gran quantità di informazioni utili presenti nelle immagini.
Ma ora potremo trarre vantaggio dagli aspetti quantistici delle
immagini."
Le cineprese convenzionali o le macchine digitali rilevano solo
il colore e l'intensità di un'onda luminosa che incide sulla
superficie dei loro sensori. Un ologramma registra anche la fase
di un'onda luminosa, ossia l'esatta localizzazione delle sue creste
e degli avvallamenti. In un'onda luminosa, avviene molto di più:
la luce ha delle "incertezze" intrinseche nelle proprie
caratteristiche, che si manifestano come fluttuazioni delle
proprie proprietà. La possibilità di controllare queste
fluttuazioni, che rappresentano una sorta di rumore, può
migliorare la rilevazione di oggetti altrimenti indistinti,
consentire una migliore amplificazione delle immagini e
controllare meglio la posizione di fasci laser. I ricercatori non
possono eliminare del tutto questi rumor, ma possono ri-
arrangiarli, in modo da migliorare alcune caratteristiche
desiderate dell'immagine. Con la tecnica detta di "spremitura"
(squeezing) possono per esempio ridurre il disturbo in una
proprietà, come l'intensità, a scapito di un'altra a essa
complementare, come la fase.
Le immagini ottenute dai ricercatori sono inoltre prodotte in
coppie. Trasmesse da due fasci luminosi che originano da uno
stesso punto, le due immagini sono in uno stato di entanglement:
se si osserva un'immagine, mostra imprevedibili cambiamenti
casuali; fluttuazioni casuali del tutto simili sono mostrate anche
dall'altra immagine, anche se le due immagini sono separate e
non c'è possibilità di trasmissione di informazione fra le due.
Inoltre le due immagini sono "spremute" sfruttando entrambe le
51. immagini e sottraendo le fluttuazioni, mostrano un disturbo
inferiore a quello delle immagini classiche e un potenziale
contenuto di informazione superiore.
L’anno successivo (2009), sempre gli stessi ricercatori del
NIST, hanno dimostrato la possibilità di poter creare un
processore programmabile “universale” a informazione
quantistica; essi hanno infatti messo a punto un'apparecchiatura
in grado di far "girare" in linea di principio, un qualunque
programma permesso dalla meccanica quantistica. Il gruppo del
NIST ha anche analizzato il processore quantistico con i metodi
tradizionali della computer science e dell’elettronica realizzando
un diagramma del circuito di elaborazione necessario per far
funzionare un dato programma.
“È la prima volta che qualcuno riesce a dimostrare la
possibilità di realizzare un processore quantistico per più di un
qubit”, ha commentato David Hanneke, ricercatore del NIST e
primo autore dell’articolo apparso sulla rivista "Nature Physics".
“Si tratta di un passo fondamentale verso l’obiettivo finale,
quello di riuscire a effettuare calcoli con un gran numero di
qubit. L’idea è quella di collegare tra loro una serie di questi
processori.”
Attualmente, gli ioni rappresentano alcuni dei sistemi fisici più
promettenti per la realizzazione di bit quantistici, o qubit. Per
questo il processore del NIST memorizza informazione binaria
(in forma di “0” e “1”) in due qubit costituiti da altrettanti ioni di
berillio, mantenuti in trappole elettromagnetiche e manipolati
tramite laser ultravioletti.
Con tale apparato si è riusciti a porre gli stati quantistici degli
ioni in uno stato di entanglement, o "sovrapposizione" di valori
1 e 0 allo stesso tempo, il che rappresenta il maggiore vantaggio
dell’elaborazione dell’informazione nel mondo quantistico.
52. Con simili caratteristiche, il processore è in grado di svolgere
160 routine di elaborazione differenti sui due qubit. Sebbene si
tratti ancora di un numero finito, è grande e differenziato a
sufficienza per poter conferire al processore l’aggettivo di
“universale”, come hanno sottolineato i ricercatori.
Una sfida cruciale per l'osservazione del comportamento
quantistico nei piccoli sistemi meccanici è rappresentato dalla
soppressione delle interazioni tra il sistema e il “rumore”
ambientale; ovvero di tutto il materiale che supporta il sistema o
dal contatto con qualunque altro elemento esterno.
Le vibrazioni termiche casuali di ciò che costituisce l'ambiente
che circonda il sistema possono infatti essere trasferite
all'oggetto meccanico, distruggendo le sue fragili proprietà
quantistiche.
Per affrontare il problema, numerosi gruppi in tutto il mondo
hanno cominciato a utilizzare dispositivi criogenici in cui i
materiali più vicini sono raffreddati a una temperatura molto
bassa per ridurre l'ampiezza delle vibrazioni casuali.
Verso la fine del 2009, un gruppo di ricercatori del Caltech di
Pasadena (CA, USA), suggerì un approccio totalmente
differente: utilizzare le forze impartite da intensi fasci di luce
per far “levitare” l'intero oggetto meccanico, liberandolo da
qualunque contatto esterno con i materiali di supporto. Ciò
consente di ridurre fortemente il rumore ambientale, al punto da
rendere osservabili le manifestazioni quantistiche, anche quando
l'ambiente è mantenuto a temperatura ambiente.
Per quanto riguarda più in particolare il fenomeno dell’
entanglement, essi hanno dimostrato teoricamente come esso
possa essere realizzato anche quando un atomo viene sostituito
da un sistema meccanico ben più massiccio, per quanto ancora
di dimensioni nanoscopiche. Tale sistema è costituito da una
piccola sfera realizzata con un materiale altamente trasparente