SlideShare a Scribd company logo
1 of 152
Download to read offline
Fausto Intilla
Fisica dell’Informazione:
l’ultima frontiera della scienza
Gli ultimi inattesi sviluppi, della “Fisica Digitale”
Immagine di copertina tratta dal web
(http://holographicarchetypes.weebly.com)
L’autore si dichiara disponibile a regolare eventuali spettanze,
per gli stralci di alcuni articoli (ed immagini) riportati in questo
volume, qualora questi ultimi fossero coperti da copyright.
Indice
Prefazione…………………………………………………4
La matrice ultima della realtà…………………………….7
- Olografia quantistica elettronica………………..….28
Informazione e teletrasporto quantistico………………..32
Verso entanglement sempre più sofisticati…………..….44
La realtà dei bit, attraverso la fisica dei buchi neri…..….63
Dalla Teoria dell’Informazione al concetto di Anima…..77
- Reincarnazione: riflessioni congiunte al modello di
Informazione dinamica……………………………….…...88
- Cameron, il bambino che visse due volte………...……..91
- Il contributo di Pim van Lommel…………………………95
MWI: potremo un giorno testarla?...................................109
- LHC …qualche curiosità…………………………….…..116
Fotonica e Termodinamica …dell’Informazione……....120
- Il demone di Maxwell…………………………………….128
- Irreversibilità, entropia, informazione……………...…132
- L’ipotesi della retro-causalità……………………..……141
Per concludere……………………………………..……144
Bibliografia consigliata…………………………………148
Sitografia…………………………………………..……149
“Le sole leggi della materia sono quelle
costruite dalla mente, e le sole leggi della
mente, sono costruite per essa dalla materia”
J.C. Maxwell
“Non pretendo di capire l’Universo:
è tanto più grande di me”
T. Carlyle
Prefazione
Probabilmente il 2012, verrà ricordato in futuro come l’anno più
proficuo nella storia della scienza moderna, in quanto a scoperte
nel campo della fisica subnucleare (fisica delle particelle) e
dunque a rigor di logica, a potenziali ampliamenti o modifiche
di strutture e modelli teorici della Meccanica Quantistica.
A titolo d’esempio, basti pensare alla recente scoperta del
Bosone di Higgs (annunciata il 4 luglio dai ricercatori del CERN
di Ginevra); alla dimostrazione sperimentale del limite di
Landauer (confermando così, un principio teorico sul nesso tra
termodinamica classica e teoria dell’Informazione, che
aspettava un riscontro sperimentale da ben oltre cinquant’anni);
alla dimostrazione sperimentale della divisibilità di un singolo
atomo, per poi essere nuovamente ricomposto in modo
artificiale. Tre scoperte di fondamentale importanza, avvenute
tutte nel corso di quest’anno. Nuovi sviluppi di notevole
interesse si sono avuti anche, a partire dal 2007 sino ad oggi, nel
campo della fotonica, della spintronica e delle nanotecnologie.
È chiaro dunque che ci troviamo di fronte ad una svolta epocale,
in quanto a sviluppi e applicazioni di potenziali nuove
tecnologie. Ma siccome la teoria precede sempre di qualche
passo l’applicazione pratica (in ogni ambito della sfera umana),
la stessa svolta è avvenuta in campo teorico; ossia in quello
relativo ai nostri modelli di rappresentazione della realtà, ai
nostri attuali paradigmi scientifici. Molte idee, teorie e concetti,
sono stati dunque rivisti ed ampliati, modificati, ritoccati e in
alcuni casi anche cancellati dal grande libro della fisica, poiché
rivelatisi non più coerenti con i nuovi modelli teorici e fisici
della realtà.
Ciò che ai nostri occhi si è resa sempre più evidente, grazie alle
innumerevoli scoperte e sviluppi scientifici avvenuti negli ultimi
dieci anni, è l’intima correlazione tra le leggi della
termodinamica classica e quelle che governano invece, un
mondo concettualmente immateriale, apparentemente del tutto
astratto e comprensibilmente quindi, anche assai difficile da
accettare e “digerire”, come “modello ultimo della realtà”:
quello dell’Informazione.
In questo breve saggio, cercherò dunque di condurre il lettore,
con parole semplici e riducendo al minimo (quasi a zero) il
formalismo matematico (ossia l’utilizzo di lunghe e complicate
equazioni), verso una comprensione più approfondita e ricca di
spunti di riflessione, di ciò che viene comunemente definito
come un “nuovo paradigma della realtà”, ossia quello di un
Universo costituito fondamentalmente da pura Informazione;
dove anche i concetti di massa ed energia, debbono quindi
essere ampliati e ridefiniti, per poter essere relazionati a questo
nuovo modello di realtà.
Se siamo giunti al capolinea, ossia ad un punto nel campo del
sapere scientifico e filosofico, oltre il quale non è più possibile
andare oltre (assumendo una volta e per sempre, che il concetto
di “Universo digitale” sia il più idoneo a definire l’immagine
della realtà), questo ovviamente nessuno è in grado di dirlo; ma
se proprio vogliamo credere nella continua ed interminabile
ascesa del sapere umano, allora possiamo tranquillamente
affermare che, usando le stesse parole di Herbert George Wells:
“Ogni dogma prima o poi deve morire”.
Fausto Intilla,
Cadenazzo, 15 luglio 2012
La matrice ultima della realtà:
“Realtà e Informazione sono la stessa cosa.
Propongo cioè di considerare questi due concetti, che chiaramente
finora abbiamo sempre tenuto distinti, come due facce della stessa
medaglia, proprio come lo spazio e il tempo che, secondo la Relatività
di Einstein, sono a loro volta legati in modo indissolubile. Noi
vediamo queste due cose come un tutt’uno a causa del nostro
postulato secondo il quale nessuna legge della natura o descrizione
della natura può fare differenza tra realtà e Informazione. Dovremmo
allora coniare un nuovo termine che comprenda sia la realtà sia
l’Informazione. Già il fatto che un termine del genere non solo non
esista, ma che ci sia difficile anche immaginarlo, ci fa capire quanto
siano complessi i problemi concettuali che emergono. La nostra
affermazione precedente, secondo la quale l’Informazione è la
materia primordiale dell’Universo, è ora da considerare anche nel
senso di questa unità tra realtà e Informazione”.
Anton Zeilinger
“Calculating Space” è il titolo del libro di Konrad Zuse1
,
pubblicato in inglese dal MIT nel 1969 e il cui titolo originale
era, in tedesco: Rechnender Raum; ovvero il titolo del primo
libro in cui si iniziò a trattare, in una nuova veste (più legata al
mondo della fisica piuttosto che a quello puramente
1
Konrad Zuse (Berlino, 22 giugno 1910 – Hünfeld, 18 dicembre 1995) è
stato un pioniere dell'informatica e viene considerato come l'inventore del
computer moderno. Il calcolatore "Z1", completato da Zuse nel 1938, deve
essere considerato in assoluto come il primo computer moderno, avendo
anticipato di alcuni anni il Colossus, realizzato nel 1944 dal geniale
matematico inglese Alan Turing per la decifrazione dei messaggi prodotti
dalla macchina Enigma, usata dalle forze armate tedesche per le
comunicazioni militari durante la seconda guerra mondiale, nonché i primi
enormi calcolatori programmabili a valvole prodotti in Inghilterra e negli
Stati Uniti nella seconda metà degli anni quaranta. A Konrad Zuse si deve
anche l'invenzione del primo linguaggio di programmazione della storia,
ideato per fornire le istruzioni allo "Z1": il Plankalkül.
informatico), la teoria dell’Informazione. Zuse, gettò dunque i
semi di un nuovo paradigma scientifico che molti anni più tardi,
sarebbe germogliato prendendo il nome di “Digital Physics”;
oggi comunemente noto, alle nostre latitudini, come Fisica
dell’Informazione. Zuse propose l’idea che il nostro Universo,
fosse stato calcolato da una sorta di “automa cellulare”2
(o da
un calcolatore discreto), sfidando l’idea ormai secolare che
alcune leggi fisiche siano continue per natura. Egli si concentrò
sugli automi cellulari, ritenendo che rappresentassero in modo
ottimale, un potenziale substrato idoneo al calcolo;
sottolineando (tra le altre cose), che le nozioni classiche
dell’entropia, nonché la sua crescita, non hanno alcun senso in
universi calcolati in modo deterministico. Il teorema di Bell
viene a volte utilizzato per confutare l’ipotesi di Zuse; ma esso
non è applicabile ad Universi deterministici, come lo stesso Bell
ebbe a sottolineare. Allo stesso modo, mentre il principio di
indeterminazione di Heisenberg, limita in modo fondamentale
ciò che un osservatore può osservare (quando l’osservatore
stesso è una parte dell’Universo che sta cercando di osservare),
tale principio non esclude l’ipotesi di Zuse, che vede un
osservatore come parte di un processo deterministico ipotizzato.
Finora non è mai stata elaborata e sperimentata alcuna prova
fisica inequivocabile, atta a demolire la possibilità che “tutto sia
solo un calcolo”; inoltre, una grande quantità di opere incentrate
sulla Fisica dell’Informazione (Digital Physics, per gli
anglosassoni) sono state scritte dal giorno in cui è apparso per la
prima volta il saggio pioneristico di Zuse.
2
Il modello ad automa cellulare è molto elegante. Il problema, però, è che si
tratta di un modello classico; e sappiamo che i computer classici non riescono
a trattare con efficienza caratteristiche quantistiche come l’entanglement o
altre peculiarità. Inoltre ci sono problemi “di spazio”: è stato calcolato che un
automa grande come l’Universo sarebbe in grado di simulare solo una
piccola, piccolissima parte della realtà quantistica. Se l’Universo fosse
davvero un computer classico, la stragrande maggioranza dei suoi bit e dei
suoi circuiti dovrebbe stare nascosta da qualche parte, inaccessibile alla
nostra esperienza e percezione.
Nel campo della fisica (come del resto anche in quello
cosmologico), la fisica dell’Informazione rappresenta un
insieme di prospettive teoriche, basate sulla premessa che
l’intero Universo sia, alla radice, descrivibile attraverso il
concetto di Informazione; e che dunque, in ultima analisi, sia
“calcolabile”. Quindi, l’Universo potrebbe essere concepito
come l’output di un programma informatico oppure come un
vasto dispositivo per il calcolo digitale. La fisica
dell’Informazione si fonda principalmente sulle seguenti ipotesi:
1) L’Universo, o la realtà, è essenzialmente informativa.
2) Esso/essa è essenzialmente calcolabile.
3) Tale realtà può essere descritta in modo digitale.
4) La sua natura è essenzialmente digitale.
5) E’ essa stessa una sorta di computer.
6) È essenzialmente l’output di una realtà simulata.
Andiamo ora ad analizzare i primi assunti e le prime premesse,
che storicamente portarono all’elaborazione di questo nuovo
paradigma scientifico. Una delle premesse fondamentali, vuole
semplicemente che qualsiasi computer, sia compatibile con i
principi della Teoria dell’Informazione3
(quella classica,
basata su un modello puramente informatico), con la meccanica
statistica4
ed infine con la meccanica quantistica5
. Un
3
La teoria dell'informazione è quel settore dell'informatica e delle
telecomunicazioni che si occupa di definire le basi teoriche su cui si fonda la
scienza dell'informazione. La sua nascita è relativamente recente: essa viene
solitamente fatta risalire al 1948, anno in cui Claude Shannon pubblicò Una
teoria matematica della comunicazione in cui introduceva per la prima volta
in modo sistematico lo studio dell'informazione e della comunicazione.
4
In fisica, la meccanica statistica è l'applicazione della teoria della
probabilità, che include strumenti matematici per gestire insiemi formati da
numerosi elementi, al comportamento termodinamico di sistemi composti da
un grande numero di particelle. La meccanica statistica fornisce un modello
per collegare le proprietà dei singoli atomi e molecole alle proprietà
collegamento fondamentale tra questi campi è stato proposto da
Edwin Jaynes in due documenti del 1957. Inoltre, Jaynes ha
elaborato un’interpretazione della teoria delle probabilità,
ridefinendola come una sorta di logica Aristotelica
generalizzata; una visione indubbiamente assai comoda per
macroscopiche del sistema da essi composto. Da un punto di vista classico lo
studio di un sistema con N particelle non interagenti richiede la soluzione di
N equazioni differenziali, che descrivono il moto di ogni particella. Quando il
numero di particelle è molto grande, dell'ordine del numero di Avogadro, la
meccanica statistica permette di poter caratterizzare il sistema attraverso
grandezze macroscopiche, come il calore, l'energia libera, la pressione o il
volume.
5
La meccanica quantistica si distingue in maniera radicale dalla meccanica
classica in quanto si limita a esprimere la probabilità di ottenere un dato
risultato a partire da una certa misurazione, secondo l'interpretazione di
Copenaghen, rinunciando così al determinismo assoluto proprio della fisica
precedente. Questa condizione di incertezza o indeterminazione non è dovuta
a una conoscenza incompleta, da parte dello sperimentatore, dello stato in cui
si trova il sistema fisico osservato, ma è da considerarsi una caratteristica
intrinseca, quindi ultima e ineliminabile, del sistema e del mondo subatomico
in generale. La teoria quantistica, dunque, descrive i sistemi come una
sovrapposizione di stati diversi e prevede che il risultato di una misurazione
non sia completamente arbitrario, ma sia incluso in un insieme di possibili
valori: ciascuno di detti valori è abbinato a uno di tali stati ed è associato a
una certa probabilità di presentarsi come risultato della misurazione. Questo
nuovo modo di interpretare i fenomeni è stato oggetto di numerose
discussioni all'interno della comunità scientifica, come testimonia l'esistenza
di diverse interpretazioni della meccanica quantistica. L'osservazione ha
quindi effetti importanti sul sistema osservato: collegato a questo nuovo
concetto si ha l'impossibilità di conoscere esattamente i valori di coppie di
variabili dinamiche coniugate, espressa dal principio di indeterminazione di
Heisenberg. La meccanica quantistica rappresenta il denominatore comune di
tutta la fisica moderna ovvero della fisica atomica, della fisica nucleare e sub-
nucleare (la fisica delle particelle), e della fisica teorica, a testimonianza della
sua estrema potenza concettuale-interpretativa nonché della vasta
applicabilità al mondo microscopico.
collegare la fisica fondamentale con i computer digitali, per il
solo fatto che questi ultimi sono progettati per implementare le
operazioni della logica classica ed inoltre, in modo equivalente,
quelle relative all’algebra booleana6
.
Il termine “fisica digitale”, fu utilizzato per la prima volta da
Edward Fredkin, che in seguito preferì sostituirlo con “filosofia
digitale”. Altri scienziati e pensatori che paragonarono l’intero
Universo ad una sorta di immenso calcolatore, furono Stephen
Wolfram, Juergen Schmidhuber e il premio Nobel Gerardus’t
Hooft. Questi autori hanno sempre appoggiato l’idea che la
natura apparentemente probabilistica della fisica quantistica, non
sia necessariamente incompatibile con la nozione di
computabilità. Alcuni modelli in chiave quantistica di “fisica
digitale”, sono stati recentemente proposti da David Deutsch,
Seth Lloyd e Paola Zizzi. Altre correlazioni con tale modello di
6
In matematica, informatica ed elettronica, l'algebra di Boole, anche detta
algebra booleana o reticolo booleano, è un ramo dell'algebra astratta che
comprende tutte le algebre che operano con i soli valori di verità 0 o 1, detti
variabili booleane o logiche. La struttura algebrica studiata dall'algebra
booleana è finalizzata all'elaborazione di espressioni nell'ambito del calcolo
proposizionale. Essendo un reticolo dotato di particolari proprietà, l'algebra
booleana risulta criptomorfa, cioè associata biunivocamente e in modo da
risultare logicamente equivalente, ad un insieme parzialmente ordinato
reticolato. Ogni algebra booleana risulta criptomorfa ad un particolare tipo di
anello, chiamato anello booleano. Tale algebra permette di definire gli
operatori logici AND, OR e NOT, la cui combinazione permette di
sviluppare qualsiasi funzione logica e consente di trattare in termini
esclusivamente algebrici le operazioni insiemistiche dell'intersezione,
dell'unione e della complementazione, oltre a questioni riguardanti singoli bit
0 e 1, sequenze binarie, matrici binarie e diverse altre funzioni binarie.
L'algebra sviluppata nel 1854 all'University College di Cork da Boole assume
un ruolo importante in vari ambiti, in particolare nella logica matematica e
nell'elettronica digitale, dove nella progettazione dei circuiti elettronici
riveste grande importanza il teorema di Shannon del 1940 utilizzato per
scomporre una funzione booleana complessa in funzioni più semplici, o per
ottenere un'espressione canonica da una tabella della verità o da
un'espressione non canonica.
realtà si possono rintracciare nella teoria binaria degli “ur-
alternatives”7
(oggetti archetipici) di Carl Friedrich Freiherr von
Weizsäcker, nel pancomputazionalismo, nella teoria dell’Universo
computazionale, nell’idea di John Archibald Wheeler (“It from bit”)
ed infine nella teoria di Max Tegmark (“ultimate ensemble”).
Edward Fredkin è un fisico statunitense ed è considerato uno dei
pionieri della “fisica digitale”; i suoi principali contributi sono
nella computazione reversibile e negli automi cellulari. La sua
invenzione più importante fu la porta di Fredkin8
. In campo
informatico fu inventore della struttura dati Trie e del modello
palla da biliardo per la computazione reversibile. Fu coinvolto in
varie aree di ricerca dell'Intelligenza artificiale. Di recente ha
sviluppato Slat, un modello di computazione basato sulle leggi
di conservazione fondamentali della fisica.
Stephen Wolfram, fisico e matematico britannico, è l’autore del
controverso libro A New Kind of Science (NKS), che mostra uno
studio empirico di sistemi computazionali molto semplici.
Inoltre esso spiega che per capire la complessità della natura e
definirne dei modelli, questo tipo di sistemi risulta estremamente
efficace, piuttosto che la matematica tradizionale. Wolfram
lavora da anni alla sua nuova scienza. Partì constatando che
semplici programmi (di computer o di applicazione di regole
logiche) possono produrre strutture complesse che modellano
ogni sorta di processi fisici e biologici. Propone congetture
7
La teoria di Weizsäcker (fisico tedesco e filosofo, deceduto nel 2007),
costruisce assiomaticamente la fisica quantistica dalla distinzione tra
alternative binarie, empiricamente osservabili. Weizsäcker ha usato la sua
teoria, una forma di fisica digitale, per ricavare la 3-dimensionalità dello
spazio e per stimare l'entropia di un protone che cade in un buco nero.
8
La porta di Fredkin è un circuito computazionale adatto per la
computazione reversibile inventata da Edward Fredkin. La porta di Fredkin è
una porta universale: qualsiasi operazione logica o aritmetica può essere
costruita interamente di porte di Fredkin. Possiede esattamente 3 valori in
input (U,X1,X2) e 3 valori in output (V,Y1,Y2). La porta è composta da 3
equazioni indipendenti: V = U ; Y1 = UX1+U'X2 ; Y2 = U'X1+UX2
molto ambiziose e usa uno strumento molto semplice: gli automi
cellulari. Wolfram sta precisando e cercando di dimostrare il
Principio di Equivalenza Computazionale: "Esiste un’
equivalenza fondamentale fra molti tipi diversi di processi, se
sono visti in termini computazionali. Nessun sistema può
realizzare calcoli espliciti più sofisticati di quelli effettuati da
automi cellulari. Esistono automi cellulari universali per i quali
si possono scegliere condizioni iniziali tali che, partendo da
esse, eseguano calcoli di ogni possibile complessità."9
Su questo
libro, pubblicato nel 2002, degne di nota sono state le
considerazioni del noto ingegnere, scrittore e divulgatore
scientifico italiano, Roberto Vacca: “Gli automi cellulari di
Wolfram rappresentano bene anche fenomeni molto complessi
come le volute apparentemente caotiche, dei moti turbolenti di
fluidi ad alta velocità. Questi processi, invece, non si analizzano
agevolmente per mezzo di equazioni matematiche. Queste
constatazioni giustificherebbero il Principio di Equivalenza
Computazionale, che Wolfram presenta insieme come una legge
della natura o una definizione o un insieme di fatti astratti. La
congettura essenziale è che le configurazioni o immagini
prodotte dagli automi cellulari possono rappresentare e, in
certo senso, spiegare ogni processo fisico, chimico, biologico.
Sarebbe una via per spiegare come si generi l'enorme
complessità delle forme animali e vegetali. Si tratta di una
struttura ramificata e illimitata. Può essere usata per generare
frattali e anche per simulare macchine di Turing. [Queste sono
semplicissime strutture logiche concettuali (non costruite in
pratica) capaci di simulare il comportamento di qualsiasi
possibile computer.]. E' molto difficile prevedere dove
porteranno queste ricerche. Le procedure fisico-matematiche
tradizionali da Newton in poi ci hanno preparato al punto di
9
Se fosse vero, questo principio porrebbe dei limiti alle previsioni del
comportamento di molti sistemi naturali; poiché l’unico modo per studiarne
l’evoluzione sarebbe di osservarli mentre evolvono. Non esisterebbero
scorciatoie, poiché ogni calcolo che possiamo immaginare di fare è, al più,
tanto potente e complicato quanto il fenomeno che desideriamo studiare.
vista che gli stessi strumenti logico-matematici si possano usare
in contesti diversi. Infatti le stesse equazioni e le stesse formule
descrivono con alta precisione processi fisici molto diversi: le
azioni di campi elettrici, magnetici, gravitazionali, i flussi di
elettricità, di calore e di fluidi e così via. Mi sembra, però, che
esista una difficoltà seria. Non pare che sia stato trovato un
modo per determinare quali siano le regole di generazione degli
automi cellulari che portano a produrre configurazioni che
descrivono certi fenomeni piuttosto che altri. Se davvero, le
regole da applicare andassero sempre cercate a caso, lo
strumento sarebbe difficile e lento da applicare. Altra obiezione
ancora più basilare: Con un modello matematico tradizionale
da certe premesse si deducono relazioni analitiche che
permettono di formulare previsioni. Ad esempio, facciamo
l'ipotesi che i gravi si attraggano con forza inversamente
proporzionale al quadrato della distanza e direttamente
proporzionale al prodotto fra le masse. Su questa base e
postulando che le accelerazioni sono proporzionali alle forze
applicate, deduciamo le orbite dei pianeti e le traiettorie dei
gravi nel campo gravitazionale terrestre. Invece con la nuova
scienza di Wolfram si constata che certe traiettorie sono
disegnate da un automa e risultano identiche a certi processi
meccanici o di moto di particelle cariche in un campo elettrico.
Allora si può dire: Curiosa coincidenza. Però non si formalizza
un meccanismo di spiegazione, né si possono prevedere risultati
futuri di esperimenti - che è l'obiettivo centrale della fisica
matematica. Ma sarebbe sbagliato saltare a conclusioni
affrettate. Questa scienza di nuovo tipo contiene complessità,
ragionamenti, distinzioni e aperture ben più vaste. Vale la pena
di cominciare a interessarsi di questi sviluppi. Forse i nostri
nipoti a scuola impareranno gli automi cellulari, prima o,
invece, dell'algebra”.
Jürgen Schmidhuber (professore di Intelligenza Artificiale
all’Università di Lugano, in Svizzera), osservò che i teoremi di
Gödel sono irrilevanti anche per la fisica computabile. Nel 2000
Schmidhuber costruì esplicitamente universi computabili e
deterministici, la cui pseudo-casualità basata su problemi della
fermata10
(indecidibili simili a quelli di Gödel), è estremamente
difficile da rilevare, ma non evita assolutamente Teorie del
Tutto formali, descrivibili da pochissimi bit di informazione.
Egli sottolineò inoltre che esiste un modo efficiente e ottimale
per calcolare tutti gli Universi computabili, basato
sull’algoritmo di ricerca universale di Leonid Levin (1973). Nel
2000 ha ampliato questo lavoro, combinando la teoria di Ray
Solomonoff dell’inferenza induttiva con il principio che
Universi velocemente calcolabili, siano più probabili di quelli di
altro genere.
Ray Solomonoff, fu l’inventore della probabilità algoritmica e
fondatore della teoria algoritmica dell’Informazione. Egli fu il
primo a descrivere, nel 1960, il principio della probabilità
algoritmica, pubblicando il teorema cruciale che lanciò la teoria
della Complessità di Kolmogorov11
e la teoria algoritmica
dell’Informazione. La probabilità algoritmica è una
10
Il problema della terminazione (dall'inglese Halting problem, tradotto
anche con problema dell'arresto o problema della fermata) chiede se sia
sempre possibile, descritto un programma e un determinato input finito,
stabilire se il programma in questione termini o continui la sua esecuzione
all'infinito. È stato dimostrato che non può esistere un algoritmo generale che
possa risolvere il problema per tutti i possibili input. La versione più nota del
problema è quella proposta nel 1937 dal matematico Alan Turing, insieme
alla dimostrazione della sua indecidibilità.
11
La Teoria della Complessità algoritmica o Teoria algoritmica della
complessità si occupa dello studio della complessità descrittiva degli
algoritmi e non delle risorse computazionali (memoria occupata e tempo di
calcolo) necessarie ad eseguirli. Non va, quindi, confusa con la Teoria della
complessità computazionale. La Teoria algoritmica della complessità è
stata sviluppata principalmente da Kolmogorov, Chaitin e Solomonoff, per
questo motivo è nota anche come Teoria K-C-S dalle iniziali dei tre
scienziati.
combinazione formalizzata matematicamente, del Rasoio di
Occam e del Principio delle Spiegazioni Multiple (Principle of
Multiple Explanations). Il metodo di Solomonoff, consiste
nell’assegnare un valore di probabilità per ciascuna ipotesi
(algoritmo/programma), che spieghi un’osservazione data, con
l’ipotesi più semplice (il programma più breve) avente la più
alta probabilità e le ipotesi sempre più complesse che
contrariamente alle precedenti, ricevono dei valori di probabilità
sempre più piccoli.
L’Induzione di Solomonoff, è una forma rigorosamente
matematica ed idealizzata di induzione, che consiste nel
prevedere cosa accadrà nel futuro, sulla base di esperienze
precedenti. Si tratta di un ramo della teoria algoritmica
dell’Informazione. Questo schema di induzione, risulta essere
teoricamente ottimale, nel momento in cui si dispone di una
certa mole di dati iniziali; in tal caso lo schema sarà sempre in
grado di assegnare un determinato numero di probabilità relative
ad eventi futuri, con la massima accuratezza possibile. L'unico
problema con l'induzione Solomonoff, è che è incomputabile,
ovvero, sarebbe necessario un computer con capacità di
elaborazione infinita per l'esecuzione. Tuttavia, tutti i regimi
assoggettabili a determinati processi induttivi (macchine,
animali ed esseri umani), possono essere intesi come delle pure
approssimazioni relative all’Induzione di Solomonoff. La
motivazione di fondo che ha spinto Solomonoff (ma anche
Kolmogorov e Chaitin) verso tali orizzonti, è stata quella di
formalizzare la teoria delle probabilità e l'induzione mediante
assiomi, nello stesso modo in cui l'algebra e la geometria sono
stati formalizzati. L’Induzione di Solomonoff, si basa su una
regola induttiva del teorema di Bayes12
, che descrive un modo
12
Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema
della probabilità delle cause), proposto da Thomas Bayes, deriva da due
teoremi fondamentali delle probabilità: il teorema della probabilità composta
e il teorema della probabilità assoluta. Viene impiegato per calcolare la
probabilità di una causa che ha scatenato l'evento verificato. Per esempio si
matematico e preciso di aggiornare le credenze sulla base dei
dati in arrivo. Un punto debole del teorema di Bayes, è che
dipende da una probabilità a priori di un certo evento. Per
esempio, la probabilità che nei prossimi dieci anni un asteroide
di notevoli dimensioni colpisca la Terra, può essere quantificata
sulla base dei dati storici, relativi alle precedenti collisioni.
Tuttavia, quando la dimensione del campione di eventi
precedenti è bassa (come ad esempio il numero di volte che un
neutrino è stato rilevato in una trappola per neutrini), diventa
molto difficile prevedere la probabilità del ripetersi di un evento,
basata esclusivamente sull'esperienza passata. Ma è proprio qui
che entra in gioco l’Induzione di Solomonoff!
Utilizzando una misura oggettiva della complessità, chiamata
Complessità di Kolmogorov, è possibile, con l’Induzione di
Solomonoff, formulare un'ipotesi circa la probabilità che un
evento futuro si verifichi. La Complessità di Kolmogorov, si
basa su un principio chiamato: Lunghezza Minima Descrittiva
(LMD), che valuta la complessità di una stringa di bit, in base al
più breve algoritmo in grado di produrre quella stringa.
Nonostante la Complessità di Kolmogorov sia stata
inizialmente applicata a stringhe di un solo bit, essa può
comunque essere tradotta per descrivere la complessità degli
eventi e degli oggetti. L’Induzione di Solomonoff, integra la
complessità di Kolmogorov nel ragionamento bayesiano,
dandoci a priori un giustificativo per eventi che potrebbero
anche non manifestarsi mai. La probabilità a priori di un evento
può calcolare la probabilità che una certa persona soffra della malattia per cui
ha eseguito il test diagnostico (nel caso in cui questo sia risultato negativo) o
viceversa non sia affetta da tale malattia (nel caso in cui il test sia risultato
positivo), conoscendo la frequenza con cui si presenta la malattia e la
percentuale di efficacia del test diagnostico. Formalmente il teorema di Bayes
è valido in tutte le interpretazioni della probabilità. In ogni caso, l'importanza
di questo teorema per la statistica è tale che la divisione tra le due scuole
(statistica bayesiana e statistica frequentista) nasce dall'interpretazione che si
dà al teorema stesso.
arbitrario, viene determinata in base alla propria complessità e
specificità. Per esempio, la probabilità che due gocce di pioggia
sparse a caso in una tempesta, colpiscano lo stesso metro
quadrato di suolo è piuttosto bassa; ma risulta invece molto più
alta la probabilità che dieci o cento gocce di pioggia sparse a
caso in una tempesta, colpiscano casualmente quello stesso
metro quadrato di terreno. Alcuni scienziati hanno studiato
l'Induzione Solomonoff nel contesto della neuroanatomia,
mostrando come l'induzione ottimale è un principio
organizzativo per l'evoluzione di animali che hanno bisogno di
un’accurata induzione per la sopravvivenza. Quando la vera
intelligenza artificiale sarà creata, il principio di Induzione di
Solomonoff sarà indubbiamente fonte di una probabile
ispirazione, dalla quale potranno nascere le forme più evolute di
tale intelligenza.
Seth Lloyd e David Deutsch, non hanno ovviamente bisogno di
presentazioni; anch’essi hanno dato un notevole contributo allo
sviluppo della teoria dell’ Universo Digitale. Secondo Seth
Lloyd, l’uomo inizierà a comprendere la vera natura dello
Universo, solo nel momento in cui disporrà di computer
quantistici in grado di affrontare il problema alla radice.
D.Deutsch è un pioniere dei computer quantistici ed un
proponente dell'interpretazione a molti mondi della meccanica
quantistica. Egli sostiene che sia possibile progettare e realizzare
una macchina generante una realtà virtuale che, oltre a rivelarsi
in grado di fornire esperienze non distinguibili da quelle
sensorialmente oggettive, riesca a simulare addirittura ambienti
"impossibili fisicamente" ma "possibili (solo) logicamente".
Paola Zizzi è una fisica teorica italiana, nota per aver formulato
una versione quantistica della fisica digitale, da ella stessa
denominata "Computational Loop Quantum Gravity", da cui
l’acronimo "CLQG". In un suo lavoro intitolato “Quantum
Computation toward Quantum Gravity”, presentatato al
tredicesimo Congresso internazionale di fisica-matematica
(Londra, luglio 2000), le prime frasi (Abstract) riportate in quel
documento recitano quanto segue: “Lo scopo di questo lavoro è
quello di mettere in luce l’emergente rilevanza della teoria
quantistica dell’Informazione nel campo della Gravità
Quantistica. Come è stato suggerito da J.A. Wheeler, la teoria
dell'Informazione deve svolgere un ruolo rilevante nella
comprensione dei fondamenti della Meccanica Quantistica. In
questo lavoro, proponiamo l’idea che l’Informazione
Quantistica, debba rivestire un ruolo centrale nella Gravità
Quantistica. L’ipotesi di base è che la Gravità Quantistica, la
teoria che concilia la Meccanica Quantistica con la Relatività
Generale, possa essere formulata in termini di bit di
Informazione Quantistica (qubit), memorizzati nello spazio alla
scala di Planck”.
La teoria computazionale quantistica della gravità, fa un certo
numero di previsioni su alcune caratteristiche dell’Universo.
Fornisce un semplice modello del comportamento dello spazio-
tempo in presenza di materia e ci dà i mezzi per calcolare in che
modo le fluttuazioni quantistiche nell’Universo primordiale
hanno determinato la densità della materia e la posizione delle
galassie. È coerente con i modelli che prevedono la formazione
e l’evaporazione dei buchi neri. I suoi qubit sono perfettamente
in grado di riprodurre l’intera gamma di fenomeni osservati e
previsti dal Modello Standard per le particelle elementari.
Nel 1990, J.A. Wheeler, un fisico statunitense di fama mondiale
(deceduto nel 2008, all’età di 96 anni), propose l’idea che
l’Informazione sia qualcosa di fondamentale per la fisica
dell’Universo. Secondo la dottrina dell’ “It from bit” (tale è il
nome con cui definì la sua linea di pensiero), tutti gli oggetti
fisici-materiali, sono intrinsecamente costituiti (nella loro
matrice ultima), da pura Informazione (semplici bit di
Informazione). Cercando di spiegare il significato profondo, di
questa sua nuova e rivoluzionaria teoria sulla realtà fisica delle
cose, egli si espresse con le seguenti parole: “In altre parole,
ogni ‘it’ (ogni particella, ogni campo di forza, ed infine anche lo
stesso tessuto dello spazio-tempo), deriva la sua funzione, il suo
significato, la sua stessa intera esistenza (anche se in alcuni
contesti indirettamente), dall’apparato da cui scaturiscono le
risposte (sì / no) a semplici domande; che in ultima analisi non
sono altro che scelte binarie, ossia bit di Informazione. La mia
ipotesi dell’ “it from bit”, simboleggia e descrive l’idea che
ogni elemento del mondo fisico, nella sua matrice ultima, è
definito da una fonte immateriale esplicativa-informativa. In
breve, possiamo dunque considerare che tutti gli oggetti fisici di
questo Universo, sono in origine, fondamentalmente, delle
informazioni teoriche; da tali informazioni prende forma la
realtà, nella sua dimensione classica che tutti noi conosciamo,
rendendo così il tutto interconnesso e partecipativo”.
David John Chalmers, un filosofo australiano specializzato in
Filosofia della Mente e del Linguaggio, sintetizzò il pensiero di
Wheeler con le seguenti parole: “Secondo la dottrina dell’ ‘it
from bit’, le leggi della fisica possono essere espresse in termini
di Informazione, postulando diversi stati che danno luogo a
diversi effetti, senza in realtà dire che cosa sono quegli stati. È
solo la loro posizione in uno spazio di Informazione che conta.
Se così stanno le cose, allora l’Informazione rappresenta un
candidato naturale atto a svolgere anche un ruolo in una teoria
fondamentale della coscienza. Siamo giunti ad una concezione
del mondo in cui l'Informazione è davvero fondamentale,
nonché descritta da due aspetti fondamentali, corrispondenti
alle caratteristiche fisiche e alle caratteristiche fenomeniche del
mondo”.
La teoria dell’informazione afferma che esiste un elemento
fondamentale, il bit – una variabile binaria – che è la base di
tutta la comunicazione. Come risulta, questo bit, un’entità
discreta indivisibile, è la componente essenziale sia del codice
dei computer che delle particelle quantistiche. Sia la realtà fisica
che quella digitale sono composte dagli stessi bit binari
quantizzati di informazione. La realtà, a prescindere dal suo
contenuto, non è altro che l’informazione che trasmette.
“Storicamente, gran parte della fisica fondamentale si è
occupata della scoperta delle particelle fondamentali della
natura e delle equazioni che descrivono i loro moti e interazioni.
Ora sembra che un diverso programma potrebbe essere
altrettanto importante: scoprire i modi con cui la natura
consente o previene l’espressione e la manipolazione
dell’informazione, piuttosto che il moto delle particelle”.
(Steane, AM (1998), Quantum Computing, Reports on Progress
in Physics 61, P.119).
“Per me il concetto di informazione è alla base di ogni cosa che
noi chiamiamo "natura". La luna, la sedia, l'equazione degli
stati, niente e tutto, in quanto non possiamo parlare di alcunché
senza de facto parlare dell'informazione che noi abbiamo di
queste cose. In questo senso l'informazione è il blocco
costruttivo basilare del nostro mondo. Noi abbiamo imparato
nelle scienze naturali che la chiave di lettura può essere spesso
trovata se rimuoviamo certe linee di demarcazione nelle nostre
menti. Newton ha mostrato che la mela cade al suolo in accordo
a certe leggi che governano l'orbita della luna intorno alla
Terra. E con questo ha reso obsoleta la vecchia differenziazione
tra fenomeni terrestri e fenomeni celesti. Darwin ha mostrato
che non ci sono linee divisorie tra l'uomo e gli animali. Ed
Einstein ha rimosso la linea di demarcazione tra spazio e tempo.
Ma nelle nostre menti, noi ancora tracciamo una linea di
separazione tra "realtà" e "conoscenza sulla realtà", in altre
parole tra realtà e informazione. E lei non può tracciare questa
linea. Non c'è nessuna regola, nessun processo di distinzione tra
realtà e informazione. Tutto questo pensare sulla realtà è
pensare sull'informazione, che è il motivo per cui lei non può
fare questa distinzione in una formulazione delle leggi di
natura. La meccanica quantistica, correttamente interpretata, è
una teoria dell'informazione”. Anton Zeilinger
Un gruppo di fisici guidato dal Dr. Stephen Durr del John Von
Neumann Institute in Germania ha confermato che la somma
delle tre particelle subatomiche (chiamate quark) che formano i
protoni ed i neutroni, rappresentano appena l'uno per cento della
loro massa totale. Tali prove suggeriscono che il resto della
massa nucleare sarebbe costituita da gluoni13
, particelle
effimere, che formano una bolla in mezzo al vuoto, la cui
funzione è di mantenere unito il trio dei quark all'interno dei
protoni e dei neutroni. Questo fatto suggerisce l'ipotesi che la
nostra realtà tangibile potrebbe essere semplice fluttuazione di
vuoto o puramente nulla.
Dal momento che la realtà delle particelle non può essere niente
più che fumo e ombre, potrebbe essere che l'esistenza reale di
tutti gli oggetti del cosmo risieda in uno o più spazi paralleli.
Molti scienziati ipotizzano che, proprio come un oggetto
tridimensionale è in grado di proiettare un ombra a due
dimensioni sul terreno, un universo pluridimensionale (come nel
caso della teoria delle stringhe) potrebbe gettare un'ombra in uno
spazio tridimensionale. Se questa teoria è corretta, ogni oggetto
ed organismo in questo mondo non sarebbe che una
rappresentazione grossolana degli oggetti e degli organismi in
un universo più "reale". In coincidenza con questa teoria,
13
In fisica, i gluoni sono le particelle elementari, responsabili della forza
cromatica. Essi tengono uniti assieme i quark, per formare gli adroni, ovvero
tutte le particelle soggette all`interazione forte, ad esempio i protoni e i
neutroni; la loro carica elettrica è zero, il loro spin è 1 (sono bosoni vettori) e
generalmente si assume che abbiano massa uguale a zero. I gluoni sono
responsabili della stabilità del nucleo atomico. Il termine deriva dall'inglese
glue (colla), in quanto tengono "incollate" altre particelle.
l'esistenza di una mente extracorporea in un'altra dimensione
potrebbe essere la spiegazione ideale del perché abbiamo
memoria, in quanto gli atomi nel nostro cervello sono sostituiti
centinaia di volte durante il corso della nostra vita. Secondo
Steve Grand, l’autore di "Creation: Life and How to Make It,"
nessuno degli atomi che compongono il nostro corpo di oggi era
nel nostro corpo durante un evento della nostra infanzia che ci
ricordiamo. Pertanto, non siamo solo la materia di cui siamo
fatti. Ciò implica che i nostri corpi reali sono nello spazio che
non possiamo comprendere, mentre un corpo virtuale, un
semplice contenitore, sarebbe ciò che è …in ciò che noi
chiamiamo realtà.
Correva l’anno 1958, quando Erwin Schrödinger (ben trenta
anni prima che emergessero le prime teorie sull’Universo
Olografico o “digitale”!), nelle ultimissime pagine del suo libro
“L’immagine del mondo” (nell’ultimo capitoletto intitolato:
Potrebbe l’energia essere un concetto puramente statistico?),
scriveva e proponeva al mondo queste sue straordinarie
riflessioni: “Uno stato di non equilibrio non può essere
rappresentato da un’ autofunzione d’energia. Infatti è ben noto
e abbastanza evidente che, se la funzione d’onda dipende dal
tempo soltanto secondo un esponenziale immaginario (una
frequenza), il sistema è completamente morto. Non ha luogo
nessun cambiamento, nulla dipende dal tempo. L’associazione
proposta ridurrebbe in ognuno dei casi il sistema in questione
nelle condizioni della bella addormentata nel bosco: gradienti
di temperatura o concentrazione congelati, reazioni chimiche
arrestate a metà, un mattone che sta cadendo sospeso in aria a
metà strada per forza magica, un’onda radio emessa da Londra
che non raggiunge Cambridge, e così via. (…) Ma c’è un altro
aspetto più serio della stessa cosa, cioè il fatto che secondo
l’opinione corrente una misurazione assolutamente precisa
dell’energia totale di un sistema fisico, porterebbe il sistema
stesso nello stato di equilibrio termodinamico (ovvero
d’entropia massima), per quanto esso ne fosse lontano all’inizio
della misurazione.(…) L’equilibrio termodinamico è una pura
astrazione, un caso limite che non si incontra mai in realtà.
Nessun sistema che noi osserviamo ha un valore energetico
perfettamente determinato, anzi non dobbiamo nemmeno
ammettere una cosa simile nelle immagini da noi inventate per
descrivere ciò che succede. Perché nessuna cosa che partecipi a
ciò che succede ha un’energia ben definita. Non parla ciò a
favore della mia tesi, che l’energia, proprio come l’entropia, è
un concetto statistico?”
Nel libro “Il Programma dell’Universo”, l’autore (Seth Lloyd,
noto fisico e informatico statunitense) dichiara apertamente che
lo scopo principale della sua opera letteraria, è di “mostrare il
ruolo fondamentale che l'informazione gioca nell'universo (…).
Tramite la comprensione di come esso elabori se stesso, noi
possiamo capirlo nel suo complesso". In esso l'autore espone la
storia dell'unità informativa, il bit, e dell'Universo inteso come
computer quantistico virtualmente illimitato che non ha mai
cessato, fin dalla sua origine, di elaborare se stesso e la sua
evoluzione con una potenza di calcolo stimata essere, allo stato
attuale, di circa 10^105 operazioni quantistiche al secondo (cioè
basate sul contenuto informativo registrato tramite bit quantistici
o Q-bit14
). Dato che i q-bit possono registrare due stati logici (0
14
Qubit, contrazione di quantum bit, è il termine coniato da Benjamin
Schumacher per indicare il bit quantistico, ovvero l'unità di informazione
quantistica. Per definire il qubit è indispensabile introdurre innanzi tutto il
concetto nuovo di quanto di informazione, cioè la più piccola porzione in
cui una qualsiasi informazione codificata può essere scomposta; è quindi
l'unità di misura dell'informazione codificata. Così come il bit è il quanto di
informazione della computazione classica, la computazione quantistica si
basa su un concetto analogo: il quantum bit. Al pari del bit, il qubit è un
oggetto matematico con determinate specifiche proprietà. Il vantaggio nel
trattare i qubit come entità astratte risiede nella libertà di costruire una teoria
generale della computazione quantistica che non dipende dagli specifici
sistemi utilizzati per la sua realizzazione.
e 1) contemporaneamente, già con pochi q-bit a disposizione un
elaboratore quantistico ha una potenza di calcolo
incommensurabile rispetto ad un suo concorrente, dotato di
circuiti basati sulla tradizionale tecnologia dei microprocessori
nei quali i bit registrano solo gli stati 0 oppure 1.
Riprendendo le stesse parole usate da Lloyd ne “Il programma
dell’Universo”, possiamo inoltre affermare che: “(…)Poiché
l’Universo è in grado di svolgere calcoli quantistici e un
computer quantistico è in grado di simulare i sistemi fisici,
Universo compreso, ne segue che un qualsiasi computer
quantistico e l’Universo hanno la stessa capacità
computazionale e sono quindi, sostanzialmente, identici”.
Il modo in cui un computer quantistico riesce a simulare il
comportamento dei sistemi fisici, viene definito: simulazione
quantistica. Sempre secondo Lloyd: “A causa delle varie
complicazioni insite nella meccanica quantistica, i computer
classici non riescono a riprodurre con efficienza il mondo
microscopico15
. Ma un computer quantistico non soffre di tali
limiti. È sufficiente mettere in corrispondenza biunivoca le varie
parti del sistema da simulare con i qubit di un computer
quantistico: le interazioni fisiche diventano così operazioni
logiche, e la simulazione è così precisa che i due oggetti
(computer e sistema da simulare) si comportano esattamente
allo stesso modo, tanto da diventare a tutti gli effetti
indistinguibili”.
In un articolo divenuto ormai leggendario (Ultimate Physical
Limits to Computation, apparso su Nature nel 2000), Lloyd ha
15
Simulare il comportamento dinamico di un oggetto assai piccolo, come ad
esempio un insieme di trecento particelle con spin, va già oltre le possibilità
di qualsiasi calcolatore classico. Per poterle simulare, tuttavia, basterebbero
trecento qubit programmati in modo tale che le loro interazioni siano una
replica perfetta delle interazioni tra le particelle.
dimostrato che la capacità computazionale di un qualunque
sistema fisico può essere calcolata a priori in funzione
dell’energia disponibile e delle dimensioni del sistema stesso.
La relazione che lega energia e velocità in un sistema di calcolo
è data dal teorema di Margolus-Levitin.16
Il teorema di Margolus-Levitin dice che la massima velocità con
cui un sistema fisico (come un elettrone, ad esempio) può
spostarsi da uno stato a un altro, è direttamente proporzionale
all’energia del sistema stesso. Si tratta di un risultato molto
generale. Non è importante la natura del sistema, né il modo in
cui registra ed elabora l’informazione: conta solo l’energia
disponibile per la computazione. Il teorema non è solo di tipo
qualitativo, ma fornisce una formula precisa per il calcolo della
massima velocità: il numero massimo di commutazioni al
secondo di un bit è dato dall’energia necessaria per effettuare la
commutazione moltiplicato per quattro e diviso per la costante
di Planck. Se applichiamo la formula a una particella media,
otteniamo che questa può commutare fino a 30'000 miliardi di
volte al secondo. Il limite fissato da Margolus e Levitin è un
limite massimo teorico, che i calcolatori convenzionali non
raggiungono mai. Un computer quantistico, invece, opera
sempre al massimo della velocità possibile.
Quando si parla di capacità computazionale dell’Universo,
ovviamente il riferimento è sempre rivolto all’Universo
osservabile, ossia a quella parte di Universo, definito e
delimitato dal nostro “orizzonte cosmico”. Ma il nostro
16
Tale teorema venne così chiamato, in onore dei due scopritori. Norman
Margolus, è uno dei pionieri nel campo della fisica della computazione. Sotto
la guida di Tommaso Toffoli al MIT, ha dimostrato che un semplice sistema
formato da un gruppo di atomi che interagiscono tra loro può fungere da
computer digitale universale. Lev Levitin, a Boston, è stato uno dei primi a
calcolare in modo esplicito, usando le leggi della fisica, la capacità di
trasmissione delle fibre ottiche. I loro sforzi congiunti hanno portato nel 1998
alla pubblicazione di un articolo (The Maximum Speed of Dynamical
Evolution) in cui enunciavano il teorema che avrebbe preso il loro nome.
Universo comunque non è statico, per cui l’orizzonte cosmico si
allarga con il passare del tempo (a un ritmo triplo rispetto alla
velocità della luce). Con l’ampliarsi dell’orizzonte, cresce il
numero di corpi celesti e cresce di pari passo l’energia
disponibile per la computazione. Dunque, ciò significa che la
capacità computazionale dell’Universo all’interno del nostro
orizzonte cosmico, accresce continuamente nel tempo, ad una
velocità impressionante. Inoltre, come già detto con l’espandersi
dell’orizzonte cosmico, aumenta anche la quantità di energia
disponibile. Ciò significa che il numero totale di operazioni
elementari e di bit, è da intendersi come una funzione crescente
dell’età dell’Universo.17
Lloyd sostiene che “siccome ogni molecola, ogni atomo e quark
registrano informazioni, il modo migliore per cogliere l'essenza
di un oggetto - minimo o massimo che sia - è conoscerlo come
un dispositivo che processa bit. Un computer, insomma”. Tom
Siegfried, nel libro “The Bit and the Pendulum” , intravede nel
fenomeno culturale della “Digital Physics”, qualcosa di più
sostanzioso di un semplice cambio di metafora.
Avendo ormai la letteratura abusato dell'espressione
'mutamento di paradigma', ecco che Siegfried inventa il
'superparadigma', composto dalla triade: informazione (bit);
processo d'informazione (computazione); macchina che processa
informazioni ( computer).
Brian Hayes, con un contributo all' “International Journal of
Theoretical Physics”, compie un ulteriore passo in avanti. Il
problema non è più se l'universo sia un enorme processo
computazionale, ma come elaborare un programma per
17
Nel Modello Standard la relazione tra energia totale e tempo (a partire dal
Big Bang) è di tipo lineare (rispetta dunque la legge della proporzionalità
diretta). Poiché la velocità massima di elaborazione dell’informazione è
direttamente proporzionale all’energia, anch’essa è una funzione lineare
dell’età dell’Universo. Dunque, il numero totale di operazioni elementari
svolte, che è uguale alla velocità moltiplicata per il numero dei secondi
trascorsi dal Big Bang, è una funzione del quadrato dell’età dell’Universo.
computer capace di implementare un universo come il nostro. Il
titolo dell'articolo è “Debugging the Universe”, dove l'azione
del ' debug' - altra espressione fermentata nel mondo informatico
- equivale al togliere gli errori, i vizi, i 'bachi' ( bug ) da un
sistema. Il fine: ottenere una versione ottimizzata del nostro
universo.
La nuova immagine dell'universo-computer non può non avere
risonanza sul piano cosmogonico e, in ultimo, sulla questione
religiosa della creazione. Già Charles Babbage, agli albori della
cibernetica, fantasticò che “Logos” fosse il codice con cui il Dio
creatore instanzializzò il calcolatore cosmico. Ai nostri giorni,
l'antropologo Stefan Helmreich riferisce, nel suo "The Word for
World Is Computer”, di una simulazione di vita artificiale che si
chiama Aleph. Il già menzionato Seth Lloyd inizia il suo libro
“Il programma dell'Universo” con una sorta di nuova Genesi:
«All'inizio era il bit», per giungere, nelle pagine finali, a
concludere che «la terra di cui siamo stati plasmati è la
computazione». Come dire: ricordati che sei bit e bit tornerai.
Ancora più diretta, in senso teologico, è la riflessione distesa da
Kevin Kelly in un articolo molto noto nel settore, “God Is the
Machine”. Merita di essere ricordato anche il lungo sottotitolo
che, in italiano, suona: “All'inizio era lo 0. E poi fu l'1. Una
meditazione ipnotizzante sul potere trascendente della
computazione digitale”. Qui Kelly, dopo un'ariosa ricognizione
della storia dell'idea dell'universo-computer, si blocca dinanzi ad
un dubbio assai intricato: ma Dio, di questo universo, è il
Sommo Programmatore, è il Software cosmico o, ancora, è il
“necessario Other”, ovvero la Piattaforma esterna dove il
programma “Universo” è fatto girare? Si tratta di un
interrogativo singolare, anche un poco irriverente, che nel futuro
prossimo, però, potrà tornare ad interpellare.
Olografia quantistica elettronica:
Nel corso di un’ormai leggendaria conferenza del 1959, il
grande fisico e premo Nobel Richard Feynman, sostenne che
non vi fossero barriere fisiche che potessero impedire a
macchine e circuiti di essere drasticamente ridotti di dimensioni.
Definì questo concetto con la ormai celebre frase "There's
Plenty of Room at the Bottom" (C'è molto spazio là in fondo).
Feynman offrì mille dollari a chi avesse trovato un modo per
scrivere una pagina da un libro di testo ordinario in uno spazio
25.000 volte più piccolo (una scala in cui l'intero contenuto della
Enciclopedia Britannica si adatta alla testa di uno spillo).
Il premio non fu consegnato fino al 1985, quando uno studente
di Stanford, Tom Newman, insieme al professore di ingegneria
elettronica Fabian Pease, realizzò una litografia a fascio
elettronico per incidere la pagina di apertura di Dickens "A Tales
from two cities". Questo record fu detenuto fino al 1990, quando
un gruppo di ricercatori appartenenti a una nota società di
computer, riuscì ad incidere le lettere IBM, disponendo vicini 35
atomi di xeno.
All’inizio del 2009, il record fu nuovamente battuto. In un
documento pubblicato online sulla rivista Nature Nano-
technology, alcuni ricercatori della Stanford University
descrissero le tecniche impiegate per creare delle lettere di
dimensioni 40 volte inferiori all'esperimento originale, le cui
dimensioni erano di 0.3 nanometri (circa 1/3 di un miliardesimo
di metro). Si arrivò dunque ad una conquista straordinaria, sia
nel campo delle nanotecnologie che in quello della fisica
dell’Informazione; ovvero: il limite di densità di informazioni
non era più quello di un bit per ogni atomo!
Oggi esiste dunque un nuovo orizzonte che permette di creare
spazio per memorizzare più informazioni. Attraverso una nuova
tecnologia, detta olografia quantistica elettronica, e modificando
la disposizione delle molecole, i ricercatori possono creare
differenti forme d'onda per la codifica delle informazioni. In un
tradizionale ologramma la luce laser colpisce un’immagine
bidimensionale da cui appare un oggetto 3D virtuale. Nel nuovo
tipo di olografia, gli ologrammi molecolari bi-dimensionali non
sono illuminati dalla luce laser, ma da elettroni che sono già in
una piastra di rame, in grande abbondanza.
L' "oggetto elettronico" risultante, può essere letto con un
microscopio a scansione tunnel. Il risultato è che nello stesso
ologramma possono essere memorizzate diverse immagini,
ognuna creata da una diversa lunghezza d’onda di elettroni. I
ricercatori possono allora leggerle separatamente, così come si
fa con le pagine di un libro, in uno spazio che è lo stesso per
ogni atomo considerato. L’ esperimento ha permesso di
memorizzare, dunque, circa 35 bit per elettrone, necessari per la
codifica di ogni lettera. La conclusione più importante è che
un bit per atomo, non è più il limite ultimo di densità di
informazioni.
Nel 1994, ben quindici anni prima di questo eccezionale
risultato, Frank Tipler, nella sua opera fondamentale “La fisica
dell’immortalità”, scriveva: „(…)tutte le entità presenti
nell’Universo attuale, codificano una quantità di informazione
di gran lunga inferiore alla quantità permessa dalla teoria
quantistica dei campi. Per esempio, se un atomo di idrogeno
dovesse codificare tutta l’informazione che gli è consentita dal
limite di Bekenstein18
, potrebbe codificare circa 4 x 10^6 bit di
informazione (…)Quindi un atomo di idrogeno potrebbe
codificare all’incirca un megabyte di informazione, mentre di
norma codifica molto meno di un bit. La massa dell’idrogeno
non viene di certo utilizzata in modo efficiente! Se si assume che
il raggio sia quello di un protone (R= 10^-13 cm),la quantità di
18
La meccanica ci dimostra che il numero di bit codificabili in una regione
limitata, è paragonabile al numero di stati quantistici possibili in tale regione.
Il limite di Bekenstein, determina il limite fondamentale al numero degli stati
quantistici possibili in una regione limitata. Se l'informazione I è legata al
numero degli stati possibili N dall'equazione: I = log2 N, allora il limite di
Bekenstein alla quantità di informazione codificata all'interno di una sfera di
raggio R e di energia totale E è: I < 2(p-greco)ER / ( hc ln 2).In genere si
adotta, come limite superiore al numero di bit, codificabili da parte di
un'entità fisica qualunque che abbia una massa di cento chili e un volume di
circa 4,2 m^3, il valore: I < 2,57686 x 10^45 bit.
informazione codificabile nel protone è costituita da soli 44 bit!
Questo valore è davvero piccolo rispetto alla complessità del
protone - tre quark valenza, innumerevoli quark e gluoni
virtuali- che è di fatto tanto complesso che non siamo ancora
riusciti a calcolarne lo stato di base dai principi fondamentali
utilizzando il Modello Standard, anche utilizzando i
supercomputer più avanzati!“
Informazione e teletrasporto quantistico:
“Si potrebbe ben dire che l’informazione sia
l’irriducibile nucleo da cui tutto scorre,
per cui la questione per cui la natura
appare quantizzata è semplicemente una
conseguenza del fatto che l’informazione
stessa viene quantizzata per necessità”.
Anton Zeilinger
La teoria quantica afferma che l’energia di una forza viene
trasmessa in entità discrete indivisibili, chiamati quanti. Questi
quanti rappresentano i più piccoli elementi della natura. Il fatto
che l’energia possa essere quantizzata in unità di minuscoli
quanti equivale a ridurre un’ immagine a due dimensioni in
movimento, in piccoli bit di informazione che compongono una
linea di codice computabile. La teoria dell’informazione si è
combinata con la nostra comprensione quantistica della materia
in modo tale che lo stato di qualsiasi sistema possa essere
descritto in base a come esso memorizza questi bit di
informazione. Lo stato quantico di un atomo – un qubit – può
essere trasferito da un atomo ad un altro. Questa azione,
denominata teletrasporto quantistico, provoca la distruzione
dell’atomo originale a causa della regola no-cloning19
. Tuttavia,
19
Il teorema di no-cloning quantistico asserisce che, dati i postulati della
meccanica quantistica, non è possibile duplicare esattamente (cloning) uno
stato quantistico sconosciuto a priori. È invece possibile effettuare la
duplicazione senza errori se lo stato appartiene ad un insieme ortogonale di
stati conosciuto a priori: tale duplicazione fallisce se lo stato non appartiene
all'insieme ortogonale. In particolare è sempre possibile duplicare uno stato
conosciuto a priori. Il teorema è equivalente al teorema di non
discriminazione quantistico: se fosse, infatti, possibile distinguere in modo
certo stati non ortogonali, sarebbe poi possibile utilizzare una macchina
specifica per la duplicazione di uno stato piuttosto che l'altro, rendendo così
non vi è una differenza sostanziale tra l’atomo originale e la
copia. La meccanica quantistica non distingue un atomo da un
altro. L’unica differenza sta nelle informazioni quantistiche che
trasportano.
Se si possedesse un dispositivo di teletrasporto per esseri umani,
non sarebbero i vostri atomi ad essere teletrasportati e
riassemblati, ma piuttosto le informazioni quantistiche
responsabili dell’assemblaggio di un gruppo anonimo di atomi
dentro di voi. Questo conduce ad una domanda metafisica: vale
a dire, la vostra copia, sarebbe del tutto identica all’originale
(ricordi inclusi)?
La meccanica quantistica afferma che l’informazione è reale
come qualsiasi altra proprietà che diamo agli atomi come il
moto rotatorio, la velocità, o la massa. Poiché il bit di
informazione viene considerato un vero elemento fisico,
l’osservazione, la trasmissione e la ricezione di informazioni,
costituiscono un vero scambio fisico. Per vedere qualcosa è
necessario far rimbalzare un fotone su di esso. Questo modifica
ciò che si sta osservando. Tutto questo rappresenta una radicale
rottura con la meccanica classica che considera le osservazioni
come eventi cognitivi senza conseguenze fisiche.
Il trasferimento di informazioni durante la misurazione
comporta quindi lo scarto di qualcosa: un bit di informazione.
Questo bit di informazione penetra nel vostro sistema nervoso e
si unisce al flusso infinito di informazioni diretto al cervello.
“Noi esseri umani memorizziamo le informazioni nel nostro
cervello e nei nostri geni così come i computer memorizzano le
possibile la duplicazione di stati non ortogonali. Nel caso classico la
duplicazione di una informazione è in principio sempre possibile. L'apparente
contraddizione con il caso quantistico viene risolta dal fatto che gli stati di un
sistema macroscopico descrivibile classicamente appartengono sempre ad un
insieme ortogonale, per il quale la duplicazione è possibile.
informazioni nei loro hard disk” (Charles Seife). Questo bit
quantico, noto come qubit, viene memorizzato nel vostro
cervello, in modo tale da avere conseguenze misurabili sulla
materia fisica.
Il bit è un elemento binario in grado di esprimere i fondamentali
paradossi, l’ambiguità e le indeterminazioni della meccanica
quantistica. Piuttosto che solo sì o no, il bit quantico (Q-bit) può
comportarsi come se le cose fossero sì e no, on e off, particella o
onda. Questo stato di sovrapposizione deve essere mantenuto
fino a che il bit quantico viene coinvolto in una interazione con
qualcosa che va al di là di se stesso. Dal momento che le
interazioni si verificano costantemente nell’universo, sia che
provengano da scienziati indagatori o da particelle invisibili, la
sovrapposizione è uno stato effimero. “Sembra che l’atto del
vivere possa essere visto come l’atto di replicare e preservare le
informazioni nonostante i tentativi della Natura di dissiparle e
distruggerle. (La teoria dell’informazione sta svelando la
risposta alla secolare domanda: Che cos’ è la vita? La risposta
è abbastanza inquietante)”. (Charles Seife).
Il teletrasporto – inteso come forma di trasferimento istantaneo,
a distanza e senza l’interposizione di alcun mezzo fisico dello
stato quantistico di un sistema atomico o molecolare sfruttando
il fenomeno di entanglement – è uno di processi più misteriosi
delle scienze fisiche. Il fenomeno dell’entanglement, a sua
volta, ha diviso i fisici teorici e sperimentali per diversi decenni,
fin dalle prime prese di posizione di Albert Einstein, che con i
colleghi Podolsky e Rosen formulò il celebre Paradosso EPR,
passando per le disuguaglianze di Bell20
per arrivare ai recenti
20
Il Teorema di Bell afferma, nella forma più immediata, che nessuna teoria
fisica locale e deterministica a variabili nascoste può riprodurre le predizioni
della meccanica quantistica. Considerato come un importante contributo a
favore della meccanica quantistica, in particolare del suo carattere contro-
intuitivo nel rifiuto del realismo locale, tocca questioni fondamentali per la
esperimenti in proposito di Anton Zeilinger in Austria e di
Francesco de Martini a Roma. Si tratta in sostanza di una
proprietà di correlazione quantistica tra due sistemi
opportunamente preparati e che si mantiene anche quando essi
vengono separati anche a distanza arbitraria, in via teorica.
Qualche anno fa (gennaio 2009), ricercatori del Joint Quantum
Institute (JQI) dell’Università del Maryland (UMD) e
dell’Università del Michigan, sono stati in grado di ottenere con
successo il teletrasporto di uno stato quantistico tra due atomi,
posti tra loro ad una distanza considerevole. Secondo i
ricercatori che hanno compiuto tale esperimento, utilizzando
questo protocollo sperimentale l’informazione teletrasportata
può essere recuperata con un’accuratezza del 90 per cento, con
prospettive di ulteriori miglioramenti. Christopher Monroe,
coordinatore della ricerca, commentò con queste parole il
filosofia della fisica moderna. È il più famoso lascito del fisico irlandese John
Stewart Bell. L'articolo di Bell del 1964 era intitolato "Sul paradosso
Einstein-Podolsky-Rosen". Il Paradosso Einstein-Podolsky-Rosen (paradosso
EPR) presume il realismo locale, ossia le nozioni intuitive che i parametri
delle particelle abbiano valori definiti indipendentemente dall'atto di
osservazione e che gli effetti fisici abbiano una velocità di propagazione
finita, considerando appunto paradossale il carattere non locale della
meccanica quantistica nella sua interpretazione ortodossa e concludendo per
la sua incompletezza, cioè per la presenza di variabili nascoste. Ampliando
l'esperimento mentale del paradosso EPR, in particolare studiando rapporti su
angolazioni intermedie, rispetto alle sole ortogonali considerate dai tre
predecessori, Bell ha dimostrato che la condizione di realismo locale impone
alcune restrizioni nelle correlazioni previste tra i parametri di particelle
entangled (originate da uno stesso processo fisico e aventi caratteristiche
simmetriche), che non sono richieste dalla meccanica quantistica. Di
converso, previsioni in completo accordo con quest'ultima implicano la
rinuncia ad almeno uno fra determinismo e località. Le restrizioni
evidenziate, espresse matematicamente da relazioni di disuguaglianza
chiamate Disuguaglianze di Bell, permettono, tramite opportune
misurazioni, una verifica sperimentale.
risultato del loro esperimento: “Il nostro sistema ha le
potenzialità per costituire la base di un ‘ripetitore quantistico’
in grado di connettere in rete memorie quantistiche su distanze
enormi. Inoltre, i nostri metodi possono essere utilizzati in
abbinamento con operazioni su bit quantistici per creare i
‘mattoni elementari’ del calcolatore quantistico del futuro, in
cui i supporti logici e di memoria sono su scala atomica o
molecolare.”
Durante l’estate dello stesso anno (giugno 2009), i fisici del
National Institute of Standards and Technology (NIST) hanno
dimostrato la possibilità di produrre e osservare il fenomeno
dell’entanglement – che Einstein definì come una sorta di
“azione fantasma a distanza” – in un sistema su scala atomica
del tutto simile a un sistema meccanico del mondo
macroscopico. In sostanza, i ricercatori riuscirono ad imporre
l'entanglement al moto vibratorio di due coppie di ioni
berillio/magnesio. Ciascuna coppia si comportava come un
oscillatore meccanico connesso a una molla di 4 micron di
lunghezza. L'entanglement indusse le due coppie a vibrare
all'unisono anche se esse si trovavano separate da 240
micrometri e localizzate in differenti zone della “trappola
ionica” in cui vennero poste.
La nostra intuizione sulla natura del mondo fisico è talmente
condizionata dall'esperienza con oggetti macroscopici che
interagiscono secondo le leggi della meccanica classica da
rendere difficile comprendere appieno stranezze del mondo
quantistico come la sovrapposizione (per cui quando un oggetto
non viene osservato può trovarsi allo stesso tempo in più stati
differenti) e l'entanglement o "non separabilità quantistica" (per
cui lo stato di un oggetto si trova in stretta correlazione con
quello di un altro oggetto con esso entangled, anche se essi sono
spazialmente separati; ossia; se qualcosa altera lo stato quantico
dell'uno, anche l'altro subirà un'alterazione).
Eppure la teoria prevede che stati di sovrapposizione ed
entanglement siano possibili anche per oggetti di grandi
dimensioni. Vero è che l'enorme quantità delle interazioni che
sorgono fra i componenti elementari di un oggetto macroscopico
e fra l’oggetto stesso e l'ambiente, sono tali da indurre
sistematicamente quel fenomeno di decoerenza21
, che
impedisce di osservare su scala macroscopica gli effetti
quantistici. Tuttavia, l'esplorazione della persistenza delle
correlazioni quantistiche nel mondo "classico" impegna molti
fisici sperimentali, sia per il suo significato a livello di scienza
21
In un modello di „misura“, ciò che produce la riduzione del pacchetto
d'onde, è l'interazione del sistema con ciò che gli sta attorno (ad esempio lo
stesso “ apparecchio di misurazione“).Più generalmente, gli oggetti quantici
non sono mai completamente isolati da ciò che li circonda, dove per „ciò che
li circonda“ si intende tutto ciò che interagisce con il sistema (un
apparecchio, delle molecole d'aria, dei fotoni, ecc...). Le multiple interazioni
tra l'oggetto quantico e „ciò che lo circonda“ , causano una distruzione molto
rapida delle interferenze quantiche del sistema. Le interferenze sono un
fenomeno ondulatorio, e caratterizzano un comportamento quantico. La
distruzione delle interferenze, comporta a sua volta una soppressione delle
super-posizioni di stati che caratterizzano l'oggetto quantico; esso quindi,
disponendo unicamente di alcuni stati semplici, assume immediatamente un
comportamento classico. In un oggetto macroscopico (un gatto per
esempio),ogni suo atomo interagisce con tutti gli altri atomi dell'ambiente che
gli sta attorno. Tutte queste interazioni provocano spontaneamente un
„ronzio“ di interferenze quantiche, che spariscono quasi istantaneamente.
Ecco perché la fisica quantica non si applica alla nostra scala: i sistemi non
sono mai isolati. Questo fenomeno è stato battezzato „decoerenza“, poiché è
la distruzione della coerenza degli stati quantici che elimina le interferenze.
La velocità di decoerenza aumenta con la grandezza del sistema. Un gatto per
esempio, formato da circa 10^27particelle, “decoerisce“ in 10^-23 secondi.
Ciò spiega perché non si sono mai visti dei gatti „morti-viventi“, e infine
perché la decoerenza sia così difficile da osservare.
di base sia per le sue implicazioni a livello di applicazione in
futuri computer quantistici.
Nel mese di dicembre del 2011, un gruppo di ricercatori delle
Università di Oxford (GB), di Singapore e del National
Research Council canadese, ha dimostrato che l'entanglement
quantistico può manifestarsi in maniera (relativamente) vistosa
anche nel mondo macroscopico. I ricercatori sono infatti riusciti
a porre in uno stato di "non separabilità" quantistica due
diamanti di circa un millimetro di diametro, collocati a una
distanza di 15 centimetri l'uno dall'altro e, cosa non meno
significativa, a temperatura ambiente.
L'eccitazione termica è infatti una delle principali cause di
distruzione delle correlazioni quantiche alla base della nostra
osservazione di risultati di misura classici e non a caso gli studi
sperimentali sull'entanglement vengo condotti solitamente a
temperature quanto più basse possibile. In particolare, i
ricercatori sono riusciti a generare uno stato di entanglement tra
due campioni di diamante utilizzando sofisticate apparecchiature
laser, separatori di fasci e rilevatori (la tecnica è chiamata
spettroscopia ultra pompa veloce sonda), mostrando che è
possibile forzare i due diamanti a "condividere" i fononi, ossia
gli schemi di oscillazione degli atomi nel reticolo cristallino dei
campioni di diamante.
Solo qualche mese fa invece (maggio 2012), il gruppo viennese
guidato da Anton Zeilinger batte il primato di teletrasporto
trasferendo lo stato quantistico di fotoni tra due isole delle
Canarie, a 147 chilometri di distanza. Pochi giorni prima,
ricercatori cinesi diretti da Jian-Wei Pan avevano annunciato di
aver effettuato il teletrasporto dello stato di fotoni a una distanza
di 97 chilometri. Questi successi aprono la strada a nuovi test su
lunghe distanze, usando addirittura satelliti in orbita, e a future
tecnologie di comunicazione quantistica di uso pratico.
Alla base degli esperimenti sul teletrasporto quantistico vi è
l’ormai noto fenomeno dell’entanglement, per il quale due
particelle opportunamente preparate (convenzionalmente
indicate come “A” e “B” o con i nomignoli Alice e Bob)
stabiliscono una correlazione di natura quantistica che si
mantiene anche allontanandole a una distanza virtualmente
arbitraria. Una misurazione condotta su una delle due fa
collassare il suo stato quantistico su un valore definito, e lo
stesso avviene per la particella lontana, come se ci fosse una
misteriosa interazione istantanea a distanza (spooky action at a
distance, come la definì Albert Einstein, che propose per primo
il paradosso di questa comunicazione, passato alla storia come
“Paradosso EPR”, da un famoso articolo del 1935 scritto con
Boris Podolski e Nathan Rosen).
Alla fine degli anni novanta, grazie ai pionieristici studi di
Francesco De Martini dell'Università «La Sapienza» di Roma e
di Anton Zeilinger, allora all’Università di Innsbruck, la realtà
del teletrasporto è stata dimostrata sperimentalmente. Da ciò è
nato un fertile filone di ricerca che ha portato a diversi successi,
in diversi centri di ricerca sperimentale nel mondo.
L’esperimento di Zeilinger e colleghi si è svolto nelle Isole
Canarie. Sfruttando nuove tecnologie, quali un’innovativa fonte
di fotoni entangled e di rivelatori di fotoni singoli a rumore
ultra-basso, e superando notevoli difficoltà meteorologiche, il
gruppo è riuscito a portare a buon fine il teletrasporto dall'isola
di La Palma a quella di Tenerife, che distano tra loro 147
chilometri. Se i risultati annunciati da Zeilinger saranno
confermati dalla peer review e superata quindi ufficialmente la
barriera dei 100 chilometri, s’intravede la possibilità di
estendere i test utilizzando i satelliti artificiali in orbita. E,
guardando più oltre, di stabilire finalmente le basi per tecnologie
di comunicazione quantistica di uso pratico.
Anton Zeilinger ha sviluppato molti strumenti nuovi per la fisica
dei fotoni entangled, per esempio una forte sorgente di fotoni
entangled rispetto alla polarizzazione, tecniche per
l'identificazione degli stati di Bell e metodi per produrre
l'emissione coerent di più di una coppia entangled da un
cristallo. La tecnologia risultante gli ha permesso di eseguire un
numero di primi esperimenti di informazione quantistica con i
fotoni entangled. Il primo utilizzo in assoluto dell'entanglement
in un qualsiasi protocollo di informazione quantistica è stata la
dimostrazione di codice iperdenso. I suoi successi includono
inoltre la prima crittografia basata sull'entanglement, il primo
esperimento di teletrasporto quantistico di un fotone
indipendente, la prima realizzazione di scambio di entanglement
e l'esperimento che chiude il circolo vizioso della
comunicazione in un test delle diseguaglianze di Bell.
Dal 2000, le ricerche di Zeilinger si sono concentrate sul calcolo
quantistico completamente basato sull'ottica, lo sviluppo di
sistemi a crittografia quantistica22
basata sull'entanglement ed
22
Le tecniche di codifica e decodifica di un messaggio utilizzano
generalmente una chiave numerica di molte cifre. Proprio la lunghezza di
questo numero garantisce la sicurezza dei dati scambiati, dal momento che le
possibili combinazioni sono talmente elevate da rendere di fatto impossibile
trovare la chiave giusta senza conoscerla. La crittografia quantistica, invece,
si affida a metodi completamente diversi. Le informazioni sulla decodifica
sono conservate all’interno di un singolo fotone. In questo modo, le garanzie
di segretezza sono assicurate direttamente dalle leggi fondamentali della
meccanica quantistica. Infatti, il tentativo da parte di qualche estraneo di
leggere la chiave di decodifica porterebbe necessariamente alla variazione
delle proprietà del fotone, permettendo a chi la usa di verificare il buon esito
dello scambio. La tecnologia è già funzionante, ma ci sono ancora delle
limitazioni che ne impediscono l’immediata uscita sul mercato. In
particolare, attualmente i fotoni che trasportano la chiave possono viaggiare
esperimenti con coppie di fotoni entangled su distanze
lunghissime. Negli esperimenti di calcolo quantistico basato
sull'ottica, Zeilinger e il suo gruppo sono stati i primi a
dimostrare un certo numero di procedure di base come la
purificazione di entanglement e certe porte quantistiche. Ciò è
culminato nelle prime dimostrazioni di calcolo quantistico ad
una via, includendo più recentemente, il controllo attivo
ultraveloce. Lo schema di calcolo quantistico ad una via è stato
utilizzato per realizzare l'algoritmo di ricerca di Grover23
e
vari giochi quantistici, incluso il dilemma del prigioniero24
.
al massimo per 120 chilometri prima di perdere irrimediabilmente le
informazioni.
23
L'algoritmo di ricerca di Groover è un algoritmo ideato da Lov Grover
nel 1996 ai Bell Labs per risolvere un problema di ricerca in un database
indifferenziato di N elementi in O(N1/2
) tempo usando O(log N) come spazio
di memorizzazione. Un classico esempio può essere la ricerca in un elenco
telefonico di un nome disponendo solo del numero telefonico. Disponendo di
un computer classico si può pervenire al nome dopo aver cercato mediamente
metà dell’elenco. L’algoritmo di Grover, sfruttando la proprietà di
sovrapposizione dei qubit, può pervenire alla risposta corretta molto più
velocemente. L'algoritmo di Groover può essere utilizzato nella Teoria delle
collisioni.
24
Il Dilemma del Prigioniero prevede di scegliere la migliore opzione tra
quelle presentate: due criminali vengono catturati ma non ci sono prove a
loro carico. Vengono messi in due celle diverse e gli viene detto: se tu
confessi e il tuo complice no, tu sei libero e il tuo complice si prende 7 anni;
se confessa anche lui però, vi prendete 6 anni a testa; d’altra parte, se non
confessi e il tuo complice confessa, lui è libero e tu ti becchi 7 anni; infine, se
non confessate nessuno dei due, siccome non abbiamo prove, possiamo
tenervi dentro solo per 1 anno. La Teoria prevede che la strategia ottimale di
questo gioco non cooperativo sia la confessione, perché chi confessa ha un
range di condanne da 0 a 6 anni, mentre chi non confessa da 1 a 7, la
condanna media è superiore nel secondo caso rispetto al primo. Che tipo di
società prospetterebbe questa strategia? L’azione del confessare, in questo
esempio, è strettamente funzionale a minimizzare la pena per ogni singolo
giocatore, sperando che l’altro non faccia altrettanto. Se però l’altro adotta la
stessa strategia, rischieremmo comunque meno che evitando di far
In crittografia quantistica, il gruppo di Zeilinger sta sviluppando
un prototipo in collaborazione con l'industria. Mentre la maggior
parte della comunità stava lavorando su uno schema molto più
semplice con l'uso di impulsi laser deboli, Zeilinger ha basato il
suo approccio esclusivamente su schemi più complicati
utilizzando fotoni entangled. Una dimostrazione recente che
l'entanglement è una condizione necessaria per la sicurezza del
canale quantistico, conferma la correttezza di questa scelta.
Gli esperimenti di Zeilinger sulla distribuzione
dell'entanglement su grandi distanze è cominciata sia con la
comunicazione su spazio libero che su fibra ottica e il
teletrasporto tra laboratori posti su luoghi opposti del fiume
Danubio. Ciò è stato esteso a distanze più grandi attraverso la
città di Vienna e, nel 2012, come già detto, fino a 147 km fra
due isole delle Canarie, battendo la misura stabilita solo pochi
giorni prima da un'equipe cinese e aprendo la strada alla
comunicazione quantistica con satelliti. Il suo sogno era di far
rimbalzare luce entangled dai satelliti in orbita. Ci è riuscito con
un esperimento in Italia con il Matera Laser Ranging
Observatory.
Un'importante e fondamentale ricaduta di questi esperimenti, è
stato il primo test nel 2007 di una teoria realistica non locale
proposta da Leggett, che va significativamente oltre il teorema
di Bell. Mentre Bell dimostrò che una teoria che sia al contempo
locale e realistica è in contraddizione con la meccanica
quantistica, Leggett considerò teorie realistiche non locali dove i
fotoni individuali, si assume trasportino polarizzazione. La
disuguaglianza risultante si è dimostrata essere violata negli
esperimenti del gruppo di Zeilinger.
condannare l’altro confessando. Il rischio però è alto. In questi giochi si
suppone che non vi sia collaborazione e che nessuno dei due giocatori
conosca la scelta dell’altro. Infatti, se uno dei due prigionieri avesse la
possibilità di conoscere la scelta dell’altro prima di fare la propria, e se chi ha
fatto la scelta per primo fosse a conoscenza di questa regola, sceglierebbero
entrambi la strategia che minimizza la pena per entrambi i giocatori?
Verso entanglement sempre più sofisticati:
“Non correre mai dietro un bus,
una donna o una teoria cosmologica. Ce ne sarà
sempre un’altra nel giro di pochi minuti”
John Archibald Wheeler
Nel mese di gennaio del 2011, il premio Nobel Luc Montagnier
ha reso pubblici gli ultimi risultati di una ricerca potenzialmente
rivoluzionaria su come il DNA sarebbe in grado di “
teletrasportarsi” tramite emissioni elettromagnetiche. L’ipotesi
dello scienziato francese è che i singoli filamenti di DNA (e,
volendo, anche i singoli geni) sono in grado di emettere onde
elettromagnetiche che si propagano attraverso la formazione di
nanostrutture25
d’acqua. Non solo, questa proprietà
permetterebbe ad alcuni microorganismi di infettare cellule a
distanza, con un processo che ricorda il teletrasporto.
Ma partiamo dall’inizio: la dimostrazione delle proprietà
elettromagnetiche del DNA. Lo strumento utilizzato dalla
squadra di ricerca consiste in un solenoide all’interno del quale
viene alloggiata una provetta contenente la soluzione biologica
da analizzare.
Il materiale biologico viene eccitato elettromagneticamente e i
segnali risultanti vengono catturati e amplificati tramite
computer. I risultati registrati sono senza precedenti: le soluzioni
biologiche ricavate da colture cellulari batteriche e virali
25
Con il termine nanostruttura o nanoaggregato (conosciuto anche come
cluster) si indica un sistema costituito da un numero di atomi o molecole che
va da qualche unità a qualche migliaia e le cui dimensioni sono dell'ordine
del nanometro. Lo studio delle nanostrutture appartiene a una classe di
ricerca interdisciplinare che va sotto il nome di nanoscienze e il cui campo di
applicazione è rappresentato dalle nanotecnologie.
emettono onde elettromagnetiche a bassissima frequenza (tra i
500 e i 3000 Hz), e i medesimi risultati vengono ottenuti
analizzando il solo dna estratto dagli stessi microorganismi. Non
solo, si è anche notato che le emissioni elettromagnetiche non
dipendono dalla quantità di cellule utilizzate nella coltura, e che
anche singoli geni sono in grado di produrre simili emissioni.
Va bene, questo significa che le singole molecole di DNA, se
sottoposte a eccitazione elettromagnetica, sono in grado di
riemettere segnali captabili: ma come si arriva al teletrasporto di
DNA da una cellula all’altra? È qui che interviene l’elemento
più provocatorio (e controverso) dello studio di Montagnier. I
ricercatori hanno notato che le emissioni del DNA provocavano
cambiamenti nelle nanostrutture dell’acqua. Successivamente
hanno dimostrato che queste emissioni potevano influire anche
sulle nanostrutture di una soluzione acquosa priva di elementi
biologici. Ipotizzando che queste specifiche nanostrutture
potessero fungere da impalcatura per la riproduzione della
molecola emittente, hanno inserito nella provetta contenente
acqua gli elementi necessari alla sintesi di DNA (enzima
polimerasi, nucleotidi e primer26
).
Quando sono andati ad analizzare il DNA prodotto, hanno
trovato sequenze per il 98% identiche a quelle originali.
Sostanzialmente, dunque, il DNA sarebbe in grado di trasferire
informazioni sulla propria struttura attraverso l’acqua, al punto
da poter ricostruire la molecola in un altro ambiente acquoso.
Il virologo premio Nobel arriva persino ad ipotizzare che questa
proprietà venga utilizzata dai microrganismi per infettare altre
cellule. “ Dobbiamo supporre che in presenza di cellule
26
Un primer (in italiano: innesco) è un filamento di acido nucleico che serve
come punto di innesco per la replicazione del DNA. I primer sono necessari
perché molte DNA-polimerasi (enzimi che catalizzano la replicazione del
DNA) non possono iniziare la sintesi di un nuovo filamento "ex novo", ma
possono solo aggiungere nucleotidi ad un filamento preesistente.
eucariote la sintesi dei componenti del micoplasma27
(lipidi di
membrana, ribosomi) possa essere istruita dal DNA del
micoplasma”, spiega Montagnier, “ Un’unica cellula di
micoplasma è, quindi, sufficiente a generare l’infezione totale
dei linfociti”.
Affermazioni come questa hanno creato non poche perplessità
all’interno della comunità scientifica. Alcuni, come il chimico
Derek Lowe, sostengono che la tesi di Montagnier non è
supportata da una quantità sufficiente di dati e da prove
incontrovertibili di riproducibilità. Nel frattempo, la squadra di
Montagnier sta già ipotizzando applicazioni mediche di questa
scoperta, principalmente nell’ambito dello studio dell’HIV.
Facendo qualche passo indietro nel tempo (ma solo di pochi
anni), potremmo ricordare lo sviluppo del primo entanglement
di qudit (la correlazione quantistica di bit quantici con un
numero di differenti stati simultanei superiore a due). Durante
l’estate del 2005, alcuni fisici negli Stati Uniti hanno sviluppato
un metodo semplice per ottenere l'entanglement dei "qudit".
Proprio come un bit quantico (o "qubit") può trovarsi in due stati
differenti contemporaneamente, un qudit può esistere
simultaneamente in d stati. Malcolm O'Sullivan-Hale e colleghi
dell'Università di Rochester hanno dimostrato di poter ottenere
stati di qudit con d=3 e d=6 usando fotoni. Il risultato, descritto
27
I micoplasmi (o mollicutes) sono batteri appartenenti all'Ordine dei
Mycoplasmatales e alla Famiglia dei Mycoplasmataceae, dalle caratteristiche
molto peculiari. Sono assimilabili, per la maggior parte delle caratteristiche ai
Bacteria Gram-positivi con un basso contenuto in GC, i Firmicutes. Aerobi
obbligati o aerobi/anaerobi facoltativi, sono le più piccole cellule capaci di
vita autonoma (con un diametro di 0,2-0,3 µm) ed hanno la particolarità di
non essere dotati di parete cellulare; la loro membrana cellulare è lipoproteica
trilaminare e ricca di steroli, caso unico fra le cellule batteriche.
in un articolo pubblicato sulla rivista "Physical Review Letters",
potrebbe avere applicazioni nella crittografia quantistica. I
computer convenzionali registrano le informazioni sotto forma
di "bit", che possono avere un valore zero oppure uno. Tuttavia,
la capacità dei fotoni e di altre particelle quantistiche di esistere
in due stati differenti contemporaneamente - come gli stati di
polarizzazione verticale e orizzontale - ha portato
all'elaborazione della cosiddetta informatica quantistica. Il
passaggio dagli stati bidimensionali dei qubit agli stati
multidimensionali dei qudit consentirebbe alle particelle di
trasportare ancora più informazioni e, per esempio, di aumentare
la sicurezza nelle applicazioni di crittografia quantistica.
O'Sullivan-Hale e colleghi hanno inviato un fascio laser
ultravioletto contro un cristallo con proprietà ottiche non lineari
che talvolta divide un fotone ultravioletto in una coppia di fotoni
infrarossi correlati ("entangled"). L'entanglement prevede che le
caratteristiche dei due fotoni - come la loro polarizzazione -
restino correlate fra loro anche a distanza. Gli scienziati hanno
in effetti correlato le quantità di moto dei fotoni, e dunque anche
la loro posizione nello spazio reale misurata da un rivelatore.
Hanno poi dimostrato che i fotoni possono occupare uno
qualsiasi di sei stati di momento o di posizione (pixel). Con
griglie di rivelatori più grandi, gli autori sostengono di poter
raggiungere addirittura 16 stati. "Anche se in precedenza erano
stati prodotti qudit entangled con vari metodi, - disse
O'Sullivan-Hale - il nostro ha il vantaggio della semplicità e
della scalabilità. Lavoriamo con semplici ottiche commerciali
senza bisogno di ologrammi o di stabilità interferometrica come
negli esperimenti precedenti".
Sempre nell’estate del 2005, per la prima volta la correlazione
fra un fotone e un'eccitazione collettiva di atomi ha superato il
rigoroso test di violazione della disuguaglianza di Bell. Alcuni
fisici del Georgia Institute of Technology , sono riusciti a
correlare quantisticamente un fotone e un singolo atomo situato
in una nube atomica. È stata la prima volta nella storia, in cui
l'entanglement fra un fotone e un'eccitazione collettiva di atomi
ha superato il rigoroso test di comportamento quantistico noto
come violazione della disuguaglianza di Bell. I risultati sono
stati descritti in un articolo pubblicato sul numero del 22 luglio
della rivista "Physical Review Letters". Anziché isolare un
atomo per portarlo nello stato eccitato necessario per correlarlo
con un fotone, i fisici Alex Kuzmich e Brian Kennedy hanno
scelto un approccio "collettivo": hanno provato ad eccitare un
atomo all'interno di una nube di altri atomi. "Usare un qubit
atomico collettivo - disse Kuzmich - è molto più semplice e
richiede meno hardware, perché non bisogna isolare l'atomo. In
effetti, non sappiamo nemmeno (e non ci serve saperlo) quale
atomo nel gruppo costituisca il qubit. Possiamo però dimostrare
che il sistema è correlato perché viola la disuguaglianza di
Bell".
Qualche anno dopo queste due fondamentali scoperte, nel 2008,
i ricercatori di una collaborazione tra il National Institute of
Standards and Technology (NIST) e del Joint Quantum Institute
(NIST/University of Maryland) hanno sviluppato un nuovo
metodo per creare coppie di fotoni entangled. Nel loro
esperimento gli studiosi hanno inviato un impulso di luce in
entrambi i versi di un circuito di una fibra ottica che lungo il
cammino subisce una torsione. Due coppie di fotoni con la
stessa frequenza che viaggiano in entrambe le direzioni possono,
in opportune condizioni, interagire in un processo noto come
sovrapposizione d’onda quadrupla (four-wave mixing) che li
converte in due coppie di fotoni, una delle quali ha una
frequenza spostata verso il rosso mentre l’altra ha una frequenza
spostata verso il blu, rispetto ai quanti di luce originari. Sebbene
la torsione della fibra faccia sì che la coppia che emerge da un
estremo sia polarizzata verticalmente mentre l’altra coppia
emerge polarizzata orizzontalmente, l’apparato sperimentale
rende impossibile determinare quale delle due coppie create ex
novo abbia preso un cammino e quale l’altro. Proprio perché i
due cammini sono indistinguibili, le leggi della fisica quantistica
dicono che le coppie di fotoni sono in realtà in una
sovrapposizione di entrambi gli stati - quello con polarizzazione
verticale e quello con una orizzontale - allo stesso tempo, a
meno che non si faccia una misurazione dello stato quantistico
della coppia. Il tal caso anche l’altra "precipita" in modo
istantaneo in uno stato quantistico definito e prevedibile.
Questa "azione fantasma a distanza" è quella che indusse a
Einstein a ipotizzare che la meccanica quantistica fosse
incompleta dando il via a un dibattito sul cosiddetto paradosso
EPR che durò per oltre 70 anni, nel quale schiere di fisici
dibatterono sul concetto di “località” (secondo cui gli eventi si
possono influenzare mutuamente solo tramite interazioni locali)
e di "realismo" (secondo cui le particelle hanno uno stato
definito indipendentemente dalla misurazione che viene
effettuata su di esse). Negli anni passati, tuttavia, alcune
sperimentazioni hanno potuto dimostrare l’esistenza
dell’entanglement e di eventi che si possono influenzare a
distanze arbitrariamente grandi..
Durante l’estate dello stesso anno (2008), lo stesso gruppo di
ricercatori è riuscito a produrre delle "immagini quantistiche",
ovvero coppie di schemi visivi ricchi di informazioni, le cui
fluttuazioni sono "entangled”. Questa tecnica per produrre
immagini quantistiche, potrebbe in futuro essere sfruttata per
archiviare strutture complesse di dati nei computer quantistici e
trasmettere grandi quantità di informazioni in modo sicuro.
Vincent Boyer, coordinatore dello studio, commentò con queste
parole i risultati della ricerca: "Le immagini sono sempre state
uno dei metodi di comunicazione preferiti dato che nei loro
dettagli trasportano moltissima informazione. Finora tuttavia, le
macchine fotografiche e gli altri rilevatori ottici hanno ignorato
una gran quantità di informazioni utili presenti nelle immagini.
Ma ora potremo trarre vantaggio dagli aspetti quantistici delle
immagini."
Le cineprese convenzionali o le macchine digitali rilevano solo
il colore e l'intensità di un'onda luminosa che incide sulla
superficie dei loro sensori. Un ologramma registra anche la fase
di un'onda luminosa, ossia l'esatta localizzazione delle sue creste
e degli avvallamenti. In un'onda luminosa, avviene molto di più:
la luce ha delle "incertezze" intrinseche nelle proprie
caratteristiche, che si manifestano come fluttuazioni delle
proprie proprietà. La possibilità di controllare queste
fluttuazioni, che rappresentano una sorta di rumore, può
migliorare la rilevazione di oggetti altrimenti indistinti,
consentire una migliore amplificazione delle immagini e
controllare meglio la posizione di fasci laser. I ricercatori non
possono eliminare del tutto questi rumor, ma possono ri-
arrangiarli, in modo da migliorare alcune caratteristiche
desiderate dell'immagine. Con la tecnica detta di "spremitura"
(squeezing) possono per esempio ridurre il disturbo in una
proprietà, come l'intensità, a scapito di un'altra a essa
complementare, come la fase.
Le immagini ottenute dai ricercatori sono inoltre prodotte in
coppie. Trasmesse da due fasci luminosi che originano da uno
stesso punto, le due immagini sono in uno stato di entanglement:
se si osserva un'immagine, mostra imprevedibili cambiamenti
casuali; fluttuazioni casuali del tutto simili sono mostrate anche
dall'altra immagine, anche se le due immagini sono separate e
non c'è possibilità di trasmissione di informazione fra le due.
Inoltre le due immagini sono "spremute" sfruttando entrambe le
immagini e sottraendo le fluttuazioni, mostrano un disturbo
inferiore a quello delle immagini classiche e un potenziale
contenuto di informazione superiore.
L’anno successivo (2009), sempre gli stessi ricercatori del
NIST, hanno dimostrato la possibilità di poter creare un
processore programmabile “universale” a informazione
quantistica; essi hanno infatti messo a punto un'apparecchiatura
in grado di far "girare" in linea di principio, un qualunque
programma permesso dalla meccanica quantistica. Il gruppo del
NIST ha anche analizzato il processore quantistico con i metodi
tradizionali della computer science e dell’elettronica realizzando
un diagramma del circuito di elaborazione necessario per far
funzionare un dato programma.
“È la prima volta che qualcuno riesce a dimostrare la
possibilità di realizzare un processore quantistico per più di un
qubit”, ha commentato David Hanneke, ricercatore del NIST e
primo autore dell’articolo apparso sulla rivista "Nature Physics".
“Si tratta di un passo fondamentale verso l’obiettivo finale,
quello di riuscire a effettuare calcoli con un gran numero di
qubit. L’idea è quella di collegare tra loro una serie di questi
processori.”
Attualmente, gli ioni rappresentano alcuni dei sistemi fisici più
promettenti per la realizzazione di bit quantistici, o qubit. Per
questo il processore del NIST memorizza informazione binaria
(in forma di “0” e “1”) in due qubit costituiti da altrettanti ioni di
berillio, mantenuti in trappole elettromagnetiche e manipolati
tramite laser ultravioletti.
Con tale apparato si è riusciti a porre gli stati quantistici degli
ioni in uno stato di entanglement, o "sovrapposizione" di valori
1 e 0 allo stesso tempo, il che rappresenta il maggiore vantaggio
dell’elaborazione dell’informazione nel mondo quantistico.
Con simili caratteristiche, il processore è in grado di svolgere
160 routine di elaborazione differenti sui due qubit. Sebbene si
tratti ancora di un numero finito, è grande e differenziato a
sufficienza per poter conferire al processore l’aggettivo di
“universale”, come hanno sottolineato i ricercatori.
Una sfida cruciale per l'osservazione del comportamento
quantistico nei piccoli sistemi meccanici è rappresentato dalla
soppressione delle interazioni tra il sistema e il “rumore”
ambientale; ovvero di tutto il materiale che supporta il sistema o
dal contatto con qualunque altro elemento esterno.
Le vibrazioni termiche casuali di ciò che costituisce l'ambiente
che circonda il sistema possono infatti essere trasferite
all'oggetto meccanico, distruggendo le sue fragili proprietà
quantistiche.
Per affrontare il problema, numerosi gruppi in tutto il mondo
hanno cominciato a utilizzare dispositivi criogenici in cui i
materiali più vicini sono raffreddati a una temperatura molto
bassa per ridurre l'ampiezza delle vibrazioni casuali.
Verso la fine del 2009, un gruppo di ricercatori del Caltech di
Pasadena (CA, USA), suggerì un approccio totalmente
differente: utilizzare le forze impartite da intensi fasci di luce
per far “levitare” l'intero oggetto meccanico, liberandolo da
qualunque contatto esterno con i materiali di supporto. Ciò
consente di ridurre fortemente il rumore ambientale, al punto da
rendere osservabili le manifestazioni quantistiche, anche quando
l'ambiente è mantenuto a temperatura ambiente.
Per quanto riguarda più in particolare il fenomeno dell’
entanglement, essi hanno dimostrato teoricamente come esso
possa essere realizzato anche quando un atomo viene sostituito
da un sistema meccanico ben più massiccio, per quanto ancora
di dimensioni nanoscopiche. Tale sistema è costituito da una
piccola sfera realizzata con un materiale altamente trasparente
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.
Fisica dell'informazione, ultima frontiera della scienza.

More Related Content

What's hot

Diplomova prace ocima oponenta
Diplomova prace ocima oponentaDiplomova prace ocima oponenta
Diplomova prace ocima oponentaCEINVE
 
Balls and-bins model app
Balls and-bins model appBalls and-bins model app
Balls and-bins model appdeawoo Kim
 
C programming basics
C  programming basicsC  programming basics
C programming basicsargusacademy
 
Lecture 2 history_of_c
Lecture 2 history_of_cLecture 2 history_of_c
Lecture 2 history_of_ceShikshak
 
software testing strategies
software testing strategiessoftware testing strategies
software testing strategiesHemanth Gajula
 
AI 1 | Introduction to Artificial Intelligence
AI 1 | Introduction to Artificial IntelligenceAI 1 | Introduction to Artificial Intelligence
AI 1 | Introduction to Artificial IntelligenceMohammad Imam Hossain
 
1. over view and history of c
1. over view and history of c1. over view and history of c
1. over view and history of cHarish Kumawat
 
AI_Session 1 Introduction to AI and intelligent agents.pptx
AI_Session 1 Introduction to AI and intelligent agents.pptxAI_Session 1 Introduction to AI and intelligent agents.pptx
AI_Session 1 Introduction to AI and intelligent agents.pptxAsst.prof M.Gokilavani
 
Introduction to c_language
Introduction to c_languageIntroduction to c_language
Introduction to c_languageWay2itech
 
Alan M. Turing and the Enigma Machine
Alan M. Turing and the Enigma MachineAlan M. Turing and the Enigma Machine
Alan M. Turing and the Enigma MachineBirkbeck College
 
IF Statement
IF StatementIF Statement
IF StatementYunis20
 

What's hot (13)

Diplomova prace ocima oponenta
Diplomova prace ocima oponentaDiplomova prace ocima oponenta
Diplomova prace ocima oponenta
 
Dennis Richie
Dennis RichieDennis Richie
Dennis Richie
 
Balls and-bins model app
Balls and-bins model appBalls and-bins model app
Balls and-bins model app
 
C programming basics
C  programming basicsC  programming basics
C programming basics
 
Lecture 2 history_of_c
Lecture 2 history_of_cLecture 2 history_of_c
Lecture 2 history_of_c
 
software testing strategies
software testing strategiessoftware testing strategies
software testing strategies
 
AI 1 | Introduction to Artificial Intelligence
AI 1 | Introduction to Artificial IntelligenceAI 1 | Introduction to Artificial Intelligence
AI 1 | Introduction to Artificial Intelligence
 
1. over view and history of c
1. over view and history of c1. over view and history of c
1. over view and history of c
 
AI_Session 1 Introduction to AI and intelligent agents.pptx
AI_Session 1 Introduction to AI and intelligent agents.pptxAI_Session 1 Introduction to AI and intelligent agents.pptx
AI_Session 1 Introduction to AI and intelligent agents.pptx
 
Introduction to c_language
Introduction to c_languageIntroduction to c_language
Introduction to c_language
 
Paradigms
ParadigmsParadigms
Paradigms
 
Alan M. Turing and the Enigma Machine
Alan M. Turing and the Enigma MachineAlan M. Turing and the Enigma Machine
Alan M. Turing and the Enigma Machine
 
IF Statement
IF StatementIF Statement
IF Statement
 

Similar to Fisica dell'informazione, ultima frontiera della scienza.

Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realis...
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realis...Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realis...
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realis...Fausto Intilla
 
"Fisica dell'informazione": Intervista all'autore (di: Aracne editrice)
"Fisica dell'informazione":  Intervista all'autore (di: Aracne editrice)"Fisica dell'informazione":  Intervista all'autore (di: Aracne editrice)
"Fisica dell'informazione": Intervista all'autore (di: Aracne editrice)Fausto Intilla
 
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.Fausto Intilla
 
Il grande inganno della matematica
Il grande inganno della matematicaIl grande inganno della matematica
Il grande inganno della matematicaFausto Intilla
 
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?Fausto Intilla
 
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...FaustoIntilla
 
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...Fausto Intilla
 
Operazione Orion - Il Computer Quantistico
Operazione Orion - Il Computer QuantisticoOperazione Orion - Il Computer Quantistico
Operazione Orion - Il Computer QuantisticoFausto Intilla
 
Dal Festival Della Scienza reportage in SL
Dal Festival Della Scienza reportage in SLDal Festival Della Scienza reportage in SL
Dal Festival Della Scienza reportage in SLElisa Rubino
 
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?Fausto Intilla
 
La crisi del positivismo
La crisi del positivismoLa crisi del positivismo
La crisi del positivismoAndrea Samuelli
 
Gravità quantistica: A che punto siamo?
Gravità quantistica: A che punto siamo?Gravità quantistica: A che punto siamo?
Gravità quantistica: A che punto siamo?Fausto Intilla
 
Alla ricerca del reale ...dove nulla, è come appare.
Alla ricerca del reale ...dove nulla, è come appare.Alla ricerca del reale ...dove nulla, è come appare.
Alla ricerca del reale ...dove nulla, è come appare.Fausto Intilla
 
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...Fausto Intilla
 
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.Fausto Intilla
 
Presentazione seminario_filosofia_popper_2009_2010
Presentazione  seminario_filosofia_popper_2009_2010Presentazione  seminario_filosofia_popper_2009_2010
Presentazione seminario_filosofia_popper_2009_2010imartini
 
Dispensa complessità
Dispensa complessitàDispensa complessità
Dispensa complessitàimartini
 
Dispensa complessità
Dispensa complessitàDispensa complessità
Dispensa complessitàimartini
 

Similar to Fisica dell'informazione, ultima frontiera della scienza. (20)

Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realis...
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realis...Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realis...
Esperimenti sulle disuguaglianze di Bell - Dalle origini al crollo del realis...
 
"Fisica dell'informazione": Intervista all'autore (di: Aracne editrice)
"Fisica dell'informazione":  Intervista all'autore (di: Aracne editrice)"Fisica dell'informazione":  Intervista all'autore (di: Aracne editrice)
"Fisica dell'informazione": Intervista all'autore (di: Aracne editrice)
 
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
Quando l'Universo ...calcola sé stesso! L'altra faccia dei buchi neri.
 
Il grande inganno della matematica
Il grande inganno della matematicaIl grande inganno della matematica
Il grande inganno della matematica
 
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?
Interpretazione a Molti Mondi: quali sono gli esperimenti per poterla testare?
 
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
 
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
La mente a più dimensioni: Dagli spazi topologici alla Dissipative Quantum Br...
 
Operazione Orion - Il Computer Quantistico
Operazione Orion - Il Computer QuantisticoOperazione Orion - Il Computer Quantistico
Operazione Orion - Il Computer Quantistico
 
Dal Festival Della Scienza reportage in SL
Dal Festival Della Scienza reportage in SLDal Festival Della Scienza reportage in SL
Dal Festival Della Scienza reportage in SL
 
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?
Quantum Computing: SOGNO TEORICO O REALTÀ IMMINENTE?
 
La crisi del positivismo
La crisi del positivismoLa crisi del positivismo
La crisi del positivismo
 
Gravità quantistica: A che punto siamo?
Gravità quantistica: A che punto siamo?Gravità quantistica: A che punto siamo?
Gravità quantistica: A che punto siamo?
 
BIT E QUBIT LORENZO MAZZOCCHETTI
BIT E QUBIT LORENZO MAZZOCCHETTIBIT E QUBIT LORENZO MAZZOCCHETTI
BIT E QUBIT LORENZO MAZZOCCHETTI
 
Intervista
IntervistaIntervista
Intervista
 
Alla ricerca del reale ...dove nulla, è come appare.
Alla ricerca del reale ...dove nulla, è come appare.Alla ricerca del reale ...dove nulla, è come appare.
Alla ricerca del reale ...dove nulla, è come appare.
 
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...
IA: Princìpi e parametri alternativi, per una fisica alternativa – Intervista...
 
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.
Energia e Informazione: La realtà dei bit, attraverso la fisica dei buchi neri.
 
Presentazione seminario_filosofia_popper_2009_2010
Presentazione  seminario_filosofia_popper_2009_2010Presentazione  seminario_filosofia_popper_2009_2010
Presentazione seminario_filosofia_popper_2009_2010
 
Dispensa complessità
Dispensa complessitàDispensa complessità
Dispensa complessità
 
Dispensa complessità
Dispensa complessitàDispensa complessità
Dispensa complessità
 

More from Fausto Intilla

Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.Fausto Intilla
 
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...Fausto Intilla
 
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...Fausto Intilla
 
Teorema di Noether: limiti e applicabilità – Intervista a Fausto Intilla
Teorema di Noether: limiti e applicabilità – Intervista a Fausto IntillaTeorema di Noether: limiti e applicabilità – Intervista a Fausto Intilla
Teorema di Noether: limiti e applicabilità – Intervista a Fausto IntillaFausto Intilla
 
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.Attrattori, campi morfogenetici e meccanica quantistica: il nesso.
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.Fausto Intilla
 
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.Fausto Intilla
 
Umano, poco umano ...fatto di virus e batteri!
Umano, poco umano ...fatto di virus e batteri!Umano, poco umano ...fatto di virus e batteri!
Umano, poco umano ...fatto di virus e batteri!Fausto Intilla
 
Altre realtà. Quando la visione del mondo, non è in funzione della mente umana
Altre realtà. Quando la visione del mondo, non è in funzione della mente umanaAltre realtà. Quando la visione del mondo, non è in funzione della mente umana
Altre realtà. Quando la visione del mondo, non è in funzione della mente umanaFausto Intilla
 
Supremazia quantistica di Google: Mito o realtà?
Supremazia quantistica di Google: Mito o realtà?Supremazia quantistica di Google: Mito o realtà?
Supremazia quantistica di Google: Mito o realtà?Fausto Intilla
 
Una quinta forza fondamentale della natura ...per ora solo ipotetica.
Una quinta forza fondamentale della natura ...per ora solo ipotetica.Una quinta forza fondamentale della natura ...per ora solo ipotetica.
Una quinta forza fondamentale della natura ...per ora solo ipotetica.Fausto Intilla
 
Riscaldamento globale: un'analisi obiettiva.
Riscaldamento globale: un'analisi obiettiva.Riscaldamento globale: un'analisi obiettiva.
Riscaldamento globale: un'analisi obiettiva.Fausto Intilla
 
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...Fausto Intilla
 
Aforismario 3 - Aforismi sulla saggezza del vivere
Aforismario 3 - Aforismi sulla saggezza del vivereAforismario 3 - Aforismi sulla saggezza del vivere
Aforismario 3 - Aforismi sulla saggezza del vivereFausto Intilla
 
Dal fermione di majorana al computer quantistico.
Dal fermione di majorana al computer quantistico.Dal fermione di majorana al computer quantistico.
Dal fermione di majorana al computer quantistico.Fausto Intilla
 
Fundamental principle of information to-energy conversion.
Fundamental principle of information to-energy conversion.Fundamental principle of information to-energy conversion.
Fundamental principle of information to-energy conversion.Fausto Intilla
 
What happens if measure the electron spin twice?
What happens if measure the electron spin twice?What happens if measure the electron spin twice?
What happens if measure the electron spin twice?Fausto Intilla
 
A non local linear dynamical system and violation of Bell’s inequality.
A non local linear dynamical system and violation of Bell’s inequality.A non local linear dynamical system and violation of Bell’s inequality.
A non local linear dynamical system and violation of Bell’s inequality.Fausto Intilla
 
Sonde spaziali: In viaggio tra i segreti del cosmo.
Sonde spaziali: In viaggio tra i segreti del cosmo. Sonde spaziali: In viaggio tra i segreti del cosmo.
Sonde spaziali: In viaggio tra i segreti del cosmo. Fausto Intilla
 
Pensieri. Confessioni di una mente in libertà.
Pensieri. Confessioni di una mente in libertà.Pensieri. Confessioni di una mente in libertà.
Pensieri. Confessioni di una mente in libertà.Fausto Intilla
 
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.Fausto Intilla
 

More from Fausto Intilla (20)

Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
Fausto Intilla - Pensieri sparsi. Raccolta di riflessioni e aforismi scelti.
 
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
Dal metalinguaggio quantistico alle teorie quantistiche di confine - Fausto I...
 
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
QFT, gravità, entropia di entanglement e spaziotempo emergente: il nesso - In...
 
Teorema di Noether: limiti e applicabilità – Intervista a Fausto Intilla
Teorema di Noether: limiti e applicabilità – Intervista a Fausto IntillaTeorema di Noether: limiti e applicabilità – Intervista a Fausto Intilla
Teorema di Noether: limiti e applicabilità – Intervista a Fausto Intilla
 
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.Attrattori, campi morfogenetici e meccanica quantistica: il nesso.
Attrattori, campi morfogenetici e meccanica quantistica: il nesso.
 
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.
Fausto Intilla: Dalla teoria dell'informazione al concetto di anima.
 
Umano, poco umano ...fatto di virus e batteri!
Umano, poco umano ...fatto di virus e batteri!Umano, poco umano ...fatto di virus e batteri!
Umano, poco umano ...fatto di virus e batteri!
 
Altre realtà. Quando la visione del mondo, non è in funzione della mente umana
Altre realtà. Quando la visione del mondo, non è in funzione della mente umanaAltre realtà. Quando la visione del mondo, non è in funzione della mente umana
Altre realtà. Quando la visione del mondo, non è in funzione della mente umana
 
Supremazia quantistica di Google: Mito o realtà?
Supremazia quantistica di Google: Mito o realtà?Supremazia quantistica di Google: Mito o realtà?
Supremazia quantistica di Google: Mito o realtà?
 
Una quinta forza fondamentale della natura ...per ora solo ipotetica.
Una quinta forza fondamentale della natura ...per ora solo ipotetica.Una quinta forza fondamentale della natura ...per ora solo ipotetica.
Una quinta forza fondamentale della natura ...per ora solo ipotetica.
 
Riscaldamento globale: un'analisi obiettiva.
Riscaldamento globale: un'analisi obiettiva.Riscaldamento globale: un'analisi obiettiva.
Riscaldamento globale: un'analisi obiettiva.
 
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...
Quantum computing: stato dell'arte e potenziali sviluppi - Intervista a Faust...
 
Aforismario 3 - Aforismi sulla saggezza del vivere
Aforismario 3 - Aforismi sulla saggezza del vivereAforismario 3 - Aforismi sulla saggezza del vivere
Aforismario 3 - Aforismi sulla saggezza del vivere
 
Dal fermione di majorana al computer quantistico.
Dal fermione di majorana al computer quantistico.Dal fermione di majorana al computer quantistico.
Dal fermione di majorana al computer quantistico.
 
Fundamental principle of information to-energy conversion.
Fundamental principle of information to-energy conversion.Fundamental principle of information to-energy conversion.
Fundamental principle of information to-energy conversion.
 
What happens if measure the electron spin twice?
What happens if measure the electron spin twice?What happens if measure the electron spin twice?
What happens if measure the electron spin twice?
 
A non local linear dynamical system and violation of Bell’s inequality.
A non local linear dynamical system and violation of Bell’s inequality.A non local linear dynamical system and violation of Bell’s inequality.
A non local linear dynamical system and violation of Bell’s inequality.
 
Sonde spaziali: In viaggio tra i segreti del cosmo.
Sonde spaziali: In viaggio tra i segreti del cosmo. Sonde spaziali: In viaggio tra i segreti del cosmo.
Sonde spaziali: In viaggio tra i segreti del cosmo.
 
Pensieri. Confessioni di una mente in libertà.
Pensieri. Confessioni di una mente in libertà.Pensieri. Confessioni di una mente in libertà.
Pensieri. Confessioni di una mente in libertà.
 
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
Ulixe. Il lungo cammino delle idee tra arte, scienza e filosofia.
 

Fisica dell'informazione, ultima frontiera della scienza.

  • 1. Fausto Intilla Fisica dell’Informazione: l’ultima frontiera della scienza Gli ultimi inattesi sviluppi, della “Fisica Digitale” Immagine di copertina tratta dal web (http://holographicarchetypes.weebly.com) L’autore si dichiara disponibile a regolare eventuali spettanze, per gli stralci di alcuni articoli (ed immagini) riportati in questo volume, qualora questi ultimi fossero coperti da copyright.
  • 2. Indice Prefazione…………………………………………………4 La matrice ultima della realtà…………………………….7 - Olografia quantistica elettronica………………..….28 Informazione e teletrasporto quantistico………………..32 Verso entanglement sempre più sofisticati…………..….44 La realtà dei bit, attraverso la fisica dei buchi neri…..….63 Dalla Teoria dell’Informazione al concetto di Anima…..77 - Reincarnazione: riflessioni congiunte al modello di Informazione dinamica……………………………….…...88 - Cameron, il bambino che visse due volte………...……..91 - Il contributo di Pim van Lommel…………………………95 MWI: potremo un giorno testarla?...................................109 - LHC …qualche curiosità…………………………….…..116 Fotonica e Termodinamica …dell’Informazione……....120 - Il demone di Maxwell…………………………………….128 - Irreversibilità, entropia, informazione……………...…132 - L’ipotesi della retro-causalità……………………..……141 Per concludere……………………………………..……144 Bibliografia consigliata…………………………………148 Sitografia…………………………………………..……149
  • 3. “Le sole leggi della materia sono quelle costruite dalla mente, e le sole leggi della mente, sono costruite per essa dalla materia” J.C. Maxwell “Non pretendo di capire l’Universo: è tanto più grande di me” T. Carlyle
  • 4. Prefazione Probabilmente il 2012, verrà ricordato in futuro come l’anno più proficuo nella storia della scienza moderna, in quanto a scoperte nel campo della fisica subnucleare (fisica delle particelle) e dunque a rigor di logica, a potenziali ampliamenti o modifiche di strutture e modelli teorici della Meccanica Quantistica. A titolo d’esempio, basti pensare alla recente scoperta del Bosone di Higgs (annunciata il 4 luglio dai ricercatori del CERN di Ginevra); alla dimostrazione sperimentale del limite di Landauer (confermando così, un principio teorico sul nesso tra termodinamica classica e teoria dell’Informazione, che aspettava un riscontro sperimentale da ben oltre cinquant’anni); alla dimostrazione sperimentale della divisibilità di un singolo atomo, per poi essere nuovamente ricomposto in modo artificiale. Tre scoperte di fondamentale importanza, avvenute tutte nel corso di quest’anno. Nuovi sviluppi di notevole interesse si sono avuti anche, a partire dal 2007 sino ad oggi, nel campo della fotonica, della spintronica e delle nanotecnologie. È chiaro dunque che ci troviamo di fronte ad una svolta epocale, in quanto a sviluppi e applicazioni di potenziali nuove tecnologie. Ma siccome la teoria precede sempre di qualche passo l’applicazione pratica (in ogni ambito della sfera umana), la stessa svolta è avvenuta in campo teorico; ossia in quello relativo ai nostri modelli di rappresentazione della realtà, ai nostri attuali paradigmi scientifici. Molte idee, teorie e concetti, sono stati dunque rivisti ed ampliati, modificati, ritoccati e in alcuni casi anche cancellati dal grande libro della fisica, poiché rivelatisi non più coerenti con i nuovi modelli teorici e fisici della realtà.
  • 5. Ciò che ai nostri occhi si è resa sempre più evidente, grazie alle innumerevoli scoperte e sviluppi scientifici avvenuti negli ultimi dieci anni, è l’intima correlazione tra le leggi della termodinamica classica e quelle che governano invece, un mondo concettualmente immateriale, apparentemente del tutto astratto e comprensibilmente quindi, anche assai difficile da accettare e “digerire”, come “modello ultimo della realtà”: quello dell’Informazione. In questo breve saggio, cercherò dunque di condurre il lettore, con parole semplici e riducendo al minimo (quasi a zero) il formalismo matematico (ossia l’utilizzo di lunghe e complicate equazioni), verso una comprensione più approfondita e ricca di spunti di riflessione, di ciò che viene comunemente definito come un “nuovo paradigma della realtà”, ossia quello di un Universo costituito fondamentalmente da pura Informazione; dove anche i concetti di massa ed energia, debbono quindi essere ampliati e ridefiniti, per poter essere relazionati a questo nuovo modello di realtà. Se siamo giunti al capolinea, ossia ad un punto nel campo del sapere scientifico e filosofico, oltre il quale non è più possibile andare oltre (assumendo una volta e per sempre, che il concetto di “Universo digitale” sia il più idoneo a definire l’immagine della realtà), questo ovviamente nessuno è in grado di dirlo; ma se proprio vogliamo credere nella continua ed interminabile ascesa del sapere umano, allora possiamo tranquillamente affermare che, usando le stesse parole di Herbert George Wells: “Ogni dogma prima o poi deve morire”. Fausto Intilla, Cadenazzo, 15 luglio 2012
  • 6.
  • 7. La matrice ultima della realtà: “Realtà e Informazione sono la stessa cosa. Propongo cioè di considerare questi due concetti, che chiaramente finora abbiamo sempre tenuto distinti, come due facce della stessa medaglia, proprio come lo spazio e il tempo che, secondo la Relatività di Einstein, sono a loro volta legati in modo indissolubile. Noi vediamo queste due cose come un tutt’uno a causa del nostro postulato secondo il quale nessuna legge della natura o descrizione della natura può fare differenza tra realtà e Informazione. Dovremmo allora coniare un nuovo termine che comprenda sia la realtà sia l’Informazione. Già il fatto che un termine del genere non solo non esista, ma che ci sia difficile anche immaginarlo, ci fa capire quanto siano complessi i problemi concettuali che emergono. La nostra affermazione precedente, secondo la quale l’Informazione è la materia primordiale dell’Universo, è ora da considerare anche nel senso di questa unità tra realtà e Informazione”. Anton Zeilinger “Calculating Space” è il titolo del libro di Konrad Zuse1 , pubblicato in inglese dal MIT nel 1969 e il cui titolo originale era, in tedesco: Rechnender Raum; ovvero il titolo del primo libro in cui si iniziò a trattare, in una nuova veste (più legata al mondo della fisica piuttosto che a quello puramente 1 Konrad Zuse (Berlino, 22 giugno 1910 – Hünfeld, 18 dicembre 1995) è stato un pioniere dell'informatica e viene considerato come l'inventore del computer moderno. Il calcolatore "Z1", completato da Zuse nel 1938, deve essere considerato in assoluto come il primo computer moderno, avendo anticipato di alcuni anni il Colossus, realizzato nel 1944 dal geniale matematico inglese Alan Turing per la decifrazione dei messaggi prodotti dalla macchina Enigma, usata dalle forze armate tedesche per le comunicazioni militari durante la seconda guerra mondiale, nonché i primi enormi calcolatori programmabili a valvole prodotti in Inghilterra e negli Stati Uniti nella seconda metà degli anni quaranta. A Konrad Zuse si deve anche l'invenzione del primo linguaggio di programmazione della storia, ideato per fornire le istruzioni allo "Z1": il Plankalkül.
  • 8. informatico), la teoria dell’Informazione. Zuse, gettò dunque i semi di un nuovo paradigma scientifico che molti anni più tardi, sarebbe germogliato prendendo il nome di “Digital Physics”; oggi comunemente noto, alle nostre latitudini, come Fisica dell’Informazione. Zuse propose l’idea che il nostro Universo, fosse stato calcolato da una sorta di “automa cellulare”2 (o da un calcolatore discreto), sfidando l’idea ormai secolare che alcune leggi fisiche siano continue per natura. Egli si concentrò sugli automi cellulari, ritenendo che rappresentassero in modo ottimale, un potenziale substrato idoneo al calcolo; sottolineando (tra le altre cose), che le nozioni classiche dell’entropia, nonché la sua crescita, non hanno alcun senso in universi calcolati in modo deterministico. Il teorema di Bell viene a volte utilizzato per confutare l’ipotesi di Zuse; ma esso non è applicabile ad Universi deterministici, come lo stesso Bell ebbe a sottolineare. Allo stesso modo, mentre il principio di indeterminazione di Heisenberg, limita in modo fondamentale ciò che un osservatore può osservare (quando l’osservatore stesso è una parte dell’Universo che sta cercando di osservare), tale principio non esclude l’ipotesi di Zuse, che vede un osservatore come parte di un processo deterministico ipotizzato. Finora non è mai stata elaborata e sperimentata alcuna prova fisica inequivocabile, atta a demolire la possibilità che “tutto sia solo un calcolo”; inoltre, una grande quantità di opere incentrate sulla Fisica dell’Informazione (Digital Physics, per gli anglosassoni) sono state scritte dal giorno in cui è apparso per la prima volta il saggio pioneristico di Zuse. 2 Il modello ad automa cellulare è molto elegante. Il problema, però, è che si tratta di un modello classico; e sappiamo che i computer classici non riescono a trattare con efficienza caratteristiche quantistiche come l’entanglement o altre peculiarità. Inoltre ci sono problemi “di spazio”: è stato calcolato che un automa grande come l’Universo sarebbe in grado di simulare solo una piccola, piccolissima parte della realtà quantistica. Se l’Universo fosse davvero un computer classico, la stragrande maggioranza dei suoi bit e dei suoi circuiti dovrebbe stare nascosta da qualche parte, inaccessibile alla nostra esperienza e percezione.
  • 9. Nel campo della fisica (come del resto anche in quello cosmologico), la fisica dell’Informazione rappresenta un insieme di prospettive teoriche, basate sulla premessa che l’intero Universo sia, alla radice, descrivibile attraverso il concetto di Informazione; e che dunque, in ultima analisi, sia “calcolabile”. Quindi, l’Universo potrebbe essere concepito come l’output di un programma informatico oppure come un vasto dispositivo per il calcolo digitale. La fisica dell’Informazione si fonda principalmente sulle seguenti ipotesi: 1) L’Universo, o la realtà, è essenzialmente informativa. 2) Esso/essa è essenzialmente calcolabile. 3) Tale realtà può essere descritta in modo digitale. 4) La sua natura è essenzialmente digitale. 5) E’ essa stessa una sorta di computer. 6) È essenzialmente l’output di una realtà simulata. Andiamo ora ad analizzare i primi assunti e le prime premesse, che storicamente portarono all’elaborazione di questo nuovo paradigma scientifico. Una delle premesse fondamentali, vuole semplicemente che qualsiasi computer, sia compatibile con i principi della Teoria dell’Informazione3 (quella classica, basata su un modello puramente informatico), con la meccanica statistica4 ed infine con la meccanica quantistica5 . Un 3 La teoria dell'informazione è quel settore dell'informatica e delle telecomunicazioni che si occupa di definire le basi teoriche su cui si fonda la scienza dell'informazione. La sua nascita è relativamente recente: essa viene solitamente fatta risalire al 1948, anno in cui Claude Shannon pubblicò Una teoria matematica della comunicazione in cui introduceva per la prima volta in modo sistematico lo studio dell'informazione e della comunicazione. 4 In fisica, la meccanica statistica è l'applicazione della teoria della probabilità, che include strumenti matematici per gestire insiemi formati da numerosi elementi, al comportamento termodinamico di sistemi composti da un grande numero di particelle. La meccanica statistica fornisce un modello per collegare le proprietà dei singoli atomi e molecole alle proprietà
  • 10. collegamento fondamentale tra questi campi è stato proposto da Edwin Jaynes in due documenti del 1957. Inoltre, Jaynes ha elaborato un’interpretazione della teoria delle probabilità, ridefinendola come una sorta di logica Aristotelica generalizzata; una visione indubbiamente assai comoda per macroscopiche del sistema da essi composto. Da un punto di vista classico lo studio di un sistema con N particelle non interagenti richiede la soluzione di N equazioni differenziali, che descrivono il moto di ogni particella. Quando il numero di particelle è molto grande, dell'ordine del numero di Avogadro, la meccanica statistica permette di poter caratterizzare il sistema attraverso grandezze macroscopiche, come il calore, l'energia libera, la pressione o il volume. 5 La meccanica quantistica si distingue in maniera radicale dalla meccanica classica in quanto si limita a esprimere la probabilità di ottenere un dato risultato a partire da una certa misurazione, secondo l'interpretazione di Copenaghen, rinunciando così al determinismo assoluto proprio della fisica precedente. Questa condizione di incertezza o indeterminazione non è dovuta a una conoscenza incompleta, da parte dello sperimentatore, dello stato in cui si trova il sistema fisico osservato, ma è da considerarsi una caratteristica intrinseca, quindi ultima e ineliminabile, del sistema e del mondo subatomico in generale. La teoria quantistica, dunque, descrive i sistemi come una sovrapposizione di stati diversi e prevede che il risultato di una misurazione non sia completamente arbitrario, ma sia incluso in un insieme di possibili valori: ciascuno di detti valori è abbinato a uno di tali stati ed è associato a una certa probabilità di presentarsi come risultato della misurazione. Questo nuovo modo di interpretare i fenomeni è stato oggetto di numerose discussioni all'interno della comunità scientifica, come testimonia l'esistenza di diverse interpretazioni della meccanica quantistica. L'osservazione ha quindi effetti importanti sul sistema osservato: collegato a questo nuovo concetto si ha l'impossibilità di conoscere esattamente i valori di coppie di variabili dinamiche coniugate, espressa dal principio di indeterminazione di Heisenberg. La meccanica quantistica rappresenta il denominatore comune di tutta la fisica moderna ovvero della fisica atomica, della fisica nucleare e sub- nucleare (la fisica delle particelle), e della fisica teorica, a testimonianza della sua estrema potenza concettuale-interpretativa nonché della vasta applicabilità al mondo microscopico.
  • 11. collegare la fisica fondamentale con i computer digitali, per il solo fatto che questi ultimi sono progettati per implementare le operazioni della logica classica ed inoltre, in modo equivalente, quelle relative all’algebra booleana6 . Il termine “fisica digitale”, fu utilizzato per la prima volta da Edward Fredkin, che in seguito preferì sostituirlo con “filosofia digitale”. Altri scienziati e pensatori che paragonarono l’intero Universo ad una sorta di immenso calcolatore, furono Stephen Wolfram, Juergen Schmidhuber e il premio Nobel Gerardus’t Hooft. Questi autori hanno sempre appoggiato l’idea che la natura apparentemente probabilistica della fisica quantistica, non sia necessariamente incompatibile con la nozione di computabilità. Alcuni modelli in chiave quantistica di “fisica digitale”, sono stati recentemente proposti da David Deutsch, Seth Lloyd e Paola Zizzi. Altre correlazioni con tale modello di 6 In matematica, informatica ed elettronica, l'algebra di Boole, anche detta algebra booleana o reticolo booleano, è un ramo dell'algebra astratta che comprende tutte le algebre che operano con i soli valori di verità 0 o 1, detti variabili booleane o logiche. La struttura algebrica studiata dall'algebra booleana è finalizzata all'elaborazione di espressioni nell'ambito del calcolo proposizionale. Essendo un reticolo dotato di particolari proprietà, l'algebra booleana risulta criptomorfa, cioè associata biunivocamente e in modo da risultare logicamente equivalente, ad un insieme parzialmente ordinato reticolato. Ogni algebra booleana risulta criptomorfa ad un particolare tipo di anello, chiamato anello booleano. Tale algebra permette di definire gli operatori logici AND, OR e NOT, la cui combinazione permette di sviluppare qualsiasi funzione logica e consente di trattare in termini esclusivamente algebrici le operazioni insiemistiche dell'intersezione, dell'unione e della complementazione, oltre a questioni riguardanti singoli bit 0 e 1, sequenze binarie, matrici binarie e diverse altre funzioni binarie. L'algebra sviluppata nel 1854 all'University College di Cork da Boole assume un ruolo importante in vari ambiti, in particolare nella logica matematica e nell'elettronica digitale, dove nella progettazione dei circuiti elettronici riveste grande importanza il teorema di Shannon del 1940 utilizzato per scomporre una funzione booleana complessa in funzioni più semplici, o per ottenere un'espressione canonica da una tabella della verità o da un'espressione non canonica.
  • 12. realtà si possono rintracciare nella teoria binaria degli “ur- alternatives”7 (oggetti archetipici) di Carl Friedrich Freiherr von Weizsäcker, nel pancomputazionalismo, nella teoria dell’Universo computazionale, nell’idea di John Archibald Wheeler (“It from bit”) ed infine nella teoria di Max Tegmark (“ultimate ensemble”). Edward Fredkin è un fisico statunitense ed è considerato uno dei pionieri della “fisica digitale”; i suoi principali contributi sono nella computazione reversibile e negli automi cellulari. La sua invenzione più importante fu la porta di Fredkin8 . In campo informatico fu inventore della struttura dati Trie e del modello palla da biliardo per la computazione reversibile. Fu coinvolto in varie aree di ricerca dell'Intelligenza artificiale. Di recente ha sviluppato Slat, un modello di computazione basato sulle leggi di conservazione fondamentali della fisica. Stephen Wolfram, fisico e matematico britannico, è l’autore del controverso libro A New Kind of Science (NKS), che mostra uno studio empirico di sistemi computazionali molto semplici. Inoltre esso spiega che per capire la complessità della natura e definirne dei modelli, questo tipo di sistemi risulta estremamente efficace, piuttosto che la matematica tradizionale. Wolfram lavora da anni alla sua nuova scienza. Partì constatando che semplici programmi (di computer o di applicazione di regole logiche) possono produrre strutture complesse che modellano ogni sorta di processi fisici e biologici. Propone congetture 7 La teoria di Weizsäcker (fisico tedesco e filosofo, deceduto nel 2007), costruisce assiomaticamente la fisica quantistica dalla distinzione tra alternative binarie, empiricamente osservabili. Weizsäcker ha usato la sua teoria, una forma di fisica digitale, per ricavare la 3-dimensionalità dello spazio e per stimare l'entropia di un protone che cade in un buco nero. 8 La porta di Fredkin è un circuito computazionale adatto per la computazione reversibile inventata da Edward Fredkin. La porta di Fredkin è una porta universale: qualsiasi operazione logica o aritmetica può essere costruita interamente di porte di Fredkin. Possiede esattamente 3 valori in input (U,X1,X2) e 3 valori in output (V,Y1,Y2). La porta è composta da 3 equazioni indipendenti: V = U ; Y1 = UX1+U'X2 ; Y2 = U'X1+UX2
  • 13. molto ambiziose e usa uno strumento molto semplice: gli automi cellulari. Wolfram sta precisando e cercando di dimostrare il Principio di Equivalenza Computazionale: "Esiste un’ equivalenza fondamentale fra molti tipi diversi di processi, se sono visti in termini computazionali. Nessun sistema può realizzare calcoli espliciti più sofisticati di quelli effettuati da automi cellulari. Esistono automi cellulari universali per i quali si possono scegliere condizioni iniziali tali che, partendo da esse, eseguano calcoli di ogni possibile complessità."9 Su questo libro, pubblicato nel 2002, degne di nota sono state le considerazioni del noto ingegnere, scrittore e divulgatore scientifico italiano, Roberto Vacca: “Gli automi cellulari di Wolfram rappresentano bene anche fenomeni molto complessi come le volute apparentemente caotiche, dei moti turbolenti di fluidi ad alta velocità. Questi processi, invece, non si analizzano agevolmente per mezzo di equazioni matematiche. Queste constatazioni giustificherebbero il Principio di Equivalenza Computazionale, che Wolfram presenta insieme come una legge della natura o una definizione o un insieme di fatti astratti. La congettura essenziale è che le configurazioni o immagini prodotte dagli automi cellulari possono rappresentare e, in certo senso, spiegare ogni processo fisico, chimico, biologico. Sarebbe una via per spiegare come si generi l'enorme complessità delle forme animali e vegetali. Si tratta di una struttura ramificata e illimitata. Può essere usata per generare frattali e anche per simulare macchine di Turing. [Queste sono semplicissime strutture logiche concettuali (non costruite in pratica) capaci di simulare il comportamento di qualsiasi possibile computer.]. E' molto difficile prevedere dove porteranno queste ricerche. Le procedure fisico-matematiche tradizionali da Newton in poi ci hanno preparato al punto di 9 Se fosse vero, questo principio porrebbe dei limiti alle previsioni del comportamento di molti sistemi naturali; poiché l’unico modo per studiarne l’evoluzione sarebbe di osservarli mentre evolvono. Non esisterebbero scorciatoie, poiché ogni calcolo che possiamo immaginare di fare è, al più, tanto potente e complicato quanto il fenomeno che desideriamo studiare.
  • 14. vista che gli stessi strumenti logico-matematici si possano usare in contesti diversi. Infatti le stesse equazioni e le stesse formule descrivono con alta precisione processi fisici molto diversi: le azioni di campi elettrici, magnetici, gravitazionali, i flussi di elettricità, di calore e di fluidi e così via. Mi sembra, però, che esista una difficoltà seria. Non pare che sia stato trovato un modo per determinare quali siano le regole di generazione degli automi cellulari che portano a produrre configurazioni che descrivono certi fenomeni piuttosto che altri. Se davvero, le regole da applicare andassero sempre cercate a caso, lo strumento sarebbe difficile e lento da applicare. Altra obiezione ancora più basilare: Con un modello matematico tradizionale da certe premesse si deducono relazioni analitiche che permettono di formulare previsioni. Ad esempio, facciamo l'ipotesi che i gravi si attraggano con forza inversamente proporzionale al quadrato della distanza e direttamente proporzionale al prodotto fra le masse. Su questa base e postulando che le accelerazioni sono proporzionali alle forze applicate, deduciamo le orbite dei pianeti e le traiettorie dei gravi nel campo gravitazionale terrestre. Invece con la nuova scienza di Wolfram si constata che certe traiettorie sono disegnate da un automa e risultano identiche a certi processi meccanici o di moto di particelle cariche in un campo elettrico. Allora si può dire: Curiosa coincidenza. Però non si formalizza un meccanismo di spiegazione, né si possono prevedere risultati futuri di esperimenti - che è l'obiettivo centrale della fisica matematica. Ma sarebbe sbagliato saltare a conclusioni affrettate. Questa scienza di nuovo tipo contiene complessità, ragionamenti, distinzioni e aperture ben più vaste. Vale la pena di cominciare a interessarsi di questi sviluppi. Forse i nostri nipoti a scuola impareranno gli automi cellulari, prima o, invece, dell'algebra”. Jürgen Schmidhuber (professore di Intelligenza Artificiale all’Università di Lugano, in Svizzera), osservò che i teoremi di Gödel sono irrilevanti anche per la fisica computabile. Nel 2000
  • 15. Schmidhuber costruì esplicitamente universi computabili e deterministici, la cui pseudo-casualità basata su problemi della fermata10 (indecidibili simili a quelli di Gödel), è estremamente difficile da rilevare, ma non evita assolutamente Teorie del Tutto formali, descrivibili da pochissimi bit di informazione. Egli sottolineò inoltre che esiste un modo efficiente e ottimale per calcolare tutti gli Universi computabili, basato sull’algoritmo di ricerca universale di Leonid Levin (1973). Nel 2000 ha ampliato questo lavoro, combinando la teoria di Ray Solomonoff dell’inferenza induttiva con il principio che Universi velocemente calcolabili, siano più probabili di quelli di altro genere. Ray Solomonoff, fu l’inventore della probabilità algoritmica e fondatore della teoria algoritmica dell’Informazione. Egli fu il primo a descrivere, nel 1960, il principio della probabilità algoritmica, pubblicando il teorema cruciale che lanciò la teoria della Complessità di Kolmogorov11 e la teoria algoritmica dell’Informazione. La probabilità algoritmica è una 10 Il problema della terminazione (dall'inglese Halting problem, tradotto anche con problema dell'arresto o problema della fermata) chiede se sia sempre possibile, descritto un programma e un determinato input finito, stabilire se il programma in questione termini o continui la sua esecuzione all'infinito. È stato dimostrato che non può esistere un algoritmo generale che possa risolvere il problema per tutti i possibili input. La versione più nota del problema è quella proposta nel 1937 dal matematico Alan Turing, insieme alla dimostrazione della sua indecidibilità. 11 La Teoria della Complessità algoritmica o Teoria algoritmica della complessità si occupa dello studio della complessità descrittiva degli algoritmi e non delle risorse computazionali (memoria occupata e tempo di calcolo) necessarie ad eseguirli. Non va, quindi, confusa con la Teoria della complessità computazionale. La Teoria algoritmica della complessità è stata sviluppata principalmente da Kolmogorov, Chaitin e Solomonoff, per questo motivo è nota anche come Teoria K-C-S dalle iniziali dei tre scienziati.
  • 16. combinazione formalizzata matematicamente, del Rasoio di Occam e del Principio delle Spiegazioni Multiple (Principle of Multiple Explanations). Il metodo di Solomonoff, consiste nell’assegnare un valore di probabilità per ciascuna ipotesi (algoritmo/programma), che spieghi un’osservazione data, con l’ipotesi più semplice (il programma più breve) avente la più alta probabilità e le ipotesi sempre più complesse che contrariamente alle precedenti, ricevono dei valori di probabilità sempre più piccoli. L’Induzione di Solomonoff, è una forma rigorosamente matematica ed idealizzata di induzione, che consiste nel prevedere cosa accadrà nel futuro, sulla base di esperienze precedenti. Si tratta di un ramo della teoria algoritmica dell’Informazione. Questo schema di induzione, risulta essere teoricamente ottimale, nel momento in cui si dispone di una certa mole di dati iniziali; in tal caso lo schema sarà sempre in grado di assegnare un determinato numero di probabilità relative ad eventi futuri, con la massima accuratezza possibile. L'unico problema con l'induzione Solomonoff, è che è incomputabile, ovvero, sarebbe necessario un computer con capacità di elaborazione infinita per l'esecuzione. Tuttavia, tutti i regimi assoggettabili a determinati processi induttivi (macchine, animali ed esseri umani), possono essere intesi come delle pure approssimazioni relative all’Induzione di Solomonoff. La motivazione di fondo che ha spinto Solomonoff (ma anche Kolmogorov e Chaitin) verso tali orizzonti, è stata quella di formalizzare la teoria delle probabilità e l'induzione mediante assiomi, nello stesso modo in cui l'algebra e la geometria sono stati formalizzati. L’Induzione di Solomonoff, si basa su una regola induttiva del teorema di Bayes12 , che descrive un modo 12 Il teorema di Bayes (conosciuto anche come formula di Bayes o teorema della probabilità delle cause), proposto da Thomas Bayes, deriva da due teoremi fondamentali delle probabilità: il teorema della probabilità composta e il teorema della probabilità assoluta. Viene impiegato per calcolare la probabilità di una causa che ha scatenato l'evento verificato. Per esempio si
  • 17. matematico e preciso di aggiornare le credenze sulla base dei dati in arrivo. Un punto debole del teorema di Bayes, è che dipende da una probabilità a priori di un certo evento. Per esempio, la probabilità che nei prossimi dieci anni un asteroide di notevoli dimensioni colpisca la Terra, può essere quantificata sulla base dei dati storici, relativi alle precedenti collisioni. Tuttavia, quando la dimensione del campione di eventi precedenti è bassa (come ad esempio il numero di volte che un neutrino è stato rilevato in una trappola per neutrini), diventa molto difficile prevedere la probabilità del ripetersi di un evento, basata esclusivamente sull'esperienza passata. Ma è proprio qui che entra in gioco l’Induzione di Solomonoff! Utilizzando una misura oggettiva della complessità, chiamata Complessità di Kolmogorov, è possibile, con l’Induzione di Solomonoff, formulare un'ipotesi circa la probabilità che un evento futuro si verifichi. La Complessità di Kolmogorov, si basa su un principio chiamato: Lunghezza Minima Descrittiva (LMD), che valuta la complessità di una stringa di bit, in base al più breve algoritmo in grado di produrre quella stringa. Nonostante la Complessità di Kolmogorov sia stata inizialmente applicata a stringhe di un solo bit, essa può comunque essere tradotta per descrivere la complessità degli eventi e degli oggetti. L’Induzione di Solomonoff, integra la complessità di Kolmogorov nel ragionamento bayesiano, dandoci a priori un giustificativo per eventi che potrebbero anche non manifestarsi mai. La probabilità a priori di un evento può calcolare la probabilità che una certa persona soffra della malattia per cui ha eseguito il test diagnostico (nel caso in cui questo sia risultato negativo) o viceversa non sia affetta da tale malattia (nel caso in cui il test sia risultato positivo), conoscendo la frequenza con cui si presenta la malattia e la percentuale di efficacia del test diagnostico. Formalmente il teorema di Bayes è valido in tutte le interpretazioni della probabilità. In ogni caso, l'importanza di questo teorema per la statistica è tale che la divisione tra le due scuole (statistica bayesiana e statistica frequentista) nasce dall'interpretazione che si dà al teorema stesso.
  • 18. arbitrario, viene determinata in base alla propria complessità e specificità. Per esempio, la probabilità che due gocce di pioggia sparse a caso in una tempesta, colpiscano lo stesso metro quadrato di suolo è piuttosto bassa; ma risulta invece molto più alta la probabilità che dieci o cento gocce di pioggia sparse a caso in una tempesta, colpiscano casualmente quello stesso metro quadrato di terreno. Alcuni scienziati hanno studiato l'Induzione Solomonoff nel contesto della neuroanatomia, mostrando come l'induzione ottimale è un principio organizzativo per l'evoluzione di animali che hanno bisogno di un’accurata induzione per la sopravvivenza. Quando la vera intelligenza artificiale sarà creata, il principio di Induzione di Solomonoff sarà indubbiamente fonte di una probabile ispirazione, dalla quale potranno nascere le forme più evolute di tale intelligenza. Seth Lloyd e David Deutsch, non hanno ovviamente bisogno di presentazioni; anch’essi hanno dato un notevole contributo allo sviluppo della teoria dell’ Universo Digitale. Secondo Seth Lloyd, l’uomo inizierà a comprendere la vera natura dello Universo, solo nel momento in cui disporrà di computer quantistici in grado di affrontare il problema alla radice. D.Deutsch è un pioniere dei computer quantistici ed un proponente dell'interpretazione a molti mondi della meccanica quantistica. Egli sostiene che sia possibile progettare e realizzare una macchina generante una realtà virtuale che, oltre a rivelarsi in grado di fornire esperienze non distinguibili da quelle sensorialmente oggettive, riesca a simulare addirittura ambienti "impossibili fisicamente" ma "possibili (solo) logicamente". Paola Zizzi è una fisica teorica italiana, nota per aver formulato una versione quantistica della fisica digitale, da ella stessa denominata "Computational Loop Quantum Gravity", da cui l’acronimo "CLQG". In un suo lavoro intitolato “Quantum Computation toward Quantum Gravity”, presentatato al
  • 19. tredicesimo Congresso internazionale di fisica-matematica (Londra, luglio 2000), le prime frasi (Abstract) riportate in quel documento recitano quanto segue: “Lo scopo di questo lavoro è quello di mettere in luce l’emergente rilevanza della teoria quantistica dell’Informazione nel campo della Gravità Quantistica. Come è stato suggerito da J.A. Wheeler, la teoria dell'Informazione deve svolgere un ruolo rilevante nella comprensione dei fondamenti della Meccanica Quantistica. In questo lavoro, proponiamo l’idea che l’Informazione Quantistica, debba rivestire un ruolo centrale nella Gravità Quantistica. L’ipotesi di base è che la Gravità Quantistica, la teoria che concilia la Meccanica Quantistica con la Relatività Generale, possa essere formulata in termini di bit di Informazione Quantistica (qubit), memorizzati nello spazio alla scala di Planck”. La teoria computazionale quantistica della gravità, fa un certo numero di previsioni su alcune caratteristiche dell’Universo. Fornisce un semplice modello del comportamento dello spazio- tempo in presenza di materia e ci dà i mezzi per calcolare in che modo le fluttuazioni quantistiche nell’Universo primordiale hanno determinato la densità della materia e la posizione delle galassie. È coerente con i modelli che prevedono la formazione e l’evaporazione dei buchi neri. I suoi qubit sono perfettamente in grado di riprodurre l’intera gamma di fenomeni osservati e previsti dal Modello Standard per le particelle elementari. Nel 1990, J.A. Wheeler, un fisico statunitense di fama mondiale (deceduto nel 2008, all’età di 96 anni), propose l’idea che l’Informazione sia qualcosa di fondamentale per la fisica dell’Universo. Secondo la dottrina dell’ “It from bit” (tale è il nome con cui definì la sua linea di pensiero), tutti gli oggetti fisici-materiali, sono intrinsecamente costituiti (nella loro matrice ultima), da pura Informazione (semplici bit di Informazione). Cercando di spiegare il significato profondo, di questa sua nuova e rivoluzionaria teoria sulla realtà fisica delle
  • 20. cose, egli si espresse con le seguenti parole: “In altre parole, ogni ‘it’ (ogni particella, ogni campo di forza, ed infine anche lo stesso tessuto dello spazio-tempo), deriva la sua funzione, il suo significato, la sua stessa intera esistenza (anche se in alcuni contesti indirettamente), dall’apparato da cui scaturiscono le risposte (sì / no) a semplici domande; che in ultima analisi non sono altro che scelte binarie, ossia bit di Informazione. La mia ipotesi dell’ “it from bit”, simboleggia e descrive l’idea che ogni elemento del mondo fisico, nella sua matrice ultima, è definito da una fonte immateriale esplicativa-informativa. In breve, possiamo dunque considerare che tutti gli oggetti fisici di questo Universo, sono in origine, fondamentalmente, delle informazioni teoriche; da tali informazioni prende forma la realtà, nella sua dimensione classica che tutti noi conosciamo, rendendo così il tutto interconnesso e partecipativo”. David John Chalmers, un filosofo australiano specializzato in Filosofia della Mente e del Linguaggio, sintetizzò il pensiero di Wheeler con le seguenti parole: “Secondo la dottrina dell’ ‘it from bit’, le leggi della fisica possono essere espresse in termini di Informazione, postulando diversi stati che danno luogo a diversi effetti, senza in realtà dire che cosa sono quegli stati. È solo la loro posizione in uno spazio di Informazione che conta. Se così stanno le cose, allora l’Informazione rappresenta un candidato naturale atto a svolgere anche un ruolo in una teoria fondamentale della coscienza. Siamo giunti ad una concezione del mondo in cui l'Informazione è davvero fondamentale, nonché descritta da due aspetti fondamentali, corrispondenti alle caratteristiche fisiche e alle caratteristiche fenomeniche del mondo”. La teoria dell’informazione afferma che esiste un elemento fondamentale, il bit – una variabile binaria – che è la base di tutta la comunicazione. Come risulta, questo bit, un’entità discreta indivisibile, è la componente essenziale sia del codice dei computer che delle particelle quantistiche. Sia la realtà fisica
  • 21. che quella digitale sono composte dagli stessi bit binari quantizzati di informazione. La realtà, a prescindere dal suo contenuto, non è altro che l’informazione che trasmette. “Storicamente, gran parte della fisica fondamentale si è occupata della scoperta delle particelle fondamentali della natura e delle equazioni che descrivono i loro moti e interazioni. Ora sembra che un diverso programma potrebbe essere altrettanto importante: scoprire i modi con cui la natura consente o previene l’espressione e la manipolazione dell’informazione, piuttosto che il moto delle particelle”. (Steane, AM (1998), Quantum Computing, Reports on Progress in Physics 61, P.119). “Per me il concetto di informazione è alla base di ogni cosa che noi chiamiamo "natura". La luna, la sedia, l'equazione degli stati, niente e tutto, in quanto non possiamo parlare di alcunché senza de facto parlare dell'informazione che noi abbiamo di queste cose. In questo senso l'informazione è il blocco costruttivo basilare del nostro mondo. Noi abbiamo imparato nelle scienze naturali che la chiave di lettura può essere spesso trovata se rimuoviamo certe linee di demarcazione nelle nostre menti. Newton ha mostrato che la mela cade al suolo in accordo a certe leggi che governano l'orbita della luna intorno alla Terra. E con questo ha reso obsoleta la vecchia differenziazione tra fenomeni terrestri e fenomeni celesti. Darwin ha mostrato che non ci sono linee divisorie tra l'uomo e gli animali. Ed Einstein ha rimosso la linea di demarcazione tra spazio e tempo. Ma nelle nostre menti, noi ancora tracciamo una linea di separazione tra "realtà" e "conoscenza sulla realtà", in altre parole tra realtà e informazione. E lei non può tracciare questa linea. Non c'è nessuna regola, nessun processo di distinzione tra realtà e informazione. Tutto questo pensare sulla realtà è pensare sull'informazione, che è il motivo per cui lei non può fare questa distinzione in una formulazione delle leggi di
  • 22. natura. La meccanica quantistica, correttamente interpretata, è una teoria dell'informazione”. Anton Zeilinger Un gruppo di fisici guidato dal Dr. Stephen Durr del John Von Neumann Institute in Germania ha confermato che la somma delle tre particelle subatomiche (chiamate quark) che formano i protoni ed i neutroni, rappresentano appena l'uno per cento della loro massa totale. Tali prove suggeriscono che il resto della massa nucleare sarebbe costituita da gluoni13 , particelle effimere, che formano una bolla in mezzo al vuoto, la cui funzione è di mantenere unito il trio dei quark all'interno dei protoni e dei neutroni. Questo fatto suggerisce l'ipotesi che la nostra realtà tangibile potrebbe essere semplice fluttuazione di vuoto o puramente nulla. Dal momento che la realtà delle particelle non può essere niente più che fumo e ombre, potrebbe essere che l'esistenza reale di tutti gli oggetti del cosmo risieda in uno o più spazi paralleli. Molti scienziati ipotizzano che, proprio come un oggetto tridimensionale è in grado di proiettare un ombra a due dimensioni sul terreno, un universo pluridimensionale (come nel caso della teoria delle stringhe) potrebbe gettare un'ombra in uno spazio tridimensionale. Se questa teoria è corretta, ogni oggetto ed organismo in questo mondo non sarebbe che una rappresentazione grossolana degli oggetti e degli organismi in un universo più "reale". In coincidenza con questa teoria, 13 In fisica, i gluoni sono le particelle elementari, responsabili della forza cromatica. Essi tengono uniti assieme i quark, per formare gli adroni, ovvero tutte le particelle soggette all`interazione forte, ad esempio i protoni e i neutroni; la loro carica elettrica è zero, il loro spin è 1 (sono bosoni vettori) e generalmente si assume che abbiano massa uguale a zero. I gluoni sono responsabili della stabilità del nucleo atomico. Il termine deriva dall'inglese glue (colla), in quanto tengono "incollate" altre particelle.
  • 23. l'esistenza di una mente extracorporea in un'altra dimensione potrebbe essere la spiegazione ideale del perché abbiamo memoria, in quanto gli atomi nel nostro cervello sono sostituiti centinaia di volte durante il corso della nostra vita. Secondo Steve Grand, l’autore di "Creation: Life and How to Make It," nessuno degli atomi che compongono il nostro corpo di oggi era nel nostro corpo durante un evento della nostra infanzia che ci ricordiamo. Pertanto, non siamo solo la materia di cui siamo fatti. Ciò implica che i nostri corpi reali sono nello spazio che non possiamo comprendere, mentre un corpo virtuale, un semplice contenitore, sarebbe ciò che è …in ciò che noi chiamiamo realtà. Correva l’anno 1958, quando Erwin Schrödinger (ben trenta anni prima che emergessero le prime teorie sull’Universo Olografico o “digitale”!), nelle ultimissime pagine del suo libro “L’immagine del mondo” (nell’ultimo capitoletto intitolato: Potrebbe l’energia essere un concetto puramente statistico?), scriveva e proponeva al mondo queste sue straordinarie riflessioni: “Uno stato di non equilibrio non può essere rappresentato da un’ autofunzione d’energia. Infatti è ben noto e abbastanza evidente che, se la funzione d’onda dipende dal tempo soltanto secondo un esponenziale immaginario (una frequenza), il sistema è completamente morto. Non ha luogo nessun cambiamento, nulla dipende dal tempo. L’associazione proposta ridurrebbe in ognuno dei casi il sistema in questione nelle condizioni della bella addormentata nel bosco: gradienti di temperatura o concentrazione congelati, reazioni chimiche arrestate a metà, un mattone che sta cadendo sospeso in aria a metà strada per forza magica, un’onda radio emessa da Londra che non raggiunge Cambridge, e così via. (…) Ma c’è un altro aspetto più serio della stessa cosa, cioè il fatto che secondo l’opinione corrente una misurazione assolutamente precisa dell’energia totale di un sistema fisico, porterebbe il sistema stesso nello stato di equilibrio termodinamico (ovvero d’entropia massima), per quanto esso ne fosse lontano all’inizio
  • 24. della misurazione.(…) L’equilibrio termodinamico è una pura astrazione, un caso limite che non si incontra mai in realtà. Nessun sistema che noi osserviamo ha un valore energetico perfettamente determinato, anzi non dobbiamo nemmeno ammettere una cosa simile nelle immagini da noi inventate per descrivere ciò che succede. Perché nessuna cosa che partecipi a ciò che succede ha un’energia ben definita. Non parla ciò a favore della mia tesi, che l’energia, proprio come l’entropia, è un concetto statistico?” Nel libro “Il Programma dell’Universo”, l’autore (Seth Lloyd, noto fisico e informatico statunitense) dichiara apertamente che lo scopo principale della sua opera letteraria, è di “mostrare il ruolo fondamentale che l'informazione gioca nell'universo (…). Tramite la comprensione di come esso elabori se stesso, noi possiamo capirlo nel suo complesso". In esso l'autore espone la storia dell'unità informativa, il bit, e dell'Universo inteso come computer quantistico virtualmente illimitato che non ha mai cessato, fin dalla sua origine, di elaborare se stesso e la sua evoluzione con una potenza di calcolo stimata essere, allo stato attuale, di circa 10^105 operazioni quantistiche al secondo (cioè basate sul contenuto informativo registrato tramite bit quantistici o Q-bit14 ). Dato che i q-bit possono registrare due stati logici (0 14 Qubit, contrazione di quantum bit, è il termine coniato da Benjamin Schumacher per indicare il bit quantistico, ovvero l'unità di informazione quantistica. Per definire il qubit è indispensabile introdurre innanzi tutto il concetto nuovo di quanto di informazione, cioè la più piccola porzione in cui una qualsiasi informazione codificata può essere scomposta; è quindi l'unità di misura dell'informazione codificata. Così come il bit è il quanto di informazione della computazione classica, la computazione quantistica si basa su un concetto analogo: il quantum bit. Al pari del bit, il qubit è un oggetto matematico con determinate specifiche proprietà. Il vantaggio nel trattare i qubit come entità astratte risiede nella libertà di costruire una teoria generale della computazione quantistica che non dipende dagli specifici sistemi utilizzati per la sua realizzazione.
  • 25. e 1) contemporaneamente, già con pochi q-bit a disposizione un elaboratore quantistico ha una potenza di calcolo incommensurabile rispetto ad un suo concorrente, dotato di circuiti basati sulla tradizionale tecnologia dei microprocessori nei quali i bit registrano solo gli stati 0 oppure 1. Riprendendo le stesse parole usate da Lloyd ne “Il programma dell’Universo”, possiamo inoltre affermare che: “(…)Poiché l’Universo è in grado di svolgere calcoli quantistici e un computer quantistico è in grado di simulare i sistemi fisici, Universo compreso, ne segue che un qualsiasi computer quantistico e l’Universo hanno la stessa capacità computazionale e sono quindi, sostanzialmente, identici”. Il modo in cui un computer quantistico riesce a simulare il comportamento dei sistemi fisici, viene definito: simulazione quantistica. Sempre secondo Lloyd: “A causa delle varie complicazioni insite nella meccanica quantistica, i computer classici non riescono a riprodurre con efficienza il mondo microscopico15 . Ma un computer quantistico non soffre di tali limiti. È sufficiente mettere in corrispondenza biunivoca le varie parti del sistema da simulare con i qubit di un computer quantistico: le interazioni fisiche diventano così operazioni logiche, e la simulazione è così precisa che i due oggetti (computer e sistema da simulare) si comportano esattamente allo stesso modo, tanto da diventare a tutti gli effetti indistinguibili”. In un articolo divenuto ormai leggendario (Ultimate Physical Limits to Computation, apparso su Nature nel 2000), Lloyd ha 15 Simulare il comportamento dinamico di un oggetto assai piccolo, come ad esempio un insieme di trecento particelle con spin, va già oltre le possibilità di qualsiasi calcolatore classico. Per poterle simulare, tuttavia, basterebbero trecento qubit programmati in modo tale che le loro interazioni siano una replica perfetta delle interazioni tra le particelle.
  • 26. dimostrato che la capacità computazionale di un qualunque sistema fisico può essere calcolata a priori in funzione dell’energia disponibile e delle dimensioni del sistema stesso. La relazione che lega energia e velocità in un sistema di calcolo è data dal teorema di Margolus-Levitin.16 Il teorema di Margolus-Levitin dice che la massima velocità con cui un sistema fisico (come un elettrone, ad esempio) può spostarsi da uno stato a un altro, è direttamente proporzionale all’energia del sistema stesso. Si tratta di un risultato molto generale. Non è importante la natura del sistema, né il modo in cui registra ed elabora l’informazione: conta solo l’energia disponibile per la computazione. Il teorema non è solo di tipo qualitativo, ma fornisce una formula precisa per il calcolo della massima velocità: il numero massimo di commutazioni al secondo di un bit è dato dall’energia necessaria per effettuare la commutazione moltiplicato per quattro e diviso per la costante di Planck. Se applichiamo la formula a una particella media, otteniamo che questa può commutare fino a 30'000 miliardi di volte al secondo. Il limite fissato da Margolus e Levitin è un limite massimo teorico, che i calcolatori convenzionali non raggiungono mai. Un computer quantistico, invece, opera sempre al massimo della velocità possibile. Quando si parla di capacità computazionale dell’Universo, ovviamente il riferimento è sempre rivolto all’Universo osservabile, ossia a quella parte di Universo, definito e delimitato dal nostro “orizzonte cosmico”. Ma il nostro 16 Tale teorema venne così chiamato, in onore dei due scopritori. Norman Margolus, è uno dei pionieri nel campo della fisica della computazione. Sotto la guida di Tommaso Toffoli al MIT, ha dimostrato che un semplice sistema formato da un gruppo di atomi che interagiscono tra loro può fungere da computer digitale universale. Lev Levitin, a Boston, è stato uno dei primi a calcolare in modo esplicito, usando le leggi della fisica, la capacità di trasmissione delle fibre ottiche. I loro sforzi congiunti hanno portato nel 1998 alla pubblicazione di un articolo (The Maximum Speed of Dynamical Evolution) in cui enunciavano il teorema che avrebbe preso il loro nome.
  • 27. Universo comunque non è statico, per cui l’orizzonte cosmico si allarga con il passare del tempo (a un ritmo triplo rispetto alla velocità della luce). Con l’ampliarsi dell’orizzonte, cresce il numero di corpi celesti e cresce di pari passo l’energia disponibile per la computazione. Dunque, ciò significa che la capacità computazionale dell’Universo all’interno del nostro orizzonte cosmico, accresce continuamente nel tempo, ad una velocità impressionante. Inoltre, come già detto con l’espandersi dell’orizzonte cosmico, aumenta anche la quantità di energia disponibile. Ciò significa che il numero totale di operazioni elementari e di bit, è da intendersi come una funzione crescente dell’età dell’Universo.17 Lloyd sostiene che “siccome ogni molecola, ogni atomo e quark registrano informazioni, il modo migliore per cogliere l'essenza di un oggetto - minimo o massimo che sia - è conoscerlo come un dispositivo che processa bit. Un computer, insomma”. Tom Siegfried, nel libro “The Bit and the Pendulum” , intravede nel fenomeno culturale della “Digital Physics”, qualcosa di più sostanzioso di un semplice cambio di metafora. Avendo ormai la letteratura abusato dell'espressione 'mutamento di paradigma', ecco che Siegfried inventa il 'superparadigma', composto dalla triade: informazione (bit); processo d'informazione (computazione); macchina che processa informazioni ( computer). Brian Hayes, con un contributo all' “International Journal of Theoretical Physics”, compie un ulteriore passo in avanti. Il problema non è più se l'universo sia un enorme processo computazionale, ma come elaborare un programma per 17 Nel Modello Standard la relazione tra energia totale e tempo (a partire dal Big Bang) è di tipo lineare (rispetta dunque la legge della proporzionalità diretta). Poiché la velocità massima di elaborazione dell’informazione è direttamente proporzionale all’energia, anch’essa è una funzione lineare dell’età dell’Universo. Dunque, il numero totale di operazioni elementari svolte, che è uguale alla velocità moltiplicata per il numero dei secondi trascorsi dal Big Bang, è una funzione del quadrato dell’età dell’Universo.
  • 28. computer capace di implementare un universo come il nostro. Il titolo dell'articolo è “Debugging the Universe”, dove l'azione del ' debug' - altra espressione fermentata nel mondo informatico - equivale al togliere gli errori, i vizi, i 'bachi' ( bug ) da un sistema. Il fine: ottenere una versione ottimizzata del nostro universo. La nuova immagine dell'universo-computer non può non avere risonanza sul piano cosmogonico e, in ultimo, sulla questione religiosa della creazione. Già Charles Babbage, agli albori della cibernetica, fantasticò che “Logos” fosse il codice con cui il Dio creatore instanzializzò il calcolatore cosmico. Ai nostri giorni, l'antropologo Stefan Helmreich riferisce, nel suo "The Word for World Is Computer”, di una simulazione di vita artificiale che si chiama Aleph. Il già menzionato Seth Lloyd inizia il suo libro “Il programma dell'Universo” con una sorta di nuova Genesi: «All'inizio era il bit», per giungere, nelle pagine finali, a concludere che «la terra di cui siamo stati plasmati è la computazione». Come dire: ricordati che sei bit e bit tornerai. Ancora più diretta, in senso teologico, è la riflessione distesa da Kevin Kelly in un articolo molto noto nel settore, “God Is the Machine”. Merita di essere ricordato anche il lungo sottotitolo che, in italiano, suona: “All'inizio era lo 0. E poi fu l'1. Una meditazione ipnotizzante sul potere trascendente della computazione digitale”. Qui Kelly, dopo un'ariosa ricognizione della storia dell'idea dell'universo-computer, si blocca dinanzi ad un dubbio assai intricato: ma Dio, di questo universo, è il Sommo Programmatore, è il Software cosmico o, ancora, è il “necessario Other”, ovvero la Piattaforma esterna dove il programma “Universo” è fatto girare? Si tratta di un interrogativo singolare, anche un poco irriverente, che nel futuro prossimo, però, potrà tornare ad interpellare. Olografia quantistica elettronica: Nel corso di un’ormai leggendaria conferenza del 1959, il grande fisico e premo Nobel Richard Feynman, sostenne che
  • 29. non vi fossero barriere fisiche che potessero impedire a macchine e circuiti di essere drasticamente ridotti di dimensioni. Definì questo concetto con la ormai celebre frase "There's Plenty of Room at the Bottom" (C'è molto spazio là in fondo). Feynman offrì mille dollari a chi avesse trovato un modo per scrivere una pagina da un libro di testo ordinario in uno spazio 25.000 volte più piccolo (una scala in cui l'intero contenuto della Enciclopedia Britannica si adatta alla testa di uno spillo). Il premio non fu consegnato fino al 1985, quando uno studente di Stanford, Tom Newman, insieme al professore di ingegneria elettronica Fabian Pease, realizzò una litografia a fascio elettronico per incidere la pagina di apertura di Dickens "A Tales from two cities". Questo record fu detenuto fino al 1990, quando un gruppo di ricercatori appartenenti a una nota società di computer, riuscì ad incidere le lettere IBM, disponendo vicini 35 atomi di xeno. All’inizio del 2009, il record fu nuovamente battuto. In un documento pubblicato online sulla rivista Nature Nano- technology, alcuni ricercatori della Stanford University descrissero le tecniche impiegate per creare delle lettere di dimensioni 40 volte inferiori all'esperimento originale, le cui dimensioni erano di 0.3 nanometri (circa 1/3 di un miliardesimo di metro). Si arrivò dunque ad una conquista straordinaria, sia nel campo delle nanotecnologie che in quello della fisica dell’Informazione; ovvero: il limite di densità di informazioni non era più quello di un bit per ogni atomo! Oggi esiste dunque un nuovo orizzonte che permette di creare spazio per memorizzare più informazioni. Attraverso una nuova tecnologia, detta olografia quantistica elettronica, e modificando la disposizione delle molecole, i ricercatori possono creare differenti forme d'onda per la codifica delle informazioni. In un tradizionale ologramma la luce laser colpisce un’immagine bidimensionale da cui appare un oggetto 3D virtuale. Nel nuovo tipo di olografia, gli ologrammi molecolari bi-dimensionali non
  • 30. sono illuminati dalla luce laser, ma da elettroni che sono già in una piastra di rame, in grande abbondanza. L' "oggetto elettronico" risultante, può essere letto con un microscopio a scansione tunnel. Il risultato è che nello stesso ologramma possono essere memorizzate diverse immagini, ognuna creata da una diversa lunghezza d’onda di elettroni. I ricercatori possono allora leggerle separatamente, così come si fa con le pagine di un libro, in uno spazio che è lo stesso per ogni atomo considerato. L’ esperimento ha permesso di memorizzare, dunque, circa 35 bit per elettrone, necessari per la codifica di ogni lettera. La conclusione più importante è che un bit per atomo, non è più il limite ultimo di densità di informazioni. Nel 1994, ben quindici anni prima di questo eccezionale risultato, Frank Tipler, nella sua opera fondamentale “La fisica dell’immortalità”, scriveva: „(…)tutte le entità presenti nell’Universo attuale, codificano una quantità di informazione di gran lunga inferiore alla quantità permessa dalla teoria quantistica dei campi. Per esempio, se un atomo di idrogeno dovesse codificare tutta l’informazione che gli è consentita dal limite di Bekenstein18 , potrebbe codificare circa 4 x 10^6 bit di informazione (…)Quindi un atomo di idrogeno potrebbe codificare all’incirca un megabyte di informazione, mentre di norma codifica molto meno di un bit. La massa dell’idrogeno non viene di certo utilizzata in modo efficiente! Se si assume che il raggio sia quello di un protone (R= 10^-13 cm),la quantità di 18 La meccanica ci dimostra che il numero di bit codificabili in una regione limitata, è paragonabile al numero di stati quantistici possibili in tale regione. Il limite di Bekenstein, determina il limite fondamentale al numero degli stati quantistici possibili in una regione limitata. Se l'informazione I è legata al numero degli stati possibili N dall'equazione: I = log2 N, allora il limite di Bekenstein alla quantità di informazione codificata all'interno di una sfera di raggio R e di energia totale E è: I < 2(p-greco)ER / ( hc ln 2).In genere si adotta, come limite superiore al numero di bit, codificabili da parte di un'entità fisica qualunque che abbia una massa di cento chili e un volume di circa 4,2 m^3, il valore: I < 2,57686 x 10^45 bit.
  • 31. informazione codificabile nel protone è costituita da soli 44 bit! Questo valore è davvero piccolo rispetto alla complessità del protone - tre quark valenza, innumerevoli quark e gluoni virtuali- che è di fatto tanto complesso che non siamo ancora riusciti a calcolarne lo stato di base dai principi fondamentali utilizzando il Modello Standard, anche utilizzando i supercomputer più avanzati!“
  • 32. Informazione e teletrasporto quantistico: “Si potrebbe ben dire che l’informazione sia l’irriducibile nucleo da cui tutto scorre, per cui la questione per cui la natura appare quantizzata è semplicemente una conseguenza del fatto che l’informazione stessa viene quantizzata per necessità”. Anton Zeilinger La teoria quantica afferma che l’energia di una forza viene trasmessa in entità discrete indivisibili, chiamati quanti. Questi quanti rappresentano i più piccoli elementi della natura. Il fatto che l’energia possa essere quantizzata in unità di minuscoli quanti equivale a ridurre un’ immagine a due dimensioni in movimento, in piccoli bit di informazione che compongono una linea di codice computabile. La teoria dell’informazione si è combinata con la nostra comprensione quantistica della materia in modo tale che lo stato di qualsiasi sistema possa essere descritto in base a come esso memorizza questi bit di informazione. Lo stato quantico di un atomo – un qubit – può essere trasferito da un atomo ad un altro. Questa azione, denominata teletrasporto quantistico, provoca la distruzione dell’atomo originale a causa della regola no-cloning19 . Tuttavia, 19 Il teorema di no-cloning quantistico asserisce che, dati i postulati della meccanica quantistica, non è possibile duplicare esattamente (cloning) uno stato quantistico sconosciuto a priori. È invece possibile effettuare la duplicazione senza errori se lo stato appartiene ad un insieme ortogonale di stati conosciuto a priori: tale duplicazione fallisce se lo stato non appartiene all'insieme ortogonale. In particolare è sempre possibile duplicare uno stato conosciuto a priori. Il teorema è equivalente al teorema di non discriminazione quantistico: se fosse, infatti, possibile distinguere in modo certo stati non ortogonali, sarebbe poi possibile utilizzare una macchina specifica per la duplicazione di uno stato piuttosto che l'altro, rendendo così
  • 33. non vi è una differenza sostanziale tra l’atomo originale e la copia. La meccanica quantistica non distingue un atomo da un altro. L’unica differenza sta nelle informazioni quantistiche che trasportano. Se si possedesse un dispositivo di teletrasporto per esseri umani, non sarebbero i vostri atomi ad essere teletrasportati e riassemblati, ma piuttosto le informazioni quantistiche responsabili dell’assemblaggio di un gruppo anonimo di atomi dentro di voi. Questo conduce ad una domanda metafisica: vale a dire, la vostra copia, sarebbe del tutto identica all’originale (ricordi inclusi)? La meccanica quantistica afferma che l’informazione è reale come qualsiasi altra proprietà che diamo agli atomi come il moto rotatorio, la velocità, o la massa. Poiché il bit di informazione viene considerato un vero elemento fisico, l’osservazione, la trasmissione e la ricezione di informazioni, costituiscono un vero scambio fisico. Per vedere qualcosa è necessario far rimbalzare un fotone su di esso. Questo modifica ciò che si sta osservando. Tutto questo rappresenta una radicale rottura con la meccanica classica che considera le osservazioni come eventi cognitivi senza conseguenze fisiche. Il trasferimento di informazioni durante la misurazione comporta quindi lo scarto di qualcosa: un bit di informazione. Questo bit di informazione penetra nel vostro sistema nervoso e si unisce al flusso infinito di informazioni diretto al cervello. “Noi esseri umani memorizziamo le informazioni nel nostro cervello e nei nostri geni così come i computer memorizzano le possibile la duplicazione di stati non ortogonali. Nel caso classico la duplicazione di una informazione è in principio sempre possibile. L'apparente contraddizione con il caso quantistico viene risolta dal fatto che gli stati di un sistema macroscopico descrivibile classicamente appartengono sempre ad un insieme ortogonale, per il quale la duplicazione è possibile.
  • 34. informazioni nei loro hard disk” (Charles Seife). Questo bit quantico, noto come qubit, viene memorizzato nel vostro cervello, in modo tale da avere conseguenze misurabili sulla materia fisica. Il bit è un elemento binario in grado di esprimere i fondamentali paradossi, l’ambiguità e le indeterminazioni della meccanica quantistica. Piuttosto che solo sì o no, il bit quantico (Q-bit) può comportarsi come se le cose fossero sì e no, on e off, particella o onda. Questo stato di sovrapposizione deve essere mantenuto fino a che il bit quantico viene coinvolto in una interazione con qualcosa che va al di là di se stesso. Dal momento che le interazioni si verificano costantemente nell’universo, sia che provengano da scienziati indagatori o da particelle invisibili, la sovrapposizione è uno stato effimero. “Sembra che l’atto del vivere possa essere visto come l’atto di replicare e preservare le informazioni nonostante i tentativi della Natura di dissiparle e distruggerle. (La teoria dell’informazione sta svelando la risposta alla secolare domanda: Che cos’ è la vita? La risposta è abbastanza inquietante)”. (Charles Seife). Il teletrasporto – inteso come forma di trasferimento istantaneo, a distanza e senza l’interposizione di alcun mezzo fisico dello stato quantistico di un sistema atomico o molecolare sfruttando il fenomeno di entanglement – è uno di processi più misteriosi delle scienze fisiche. Il fenomeno dell’entanglement, a sua volta, ha diviso i fisici teorici e sperimentali per diversi decenni, fin dalle prime prese di posizione di Albert Einstein, che con i colleghi Podolsky e Rosen formulò il celebre Paradosso EPR, passando per le disuguaglianze di Bell20 per arrivare ai recenti 20 Il Teorema di Bell afferma, nella forma più immediata, che nessuna teoria fisica locale e deterministica a variabili nascoste può riprodurre le predizioni della meccanica quantistica. Considerato come un importante contributo a favore della meccanica quantistica, in particolare del suo carattere contro- intuitivo nel rifiuto del realismo locale, tocca questioni fondamentali per la
  • 35. esperimenti in proposito di Anton Zeilinger in Austria e di Francesco de Martini a Roma. Si tratta in sostanza di una proprietà di correlazione quantistica tra due sistemi opportunamente preparati e che si mantiene anche quando essi vengono separati anche a distanza arbitraria, in via teorica. Qualche anno fa (gennaio 2009), ricercatori del Joint Quantum Institute (JQI) dell’Università del Maryland (UMD) e dell’Università del Michigan, sono stati in grado di ottenere con successo il teletrasporto di uno stato quantistico tra due atomi, posti tra loro ad una distanza considerevole. Secondo i ricercatori che hanno compiuto tale esperimento, utilizzando questo protocollo sperimentale l’informazione teletrasportata può essere recuperata con un’accuratezza del 90 per cento, con prospettive di ulteriori miglioramenti. Christopher Monroe, coordinatore della ricerca, commentò con queste parole il filosofia della fisica moderna. È il più famoso lascito del fisico irlandese John Stewart Bell. L'articolo di Bell del 1964 era intitolato "Sul paradosso Einstein-Podolsky-Rosen". Il Paradosso Einstein-Podolsky-Rosen (paradosso EPR) presume il realismo locale, ossia le nozioni intuitive che i parametri delle particelle abbiano valori definiti indipendentemente dall'atto di osservazione e che gli effetti fisici abbiano una velocità di propagazione finita, considerando appunto paradossale il carattere non locale della meccanica quantistica nella sua interpretazione ortodossa e concludendo per la sua incompletezza, cioè per la presenza di variabili nascoste. Ampliando l'esperimento mentale del paradosso EPR, in particolare studiando rapporti su angolazioni intermedie, rispetto alle sole ortogonali considerate dai tre predecessori, Bell ha dimostrato che la condizione di realismo locale impone alcune restrizioni nelle correlazioni previste tra i parametri di particelle entangled (originate da uno stesso processo fisico e aventi caratteristiche simmetriche), che non sono richieste dalla meccanica quantistica. Di converso, previsioni in completo accordo con quest'ultima implicano la rinuncia ad almeno uno fra determinismo e località. Le restrizioni evidenziate, espresse matematicamente da relazioni di disuguaglianza chiamate Disuguaglianze di Bell, permettono, tramite opportune misurazioni, una verifica sperimentale.
  • 36. risultato del loro esperimento: “Il nostro sistema ha le potenzialità per costituire la base di un ‘ripetitore quantistico’ in grado di connettere in rete memorie quantistiche su distanze enormi. Inoltre, i nostri metodi possono essere utilizzati in abbinamento con operazioni su bit quantistici per creare i ‘mattoni elementari’ del calcolatore quantistico del futuro, in cui i supporti logici e di memoria sono su scala atomica o molecolare.” Durante l’estate dello stesso anno (giugno 2009), i fisici del National Institute of Standards and Technology (NIST) hanno dimostrato la possibilità di produrre e osservare il fenomeno dell’entanglement – che Einstein definì come una sorta di “azione fantasma a distanza” – in un sistema su scala atomica del tutto simile a un sistema meccanico del mondo macroscopico. In sostanza, i ricercatori riuscirono ad imporre l'entanglement al moto vibratorio di due coppie di ioni berillio/magnesio. Ciascuna coppia si comportava come un oscillatore meccanico connesso a una molla di 4 micron di lunghezza. L'entanglement indusse le due coppie a vibrare all'unisono anche se esse si trovavano separate da 240 micrometri e localizzate in differenti zone della “trappola ionica” in cui vennero poste. La nostra intuizione sulla natura del mondo fisico è talmente condizionata dall'esperienza con oggetti macroscopici che interagiscono secondo le leggi della meccanica classica da rendere difficile comprendere appieno stranezze del mondo quantistico come la sovrapposizione (per cui quando un oggetto non viene osservato può trovarsi allo stesso tempo in più stati differenti) e l'entanglement o "non separabilità quantistica" (per cui lo stato di un oggetto si trova in stretta correlazione con quello di un altro oggetto con esso entangled, anche se essi sono
  • 37. spazialmente separati; ossia; se qualcosa altera lo stato quantico dell'uno, anche l'altro subirà un'alterazione). Eppure la teoria prevede che stati di sovrapposizione ed entanglement siano possibili anche per oggetti di grandi dimensioni. Vero è che l'enorme quantità delle interazioni che sorgono fra i componenti elementari di un oggetto macroscopico e fra l’oggetto stesso e l'ambiente, sono tali da indurre sistematicamente quel fenomeno di decoerenza21 , che impedisce di osservare su scala macroscopica gli effetti quantistici. Tuttavia, l'esplorazione della persistenza delle correlazioni quantistiche nel mondo "classico" impegna molti fisici sperimentali, sia per il suo significato a livello di scienza 21 In un modello di „misura“, ciò che produce la riduzione del pacchetto d'onde, è l'interazione del sistema con ciò che gli sta attorno (ad esempio lo stesso “ apparecchio di misurazione“).Più generalmente, gli oggetti quantici non sono mai completamente isolati da ciò che li circonda, dove per „ciò che li circonda“ si intende tutto ciò che interagisce con il sistema (un apparecchio, delle molecole d'aria, dei fotoni, ecc...). Le multiple interazioni tra l'oggetto quantico e „ciò che lo circonda“ , causano una distruzione molto rapida delle interferenze quantiche del sistema. Le interferenze sono un fenomeno ondulatorio, e caratterizzano un comportamento quantico. La distruzione delle interferenze, comporta a sua volta una soppressione delle super-posizioni di stati che caratterizzano l'oggetto quantico; esso quindi, disponendo unicamente di alcuni stati semplici, assume immediatamente un comportamento classico. In un oggetto macroscopico (un gatto per esempio),ogni suo atomo interagisce con tutti gli altri atomi dell'ambiente che gli sta attorno. Tutte queste interazioni provocano spontaneamente un „ronzio“ di interferenze quantiche, che spariscono quasi istantaneamente. Ecco perché la fisica quantica non si applica alla nostra scala: i sistemi non sono mai isolati. Questo fenomeno è stato battezzato „decoerenza“, poiché è la distruzione della coerenza degli stati quantici che elimina le interferenze. La velocità di decoerenza aumenta con la grandezza del sistema. Un gatto per esempio, formato da circa 10^27particelle, “decoerisce“ in 10^-23 secondi. Ciò spiega perché non si sono mai visti dei gatti „morti-viventi“, e infine perché la decoerenza sia così difficile da osservare.
  • 38. di base sia per le sue implicazioni a livello di applicazione in futuri computer quantistici. Nel mese di dicembre del 2011, un gruppo di ricercatori delle Università di Oxford (GB), di Singapore e del National Research Council canadese, ha dimostrato che l'entanglement quantistico può manifestarsi in maniera (relativamente) vistosa anche nel mondo macroscopico. I ricercatori sono infatti riusciti a porre in uno stato di "non separabilità" quantistica due diamanti di circa un millimetro di diametro, collocati a una distanza di 15 centimetri l'uno dall'altro e, cosa non meno significativa, a temperatura ambiente. L'eccitazione termica è infatti una delle principali cause di distruzione delle correlazioni quantiche alla base della nostra osservazione di risultati di misura classici e non a caso gli studi sperimentali sull'entanglement vengo condotti solitamente a temperature quanto più basse possibile. In particolare, i ricercatori sono riusciti a generare uno stato di entanglement tra due campioni di diamante utilizzando sofisticate apparecchiature laser, separatori di fasci e rilevatori (la tecnica è chiamata spettroscopia ultra pompa veloce sonda), mostrando che è possibile forzare i due diamanti a "condividere" i fononi, ossia gli schemi di oscillazione degli atomi nel reticolo cristallino dei campioni di diamante. Solo qualche mese fa invece (maggio 2012), il gruppo viennese guidato da Anton Zeilinger batte il primato di teletrasporto trasferendo lo stato quantistico di fotoni tra due isole delle Canarie, a 147 chilometri di distanza. Pochi giorni prima, ricercatori cinesi diretti da Jian-Wei Pan avevano annunciato di aver effettuato il teletrasporto dello stato di fotoni a una distanza di 97 chilometri. Questi successi aprono la strada a nuovi test su
  • 39. lunghe distanze, usando addirittura satelliti in orbita, e a future tecnologie di comunicazione quantistica di uso pratico. Alla base degli esperimenti sul teletrasporto quantistico vi è l’ormai noto fenomeno dell’entanglement, per il quale due particelle opportunamente preparate (convenzionalmente indicate come “A” e “B” o con i nomignoli Alice e Bob) stabiliscono una correlazione di natura quantistica che si mantiene anche allontanandole a una distanza virtualmente arbitraria. Una misurazione condotta su una delle due fa collassare il suo stato quantistico su un valore definito, e lo stesso avviene per la particella lontana, come se ci fosse una misteriosa interazione istantanea a distanza (spooky action at a distance, come la definì Albert Einstein, che propose per primo il paradosso di questa comunicazione, passato alla storia come “Paradosso EPR”, da un famoso articolo del 1935 scritto con Boris Podolski e Nathan Rosen). Alla fine degli anni novanta, grazie ai pionieristici studi di Francesco De Martini dell'Università «La Sapienza» di Roma e di Anton Zeilinger, allora all’Università di Innsbruck, la realtà del teletrasporto è stata dimostrata sperimentalmente. Da ciò è nato un fertile filone di ricerca che ha portato a diversi successi, in diversi centri di ricerca sperimentale nel mondo. L’esperimento di Zeilinger e colleghi si è svolto nelle Isole Canarie. Sfruttando nuove tecnologie, quali un’innovativa fonte di fotoni entangled e di rivelatori di fotoni singoli a rumore ultra-basso, e superando notevoli difficoltà meteorologiche, il gruppo è riuscito a portare a buon fine il teletrasporto dall'isola di La Palma a quella di Tenerife, che distano tra loro 147 chilometri. Se i risultati annunciati da Zeilinger saranno confermati dalla peer review e superata quindi ufficialmente la barriera dei 100 chilometri, s’intravede la possibilità di
  • 40. estendere i test utilizzando i satelliti artificiali in orbita. E, guardando più oltre, di stabilire finalmente le basi per tecnologie di comunicazione quantistica di uso pratico. Anton Zeilinger ha sviluppato molti strumenti nuovi per la fisica dei fotoni entangled, per esempio una forte sorgente di fotoni entangled rispetto alla polarizzazione, tecniche per l'identificazione degli stati di Bell e metodi per produrre l'emissione coerent di più di una coppia entangled da un cristallo. La tecnologia risultante gli ha permesso di eseguire un numero di primi esperimenti di informazione quantistica con i fotoni entangled. Il primo utilizzo in assoluto dell'entanglement in un qualsiasi protocollo di informazione quantistica è stata la dimostrazione di codice iperdenso. I suoi successi includono inoltre la prima crittografia basata sull'entanglement, il primo esperimento di teletrasporto quantistico di un fotone indipendente, la prima realizzazione di scambio di entanglement e l'esperimento che chiude il circolo vizioso della comunicazione in un test delle diseguaglianze di Bell. Dal 2000, le ricerche di Zeilinger si sono concentrate sul calcolo quantistico completamente basato sull'ottica, lo sviluppo di sistemi a crittografia quantistica22 basata sull'entanglement ed 22 Le tecniche di codifica e decodifica di un messaggio utilizzano generalmente una chiave numerica di molte cifre. Proprio la lunghezza di questo numero garantisce la sicurezza dei dati scambiati, dal momento che le possibili combinazioni sono talmente elevate da rendere di fatto impossibile trovare la chiave giusta senza conoscerla. La crittografia quantistica, invece, si affida a metodi completamente diversi. Le informazioni sulla decodifica sono conservate all’interno di un singolo fotone. In questo modo, le garanzie di segretezza sono assicurate direttamente dalle leggi fondamentali della meccanica quantistica. Infatti, il tentativo da parte di qualche estraneo di leggere la chiave di decodifica porterebbe necessariamente alla variazione delle proprietà del fotone, permettendo a chi la usa di verificare il buon esito dello scambio. La tecnologia è già funzionante, ma ci sono ancora delle limitazioni che ne impediscono l’immediata uscita sul mercato. In particolare, attualmente i fotoni che trasportano la chiave possono viaggiare
  • 41. esperimenti con coppie di fotoni entangled su distanze lunghissime. Negli esperimenti di calcolo quantistico basato sull'ottica, Zeilinger e il suo gruppo sono stati i primi a dimostrare un certo numero di procedure di base come la purificazione di entanglement e certe porte quantistiche. Ciò è culminato nelle prime dimostrazioni di calcolo quantistico ad una via, includendo più recentemente, il controllo attivo ultraveloce. Lo schema di calcolo quantistico ad una via è stato utilizzato per realizzare l'algoritmo di ricerca di Grover23 e vari giochi quantistici, incluso il dilemma del prigioniero24 . al massimo per 120 chilometri prima di perdere irrimediabilmente le informazioni. 23 L'algoritmo di ricerca di Groover è un algoritmo ideato da Lov Grover nel 1996 ai Bell Labs per risolvere un problema di ricerca in un database indifferenziato di N elementi in O(N1/2 ) tempo usando O(log N) come spazio di memorizzazione. Un classico esempio può essere la ricerca in un elenco telefonico di un nome disponendo solo del numero telefonico. Disponendo di un computer classico si può pervenire al nome dopo aver cercato mediamente metà dell’elenco. L’algoritmo di Grover, sfruttando la proprietà di sovrapposizione dei qubit, può pervenire alla risposta corretta molto più velocemente. L'algoritmo di Groover può essere utilizzato nella Teoria delle collisioni. 24 Il Dilemma del Prigioniero prevede di scegliere la migliore opzione tra quelle presentate: due criminali vengono catturati ma non ci sono prove a loro carico. Vengono messi in due celle diverse e gli viene detto: se tu confessi e il tuo complice no, tu sei libero e il tuo complice si prende 7 anni; se confessa anche lui però, vi prendete 6 anni a testa; d’altra parte, se non confessi e il tuo complice confessa, lui è libero e tu ti becchi 7 anni; infine, se non confessate nessuno dei due, siccome non abbiamo prove, possiamo tenervi dentro solo per 1 anno. La Teoria prevede che la strategia ottimale di questo gioco non cooperativo sia la confessione, perché chi confessa ha un range di condanne da 0 a 6 anni, mentre chi non confessa da 1 a 7, la condanna media è superiore nel secondo caso rispetto al primo. Che tipo di società prospetterebbe questa strategia? L’azione del confessare, in questo esempio, è strettamente funzionale a minimizzare la pena per ogni singolo giocatore, sperando che l’altro non faccia altrettanto. Se però l’altro adotta la stessa strategia, rischieremmo comunque meno che evitando di far
  • 42. In crittografia quantistica, il gruppo di Zeilinger sta sviluppando un prototipo in collaborazione con l'industria. Mentre la maggior parte della comunità stava lavorando su uno schema molto più semplice con l'uso di impulsi laser deboli, Zeilinger ha basato il suo approccio esclusivamente su schemi più complicati utilizzando fotoni entangled. Una dimostrazione recente che l'entanglement è una condizione necessaria per la sicurezza del canale quantistico, conferma la correttezza di questa scelta. Gli esperimenti di Zeilinger sulla distribuzione dell'entanglement su grandi distanze è cominciata sia con la comunicazione su spazio libero che su fibra ottica e il teletrasporto tra laboratori posti su luoghi opposti del fiume Danubio. Ciò è stato esteso a distanze più grandi attraverso la città di Vienna e, nel 2012, come già detto, fino a 147 km fra due isole delle Canarie, battendo la misura stabilita solo pochi giorni prima da un'equipe cinese e aprendo la strada alla comunicazione quantistica con satelliti. Il suo sogno era di far rimbalzare luce entangled dai satelliti in orbita. Ci è riuscito con un esperimento in Italia con il Matera Laser Ranging Observatory. Un'importante e fondamentale ricaduta di questi esperimenti, è stato il primo test nel 2007 di una teoria realistica non locale proposta da Leggett, che va significativamente oltre il teorema di Bell. Mentre Bell dimostrò che una teoria che sia al contempo locale e realistica è in contraddizione con la meccanica quantistica, Leggett considerò teorie realistiche non locali dove i fotoni individuali, si assume trasportino polarizzazione. La disuguaglianza risultante si è dimostrata essere violata negli esperimenti del gruppo di Zeilinger. condannare l’altro confessando. Il rischio però è alto. In questi giochi si suppone che non vi sia collaborazione e che nessuno dei due giocatori conosca la scelta dell’altro. Infatti, se uno dei due prigionieri avesse la possibilità di conoscere la scelta dell’altro prima di fare la propria, e se chi ha fatto la scelta per primo fosse a conoscenza di questa regola, sceglierebbero entrambi la strategia che minimizza la pena per entrambi i giocatori?
  • 43.
  • 44. Verso entanglement sempre più sofisticati: “Non correre mai dietro un bus, una donna o una teoria cosmologica. Ce ne sarà sempre un’altra nel giro di pochi minuti” John Archibald Wheeler Nel mese di gennaio del 2011, il premio Nobel Luc Montagnier ha reso pubblici gli ultimi risultati di una ricerca potenzialmente rivoluzionaria su come il DNA sarebbe in grado di “ teletrasportarsi” tramite emissioni elettromagnetiche. L’ipotesi dello scienziato francese è che i singoli filamenti di DNA (e, volendo, anche i singoli geni) sono in grado di emettere onde elettromagnetiche che si propagano attraverso la formazione di nanostrutture25 d’acqua. Non solo, questa proprietà permetterebbe ad alcuni microorganismi di infettare cellule a distanza, con un processo che ricorda il teletrasporto. Ma partiamo dall’inizio: la dimostrazione delle proprietà elettromagnetiche del DNA. Lo strumento utilizzato dalla squadra di ricerca consiste in un solenoide all’interno del quale viene alloggiata una provetta contenente la soluzione biologica da analizzare. Il materiale biologico viene eccitato elettromagneticamente e i segnali risultanti vengono catturati e amplificati tramite computer. I risultati registrati sono senza precedenti: le soluzioni biologiche ricavate da colture cellulari batteriche e virali 25 Con il termine nanostruttura o nanoaggregato (conosciuto anche come cluster) si indica un sistema costituito da un numero di atomi o molecole che va da qualche unità a qualche migliaia e le cui dimensioni sono dell'ordine del nanometro. Lo studio delle nanostrutture appartiene a una classe di ricerca interdisciplinare che va sotto il nome di nanoscienze e il cui campo di applicazione è rappresentato dalle nanotecnologie.
  • 45. emettono onde elettromagnetiche a bassissima frequenza (tra i 500 e i 3000 Hz), e i medesimi risultati vengono ottenuti analizzando il solo dna estratto dagli stessi microorganismi. Non solo, si è anche notato che le emissioni elettromagnetiche non dipendono dalla quantità di cellule utilizzate nella coltura, e che anche singoli geni sono in grado di produrre simili emissioni. Va bene, questo significa che le singole molecole di DNA, se sottoposte a eccitazione elettromagnetica, sono in grado di riemettere segnali captabili: ma come si arriva al teletrasporto di DNA da una cellula all’altra? È qui che interviene l’elemento più provocatorio (e controverso) dello studio di Montagnier. I ricercatori hanno notato che le emissioni del DNA provocavano cambiamenti nelle nanostrutture dell’acqua. Successivamente hanno dimostrato che queste emissioni potevano influire anche sulle nanostrutture di una soluzione acquosa priva di elementi biologici. Ipotizzando che queste specifiche nanostrutture potessero fungere da impalcatura per la riproduzione della molecola emittente, hanno inserito nella provetta contenente acqua gli elementi necessari alla sintesi di DNA (enzima polimerasi, nucleotidi e primer26 ). Quando sono andati ad analizzare il DNA prodotto, hanno trovato sequenze per il 98% identiche a quelle originali. Sostanzialmente, dunque, il DNA sarebbe in grado di trasferire informazioni sulla propria struttura attraverso l’acqua, al punto da poter ricostruire la molecola in un altro ambiente acquoso. Il virologo premio Nobel arriva persino ad ipotizzare che questa proprietà venga utilizzata dai microrganismi per infettare altre cellule. “ Dobbiamo supporre che in presenza di cellule 26 Un primer (in italiano: innesco) è un filamento di acido nucleico che serve come punto di innesco per la replicazione del DNA. I primer sono necessari perché molte DNA-polimerasi (enzimi che catalizzano la replicazione del DNA) non possono iniziare la sintesi di un nuovo filamento "ex novo", ma possono solo aggiungere nucleotidi ad un filamento preesistente.
  • 46. eucariote la sintesi dei componenti del micoplasma27 (lipidi di membrana, ribosomi) possa essere istruita dal DNA del micoplasma”, spiega Montagnier, “ Un’unica cellula di micoplasma è, quindi, sufficiente a generare l’infezione totale dei linfociti”. Affermazioni come questa hanno creato non poche perplessità all’interno della comunità scientifica. Alcuni, come il chimico Derek Lowe, sostengono che la tesi di Montagnier non è supportata da una quantità sufficiente di dati e da prove incontrovertibili di riproducibilità. Nel frattempo, la squadra di Montagnier sta già ipotizzando applicazioni mediche di questa scoperta, principalmente nell’ambito dello studio dell’HIV. Facendo qualche passo indietro nel tempo (ma solo di pochi anni), potremmo ricordare lo sviluppo del primo entanglement di qudit (la correlazione quantistica di bit quantici con un numero di differenti stati simultanei superiore a due). Durante l’estate del 2005, alcuni fisici negli Stati Uniti hanno sviluppato un metodo semplice per ottenere l'entanglement dei "qudit". Proprio come un bit quantico (o "qubit") può trovarsi in due stati differenti contemporaneamente, un qudit può esistere simultaneamente in d stati. Malcolm O'Sullivan-Hale e colleghi dell'Università di Rochester hanno dimostrato di poter ottenere stati di qudit con d=3 e d=6 usando fotoni. Il risultato, descritto 27 I micoplasmi (o mollicutes) sono batteri appartenenti all'Ordine dei Mycoplasmatales e alla Famiglia dei Mycoplasmataceae, dalle caratteristiche molto peculiari. Sono assimilabili, per la maggior parte delle caratteristiche ai Bacteria Gram-positivi con un basso contenuto in GC, i Firmicutes. Aerobi obbligati o aerobi/anaerobi facoltativi, sono le più piccole cellule capaci di vita autonoma (con un diametro di 0,2-0,3 µm) ed hanno la particolarità di non essere dotati di parete cellulare; la loro membrana cellulare è lipoproteica trilaminare e ricca di steroli, caso unico fra le cellule batteriche.
  • 47. in un articolo pubblicato sulla rivista "Physical Review Letters", potrebbe avere applicazioni nella crittografia quantistica. I computer convenzionali registrano le informazioni sotto forma di "bit", che possono avere un valore zero oppure uno. Tuttavia, la capacità dei fotoni e di altre particelle quantistiche di esistere in due stati differenti contemporaneamente - come gli stati di polarizzazione verticale e orizzontale - ha portato all'elaborazione della cosiddetta informatica quantistica. Il passaggio dagli stati bidimensionali dei qubit agli stati multidimensionali dei qudit consentirebbe alle particelle di trasportare ancora più informazioni e, per esempio, di aumentare la sicurezza nelle applicazioni di crittografia quantistica. O'Sullivan-Hale e colleghi hanno inviato un fascio laser ultravioletto contro un cristallo con proprietà ottiche non lineari che talvolta divide un fotone ultravioletto in una coppia di fotoni infrarossi correlati ("entangled"). L'entanglement prevede che le caratteristiche dei due fotoni - come la loro polarizzazione - restino correlate fra loro anche a distanza. Gli scienziati hanno in effetti correlato le quantità di moto dei fotoni, e dunque anche la loro posizione nello spazio reale misurata da un rivelatore. Hanno poi dimostrato che i fotoni possono occupare uno qualsiasi di sei stati di momento o di posizione (pixel). Con griglie di rivelatori più grandi, gli autori sostengono di poter raggiungere addirittura 16 stati. "Anche se in precedenza erano stati prodotti qudit entangled con vari metodi, - disse O'Sullivan-Hale - il nostro ha il vantaggio della semplicità e della scalabilità. Lavoriamo con semplici ottiche commerciali senza bisogno di ologrammi o di stabilità interferometrica come negli esperimenti precedenti". Sempre nell’estate del 2005, per la prima volta la correlazione fra un fotone e un'eccitazione collettiva di atomi ha superato il rigoroso test di violazione della disuguaglianza di Bell. Alcuni
  • 48. fisici del Georgia Institute of Technology , sono riusciti a correlare quantisticamente un fotone e un singolo atomo situato in una nube atomica. È stata la prima volta nella storia, in cui l'entanglement fra un fotone e un'eccitazione collettiva di atomi ha superato il rigoroso test di comportamento quantistico noto come violazione della disuguaglianza di Bell. I risultati sono stati descritti in un articolo pubblicato sul numero del 22 luglio della rivista "Physical Review Letters". Anziché isolare un atomo per portarlo nello stato eccitato necessario per correlarlo con un fotone, i fisici Alex Kuzmich e Brian Kennedy hanno scelto un approccio "collettivo": hanno provato ad eccitare un atomo all'interno di una nube di altri atomi. "Usare un qubit atomico collettivo - disse Kuzmich - è molto più semplice e richiede meno hardware, perché non bisogna isolare l'atomo. In effetti, non sappiamo nemmeno (e non ci serve saperlo) quale atomo nel gruppo costituisca il qubit. Possiamo però dimostrare che il sistema è correlato perché viola la disuguaglianza di Bell". Qualche anno dopo queste due fondamentali scoperte, nel 2008, i ricercatori di una collaborazione tra il National Institute of Standards and Technology (NIST) e del Joint Quantum Institute (NIST/University of Maryland) hanno sviluppato un nuovo metodo per creare coppie di fotoni entangled. Nel loro esperimento gli studiosi hanno inviato un impulso di luce in entrambi i versi di un circuito di una fibra ottica che lungo il cammino subisce una torsione. Due coppie di fotoni con la stessa frequenza che viaggiano in entrambe le direzioni possono, in opportune condizioni, interagire in un processo noto come sovrapposizione d’onda quadrupla (four-wave mixing) che li converte in due coppie di fotoni, una delle quali ha una frequenza spostata verso il rosso mentre l’altra ha una frequenza spostata verso il blu, rispetto ai quanti di luce originari. Sebbene
  • 49. la torsione della fibra faccia sì che la coppia che emerge da un estremo sia polarizzata verticalmente mentre l’altra coppia emerge polarizzata orizzontalmente, l’apparato sperimentale rende impossibile determinare quale delle due coppie create ex novo abbia preso un cammino e quale l’altro. Proprio perché i due cammini sono indistinguibili, le leggi della fisica quantistica dicono che le coppie di fotoni sono in realtà in una sovrapposizione di entrambi gli stati - quello con polarizzazione verticale e quello con una orizzontale - allo stesso tempo, a meno che non si faccia una misurazione dello stato quantistico della coppia. Il tal caso anche l’altra "precipita" in modo istantaneo in uno stato quantistico definito e prevedibile. Questa "azione fantasma a distanza" è quella che indusse a Einstein a ipotizzare che la meccanica quantistica fosse incompleta dando il via a un dibattito sul cosiddetto paradosso EPR che durò per oltre 70 anni, nel quale schiere di fisici dibatterono sul concetto di “località” (secondo cui gli eventi si possono influenzare mutuamente solo tramite interazioni locali) e di "realismo" (secondo cui le particelle hanno uno stato definito indipendentemente dalla misurazione che viene effettuata su di esse). Negli anni passati, tuttavia, alcune sperimentazioni hanno potuto dimostrare l’esistenza dell’entanglement e di eventi che si possono influenzare a distanze arbitrariamente grandi.. Durante l’estate dello stesso anno (2008), lo stesso gruppo di ricercatori è riuscito a produrre delle "immagini quantistiche", ovvero coppie di schemi visivi ricchi di informazioni, le cui fluttuazioni sono "entangled”. Questa tecnica per produrre immagini quantistiche, potrebbe in futuro essere sfruttata per archiviare strutture complesse di dati nei computer quantistici e trasmettere grandi quantità di informazioni in modo sicuro. Vincent Boyer, coordinatore dello studio, commentò con queste
  • 50. parole i risultati della ricerca: "Le immagini sono sempre state uno dei metodi di comunicazione preferiti dato che nei loro dettagli trasportano moltissima informazione. Finora tuttavia, le macchine fotografiche e gli altri rilevatori ottici hanno ignorato una gran quantità di informazioni utili presenti nelle immagini. Ma ora potremo trarre vantaggio dagli aspetti quantistici delle immagini." Le cineprese convenzionali o le macchine digitali rilevano solo il colore e l'intensità di un'onda luminosa che incide sulla superficie dei loro sensori. Un ologramma registra anche la fase di un'onda luminosa, ossia l'esatta localizzazione delle sue creste e degli avvallamenti. In un'onda luminosa, avviene molto di più: la luce ha delle "incertezze" intrinseche nelle proprie caratteristiche, che si manifestano come fluttuazioni delle proprie proprietà. La possibilità di controllare queste fluttuazioni, che rappresentano una sorta di rumore, può migliorare la rilevazione di oggetti altrimenti indistinti, consentire una migliore amplificazione delle immagini e controllare meglio la posizione di fasci laser. I ricercatori non possono eliminare del tutto questi rumor, ma possono ri- arrangiarli, in modo da migliorare alcune caratteristiche desiderate dell'immagine. Con la tecnica detta di "spremitura" (squeezing) possono per esempio ridurre il disturbo in una proprietà, come l'intensità, a scapito di un'altra a essa complementare, come la fase. Le immagini ottenute dai ricercatori sono inoltre prodotte in coppie. Trasmesse da due fasci luminosi che originano da uno stesso punto, le due immagini sono in uno stato di entanglement: se si osserva un'immagine, mostra imprevedibili cambiamenti casuali; fluttuazioni casuali del tutto simili sono mostrate anche dall'altra immagine, anche se le due immagini sono separate e non c'è possibilità di trasmissione di informazione fra le due. Inoltre le due immagini sono "spremute" sfruttando entrambe le
  • 51. immagini e sottraendo le fluttuazioni, mostrano un disturbo inferiore a quello delle immagini classiche e un potenziale contenuto di informazione superiore. L’anno successivo (2009), sempre gli stessi ricercatori del NIST, hanno dimostrato la possibilità di poter creare un processore programmabile “universale” a informazione quantistica; essi hanno infatti messo a punto un'apparecchiatura in grado di far "girare" in linea di principio, un qualunque programma permesso dalla meccanica quantistica. Il gruppo del NIST ha anche analizzato il processore quantistico con i metodi tradizionali della computer science e dell’elettronica realizzando un diagramma del circuito di elaborazione necessario per far funzionare un dato programma. “È la prima volta che qualcuno riesce a dimostrare la possibilità di realizzare un processore quantistico per più di un qubit”, ha commentato David Hanneke, ricercatore del NIST e primo autore dell’articolo apparso sulla rivista "Nature Physics". “Si tratta di un passo fondamentale verso l’obiettivo finale, quello di riuscire a effettuare calcoli con un gran numero di qubit. L’idea è quella di collegare tra loro una serie di questi processori.” Attualmente, gli ioni rappresentano alcuni dei sistemi fisici più promettenti per la realizzazione di bit quantistici, o qubit. Per questo il processore del NIST memorizza informazione binaria (in forma di “0” e “1”) in due qubit costituiti da altrettanti ioni di berillio, mantenuti in trappole elettromagnetiche e manipolati tramite laser ultravioletti. Con tale apparato si è riusciti a porre gli stati quantistici degli ioni in uno stato di entanglement, o "sovrapposizione" di valori 1 e 0 allo stesso tempo, il che rappresenta il maggiore vantaggio dell’elaborazione dell’informazione nel mondo quantistico.
  • 52. Con simili caratteristiche, il processore è in grado di svolgere 160 routine di elaborazione differenti sui due qubit. Sebbene si tratti ancora di un numero finito, è grande e differenziato a sufficienza per poter conferire al processore l’aggettivo di “universale”, come hanno sottolineato i ricercatori. Una sfida cruciale per l'osservazione del comportamento quantistico nei piccoli sistemi meccanici è rappresentato dalla soppressione delle interazioni tra il sistema e il “rumore” ambientale; ovvero di tutto il materiale che supporta il sistema o dal contatto con qualunque altro elemento esterno. Le vibrazioni termiche casuali di ciò che costituisce l'ambiente che circonda il sistema possono infatti essere trasferite all'oggetto meccanico, distruggendo le sue fragili proprietà quantistiche. Per affrontare il problema, numerosi gruppi in tutto il mondo hanno cominciato a utilizzare dispositivi criogenici in cui i materiali più vicini sono raffreddati a una temperatura molto bassa per ridurre l'ampiezza delle vibrazioni casuali. Verso la fine del 2009, un gruppo di ricercatori del Caltech di Pasadena (CA, USA), suggerì un approccio totalmente differente: utilizzare le forze impartite da intensi fasci di luce per far “levitare” l'intero oggetto meccanico, liberandolo da qualunque contatto esterno con i materiali di supporto. Ciò consente di ridurre fortemente il rumore ambientale, al punto da rendere osservabili le manifestazioni quantistiche, anche quando l'ambiente è mantenuto a temperatura ambiente. Per quanto riguarda più in particolare il fenomeno dell’ entanglement, essi hanno dimostrato teoricamente come esso possa essere realizzato anche quando un atomo viene sostituito da un sistema meccanico ben più massiccio, per quanto ancora di dimensioni nanoscopiche. Tale sistema è costituito da una piccola sfera realizzata con un materiale altamente trasparente