E' possibile viaggiare nel tempo? Secondo le teorie convenzionali è impossibile, almeno non per gli esseri umani. La teoria della relatività dimostra teoricamente come in certe condizioni potremmo ritrovarci in istanti temporali differenti se si viaggiasse a velocità prossime a quella della luce. Sembra che qualcuno però abbia vissuto nel 2749!?
Oggi è estremamente difficile discutere sia di scienza che di fantascienza, anche se ci sono molte situazioni incredibili da ipotizzare una certa verità. In questo blog abbiamo parlato in molte occasioni di viaggi nel tempo, relatività di Einstein e tante altre informazioni collegate. Un modo per raggiungere il tempo nel futuro sarebbe quello di viaggiare alla velocità della luce nello spazio, come in primo luogo teorizzato da Albert Einstein. Secondo teorie accettate, gli ingegneri dovrebbero costruire una nave spaziale che potrebbe viaggiare alla velocità della luce, spostandosi quindi nello spazio.
Come possiamo spiegare la storia di Al Bielek che racconta nei minimi dettagli il suo viaggio nel 2749?
Tra le molte cose menzionate da Bielek vi è il progetto Montauk: una presunta serie di progetti segreti governativi degli Stati Uniti condotti presso il Camp Hero e / o Montauk Air Force Station a Montauk, Long Island, dove i ricercatori stanno sviluppando tecniche di guerra psicologica e altri tipi di ricerche, compreso il viaggio nel tempo. Molte persone rimangono scettiche sulle affermazioni di Al e sull'intera segretezza dietro il progetto Montauk, lui ritiene fermamente che sia solo una questione di tempo prima che i documenti classificati divengano disponibili per il pubblico in modo da dimostrare l'esistenza del cosiddetto progetto Montauk. Al Bielek ha affermato come nel 2749 ci saranno molte città galleggianti che potrebbero essere trasportate in diverse parti del pianeta. La popolazione del futuro sarà inferiore a quella attuale, e non vi saranno guerre e tantomeno soldi: ognuno avrà i propri "crediti", attraverso i quali sarà possibile "comprare" tutto quello che si desidera e in qualsiasi momento. Un sistema informatico di intelligence sintetica, costruito nel 26° secolo, garantirà il pieno controllo dell'intero pianeta.
Come in ogni storia che si racconti è bene ascoltare, valutando e criticando in tutte le circostanze.
La teoria della relatività speciale di Einstein, sviluppata nel 1905, mostra che il tempo cambia diversamente per le persone (e luoghi) che si muovono in varie situazioni - anche se l'effetto diventa grande solo quando ci si avvicina alla velocità della luce. C'è solo un problema da chiunque desideri avere un'occhiata al futuro - tornare indietro. Ovvero viaggiare più velocemente della luce - e questo non è possibile. Ma in una relatività generale, può esserci una fuoriuscita, la teoria della gravità di Einstein che unisce spazio e tempo come "spaziotempo" che si curva in presenza di massa permette la possibilità di wormholes - una sorta di tunnel attraverso lo spazio-tempo che collega parti molto distanti dell'universo. Se le "bocche" del wormhole si muovono l'una rispetto all'altra, passando tra diversi punti dello spazio, avrebbero anche portato un viaggiatore in un altro momento spazio-tempo. Tuttavia, sarebbe ancora impossibile tornare indietro rispetto al punto in cui è stato creato il wormhole, limitando in qualche modo le opzioni per il viaggio - e forse spiegando perché non abbiamo incontrato nessun visitatore dal futuro. I wormholes contengono due bocche, con una gola di collegamento. Le bocche sarebbero probabilmente sferoidali. In ogni caso, un problema legato allo spazio-tempo è la stabilità: i wormholes non potrebbero resistere a lungo collassando nel suo insieme. Il più recente studio scientifico ha scoperto che se un wormhole contiene materia "esotica" potrebbe rimanere aperta e immutabile per lunghi periodi di tempo. Quindi, se un wormhole contiene una materia esotica sufficiente, sia naturale che artificiosamente aggiunta, potrebbe essere teoricamente utilizzato come metodo di invio di informazioni o di viaggiatori attraverso lo spazio. I wormholes non solo possono collegare due regioni distinte all'interno dell'universo, ma potrebbero anche collegare due diversi universi.
Un viaggio nel futuro di sei settimane quello di Bilek che ha raccontato tra le tante cose di aver visto città galleggianti che si muovono e che comunicano telepaticamente.
Bielek
Onestamente mi pare più fantascienza, che scienza. Dove sono le prove di questo viaggio? Le tecnologie che lo permetterebbero? Inoltre, fino ad ora, non è stata provata l’esistenza dei ponti di Einstein-Rosen, di nessun tipo!
I viaggi nel tempo sono fantascienza, non c’è dubbio. Il problema è capire se i cunicoli temporali possono avere un senso…
La GR prevede teoricamente l’esistenza dei wormholes, quindi il senso “fisico” e’ salvo. Discorso diverso, come ho scritto sotto, e’ proprio il problema logico che noi umani non riusciamo a superare nella causa-effetto (vedi appunto il nipote che ammazza il nonno, etc etc). La freccia temporale e’ utile per far si che le cause siano sempre prima degli effetti. Ma possono esistere “logiche”, ovvero sistemi assiomatici, che partono appunto da assiomi diversi e che raggiungono deduzioni diverse. Queste logiche implicherebbero anche una “Fisica” diversa, magari una proprio senza il tempo e dove quindi la parola “senso” non avrebbe “senso” :-).
Si badi che il dire che il tempo “non esiste” implica solo annullarlo da teoriche fisiche e dalle equazioni, ma non implica che l’uomo non lo “sperimenti” ogni giorno localmente alla sua vita.
Come ho scritto sotto, Thorne deriva dalle sue equazione che il viaggio nel tempo ha senso solo da dopo che la macchina del tempo sia costruita. Ovvero, un viaggiatore non puo’ viaggiare prima della sua creazione. Questo salverebbe molti dei paradossi logici piu’ diffusi (infatti la macchina del tempo non potrebbe apparire ad un tempo anteriore alla sua nascita, e quindi anche il viaggiatore non potrebbe).
Contemporanneamente, cmq, come scritto sotto un wormhole avrebbe necessita’ di energie “negative” (rispetto al teorema dell’energia positiva, dimostrato anche da Witten e per il quale vinse la medaglia Fields, unico fisico ad averla mai vinta) per rimanere aperti.
Un bel tema quello del viaggio nel tempo…. probabilmente gli abitanti di altre civiltà già lo fanno, visto le enormi distanze tra le stelle.
Ciao Maurizio,
argomento di sicuro interesse per tutti gli appassionati di “scienza estrema”.
Una cosa mi lascia sempre dubbioso a proposito dei viaggi nel tempo ovvero: se io potessi tornare indietro nel tempo accadrebbe che un certo istante t1 già trascorso, in cui vi è un solo Daniele, si “riproporrebbe” come istante t1’ ovvero quell’istante t1 in cui esisterebbero due Daniele. Ora come si può notare la materia totale presente nel cosmo all’instante t1’ eccederebbe quella presente all’istante t1 di “un Daniele”. Sappiamo che nulla si crea e nulla si distrugge e quindi:
1) L’eccesso di materia viene in qualche modo annullato (trasformato in energia secondo E=mc^2?) nell’istante in cui il “Daniele in più” si presenta all’interno dello spazio-tempo del primo Daniele (e quindi Daniele non è mai tornato nel passato…)
2) L’eccesso di materia ora è divenuto un eccesso di energia che a sua volta potrebbe (forse) essere bilanciato da deformazioni spazio temporali i cui effetti sono però imprevedibili…
Queste brevi e semplicistiche annotazioni non potrebbero deporre contro la possibilità di viaggiare nel tempo (almeno per corpi macroscopici)?
Daniele, la tua è una variante del “paradosso del nonno”, che è appunto un paradosso di incoerenza. Una possibile soluzione è postulare l’esistenza di universi paralleli, in cui l’uccisione del nonno avviene in un altro universo. C’è un fisico russo (Novikov) che si è occupato a fondo di questi problemi.
Un’altra soluzione, come descritta nell’articolo, e’ proprio quella di congetturare 1 wormhole a bocche in moto relativo, dove in linea teorica possono nascere traiettorie di tipo tempo chiuse. In questo caso, e’ permesso al viaggiatore di tornare indietro nel tempo, ma NON PRIMA della creazione del wormhole (macchina del tempo, in senso lato). Ecco che quindi molti paradossi spariscono, poiche’ il viaggiatore non puo’ viaggiare prima della propria nascita, ne tantomeno incontrare suo nonno da giovane e ucciderlo.
In ogni caso, spesso i paradossi o i ragionamenti per assurdo, portano a intere nuove scoperte. Il caso piu’ famoso forse e’ proprio quello del postulato delle rette parallele, su cui si basa la geometria Euclidea. Proprio la sua negazione, considerata inizialmente paradossale, ha portato alla nascita delle geometrie iperboliche e sferiche, dando vita a nuovi mondi.
E quale sarebbe quindi il postulato da abbandonare in questo caso? Chiaramente il principio di causa-effetto su cui si basa il “nostro” modo di vivere cosi’ sicuro e certo.
Penrose e amici, hanno dimostrato che la causa-effetto e’ insita nella trama dello spazio-tempo, facendo si’ che un evento possa solo influenzare il futuro.
Una possibile evoluzione della SR/GR, magari appunto una gravita quantistica, potrebbe estendere questo principio, dimostrando che la causa-effetto sia un effetto “locale”.
Personalmente, per chiudere, non ho mai capito la teoria del multiverso, nel quella di Deutch (come possibile interpretazione della QM), ne quella di Susskind (per semplificare).
Non mi pare si possa trasferire informazione fra questi universi, quindi non capisco come una di queste teorie potrebbe mai essere confermata (limite mio sicuramente).
Segnalo questo articolo, molto interessante, sulla Fisica senza causa-effetto:
https://aeon.co/essays/could-we-explain-the-world-without-cause-and-effect
Fra i vari punti (che chiaramente non dimostrano nulla), c’e’ questa analisi del grande Russell, che mi sento di sposare:
“The 20th-century English philosopher Bertrand Russell concluded from these considerations that, since cause and effect play no fundamental role in physics, they should be removed from the philosophical vocabulary altogether.”
Salve Marcello,
grazie (come sempre) della segnalazione. Approfondirò l’argomento.
A presto
Daniele
ti consiglio anche la visione del film di fantascienza “the arrival”, dove appunto si vede che il passato, presente e futuro non esistono per questi alieni e quindi il concetto di causa-effetto non ha la valenza logica che gli ha dato l’uomo.
E; certamente un film di fantascienza, ma e’ carino perche’ richiama l’idea della “non esistenza del tempo” congetturata nella Loop Quantum Gravity di Rovelli.
Consiglio a tutti di leggere “Buchi neri e salti temporali”, di Thorne, che ha da poco preso il Nobel per le onde gravitazionali.
Thorne, grande teorico di GR, ha chiaramente calcolato che si potrebbe aprire un WormHole che comunichi con regione dello spazio tempo confinanti ma diverse. Quindi, attraversando questo WormHole, un persona potrebbe tornare indietro e vedersi nel passato mentre sta per partire.
Peccato che pero’ questa parte richieda quello che si chiama “energia esotica”, per dirla semplice “negativa”, in modo che si riesca a tenere il wormhole aperto per il tempo sufficiente affinché anche solo l’informazione possa passare.
In ogni caso, secondo quanto descritto da Thorne, un viaggiatore puo’ viaggiare nel futuro e tornare indietro nel passato, ma NON PRIMA di quando sia partito con questa “macchina del tempo”. Quindi i viaggi sarebbero teoricamente possibili solo dalla data della partenza in poi (per farla semplice).
Come ho gia’ scritto in un altro scambio con Marcello (ben trovato 🙂 ), proprio ultimamente i WormHoles sembrano essere tornati di moda grazie a Susskind e Maldacena, che hanno congetturato che ER = EPR (ovvero che l’entanglement sia spiegabile con dei wormhole che si aprono fra i 2 oggetti entangled).
Ovviamente e’ tutto da dimostrare. Personalmente sono molto attratto dal punto di vista di Rovelli, dove il tempo non esiste ed e’ un’escamotage che l’uomo ha introdotto per dare una freccia alle cose. Se ci pensate, il tempo e’ l’unica “grandezza” fisica che viene misurata non direttamente, ma contando i movimenti di oggetti o le pulsazioni di onde. Il tempo quindi non e’ fisicamente misurabile, se non in modo indiretto.
Einstein riusci’ a mettere sullo stesso piano spazio e tempo (anche se hanno segnatura diversa nella metrica) nella sua rivoluzione. Magari quella nuova sara’ di accettare che il tempo non esiste. Certo sarebbe durissima da capire e accettare. Ma personalmente mi interessa molto come visione.
C’è un aforisma famoso di Einstein che più o meno recita: “spazio e tempo sono modalità di pensiero e non condizioni di esistenza”. In questo modo Einstein sosteneva il principio di Mach, una conseguenza del quale è che lo spaziotempo non è un ente fisico primitivo ma derivato. Ed è proprio su questa linea di pensiero che, sostanzialmente, si basano gli spin networks di Penrose e gli spin foam della LQG.
Ad esempio, con gli spin networks alcune proprietà come la direzione nello spazio fisico, emergono da un’interazione fra gli spin. In altri termini, è come se esistesse una sorta di “pre-spazio” i cui elementi interagendo, danno luogo all’usuale spazio (e tempo).
Sullo spinoso problema del tempo si sono cimentati in molti. Ad esempio, il famoso logico matematico K. Gödel regalò ad Einstein, in occasione del suo 70° compleanno, una “nuova” soluzione delle equazioni di Einstein. Si trattava di una metrica che descriveva un universo dotato di CTC, ovvero “linee del tempo chiuse” che permettevano un “viaggio nel passato”. Gödel da buon matematico, era un platonico, per cui credeva nell’esistenza oggettiva degli enti matematici. Un’esistenza ovviamente “atemporale”, da qui la necessità di negare l’esistenza oggettiva di un “tempo che scorre”.
Io credo fermamente nel principio di Mach, ma negli anni molti fisici lo anno messo in discussione. Ho un bellissimo libro che lo supporta, “Gravitation and Inertia” di Wheeler e Ciufolini. Qui si fa vedere come “the Gravitation IS the Inertia”, ovvero che l’inerzia non e’ che una forma “spalmata” di gravitazione mediata dalla massa intorno a noi (stelle fisse etc etc). Ma e’ ancora molto dibattuta. Anche nelle Lectures on Gravitation, Feynman supportava l’ipotesi di Mach.
Peraltro anch’io sono un Platonico convinto, e credo che gli oggetti matematici esistano in un universo di idee, anche senza che l’uomo le “scopra”. Tempo fa ho avuto una discussione con un mio collega francese ,che si occupa anche lui di calcolo di percorsi per macchine a controllo numerico. Tieni conto che si tratta della “crema” del calcolo numerico francese, che praticamente e nato appunto in Francia (Bezier et al). Quando gli ho chiesto se credesse che gli oggetti matematici vivessero di vita propria mi ha detto che secondo lui erano il frutto della mente dell’uomo. E io gli ho risposto “that’s why you are an applied Math developer”. Amo farmi amare dai colleghi 🙂
Certo Marcello,
la famosa metrica di Godel. E’ proprio su questa che ho iniziato a pensare da ieri quanto ho letto del tuo commento su Novikov. Sembrerebbe appunto che la GR stessa preveda soluzioni di tipo CTC, non ero a conoscenza di questa metrica e mi fa molto pensare.
Come detto, Penrose e Hawking con i loro teoremi di topologia differenziale, hanno fatto vedere come la topologia dello spazio tempo sia fortemente basata sulla causalita’. Lo stesso cono di luce, topologicamente, embedda questo concetto. Cionostante, non lo dimostra. Non c’e’ alcun punto della fisica dove la causalita’ non sia che un assunto, e non un concetto derivato.
Sicuramente nella quotidianita’ non “sentiamo” un tempo che scorre, o per lo meno ci fa comodo sentirlo, per darci una ragione. La possibilita’ di un Universo con CTC, benche’ forse un po’ didattico come quello di Godel (molti gli hanno contestato, proprio come a Novikov, che la metrica godeliana sia appositamente ritagliata con una ben precisa scelta della costante cosmologica, e quindi non una soluzione generica esperibile nel nostro universo), chiaramente come hai detto tu mette in rilievo 2 cose:
1) la possibilita’ di un universo atemporale, dato appunto dalla chiusura delle CTC
2) essendoci CTC, e’ inutile a quel punto parlare di causa-effetto, poiche’ questo e’ legato allo scorrere del tempo
Il fatto stesso che la GR permetta soluzioni di questo tipo, implica che il concetto di causalita’ non e’ insito nella GR, bensi’ un nostro costrutto aggiuntivo.
Come detto sopra, secondo me il punto e’ pensare la causalita’ come un principio locale. Questo e’ logico se pensiamo al tempo legato all’entropia: questa aumenta sempre globalmente, ma nulla vieta che possa diminuire localmente (e lo si vede quando puliamo il pavimento e “riordiniamo la scrivania”, ad esempio). Quindi, il fatto che il tempo scorra facendo aumentare l’entropia globale e quindi il fatto che ci sia una causa ed effetto, e’ un fatto di statistica e non di impossibilita’ a priori.
Ovviamente, e’ inutile affrontare i paradossi e le confutazioni di avventori contro una fisica senza causa-effetto “globale”. Ovviamente, la causalita’ e’ un assioma del nostro modo di pensare, e come tale non confutabile se non scegliendo un altro assioma.
Come ho detto, anche se non so dimostrarlo perche’ la mia mente e limitata soprattutto dalla causalita’ hardcoded di tutti i giorni, io credo che Einstein ci abbia regalato questo enorme concetto che il tempo sia relativo all’osservatore, e con esso la simultaneita’. Prima era semplicemente inconcepibile un concetto come questo.
Credo che la rivoluzione futura, per quanto assurda possa sembrare, debba stare nel passo ulteriore che anche la causalita’ sia un fenomeno locale (e questo credo si riallacci anche con Bell ell’entanglement, discorso che abbiamo gia’ fatto ma non sotto quest’ottica) e che potrebbe non essere conservata a livello globale (questo spiegherebbe l’entanglement in modo molto semplice). E se la causalita’ e un fenomeno locale, anche il tempo lo diventa, misurando le interazioni relative fra oggetti in movimento.
Proprio Rovelli, nella LQG, spiega che il tempo e’ l’unica grandezza fisica che non possa essere misurata direttamente, come facciamo con le lunghezze, ad esempio. Lo si puo’ esperire e misurare solo osservando il moto relativo a noi che osserviamo di lancette, o onde che vibrano.
Questo deve far pensare, secondo me.
Ecco perche’ secondo me la LQG, per quanto ora non riesca a far previsioni, e’ sicuramente un incubatore di idee possibili molto piu’ promettente delle stringhe, che costringono a lavorare in 26 dimensioni (o 10, se si considera la supersimmetria che pero’ si sta rivelando fallimentare dal Cern, visto che sembra non esistere).
per ora rispondo brevemente: c’è un libro di Hawking che tratta di soluzioni con CTC.
Il principio di causalità sembra essere il “building block” della scienza. Su questo problema si sono cimentati Jung e Pauli. Qui però si rischia di finire nella metafisica…
Riguardo al Platonismo (o meglio, neoplatonismo), un esempio canonico è offerto da Penrose che da quello che conosco, litigò con Hawking proprio per questa ragione.
Un matematico italiano seguace del neoplatonismo (in contrapposizione al neopositivismo) è Fantappiè. Prova a vedere su google, disse delle cose molto interessanti, come ad esempio il concetto di “sintropia”
Grazie Marcello, sei sempre una gran fonte di informazioni. Per intanto cerchero’ di capirci un po’ di piu’ di LQG, spin foam in primis (gia’ partendo dalle Quantum Foam di Wheeler).
So di che libro parli di Hawking: The Large Scale Structure of Space-Time, che ha scritto con Ellis. Ce l’ho e infatti volevo gia’ dargli un’occhiata.
Quando dici del litigio fra Penrose e Hawking intendi che quello neoplatonico e’ Penrose, immagino…
Si scusa, si deduce bene dalla tua frase sopra, mi era sfuggito. Anche in The Road to Reality Penrose offre un capitolo introduttivo dove appunto divide il mondo delle idee da quello fisico. Grazie
si, il libro è proprio quello.
Riguardo all’immagine dei tre mondi riportata sul libro di Penrose, ne ho trovata una molto accattivante:
http://extrabyte.info/tre_mondi.jpg
In realtà questi tre mondi potrebbero essere tre aspetti diversi di un unico mondo. È la nostra percezione che tende a dividerli e quindi a classificarli in quella modalità. Da questo punto di vista, l’esistenza di un mondo fisico potrebbe essere una necessità logica indotta dall’esistenza di un mondo matematico.
ps. Il tema del neoplatonismo è affrontato anche dal matematico e scrittore Rudy Rucker nel suo saggio “La mente e l’infinito”
@Marcello, grazie per il saggio che mi hai suggerito. Molto suggestiva l’immagine dei 3 mondi (anche se i classici disegnini puntinati di Penrose sono sempre affascinanti).
Per quanto riguarda la LQG, attualmente sto leggendo questo:
https://books.google.it/books/about/A_First_Course_in_Loop_Quantum_Gravity.html?id=tBUhGXDWhhAC&source=kp_cover&redir_esc=y
E’ un corso introduttivo, da cui passo per poter accedere a saggi piu’ tecnici, quali il classico Quantum Gravity di Rovelli, molto tecnico. Per far questo, cmq, sto anche proseguendo con la GR poiche’ e’ necessario passare dalle variabili di Ashtekar perche’ e’ da li’ che e’ partita la formulazione attuale della LQG.
Grazie Riccardo dei suggerimenti.
La teoria dei tre mondi fu proposta già dal filosofo della scienza Karl Popper.
Penso che Penrose si sia rifatto a questa teoria per formularne una sua variante….
Ciao Daniele, probabilmente si’. Come detto anche da Marcello, poi si rischia di sforare nella metafisica (non che sia un male di per se’, anzi). Purtroppo (o per fortuna) siamo in una fase della Fisica per cui mancano esperimenti per poter validare qualsiasi teoria di Quantum Gravity. La situazione era opposta a inizio 1900, dove c’erano molti espimenti da spiegare e tante teorie nate per spiegarli. Ora siamo all’opposto.
Sul principio di causalità se ne parla molto su questo libro
https://www.amazon.it/dp/8860304148/ref=asc_df_886030414846974088/?tag=googshopit-21&creative=23390&creativeASIN=8860304148&linkCode=df0&hvdev=c&hvnetw=g&hvqmt=
L’argomento principale è il sodalizio tra il grande psicanalista Jung e Pauli, uno dei fisici più creativi del 900. Furono proprio le idee di Pauli sui processi di entanglement che suggerirono a Jung l’idea della “sincronicità”. In sintesi, il principio di sincronicità è complementare al principio di causalità, anche se poi tutto questo non può essere dimostrato all’interno del paradigma scientifico poiché quest’ultimo poggia al 100% sul principio di causalità.
Grande @Marcello, avevo gia’ visto questo libro quando ero andato tempo proprio al negozio della Cortina a Torino, in via Ormea, ma lo avevo tralasciato perche’ dal titolo mi sembra troppo legato a psicoanalisi et similia.
Ho dato una scorsa veloce su wikipedia e questo sembra veramente interessante. Forse un po’ al di la’ della Fisica, ma credo che sicuramente gli darò’ un chance di lettura quanto prima.
Forse appunto bisognerebbe cambiare paradigma, ma diventa impossibile confrontandolo e analizzandolo col suo paradigma opposto. Come detto, se localmente l’entropia puo’ diminuire, anche la freccia del tempo (localmente) forse potrebbe invertirsi. Peraltro, la simmetria CPT delle leggi fisiche non vieta per nulla l’inversione del tempo. La diminuzione “spontanea” di entropia e’ un processo a bassissima, se non nulla probabilità, quindi diventa difficile esperirlo nella vita quotidiana, o cmq cercare di ricreare un esperimento simile.
Sarei molto curioso di come reagirebbe il nostro cervello di fronte a un processo di riduzione spontanea di entropia, con una effetto che potrebbe precedere la causa.
Secondo me ci sono due modi per interpretare un viaggio nel tempo: 1) shift temporale; 2) diminuzione dell’entropia.
Il n. 1 è praticamente realizzato dalle CTC. Una linea del tempo che anzichè essere una retta (come un tipico asse coordinato) è una curva che “ripiega su stessa”. In tal modo, mentre le lancette dell’orologio avanzano si fa esperienza di eventi passati. Ad esempio, se alle 16 del pomeriggio di un dato giorno, faccio cadere un cucchiaino a terra, percorrendo una data CTC potrei rivedere il cucchiaino che cade a terra nel medesimo punto, ma in un istante successivo (del tipo le 16.30 dello stesso giorno). Il n. 2 invece, una riduzione istantanea dell’entropia simula uno shift temporale. Infatti, da un punto di vista fisico il processo di invecchiamento è dovuto ad un aumento di entropia di un organismo biologico. Si potrebbe congetturare un meccanismo fisico (del tipo “diavoletto di maxwell”) in grado di “trasferire” entropia da un sistema fisico ad un altro, violando localmente il secondo principio della termodinamica. Magari il trasferimento di entropia avviene via entanglement…
@Marcello, beh in realta’ quando puliamo una stanza, riduducendone l’entropia localmente, in realta’ la stiamo trasferendo al sistema “universo”, quindi lo sostamento di cui parli gia’ esiste, anche se chiaramente richiede energia e non e’ spontaneo. In realta’, oltretutto, se noi diminuiamo di un DeltaS l’entropia della stanza, questa finisce nel sistema universo, ma maggiorata, poiche’ abbiamo unitilizzato energia per pulire, e quindi non esiste macchina termica che possa convertire interamente il calore in lavoro.
L’entropia e’ cmq “energia di basso valore”, e vedendola da un punto di vista di teoria dell’informazione, e’ quanto di meno strutturato possa esistere. Se si considera anche con l’entanglement non si puo’ trasferire informazione (si veda il post dedicato a questo), diciamo che la tua ipotesi e’ interessante: l’entanglement non porta informazione o magari invece potrebbe portarne in forma disgregata, “rovinata”, quindi si, potrebbe trasferire entropia.
Potrebbe essere coerente, poiche’ dall’entropia non recuperi informazione, sicché anche trasferendo entropia non si avrebbe alcuna violazione.
Bella anche la spiegazione che hai dato della CTC: in realta’, come hai scritto, non e’ un tornare indietro nel tempo, ma la linea mondo (world line) della particella andrebbe cmq avanti nel tempo, ma tornerebbe su se stessa.
Si, in effetti intendevo proprio quello. Avevamo già visto che l’entanglement trasmette al più un white noise.
Riguardo la CTC, l’orologio va sempre avanti, però ci si imbatte in eventi già accaduti.
Sull’entropia ci sarebbero altre considerazioni. Prendiamo la memoria di un computer. Metaforicamente, si può dire che è infallibile, a differenza della nostra che a volte dimentica anche le cose più ovvie. Nel caso di un computer l’unità di informazione è il bit, per cui potremmo asserire lo spazio delle fasi conta solo due stati: 0 e 1. Dalla meccanica statistica sappiamo che l’entropia è pari al logaritmo del volume dello spazio delle fasi (a meno della costante di Boltzmann), quindi la memoria di un computer ha entropia pari a lg(2), che è un valore decisamente basso. La nostra memoria invece, è “analogica”, quindi abbiamo un continuo di stati, per cui l’entropia è senz’altro maggiore. In ogni caso, il computer per elaborare dati dissipa (per effetto Joule) una certa quantità di energia in calore, che viene smaltito attraverso la ventola di raffreddamento. Il calore dissipato aumenta l’entropia dell’universo. Allora possiamo asserire che un computer elabora informazione nel verso dell’entropia crescente dell’universo. Abbiamo, dunque, una “freccia del tempo termodinamica”.
Anche se il nostro cervello lavora in modalità analogica anziché digitale, dissipa comunque energia. Ogni volta che pensiamo, i corrispondenti processi biochimici dissipano energia in calore, che come nel caso del computer, viene dissipato nell’ambiente aumentando l’entropia dell’universo. Perciò noi pensiamo nel verso dell’entropia crescente dell’universo. Cioè anche qui abbiamo una freccia del tempo termodinamica.
Alla fin fine, ciò che chiamiamo “passato” altro non è che l’insieme degli stati termodinamici dell’universo di entropia minore. Di contro, il “futuro” è l’insieme degli stati termodinamici dell’universo di entropia maggiore. Se non ci fosse il secondo principio della termodinamica, passato e futuro sarebbero indistiunguibili.
Ci sono ancora altre considerazioni sul perché esiste la seconda legge della termodinamica, ma per ora mi fermo 😀
“.In ogni caso, il computer per elaborare dati dissipa (per effetto Joule) una certa quantità di energia in calore, che viene smaltito attraverso la ventola di raffreddamento. Il calore dissipato aumenta l’entropia dell’universo.”
Non e’ strettamente vero. Esiste un principio chiamato:
https://en.wikipedia.org/wiki/Landauer%27s_principle
Questo principio, fondamentale nella teoria del reversible computing, afferma che per emettere calore, e quindi entropia, ci debba essere necessariamente una cancellazione di 1 bit. Susskind, nei suoi video di QM, ha sposato l’approccio “moderno” della QM, che e’ a tutti gli effetti una teoria dell’informazione. In questi video, Susskind afferma che come unita’ di misura dell’entropia, puo’ essere preso proprio il bit, inteso come quantita’ minima di informazione la cui cancellazione provoca l’aumento di entropia. Ebbene: cancellando 1 bit nel computer, si avra’ proprio l’aumento di entropia di 1 bit.
Quindi, come sottolineato nel link di wiki qui sopra, 1 computer dove si cancellasse mai informazione, sarebbe reversibile e non emetterebbe calore, e quindi non aumenterebbe l’entropia dello spazio che lo ospita:
“If no information is erased, computation may in principle be achieved which is thermodynamically reversible, and require no release of heat.”
In questo senso, considerando il computer come macchina di Turing Universale (cosi’ anche come il cervello), non si puo’ asserire che il calcolo o l’elaborazione dell’informazione produca necessariamente una freccia del tempo. Dipende dal tipo di elaborazione.
Una macchina di Turing Universale puo’ quindi essere reversibile in certi casi, e quindi non rappresentare alcuna freccia del tempo.
Peraltro, il discorso di qui sopra si applica a Macchine di Turing Classiche. Se prendiamo in considerazione i computer quantistici, che saranno il futuro, allora tutto si stravolge, fino a poter pensare di fare algoritimi che spostano realmente entropia fra il computer e l’esterno, addirittura raffreddando l’host:
https://en.wikipedia.org/wiki/Algorithmic_cooling
Chi lo sa, magari un domani il frigorifero sara’ quantistico? 🙂
Assolutamente da leggere:
Feynman Lectures On Computation
Enjoy.
Interessante, per spiegare anche meglio quello che voglio dire, e’ questo link sul reversible computation (e che cita anche il diavoletto di Maxwell):
http://strangepaths.com/reversible-computation/2008/01/20/en/
Una della soluzioni (teoriche, chiaramente) e’ quella proprio di Bennet, colui che diede una soluzione proprio del diavoletto di Maxwell:
“…a remarkable solution was found by Bennett (earlier work by Lecerf anticipated its formal method), showing that it is possible at least in principle to perform an unlimited amount of computation without any energy dissipation.”
Onestamente non conoscevo il principio di Landauer, e molto ingenuamente avevo associato il calore dissipato per effetto Joule ad un aumento di entropia dell’ambiente. Ma questa non è una condizione sufficiente in quanto occorre una effettiva riduzione dell’informazione sul sistema…
Riguardo all’origine della seconda legge della TD, c’è un’argomentazione di Penrose (sul suo libro “La strada che porta alla realtà”) secondo cui l’entropia iniziale dell’universo (cioè subito dopo il big-bang) era molto bassa, contrariamente a quanto asserito da molti cosmologi. Si è portati a pensare che ad alti valori della temperatura assoluta T corrispondono alti valori dell’entropia. Viceversa, per T->0 (per un sistema classico, quindi non tenendo conto di effetti della degenerazione (caso Fermi-Dirac, o Bose-Einstein)) le particelle del sistema occupano lo stato di minima energia. Quindi abbiamo un’informazione massima sul sistema (e l’entropia è nulla). Riscaldando il sistema, le particelle acquisiscono energia e a ciò corrisponde una perdita di informazione sullo stato di singola particella (aumento del volume della regione dello spazio delle fasi accessibile al sistema). Questo si traduce in un aumento di entropia. Nel caso dell’universo primordiale, invece, pur essendoci una temperatura elevatissima, lo spazio delle fasi aveva dimensioni minime, perché l’intero spazio era concentrato una regione di dimensioni infinitesime. Quindi l’entropia iniziale dell’universo era molto piccolo, e in seguito all’espansione non poteva fare altro che aumentare. Questa (se non ricordo male) era l’argomentazione di Penrose che cercò tra l’altro, di giustificare, asserendo che il nostro universo potrebbe essere il risultato della collisione di due buchi neri di un universo precedente. La collisione non ha fatto che “resettare” il valore dell’entropia.
La mia puntualizzazione si applica chiaramente a un caso teorico, ovvero a computer su cui stia girando un “algoritmo reversibile” di Bennet. Questo e’ chiaramente un limite teorico, poiche’ non credo sia facile ne efficiente trasforamare gli algoritmi “classici” con il loro trucco:
“The reversible system shall compute the embedding function twice: the first time “forwards” to obtain and save the computation result, and the second time “backwards”, as a mirror-image computation of the inverse function, de-computing the first step and returning the closed system to its initial state.”
Quindi non sei stato poi cosi’ ingenuo, i computer di tutti i giorni scaldano, eccome, poiche’ cancellano dati a rotta di collo ( ora mi spiego la quantita’ di entropia che genero quando lancio un Windows Update 🙂 ).
Questo “nuovo” (per me) modo di vedere la Fisica e la QM, ovvero come teoria dell’informazione mi ha sempre stupito e affascinato. Il vero precursore fu sempre Wheeler, che conio lo slogan “It form Bit”, ovvero ogni cosa in Fisica puo’ essere studiata come informazione che va e viene, ma che alla fine si DEVE conservare. Come dice spesso Susskind, oltre alla conservazione dell’Energia, un altro caposaldo della Fisica e’ sicuramente la conservazione dell’informazione. Su questo punto avvenne appunto il famoso dibattito della “Black Hole War”, fra Hawking e Susskind, dove vinse quest’ultimo con Maldacena e ‘t Hooft facendo nascere la connessione AdS/CFT, anche noto come principio olografico.
Anche il sempre switch di 1 flip flop, quindi di 1 bit, puo’ cancellare informazione e quindi generare entropia. E’ in questo modo che e’ stato infatti provato ultimamente il principio di Landauer, ovvero:
https://www.physik.uni-kl.de/eggert/papers/raoul.pdf
In un computer normale, partendo da spento e quindi freddo, possiamo accorgerci che il tempo e’ passato poiche’ dopo un po’ scalda e questo implica un aumento di entropia e di calore, con conseguente freccia del tempo. Se usassimo invece un computer “reversibile”, potremmo aspettare un eternita’ senza accorgerci di alcunche’: non scalderebbe e quindi non sapremmo mai quanto “tempo” sia passato dalla sua accensione. Il computer reversibile, quindi, non puo’ essere usato per innescare una freccia del tempo.
Chissa’, magari un domani quando ci saranno problemi di rifornimento energetico, i computer dovranno diventare reversibili, cosicche’ da non generare entropia.
Per i computer quantistici, il discorso e’ ancora piu’ semplice: essendo basati su operatori hermitiani unitari, e quindi reversibli nel tempo, queste macchine sono nativamente reversibili e quindi non scaldano a priori. Chiaramente, per tenerli in quello stato e’ necessario la criogenia, sicche’ scaldano per altri motivi :-).
Per chiudere, proprio Penrose parlo’ insistentemente delle connessioni fra cervello e QM nel suo famosissimo “The Emperor’s new mind” (per me rimane 1 cult piu’ degli altri, poiche’ me lo fece conoscere il mio prof di Relativita’ al Politecnico di Torino, Guido Rizzi. Per un 22 enne come me che non conosceva Penrose quello fu una super botta). In questo libro Penrose costruiva un filo logico che portava dalle Macchine di Turing, passando per la QM fino a teorizzare che il cervello e’ com’e’ e ragiona cosi’ proprio a causa dei processi quantistici su cui e’ basato. La teoria che ne usci’, chiamata Orchestrated Objective Reduction. Qui c’e’ una buona spiegazione:
https://en.wikipedia.org/wiki/Quantum_mind
Purtroppo i “microtubuli” teorizzati da lui e Hameroff hanno subito notevoli confutazioni, e la stessa teoria prevedeva falsi biologici che non l’ha mai vista decollare. Forse e’ stata una delle “cantonate” piu’ grosse di Penrose, anche se ha cmq il suo fascino. Personalmente di Penrose mi affascinano molto piu’ sia i Twistors che i “Penrose tiling”. Lui e’ inarrivabile, proprio come John H. Conway.
Nonostante le molte disproof all OOR, sembra che ultimamente Penrose sia tornato all’attacco:
“In January 2014, Hameroff and Penrose claimed that the discovery of quantum vibrations in microtubules by Anirban Bandyopadhyay of the National Institute for Materials Science in Japan in March 2013[28] corroborates the Orch-OR theory”
A proposito della Black Hole War, ma non vinse Hawking, dimostrando che l’informazione relativa allo stato meccanico di una particella (o cmq di un sistema fisico) non si distrugge, ma si conserva rimanendo “stampata” sul bordo del buco nero? Se non ricordo male fu proprio questa circostanza a far tornare in auge il Principio olografico, secondo cui l’informazione è distribuita sul bordo dell’universo. È come se vivessimo il mito della caverna di Platone al contrario, nel senso che la vera realtà sono le ombre, come se queste ultime si proiettassero olograficamente generando corpi tridimensionali.
Quindi niente gravità e tempo. Quest’ultimo poi sarebbe una specie di proprietà emergente. In ogni caso, anche Schrödinger, magari senza volerlo, pensò una cosa del genere, in quanto credeva nelle onde di materia (le famose onde di De Broglie) e non nelle onde di probabilità postulate da Max Born e poi accettate da Bohr e quindi inglobate nell’interpretazione di Copenaghen. Un’onda di materia che si propaga per poi collassare o meglio, “proiettarsi” in una particella. Insomma, una sorta di Principio olografico a scala subatomica.
ps. si, conosco la vicenda dei microtuboli e dei vari attacchi subiti da Penrose
A proposito del nuovo paradigma dell’informazione in Fisica, volevo segnalare questo bellissimo video di Susskind sull’argomento:
https://sitp.stanford.edu/video/entanglement-and-complexity-gravity-and-quantum-mechanics-0
Sempre nello stesso spazio (Standford University), segnalo anche quest’altro video di come la struttura dello spazio tempo emerga proprio dall’entanglement (chiaramente per ora una congettura, ER= EPR che a sua volta arriva da AdS/CFT):
https://sitp.stanford.edu/video/gravity-and-entanglement
Enjoy it.
@Marcello, no Hawking inizialmente sostenne che l’informazione semplicemente andava persa. Susskind e ‘t Hooft non furino d’accordo e si misero al lavoro. Il primo a congetturare il principio oleografico fu proprio ‘t Hooft, solo in un secondo tempo Susskind riusci’ a dargli corpo usando la teoria delle stringhe. Con questo, come dici tu, dimostrarono appunto che l’informazione e’ spalmata sul bordo. Questo trovo formulazione piu’ rigorosa solo con Maldacena, che appunto incarno e scrisse negli annali la corrispondenza AdS/CFT, che si legge, anche se un po’ tecnicamente, come:
“una teoria di campo conforme fortemente accoppiata in 4D E’ EQUIVALENTE a una teoria di gravitazione ambientata in uno Spazio Tempo Anti de Sitter a 5 dimensioni”.
Anche se complicato, l’interno del buco nero e’ equivalente a una QFT sul bordo, con una dimensionata’ in meno.
Solo nel 2005, molti anni dopo, anche Hawking abbraccio il principio oleografico:
“In 2005, Hawking announced that the paradox had been settled in favor of information conservation by the AdS/CFT correspondence, and he suggested a concrete mechanism by which black holes might preserve information”
Diciamo che pero’ ci sono voluti 30 anni prima che se ne convincesse e, come si vede nel saggio, il black hole information paradox e’ risolto gia’ formalmente da ‘t Hooft sin dall’inizio.
Il principio oleografico, nella sua “semplicità'” permette di rispondere a questa domanda:
Quanta informazione (in bit) si puo’ stipare in un contenitore di volume V e superficie S?
Ebbene, il tutto parte considerando che il quanto minimo di distanza e la lunghezza di Planck (circa 10^-35 m), quindi l’unita’ minima di superficie e la lunghezza di Planck al quadrato. Questa, essendo il quanto minimo di superficie, puo’ contenere 1 bit di informazione.
Ora dividendo la superficie di bordo per questo quanto minimo, si ottengono proprio il numero di bit che possono stare sulla superficie, che sono anche il numero di bit massimi contenibili nel volume.
Nel libro, Susskind, fa l’esempio della biblioteca di Alessandria, il cui contenuto informativo era appunto ottenuto come la superficie delle sue mura diviso la superficie di Planck.
Impressionante, ma efficace.
Dimenticavo: nel caso della biblioteca, si puo’ quindi usare il principio per stimare la quantita’ di volumi o cmq di informazione stipabile. A quel punto pero’ si poteva entrare ed accedere a quell’informazione direttamente. Nel caso del buco nero chiaramente questo non e’ possibile, e quindi l’informazione del suo contenuto si manifesta sul bordo come entropia, quindi informazione disgregata, ma sempre informazione. Ecco quindi come la radiazione di Hawking si manifesta sul bordo, evaporando. Da questo Hawking ha poi preso spunto per procedere nell’integrare l’AdS/CFT nel suo mondo.
Da questo, e’ poi partito un nuovo paradosso, chiamato AMPS, o paradosso del Firewall:
https://en.wikipedia.org/wiki/Firewall_(physics)
per cui un osservatore che attraversa l’orizzonte degli eventi dovrebbe vedere un muro di fuoco proprio dato da questa informazione sul bordo. Questo, per la GR non puo’ pero’ accadere poi il bordo e’ solo una singolarità eliminabile della soluzione di Schwarzschild (l’unica singolarità “reale” e’ quella al centro del buco nero). Una soluzione proposta e’ proprio quella di Susskind e Maldacena, per cui l’engagement sarebbe spiegabile con dei wormholes, cioe’ ER =EPR.
un’osservazione al volo: il voler ridurre la QM a una teoria dell’informazione, potrebbe sbattere contro la non computabilità di alcuni sistemi fisici. Mi è venuto in mente questo proprio per il libro di Penrose che hai citato, e cioè “la mente nuova dell’imperatore”. Penrose si pone il problema della computabilità della coscienza (come richiesto dal paradigma dell’Intelligenza Artificiale “forte”). Più in generale, poi, si riferisce alla computabilità di una classe di sistemi fisici, citando i lavori di due matematici:
http://www.sciencedirect.com/science/article/pii/0001870881900013
che hanno dimostrato che l’equazione di D’Alembert può avere soluzioni non computabili, per cui un campo elettromagnetico non è detto che sia un sistema computabile. Chissà se un’analisi del genere è stata fatta per altre equazioni di propagazione ondosa come ad esempio, l’equazione di Scrödinger (che è differente dall’equazione di D’Alembert, in quanto è del primo ordine nella derivata tenmporale). In tal caso esisterebbero sistemi quantistici non computabili…
Capisco i tuoi dubbi, ma personalmente non credo che la QM venga “ridotta” associandole una parte relativa all’informazione. La teoria della computabilita’ complessa e’ appunto molto…complessa 🙂 Penrose ha un punto di vista molto “radicale”, per certi versi, e come si puo’ vedere dal suo ultimo libro “Fashion, Faith and Fantasy” associa alla QM proprio la parte di “fede”, per cui e’ sicuramente un’integralista in tal senso.
Da quel che so, soprattutto dai video che ho postato qui di Susskind & Co, Susskind studia proprio la teoria della complessità applicata alla QM. Qui viene usata proprio la parte di particelle entangled per ridurre la complessità esponenziale di sistemi quantistici. Da qui nasce l’uso molto “moderno” delle “tensor network”, nate nella teoria degli stati condensati. Queste reti permettono di di associare ai gradi liberta’ di un sistema una sottorete di particelle virtuali entangled. Questo riduce il problema da esponenziale a strutture piu’ computabili. Non c’e’ alcuna volontà nel credere che queste reti rappresentino realmente la realta’, bensi’ sono degli strumenti di calcolo che permettono di dare dei buoni frutti. Tutta la parte di teoria moderna di computer quantistici, parte dal concetto di complessità di un sistema entangled. Da questo sono stati “implementati” molteplici algoritmi quantistici che permettono di risolvere problemi classici in tempi logaritmici, proprio sfruttando la sovrapposizione degli stati.
Da questo nascono tutta una serie di problemi che si affiancano ai classici P e NP (polinomiali e non), con nomi nuovi relativi proprio ai sistemi quantistici (BPQ e simili):
https://it.wikipedia.org/wiki/BQP_(complessità)
Personalmente non credo che la mente umana, o la coscienza, siano facilmente modellabili e, infatti, come ho scritto sopra la teoria di Penrose ha fallito in molte predizioni biologiche, benché rimanga come ho detto interessante. Non credo quindi, ma rimane una mia opinione, che prendere Penrose come esempio di confutazione della teoria QM come informazione sia corretto, poiche’ non ha fornito una controteoria che comprovi le sue idee. Considera la coscienza o cose simili, per quanto affascinante, porta a teorie della quantum consciusness che sfociano in tempo zero in teorie non “scientifiche”.
Proprio l’unitarietà degli operatori hermitiani quantistici detta la conservazione dell’informazione, come avevano supposto con successo sia Susskind che ‘t Hooft nella guerra con Hawking. Se leggi The Road to Reality, vedi che Penrose attacca pesantemente la “congettura” di Malcadena di AdS/CFT (pag. 922 edizione italiana) a dimostrazione che non sposa questo punto di vista.
Entrambi sono congetture, ma quella di Maldacena e compagni permettono almeno di fare calcoli, come infatti hanno fatto con successo. E te lo scrive uno che e’ “Penrosiano” nell’anima, essendo neo-platonico. Contemporaneamente non ho mai fatto mistero in questi post di come io preferisca la LQG alle stringhe, quindi sono cmq molto lontano da Maldacena e compagni. Ma devo dar loro atto che con il loro modello qualche calcolo e’ stato fatto.
Sono problemi talmente tecnici che anche i tecnici non sono d’accordo.
Ma concludo, capisco e in parte condivido i tuoi dubbi.
Peraltro, i sistemi non computabili possono essere proprio come una “realta’” necessaria dettata dal teorema di incompletezza di Godel. Cioe’ non implica che non ci sia informazione in essi, o con non venga conservata. Solo che non esistono (per ora) algoritmi classici o quantistici che possano estrarre informazione da loro.
“Peraltro, i sistemi non computabili possono essere proprio come una “realta’” necessaria dettata dal teorema di incompletezza di Godel. Cioe’ non implica che non ci sia informazione in essi, o con non venga conservata.”
stamattina mentre cambiavo la lettiera dei gatti stavo pensando anch’io a una indecidibilità di tipo gödeliano 😀
LOL 🙂