Paradosso EPR

Ovvero il thread in cui perdi la sanità mentale. Ogni forum di scienze rispettabile (e non) ne ha uno, quindi ho pensato di aprirlo; in più lo straordinario esperimento dell’anno scorso del loophole-free Bell test stimola la discussione; e infine vi porrei una domanda. Ma non mi offendo se resta a zero reply e invece di rispondere potete in alternativa correre nudi per strada urlando “sono Ramsete II”. Ovviamente, questo a meno che non sappiate già le cose scritte sotto, in tal caso siete ormai impazziti da tempo.

Invece di presentare la questione nella maniera tradizionale, pensavo di dare uno sguardo al fenomeno in quanto tale (in forma idealizzata) senza interpretazioni o formalismi, siccome è sorprendentemente semplice e accessibile anche ai profani. La mia intenzione è che questo post sia per lo più comprensibile: potete ignorare i termini tecnici che non capite senza perdere in comprensione. In grassetto più sotto ho comunque messo una spiegazione particolarmente accessibile.

Il punto è la famosa non località del mondo fisico, ma cosa significhi esattamente a livello fenomenologico non è così noto. Inoltre, lo stato entangled più usato negli esempi è quello tipo singoletto, che è massimalmente entangled: però in tali casi la località che ci è familiare non può essere esclusa senza usare almeno 3 basi diverse per le osservabili (tipo angoli di polarizzazione), il che complica i ragionamenti. Per stati non massimalmente entangled invece bastano 2 osservabili. Vorrei usare quest’ultimo tipo di stati per semplicità. In particolare quello indicato nell’appendice di questo paper divulgativo di cui consiglio la lettura (anche perché non parlerò di tutto ciò che dice il paper): http://www.quantum3000.narod.ru/papers/edu/cakes.pdf .

Se avete già letto spiegazioni divulgative probabilmente vi siete chiesti dove sia il mistero e se i fisici in fondo non siano tutti dei cretini: se lo spin di una particella da un lato è visto sempre opposto all’altro, si vede che erano così fin dall’emissione delle particelle. Cosa c’entra l’osservazione con tutti i deliri annessi? Che non sia possibile vederlo in questo modo diventa evidente solo guardando diverse orientazioni dello spin, ma per qualche misteriosa ragione questo non viene quasi mai spiegato.

La polarizzazione della luce è un fenomeno abbastanza conosciuto ai profani: hai un polarizzatore che puoi ruotare e questo filtra la luce polarizzata. Anche i fotoni singoli hanno polarizzazione, e oltre ai filtri esistono anche dei cristalli separatori che convogliano il fotone in una direzione se ha una certa polarizzazione, e in un’altra direzione se ha polarizzazione perpendicolare alla prima.

Ora scopiazzo l’esempio del paper. Da qui in poi intendo sempre velocità della luce nel vuoto. Due fotoni entangled vengono emessi in direzioni opposte da una sorgente, nello stato non massimalmente entangled descritto nell’appendice del paper (non è così importante se non volete controllare l’algebra, importa solo che è realistico e ci hanno fatto esperimenti sopra). Le due basi di osservabili sono i cristalli separatori che misurano la polarizzazione a 0° - 90° (orizzontale e verticale), e a 39.2° - 129.2° (questi due angoli sono perpendicolari: non ho scritto -50.8° perché l’angolo negativo può confondere i meno addetti, basti sapere che l’angolo fissa l’asse di polarizzazione). Per misurare una cosa o l’altra i due fisici addetti ruotano i cristalli, posti in corrispondenza della traiettoria dei fotoni. Ovviamente: un fisico da un lato e uno dall’altro.

I risultati osservati in questo esempio idealizzato, ripetendo l'evento numerose volte, sono di tipo statistico e sono i seguenti, assumendo scelte casuali di misura da parte dei fisici:

1) quando entrambi i fisici misurano la polarizzazione a 39.2° - 129.2°, trovano che il 9% delle volte entrambi i fotoni hanno polarizzazione 129.2°. Il resto delle volte, solo uno dei due o nessuno ha tale polarizzazione e invece ha 39.2°.

2) quando un fisico misura la polarizzazione a 39.2° - 129.2° e l’altro a 0° - 90°, se uno trova il fotone polarizzato a 129.2° allora l’altro viene sempre trovato polarizzato a 0°.

3) se entrambi i fisici misurano la polarizzazione a 0° - 90°, non accade mai che entrambi i fotoni vengano trovati polarizzati a 0°.

Analogia per i profani (scopiazzata dal paper). E’ come avere una pasticceria da cui escono dei forni in direzioni opposte, simultaneamente a coppie, su due nastri trasportatori. In ciascuna coppia di forni ci sono due soufflé che vengono cotti, in modo tale che la cottura finisca alla fine del nastro. Due pasticceri, uno da un lato e uno dall'altro, possono o aprire il forno a metà strada per vedere se il soufflé si è alzato presto (in tal caso però la torta si rovina), oppure assaggiare la torta alla fine per vedere se è venuta buona (in tal caso non possono sapere se si fosse alzata presto). Questa analogia ha l’unico scopo di inventare un esempio intuitivo in cui non puoi vedere due cose contemporaneamente: il fatto che il forno venga aperto a metà strada è un puro artificio, nell’esempio fisico di sopra i fotoni vengono sempre misurati alla stessa distanza dalla sorgente.

Comunque, anche se non possono vedere entrambe le proprietà delle torte contemporaneamente, i pasticceri pensano di poter carpire lo stesso i segreti del cuoco, per esempio che lievito usi. Per far ciò scelgono a caso di vedere o se la torta è buona o se si è alzata presto. Trovano che:

1) quando entrambi aprono il forno a metà, il 9% delle volte entrambe le torte si sono alzate presto. Il resto delle volte, solo una delle due o nessuna si è alzata presto.

2) se uno apre il forno a metà e l'altro assaggia la torta alla fine, quando una torta si è alzata presto l’altra è sempre buona.

3) quando entrambi assaggiano la torta alla fine, non succede mai che entrambe le torte siano buone.

Si intende che l'apertura di un forno non influenzi l’altro e che il cuoco non sia telepatico e prepari le torte in maniera specifica, o altri trucchi. Nel caso fisico, i fotoni viaggiano a velocità luce in direzioni opposte, il risultato di misura è ottenuto e scritto in un hard disk a ciascun lato più velocemente di quanto ci metterebbe un segnale a velocità luce a passare da una postazione all’altra (notare: è una distanza doppia di quella percorsa da ciascun fotone).

Che ciò che intuitivamente ci aspetteremmo dalla realtà sia violato è evidente da questo. Da 1) e 2) vorremmo vedere almeno il 9% delle volte le torte entrambe buone, ovvero i fotoni entrambi polarizzati a 0°. Sembrerebbe una necessità del tutto logica (il ragionamento esplicito riguarda cosa avrebbero osservato i fisici se avessero scelto l’altra opzione). Non è così.

Conclusione minimale: non esistono proprietà ben definite assegnate localmente a ciascun fotone fino al momento della misura (questo è il teorema di Bell: non si può spiegare il fenomeno usando variabili nascoste locali). Per essere precisi con le assunzioni: stiamo assumendo che esista un solo mondo (altrimenti c'è Many Worlds...), che ci sia causalità, che non ci sia causalità all’indietro nel tempo, che non ci sia una cospirazione cosmica che ci incasina gli esperimenti (probabilmente me ne sto dimenticando qualcuna, ma sono tutte ugualmente molto ragionevoli). Come già detto, quello descritto sopra con la statistica annessa è un caso particolare, ma evidenzia un fenomeno del tutto generale.

Cosa molto importante: è impossibile inviare segnali istantanei con le scelte di misura, statisticamente i due fisici l’uno isolato dall’altro non possono percepire variazioni nei loro risultati. Le correlazioni statistiche si notano solo dopo, tramite il confronto dei dati comunicati in maniera normale (a velocità minore o uguale a quella della luce).

Tutto ciò Einstein (da cui la E del titolo del thread) chiamò “inquietante azione a distanza” (spooky action at a distance). La domanda che vi pongo è: possiamo davvero dire che la scelta di un fisico di misurare la polarizzazione a una coppia di angoli piuttosto che l’altra costituisca un’azione a distanza?

Qui mi discosto dall’analisi del paper per introdurre il setting naturale in cui questo fenomeno esiste: la relatività speciale di Einstein. Quando avviene ciascun evento di misurazione? Il tempo dipende dal sistema di riferimento inerziale. Siccome i due apparati di misura sono separati tipo-spazio: in un sistema di riferimento, una misura viene eseguita prima dell’altra; in un altro, viceversa; in un altro ancora, le due misure avvengono simultaneamente. Quindi come possiamo dire “azione a distanza” se in un sistema di riferimento una scelta agisce sulla successiva, e in un altro viceversa? Quale lato agisce e quale subisce tale azione?

Certo, si sa che effetti a velocità maggiori della luce, nella relatività di Einstein, generalmente portino a paradossi temporali (la causalità ha senso proprio perché sono vietati fenomeni più veloci della luce). Non qui però: le correlazioni sono sempre consistenti (i successivi esperimenti di “delayed choice quantum eraser” portano all’estremo questo fatto). Potremmo dire che non ci sia azione, ma solo correlazione, vista a posteriori. Eppure, una scelta chiaramente porta a un risultato, e un’altra scelta a un altro risultato. In che senso quindi “non c’è azione”? Sembra impossibile rispondere persino a una domanda così semplice: se c’è azione, non capiamo in che verso avvenga; se non c’è azione, abbiamo l’impressione di non stare spiegando del tutto la situazione. Anche ammettendo azioni indietro nel tempo, è arbitraria la scelta di quale lato agisca indietro e quale in avanti.

Ed è a questo punto che chiamiamo la neuro per farci internare.

Una nota interessante: la relatività speciale di Einstein è sperimentalmente indistinguibile dalla teoria dell’etere di Lorentz, in cui la simultaneità e il tempo sono assoluti, seppur la velocità relativa di un sistema di riferimento rispetto all’etere non sia osservabile. Il famoso esperimento di Michelson-Morley che escluse l'etere luminifero portò appunto Lorentz a introdurre la contrazione delle lunghezze in un nuovo etere. Quest’ultima ipotesi oggi risulta ad-hoc: l'etere non è osservabile, quindi preferiamo la relatività speciale; nello specifico ci piace il principio di relatività. Ma! Dopo questi risultati sperimentali, per preservare le variabili nascoste (in altre parole, il realismo) a sfavore della località, la teoria dell’etere di Lorentz è stata riesumata dagli sviluppi della meccanica Bohmiana. Proprio per i fatti spiegati sopra, è chiaro che le variabili nascoste non locali, senza ulteriori assunzioni strane, abbiano bisogno di un tempo assoluto, se no non ci può essere un concetto di causalità che abbia un senso (la località invece se la vede peggio: l’assenza del realismo non basta a salvarla). In ogni caso, il realismo pare avere bisogno di un qualche tipo di etere ad-hoc, non osservabile, o di visioni in cui si rinuncia alla causalità solo in avanti, o altri compromessi estremi. E la località nella sua versione ordinaria (con causalità in avanti nel tempo, un solo mondo, ecc) finora pare essere semplicemente esclusa tout court dalle possibili interpretazioni scientifiche.


io ho una domanda, che può risultare un po' stupidotta o forse OT.

Perchè è necessario assumere che ci sia casualità? Nel senso... nella fisica quantistica di cui parli, non è certo che ci sia casualità?


Causalità, ovvero che esistano regole di causa-effetto. Questi paragrafi che metto, che di fatto rendono la lettura più difficile, servono a rendere giustizia alla ricerca molto difficile delle quantum foundations: dire che il teorema di Bell escluda variabili nascoste locali sarebbe impreciso. Ci sono modelli che spiegano l'EPR con variabili nascoste locali retrocausali e acausali.

In sostanza ho scelto di mettere queste precisazioni, anche se affaticano il lettore, perché non voglio fare dumbing-down delle nozioni: non sono necessarie alla comprensione del tema generale.

E' stato detto che il teorema di Bell sia il risultato scientifico più profondo mai ottenuto, quindi secondo me val la pena diffonderlo a un pubblico più vasto possibile. La spiegazione di sopra non è meccanica quantistica in sé, ma fenomenologia fisica del tutto generale. Teorie future dovranno spiegare questi fenomeni comunque.

Su quello che dici: non è certo che ci sia casualità (cioè non-determinismo) nel mondo fisico, ma quello sul determinismo è in parte un altro discorso. Se ti interessa, secondo me Peter Shor (quello dell'algoritmo di Shor) dà la ragione più convincente perché il mondo fisico sia non-deterministico, ma non ha a che fare con l'EPR (da qui e cerca il post di Peter Shor):



In sostanza, se il mondo fisico fosse deterministico sarebbe molto improbabile la possibilità del quantum computing.
Hum molto interessante.

Purtroppo le mie conoscenze di fisica non sono sufficienti a poter apprezzare le varie sfumature.

Qualcuno sta provando a interpretare Lorentz con il tempo assoluto? L'altra cosa che mi garba poco è che il tempo relativo è già stato misurato nella teoria generale di Einstein...Le correzioni sono fondamentali per avere delle misure precise con i GPS. Questo non dovrebbe farci pensare che l'interpretazione del tempo relativo sia corretta anche per la relatività speciale?


In realtà lo scenario è teoria-free. Come vedi ho solo parlato di sorgente, cristalli separatori e risultati statistici. Volendo, chiunque potrebbe mettersi lì e farsi venire un colpo di genio.

Il bello del teorema di Bell è che vale per qualsiasi teoria fisica, anche futura.



No, Lorentz stesso le trasformazioni di Lorentz originariamente si riferivano al suo etere.



Come ho detto, l'etere di Lorentz e la relatività speciale sono sperimentalmente indistinguibili. Da wiki: <>

E' una cosiddetta ipotesi ad-hoc. Del tipo "esistono i leprechaun" "perché non li vediamo allora?" "Perché sono invisibili".

I GPS in realtà provano la relatività generale. Ma anche quella è riadattabile a questo etere ad-hoc. Persino la relatività galileiana si può riformulare con uno spazio curvo.

Comunque, certo, neanche a me questa cosa garba per niente. Come il superdeterminismo o gli altri compromessi estremi elencati. Ma vedila come vuoi: anche come indice del fatto di cosa alcuni fisici siano disposti a fare pur di riavere il realismo e il determinismo. Non stupisce. Per esempio, ci sono utenti che, quando postavo tempo fa, erano pronti a giurare per queste due cose.
Per chiarire. La dilatazione temporale della relatività speciale si verifica anche direttamente, con orologi atomici posti su aerei veloci.

Il punto è che la teoria dell'etere di Lorentz postula che il tempo locale (osservato) sia associato al tempo assoluto (non osservabile). Questo permette relazioni causali ben definite anche in presenza di influenze superluminali: entrambe le cose sono necessarie al realismo non-locale per spiegare l'EPR.



La relatività speciale E' l'interpretazione con il tempo relativo. Per problemi di questo tipo dobbiamo distinguere fenomenologia e teoria. Per riassumere:

1) la fenomenologia EPR impedisce teorie fondate su ordinarie proprietà locali (ovvero: viola le disuguaglianze di Bell, questo è il teorema di Bell che nella sua forma generale non ho spiegato perché troppo complicato; ma l'esempio particolare di sopra ne è una conseguenza evidente e il succo del discorso rimane intatto).

2) la fenomenologia delle velocità elevate mostra dilatazione temporale.

La 2) assieme alla 1) crea difficoltà persino a teorie di variabili nascoste non locali, o a questioni epistemologiche ancora più generali, perché "at face value" non abbiamo una sequenza causale ben definita. Per questo ho chiesto: Einstein parlò di "azione a distanza", possiamo davvero dire che ci sia azione a distanza tramite le scelte di misura nell'EPR?
Moltissimi spunti: spero nel we di poter rispondere!


questa roba intriga me invece. vorrei capire meglio queste affermazioni, ma ci sono alcuni termini tecnici che mi sfuggono. che cosa si intende per "periodicity problem" e "period finding"?

(a margine, riguardo la riduzione di un problema a tutti gli altri (i.e., risolto uno, risolti tutti) vale solo per quelli di classe NP-complete. la fattorizzazione non è NP-complete e quindi il gioco non funziona)


E' quello che fa l'algoritmo di Shor per es. Da wiki:

"The algorithm is composed of two parts. The first part of the algorithm turns the factoring problem into the problem of finding the period of a function, and may be implemented classically. The second part finds the period using the quantum Fourier transform, and is responsible for the quantum speedup."

C'è un'intera classe di problemi NP riducibili alla ricerca dei periodi.

In sostanza lui dice: i computer quantistici li risolvono tutti allo stesso modo, mentre un singolo algoritmo P classico, anche esistesse per un problema, non potrebbe risolverli tutti (come dici tu stesso).

In generale, la meccanica quantistica mostra delle bizzarrie dal lato dell'informazione: 2^n risorse classiche per dimensione O(n). Questo è per via dei qubit (nel superdense coding puoi persino estrarre due bit classici da un singolo qubit!).

Per completezza: la maggior parte dei fisici non crede nel determinismo semplicemente perché necessiterebbe di variabili nascoste. E, come ho mostrato, per averle bisogna invocare almeno uno tra compromessi molto spiacevoli (tempo assoluto, rinunciare alla causalità in avanti, superdeterminismo... Ancora non l'ho spiegato, nel superdeterminismo non puoi avere generalità della teoria: se un fisico tira una monetina per scegliere quale misura fare da un lato, le condizioni iniziali dell'ambiente hanno già cospirato da tempo che questa atterri esattamente in modo da permettere alla particella separata tipo-spazio dall'altro lato di avere proprio la polarizzazione giusta per simulare la non-località).

Quindi nell'EPR abbiamo una bizzarria fenomenologica, che è un vero rompicapo. Nel quantum computing una informazionale. Entrambe si dissolvono se abbandoniamo le variabili nascoste, però, per tornare IT, come dobbiamo intendere le correlazioni dell'EPR? Ci sono azioni superluminali?

L'esposizione di sopra vorrebbe darvi gli elementi per pensare voi stessi a una soluzione. Anche se è lunga è solo per completezza, in realtà dovrebbe essere veramente semplice concettualmente. Nessuno mi ha dato feedback su se sia così o no. E' troppo difficile? Se ci sono punti non chiari chiedete
Ho riletto varie volte l'esempio dei due forni.
Mi sfugge un pezzo. Nel tuo post iniziale scrivi questo:



In pratica, se noi associamo il fotone al soufflè, stiamo dicendo che il soufflè non ha la proprietà di "gusto" (buono o venuto male) fino a che non lo assaggiamo?

Nel senso, prima in qualche modo è come se fosse un "qualcosa" senza proprietà, che è ben diverso da dire: "ha proprità ma noi non le possiamo conoscere se non effettuando una misurazione".

Ho scritto bagginate?



asp, asp: quando parli di mondo fisico, intendi il mondo "reale", oppure i modelli della fisica delle particelle?



sono ben lontano da rispondere alle tue domande

partiamo dall'inizio: perchè il determinismo necessiterebbe di variabili nascoste??


Il determinismo necessita di proprietà ben definite. Senza di esse, ogni evento a cui associamo un risultato non ha nulla da cui essere determinato.

"Nascoste" solo perché la fisica quantistica ci ha messo al confronto con l'assenza di variabili a noi attualmente accessibili che spieghino completamente lo scenario, come sopra. Pensa al principio di indeterminazione di Heisenberg, che vale anche per due angoli diversi di polarizzazione oltre che per posizione e velocità, ecc. Quindi, le ipotesi secondo cui la meccanica quantistica è una teoria incompleta, e in realtà queste proprietà definite in qualche modo ci sono, chiamano queste ultime "variabil nascoste".



Esatto, a meno che queste proprietà non viaggino indietro nel tempo tra un fotone e l'altro in maniera opportuna, o facciano salti superluminali tra un fotone e l'altro in uno scenario con tempo assoluto, o altre cose strane.

Questa è una conclusione. Puoi convincerti tu stesso dall'esempio delle torte che non c'è modo di assegnare una variabile di qualsiasi tipo al singolo fotone mentre viaggia verso il cristallo (anche più complicata di buono / non buono, che si alza presto / tardi) che riproduca quella statistica.



Il mondo fisico reale se il quantum computing è realizzabile in pratica (e gli esperimenti ci suggeriscono fortemente che sia così) allora è una realtà fisica, non è dipendente dalla teoria. E' semmai la teoria che deve tenere da conto di questo dato empirico.

Peter Shor dice: una teoria deterministica è di per sé classica, il che in termini informatici significa che l'informazione è rappresentata con valori numerici ben definiti, per esempio, bit; e per essa vale la teoria dell'informazione classica, con le classi P, NP, NP-completo ecc... La fattorizzazione è un problema NP ma non NP-completo, quindi un algoritmo P classico che lo risolva non ne risolve altri; ma nella teoria quantistica, in cui l'informazione NON è classica, la fattorizzazione è un periodicity problem, cioè un algoritmo quantistico che lo risolva ne risolve altri!
L'ho già detto varie volte ma se non fosse chiaro, anche la violazione delle disuguaglianze di Bell è un dato empirico, che fa parte del mondo fisico reale e non dipende dalla teoria (in questo caso è un dato empirico certo, soprattutto dopo l'esperimento dell'anno scorso menzionato all'inizio).

Per quanto riguarda l'esempio specifico delle torte di sopra, che non usa disuguaglianze ma è sempre conseguenza del teorema di Bell (basato su un risultato di Hardy), un esperimento molto vicino a tale versione idealizzata è nei riferimenti del paper, dell'INFN! http://quantumoptics.phys.uniroma1.it/publications/PhysRevA_56_176.pdf (G. Digiuseppe, F. De Martini, and D. Boschi, "Experimental test of the violation of local realism in quantum-mechanics without Bell inequalities", Phys. Rev. A 56, 176–181, 1997).

Giusto per evitare il frainteso che parliamo di scenari teorici, questi sono fenomeni del tutto reali.


non sono sicuro di aver capito: queste proprietà non sono implicite nel concetto di determinismo stesso? Non so, una proprietà che mi viene in mente è "la possibilità di poter effettuare misurazioni che mostrino che siano presenti relazioni di causa-effetto"... non è già inclusa nel concetto di determinismo?




Io ero convinto che il principio di indeterminazione di Heisenberg implicasse l'impossibilità di conoscere, per esempio, velocità e posizione di una particella punto e basta; come se fosse qualcosa di "legato proprio alla struttura delle cose", e non dovuto al fatto che mancasse qualche variabile nota.
Ho capito male?




allucinante... completamente allucinante.

E queste cose strane, sono una possibilità concreta, oppure sono solo ipotesi fantasiose?




Ok, penso di aver capito. Semplicemente lui dice: "quantum computing è realizzabile in pratica"--> il quantum computing prevede il non determinismo.

(detto proprio in parole strette).
Però, facciamo un salto indietro, e torniamo al "mondo fisico reale": con questo intendiamo il mondo intero nella sua diciamo, costituzione intima... perchè quando parliamo della vita di tutti i giorni, il determinismo è stato osservato, no?
Nota per tutti: la mia domanda non è una pura provocazione, qualcosa si può dire. Se avete in mente una risposta, postatela, questi sono argomenti così difficili che non potete fare brutta figura.

Inoltre, se interessa, posso illustrare io una delle risposte possibili, però ditemelo che se no mi sembra di parlare da solo Heaven-Lord sembra più che altro interessato alla questione sul determinismo.



Sì, e se non possiamo assegnarle completamente al mondo fisico per via di dati empirici come questi, il determinismo viene meno.

Se l'indeterminismo della meccanica quantistica non può essere visto come un effetto statistico di un determinismo sottostante (variabili nascoste), allora il principio di indeterminazione di Heisenberg è fondamentale, come dici.

Se invece le variabili nascoste sono la visione giusta, funzionano comunque in modo molto strano, il che spiega perché siano sfuggenti agli strumenti di misura (non a caso le hanno chiamate "nascoste").



Sono decisamente fantasiose. Ma il problema è che siamo già arrivati a una situazione che avremmo ritenuto fantasiosa se i dati empirici non l'avessero forzata su di noi come reale. Il teorema di Bell E' allucinante come noti tu stesso (il punto principale del thread era farlo capire). Quindi da qui in poi è solo una questione di preferenza filosofica: preferisci abbandonare il realismo, o ipotizzare "folli" scenari ad-hoc per salvarlo? Io preferisco la prima perché secondo me nella fisica "di frontiera" sono i nostri concetti di realtà a incontrare dei limiti forti: è un problema epistemologico e non ontologico. Mi sembra l'ipotesi di gran lunga più "realistica".

Per esempio, secondo l'interpretazione "Many Worlds", ogni volta che c'è un evento non-deterministico l'intero universo si divide in tanti mondi quanti sono gli esiti possibili. Ecco, questo per me è l'esempio più lampante di come si finisca per confondere epistemologia e ontologia. La funzione d'onda è un nostro artificio teorico: anche se non riusciamo a vederla come un'informazione incompleta su variabili nascoste sottostanti, non significa che dobbiamo prenderla così alla lettera secondo me.

Ma non è "sbagliato" pensare altrimenti e perseguire scenari del genere, o scenari retrocausali o superdeterministici ecc... d'altra parte è così che funziona la scienza, ognuno sceglie l'ipotesi che crede più forte e la persegue; se pensassimo tutti allo stesso modo difficilmente si andrebbe avanti. Lorentz morì con la convinzione che il suo etere con tempo assoluto fosse la visione giusta, anche molto dopo il successo della relatività speciale di Einstein. Il premio Nobel per la fisica 't Hooft (che ha aperto quel thread dove c'è post di Peter Shor) persegue una teoria superdeterministica che prevede che il quantum computing non funzioni. E, per quanto fantasiosa, almeno ha il merito di essere una teoria falsificabile: se il quantum computing funziona, allora è sbagliata.



Semplificando molto sì. Qui c'è una spiegazione più precisa, molto tecnica (riassumendo, potremmo assegnare forzatamente delle variabili nascoste al quantum computing usando la meccanica Bohmiana, ma siamo sempre da capo con gli scenari ad hoc: "the hidden variable bounces around as an almost comically irrelevant-looking fluff"; oltre al fatto che, come già detto, la meccanica Bohmiana necessita del tempo assoluto, che noi non osserviamo).



Osserviamo che in situazioni con poche fluttuazioni ambientali si possono fare ottime previsioni (per es. sulle orbite dei pianeti). Le teorie deterministiche qui sono ottime approssimazioni. Invece per fenomeni caotici spesso usiamo modelli deterministici, ma non significa che osserviamo un determinismo, la caoticità è non-deterministica in pratica (cioè per quanto riguarda le nostre capacità predittive). Infine, se prendi un contatore Geiger con dentro una piccola quantità di uranio, i suoni che fa, ben udibili e macroscopici, sono dovuti proprio all'indeterminismo quantistico (il decadimento radioattivo dei nuclei è un fenomeno quantistico e l'istante di decadimento è dettato da una legge probabilistica). Certo, la maggior parte di noi non usa quotidianamente contatori Geiger (per fortuna ), ma è un esempio di indeterminismo prettamente quantistico che è riscontrabile nel mondo comune.

Scrivi una "cazzata" (si fa per dire eh, condizione sufficiente, ma non necessaria) su filosofia e io ne scrivo una qui.

Edit:
Si, dico sul serio.
Up
Ok, aggiungo ulteriore angoscia, anche se chi ci ha ragionato sopra un po' probabilmente ci è già arrivato. Non solo non possiamo assegnare localmente ai singoli fotoni delle variabili definite che riproducano quella statistica, non possiamo assegnare neanche variabili stocastiche (cioè con solo delle probabilità per gli esiti). Quindi è una questione più profonda del mero non-determinismo.


in effetti si, sono più interessato alla questione determinismo: ma alla fine penso che non siano troppo scollegate.



un paio di domande:
come può un "determinismo sottostante" generare tramite effetto statistico l'indeterminismo?
L'unica cosa che mi viene in mente è un determinismo statistico, che noi non siamo ancora in grado di leggere (ovvero non troviamo una ditribuzione di probabilità ad esso associata), che per questo ci sembra casuale.. oppure c'è altro?

Altra cosa:se consideriamo un "determinismo sottostante", è come considerare la realtà a 3 "livelli":
-una realtà macroscopica che ci sembra deterministica
-il sottostante micromondo indeterministico della meccanica quantistica
-e l'ancora più sottostante determinismo da cui potenzialmente viene fuori
l'indeterminismo di sopra!

Mi manca un tassello (fondamentale, però): di preciso, quale/i variabili implicite nella definizione di determinismo il teorema di bell non ci consente di assegnare?
Perchè se è quella che ho scritto sopra ("la possibilità di poter effettuare misurazioni che mostrino che siano presenti relazioni di causa-effetto")
mi servirebbe una spiegazione più terra terra su come unire le due cose...

P.S: a proposito del principio di indeterminazione di Heisenberg leggevo come, in realtà, è valido anche a livello macroscopico!!

La formuletta ∆x ∆p ≈ h è sempre valida, ma semplicemente con un certo ordine di grandezza l'indeterminazione è trascurabile! confermi?




l'importante, a mio avviso, che prima o poi si arrivi ad una "conclusione": non so quanto sia sicura come cosa però

P.S: il fatto che premi nobel scrivino allegramente su forum è bellissimo!



Ok, su questo mi arrendo



In pratica non c'è nessun salto (come credevo) dall'indeterminismo microscopico al determinismo macroscopico! Semplicemente con certi ordini di grandezza i modelli riescono ad essere molto precisi!!



E' come se fosse... totalmente casuale???
No, fai confusione. Chiariamo che "casuale" e "statistico" vogliono dire la stessa cosa: se un evento è casuale, vuol dire che ha una certa probabilità di verificarsi. Se è completamente casuale, si intende che la distribuzione di probabilità è uniforme, per es. (lasciando perdere il caso continuo) se ci sono 2 eventi possibili hanno probabilità 50% ciascuno di accadere, se sono N hanno 100/N %.

La teoria quantistica è un modello molto buono per trovare le distribuzioni di probabilità degli eventi, è predittivo rispetto a esse e va oltre una mera estrapolazione empirica. E' solo non-deterministica.

Un determinismo sottostante i fenomeni probabilistici è semplicemente un meccanismo ignoto che produce il distribuirsi di eventi secondo una legge probabilistica. L'esempio più facile sono gli algoritmi pseudorandom dei computer: se non sai come funziona il computer potresti pensare "ah, è del tutto casuale", ma quando scopri l'algoritmo di generazione pseudorandom puoi prevedere esattamente gli esiti dai seed e non è più un fenomeno realmente casuale. Il parallelo con l'informatica è particolarmente potente perché, semplificando, i computer quantistici non permettono determinismo come abbiamo visto.

Sui 3 livelli: se ci fossero le variabili nascoste sarebbe come dici, ma è difficile che ci siano, come ho cercato di spiegare. L'ipotesi di gran lunga più sensata è che ci siano solo 2 livelli: l'indeterminismo quantistico porta al "determinismo" classico a una certa scala.

Sul passaggio dal mondo quantistico al mondo classico: il mondo di fatto è quantistico. La teoria del caos ci dice che se i processi sono anche solo un po' complicati, variazioni piccolissime nelle condizioni iniziali portano a cambiamenti macroscopici. Quindi, anche se i nostri modelli del caos spesso sono deterministici, questo non va preso alla lettera: a un certo punto arriviamo alla scala quantistica nelle condizioni iniziali rilevanti. Qui, piccoli eventi quantistici come un urto elastico tra atomi, una configurazione proteica, un decadimento radioattivo ecc... (e questi avvengono continuamente) dopo un tempo non troppo lungo portano a conseguenze macroscopiche per via del caos. So che sei interessato a questo, quindi per esempio noi siamo fatti di proteine e queste hanno un comportamento prettamente quantistico: un articolo (se le proteine avessero un comportamento classico, non potrebbero foldare). Le interazioni quantistiche non-deterministiche tra proteine nel corpo umano costituiscono quelle piccole variazioni iniziali che poi, grazie al caos, vengono amplificate esponenzialmente fino a causare variazioni macroscopiche in un tempo non troppo lungo (secondi, minuti... ore? Non saprei dire). Solo che questo fenomeno è indiretto e impossibile da modellizzare, siccome dipende da parametri iniziali esageratamente precisi che diventano rilevanti solo dopo un grosso numero di interazioni. Ma sappiamo che è così. Anche il mondo di tutti i giorni è intrinsecamente non-deterministico, se fai passare abbastanza tempo (e non ce ne vuole molto).

Infatti, riguardo alla formula che hai postato: è sempre valida ma per singoli eventi diventa trascurabile a certe scale perché h è piccolo.

Per il resto delle tue domande guardiamo il nostro esempio:



Ti faccio l'intero ragionamento. Proviamo ad assegnare proprietà definite di gusto e lievitazione alle singole torte.

Per soddisfare la 3) non possiamo avere le torte entrambe buone: quindi devono essere entrambe cattive oppure una cattiva e una buona. Per soddisfare la 2) e la 3) assieme, consideriamo quest'ultime due possibilità: per ciascuna coppia di torte il cuoco può far venire entrambe le torte cattive, ma allora devono alzarsi entrambe tardi (se una si alzasse presto, l'altra dovrebbe essere buona); oppure farne venire una buona e che si alza tardi (se si alzasse presto l'altra non potrebbe essere cattiva), e l'altra cattiva (non importa se si alza presto o tardi). Non ci sono altre possibilità. Se noti: in nessuno dei casi elencati entrambe le torte possono alzarsi presto, quindi se vogliamo anche la 1) il compito del cuoco è impossibile.

Sono queste le proprietà ben definite necessarie al determinismo che qui mancano: buono o cattivo, che si alza presto o tardi. La relazione di causa-effetto non può esserci: normalmente avremmo "se una torta è cucinata bene, quando la assaggio è buona". Mi manca la causa del fenomeno "quando la assaggio è buona". E, come ho spiegato prima, se l'azione di assaggiare attinge a distanza una proprietà dall'altra torta, per via della relatività speciale non abbiamo comunque una relazione causale ben definita (l'altra è già stata misurata o no? Dipende dal sistema di riferimento!).

Ma lo stesso problema si presenta se le torte singole sono intrinsecamente probabilistiche: in realtà è ancora peggio perché il cuoco non ha più il controllo sulle coppie di torte. Se ciascuna torta si comporta probabilisticamente in modo indipendente dall'altra (cioè: % di probabilità che sia buona, % che si alzi presto), a maggior ragione il risultato voluto è impossibile. Questo risponde alla tua domanda:



No, anzi, è il problema opposto: c'è una correlazione ben precisa tra le due torte (cioè: mai entrambe buone; se una si alza presto l'altra è buona) che non può essere lasciata al caso della singola torta. Il fenomeno è nonlocale.

Riformulando la mia domanda: abbiamo deciso di lasciar perdere le variabili nascoste perché è molto difficile che esistano. Una misura agisce sull'altra o no? Se agisce, per la relatività speciale il verso di azione è arbitrario (a seconda del sistema di riferimento, una agisce sull'altra o viceversa, perché non c'è un riferimento assoluto in cui un evento avviene prima dell'altro). Se non agisce, com'è possibile che ci siano queste correlazioni in cui un esito sembra "sapere" dell'altro?

Dai, è un problema di 80 anni fa, lo scenario è di una semplicità sconcertante e la domanda è su un concetto elementare della fisica. Possibile che non sappiamo dire nulla?


questa spiegazione dovrei salvarmela!

Un paio di domande:
dici "va oltre una mera estrapolazione empirica". Questo va inteso come tale teoria non si basa semplicemente su accumulare tantissimi dati e poi da essi ricavare un modello di predizione, come si fa per esempio nelle serie storiche per il prezzo del petrolio (insomma, le rette di regressione o giù di li...)

Sulle teorie del caos avevo letto qualcosa: in particolare mi era rimasto impresso un semplice teorema (che però non ricordo..) in cui si dimostrava che per effettuare una previsione valida per un numero indefinito di istanti di tempo, sarebbe stato necessario conoscere con una precisione infinita il valore delle variabili iniziali (il che è impossibile).
In pratica questo è un altro modo per dire che ad un certo punto intervengono "quei piccoli eventi quantistici" di cui parli?

Per quanto riguarda la tua prima frase, si credo di fare confusione... quindi chiedo: quando dici "E' solo non-deterministica." (riferendoti alla teoria quantistica... è da leggere come un "non può essere deterministica"?




ecco che si aggiunge un altro tassello: ora mi è più chiaro anche il concetto di fenomeno nonlocale.

E su questa correlazione (precisa, ma sempre statistica, esatto?), siamo ancora in alto mare? leggendo la tua domanda di sotto, visto che ti aspetti una risposta, almeno qualche ipotesi abbastanza valida è stata fatta



un concetto elementare della fisica per me è "la seconda legge di newton".

A me piace più pensare che le due misure non agiscano l'una sull'altra, ma semplicemente "sappiano". C'era un libro che lessi ma purtroppo capii poco, che sicuramente conoscerai: il tao della fisica. Mi sembra parlasse di come è "tutto collegato"... là forse troverei la risposta?