Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1668
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    87

Zawartość dodana przez Jarek Duda

  1. Artykuł z tym i z szerszym drzewkiem filogenetycznym: https://www.sciencemag.org/news/2020/01/mining-coronavirus-genomes-clues-outbreak-s-origins
  2. peceed, jedno pytanie: jaki rozkład powinna osiągnąć cząstka na przedziale [0,1]? Wszelkie chaosy, dyfuzje powiedzą że rozkład jednorodny rho=1. Jednak QM i MERW mówią że zlokalizowany: rho~sin^2. Skąd ta lokalizacja? MERW nie ma interferencji, ale jest dyfuzją zrobioną zgodnie z zasadą maksymalizacji entropii (Jaynes) - co jest konieczne dla modeli fizyki statystycznej. Dzięki temu naprawia rozbieżność dla rozkładu stacjonarnego: daje dokładnie taki sam jak kwantowy stan podstawowy. Dzieje się dzięki użyciu rozkładu Boltzmannowskiego po trajektoriach - który jest matematycznie analogiczny do Feynmanowskiego QM ... i jest powszechnie zakładany np. w modelu Isinga. Matematycznie też mamy mamy superpozycje, np. 2^w wartości dla ciągu w spinów ... na których możemy robić analogiczne bramki. Jasne można rozwiązywać np. 3-SAT w czasie wykładniczym, pytanie czy da się w czasie wielomianowym - pozwala na to np. założenie Boltzmannowskiego rozkładu po sekwencjach w takim Wick-rotated quantum computer. ps. Jest teraz głośno o tym "komputerze fotonicznym rozwiązującym NP-zupełne": https://advances.sciencemag.org/content/6/5/eaay5853 Ale niestety od kogoś kto przynajmniej udaje że nie rozumie trudności z subset-sum: https://en.wikipedia.org/wiki/Subset_sum_problem Czyli mamy zbiór liczb, pytanie jak wybrać podzbiór który np. sumuje się do ustalonej liczby. Sęk w tym że jeśli te liczby są małe, to można to tanio zrobić programowaniem dynamicznym: markujemy osiągalne wartości gdy używamy lub nie kolejnej liczby - ten zbiór rósł by wykładniczo chyba że są małe liczby: wtedy możemy wykorzystać to że dana suma jest osiągana na wiele sposobów. Subset-sum staje się NP-zupełny dopiero gdy tego nie możemy zrobić: kiedy używamy dużych liczb np. po 1000 cyfr ... w tej pracy skupiają się na wersji prostej, chociażby żeby móc wykryć czy jest foton w pytanej pozycji, potrzebowalibyśmy wykładniczo wzmacniać natężenie wchodzącego światła. Ogólnie subset-sum jest świetnym problemem żeby zrozumieć dlaczego adiabatyczne komputery kwantowe raczej nie mają sensu. Mianowicie ilość różnych podzbiorów jest 2^n dla zbioru liczb o wielkości n. Statystycznie te 2^n wartości dają mniej więcej rozkład Gaussa o szerokości ~sqrt(n). Czyli z n szerokość rośnie bardzo powoli, a ilość wartości w niej rośnie wykładniczo - zagęszczenie możliwych sum. Dookoła wartości sumy o którą się pytamy, w wąskim przedziale pojawia się wykładniczo wiele możliwych do osiągnięcia sum - fałszywych lokalnych minimów z perspektywy optymalizacji. Czyli z perspektywy adiabatycznych komputerów kwantowych oznacza to że spectral gap maleje wykładniczo - różnica między prawdziwym rozwiązaniem: globalnym minimum, a pierwszym fałszywym. Co oznacza wykładniczy czas obliczeń i konieczność wykładniczego obniżania temperatury. Też tam widać że te fałszywe lokalne minima nic nie mówią o prawdziwym: globalnym.
  3. Siła oddziaływania monopol-monopol (np. elektryczny) jest 1/r^2, monopol-poruszający się dipol: v/r^3, dipol-dipol (np. dwa magnesy/spiny) jest 1/r^4. Ale nawet biorąc 1/r^3, przechodząc z angstrema do np. mikrometra w sieciach optycznych, spada ~10^12, czyli o niebo lepiej niż w komputerach kwantowych. Ten arXiv jest o nowym podejściu do liczenia modeli typu Isinga, spojrzenie na nie perspektywy pól Markova - które są znane dla ludzi z teorii informacji, ale praktycznie nieznane dla ludzi z condensed matter. Rozwinięcie do łamania Bella czy Wick-rotated quantum computers to na razie tylko dodatek, z którego pewnie kiedyś napiszę osobną pracą może z analogiem kwantowej korekcji błędów, ale ciężko stwierdzić kiedy. Ale ogólnie mając doświadczenie z komputerami kwantowymi to jest dość naturalne - kwestia zamiany Feynmanowskich zespołów, bramek na Boltzmannowskie - co matematycznie jest dość podobne. Nie ma interferencji, ale jest zgodność wielu własności, jak np. lokalizacyjne - jako rozkład stacjonarny dostajemy dokładnie to co w kwantowym stanie podstawowym, jak rho~sin^2 w [0,1] zamiast rho=1 w zwykłej dyfuzji. Ogólnie polecam przemyśleć MERW: https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk
  4. Oddziaływanie między spinami jako dipole magnetyczne maleje 1/r^4, jak w angstomach jest za dużo, to oddalmy np. do mikrometrów ... nie będzie zero, ale w komputerach kwantowych też nie jest idealnie.
  5. Jak dla mnie nieoddziaływanie spinów jest tutaj najmniejszą trudnością, np. można drukować na niemagnetycznym podłożu czy wręcz w próżni w sieciach optycznych ( https://en.wikipedia.org/wiki/Optical_lattice ), oddzielać przestrzennie takie ścieżki etc. ... oczywiście nigdy nie będzie idealnie, ale w komputerach kwantowych też na to nie ma szans. No i można się obejść bez idealnych, analogicznie do korekcji błędów można np. wzmacniać różne efekty poprzez zrównoleglanie etc. Dużo większym problemem jest rzeczywiście pytanie czy rozkład Boltzmannowski w przestrzeni nie jest tylko przybliżeniem ... ale jeśli tak to dlaczego rozkład Feynmanowski w czasie miałby nie być też tylko przybliżeniem? Jeśli żyjemy w czasoprzestrzni, to są one swoimi matematycznymi odpowiednikami (czas i przestrzeń mają przeciwne sygnatury).
  6. Oczywiście podczas gdy np. bramka NOT to antyferromagnetyk, pozostaje wiele technicznych problemów do zrealizowania takiego układu, przedstawioną idealizację trzeba zastąpić realizacją obchodzącą trudności ... ... ale np. z Shorem wcale nie jest lepiej, opierając się na podobnym założeniu: zespole Feynmanowskim po ścieżkach zamiast Boltzmannowskiego w Isingu ... po wydaniu miliardów dolarów błędy np. jednego CNOTa są na poziomie kilkunastu procent, a dla praktyczności potrzebujemy liczyć bezbłędnie setki tysięcy bramek, dodatkowo unikając dekoherencji. Korekcja błędów wymaga mnożenia ilości bramek - też niedoskonałych, dając błędne koło. To są alternatywne ścieżki rozwoju, z trochę innymi problemami, ale jak dla komputerów kwantowych szczytem marzeń jest faktoryzacja czyli łamanie RSA, na Isingu teoretycznie można nieporównywalnie więcej: rozwiązywać NP-zupełne, czyli np. błyskawicznie łamać już wszelką kryptografię. Poprawiony diagram (v4 https://arxiv.org/pdf/1912.13300 ):
  7. Jedno pytanie to czy aby na pewno "wyleczeni" nie pozostają nosicielami? Pewnie jest jakiś niemały czas zanim zacznie się ich mieszać z resztą populacji (?) Drugie, skoro znana już jest sekwencja, to czy nie można by szybko zacząć syntetyzować jego zewnętrzne białka kapsydu/otoczki i podawać dożylnie w niewielkich ilościach jako prowizoryczna szczepionka - żeby wstępnie uczyć układ odpornościowy, szczególnie w obszarach gdzie wirus jest raczej nieunikniony?
  8. Działania ludzkie są kluczowym czynnikiem selekcyjnym dla patogenów, jednak zbyt mało od nas zależy żeby nazwać to sztuczną selekcją (choć jest i taka np. dla wirusów: http://news.mit.edu/2009/virus-battery-0402 ) ... chyba lepiej o tym myśleć jako o ewolucji w aktywnie modyfikowanym środowisku.
  9. Ewolucyjnie dosłownie maksymalizowana jest ilość osobników w kolejnych pokoleniach - mając dwie podpopulacje z których jedna statystycznie prowadzi do trochę większej ilości osobników, asymptotycznie powinna ona całkowicie zdominować populacją ... Ale oczywiście to jest duże uproszczenie, tutaj nie mamy nieskończonego czasu ze statycznymi parametrami, tylko niezwykle szybko ewoluującą sytuację - selekcję na ilość osobników, najszybsze rozprzestrzenianie się w środowisku, np. z ludźmi aktywnie walczącymi z patogenem. Śmiertelność pewnie jest głównie efektem ubocznym "przeskoczenia" ze zwierzęcia na dość innego hosta ludzkiego, inną specyfikę populacji - też z perspektywy ewolucji patogenu jest dość negatywnym czynnikiem selekcyjnym. Do największej ilości osobników patogenu doprowadzają mutacje pozwalające w miarę po cichu dalej się rozprzestrzeniać w populacji - podobnie jak w przypadku wielu innych patogenów, które przeewoluuowały do w miarę niegroźnych acz powszechnych jak przeziębienie, grypa, odra ... co pewnie czeka też koronawirusa - w mniej niebezpiecznej wersji niż obecny. W przypadku poważniejszych epidemii w historii, patogen też wprowadzał czynnik selekcyjny na hosta - współczesny człowiek pewnie jest dość odporny na wiele historycznych patogenów, na przykład przypuszcza się (np. Jared Diamond) że za prawie wymarcie indian odpowiada różnica odporności wynikła z kontaktów ze zwierzętami hodowlanymi mieszkańców starego świata. ps. Co do eboli, udało się ją praktycznie wyeliminować - ukierunkowanymi działaniami ludzi.
  10. Ten jak narazie ma wykładniczy wzrost: https://gisanddata.maps.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6 Co więcej "recovered" może oznaczać nosiciela.
  11. Z perspektywy wirusa, sukcesem ewolucyjnym nie jest wybicie wszystkich hostów jak w grach komputerowych, tylko zadomowienie się na stałe w populacji. Byłem kiedyś na świetnym wykładzie o ewolucji ospy (od https://dblp.org/pers/hd/b/Bier:Martin) - że stała się istotna dość niedawno dzięki rozwojowi miast, początkowo była dużo bardziej zabójcza, ewolucyjnie uspokajając się i zadomowiając na stałe w populacji - pewnie coś podobnego czeka koronawirus: stanie się łagodniejszym powszechnym zjawiskiem typu przeziębienia czy grypy.
  12. Co do tego układu, dołączam chyba ciut lepszy diagram. W przestrzennej realizacji jako model Isinga, "montowanie amplitud" z dwóch stron jest względnie proste, np. - z lewej nieoddziaływujące spiny mają Boltzmannowską superpozycję 2^w możliwości (wychodzi jak próbujesz liczyć np. macierzą transferu), - z prawej wymuszenie spinów 1 to jest kwestia np. przyłożenia silnego pola magnetycznego. "Kabel" to silny ferromagnetyk, bramka NOT to anty-ferromagnetyk, ale z pozostałymi bramkami chyba byłoby ciężko np. OR. Ale ogólnie zgadzam się że największy problem to że założenie rozkładu Boltzmannowskiego w Isingu to raczej tylko przybliżenie ... ale w takim razie może zespoły Feynmanowskie też są tylko przybliżeniem? Jeśli tak to nie ma żadnych szans na praktyczność Shora. Ogólnie odnośnie mechaniki kwantowej, fajnie byłoby w końcu przestać machać rękami jaka ona jest niemożliwa do zrozumienia i wrócić do prawdziwych podstawowych pytań których nie rozumiemy - np. o konfigurację pól (m.in. EM) elektronu. Twierdzenie Bella niby zakazuje fizyki która byłaby realistyczna i lokalna. Formalizm Lagrażowski jak Model Standardowy niby jest lokalny i realistyczny ... a fizycy którzy go uprawiają zupełnie nie przejmują się Bellem. Więc tutaj tłumaczę nieporozumienie: problem w tym że w tw. Bella jest lokalność asymetryczna (narzucająca przeszłość->przyszłość), podczas gdy fizyka fundamentalnie jest CPT symetryczna - jak w Isingu: regułę Borna dostajemy dokładnie z symetrii lewo-prawo, co pozwala na łamanie Bella. Równanie Shrodingera do opisu np. pojedynczego atomu, czy w praktyce bardziej pojedynczego elektronu w atomie, jest bardzo efektywnym opisem - model musi ukrywać uśrednienie po wszystkim czego bezpośrednio nie uwzględnia jak otoczenie. W związku z czym musi "zamknąć oczy" podczas oddziaływania z tym otoczeniem (kolaps), np. ewolucja unitarna nie opisuje deekscytacji atomu, ale uwzględniając otoczenie to jest proces odwracalny: wzbudzony atom <---> zdeekscytowany atom + foton do otoczenia Dla pełniejszego opisu trzeba dodawać otoczenie do rozważań, dochodząc do "Funkcji Falowej Wszechświata" rzeczywiście MK staje się pełnym opisem - czysta unitarna ewolucja, brak oddziaływania z otoczeniem - kolapsu. No ale jest ona dla nas zupełnie niedostępna, co możemy robić to szukać bardziej wygodnych lokalnych perspektyw - interpretacji, no i dBB jest bardzo wygodną dosłownie transformacją zmiennych do psi = sqrt(rho) exp(iS / hbar) ... potwierdzoną eksperymentalnie np. w https://science.sciencemag.org/content/332/6034/1170 - widzę że unikasz skomentowania tej pracy, co o niej uważasz?
  13. Mówię o klasycznym modelu Isinga - zespół Boltzmannowski po sekwencjach np. spinów, czyli zespoły Feynmanowskie (równoważne z MK) po "obrocie Wicka". Też o formalizmie Lagranżowskim na przykładzie Modelu Standardowego - jest konkretne pole (realizm), z dynamiką opartą o pochodne i wartości - czyli lokalność, w diagramach Feynmana nie ma nieciągłości. Więc czy twierdzenie Bella zaprzecza modelowi standardowemu? Co do interpretacji dBB, przyjmuje się że jest poprawna dla 1 cząstki (wręcz równoważna), są prace eksperymentalne twierdzące potwierdzenie (np. https://science.sciencemag.org/content/332/6034/1170 ) - przyjmuje się że jej problem pojawia się przy wielu cząstkach, eksperymenty typu Coudera mogą sugerować jak to naprawiać, np. uzyskują kwantyzację orbit dla wielu kropelek z dualizmem korpuskularno-falowym, "kryształy" na tych kropelkach: http://dualwalkers.com/crystals.html Wracając do łamania nierówności Bella na modelu Isinga, rozszerzając tą konstrukcję możemy na układach typu Isinga realizować "Wick-rotated" komputery kwantowe. Podczas gdy takie "obrócone bramki kwantowe" wydają się ciut słabsze, dzięki przestrzennej realizacji możemy ustawiać amplitudy z obu stron (lewej i prawej), co wydaje się pozwalać rozwiązywać 3-SAT (końcówka https://arxiv.org/pdf/1912.13300 ):
  14. Nie wiem o czym piszesz, bo ja pytałem o się formalizm Lagrażowski jak model standardowy - chcesz powiedzieć że nie wierzysz w model standardowy? Czy że formalizm Lagrażowski nie spełnia założenia realizmu? Lokalności? Też pytałem się o model Isinga - nie zgadzasz się z konstrukcją łamania nierówności Bell dla niego? Uważasz że nie spełnia założenia realizmu? Lokalności? Co do dBB, jeszcze raz: to jest podstawienie psi=sqrt(rho) exp(iS/hbar) do Schrodingera - nie wierzysz w równanie Schrodingera czy operację podstawiania? Pytam się kolejny raz o te same rzeczy, zamiast odpowiadać piszesz jakieś dziwne rzeczy zupełnie nie na temat.
  15. Jeszcze raz: nikt tutaj nie twierdzi że MK nie działa, tylko skupiamy się na twierdzeniu Bella: https://en.wikipedia.org/wiki/Bell's_theorem Czyli że są pewne nierówności, np. Pr(A=B) + Pr(A=C) + Pr(B=C) >= 1, które są zawsze prawdziwe w standardowej probabilistyce, a jednak formalizm MK potrafi je łamać: np. trochę zejść poniżej jedynki - pytanie co zrobić z tym fantem? Owszem ta nierówność byłaby zawsze prawdziwa gdybyśmy mierzyli wszystkie 3 "monety" (zmienne) naraz, więc kluczowe że MK pozwala mierzyć dokładnie dwie - to nie jest tak że trzecia ma po prostu nieznaną wartość, tylko że rzeczywiście trzecia moneta nie ma żadnej wartości - jakby np. wisiała w powietrzu i się kręciła. Standardową konkluzją tw. Bella jest stwierdzenie że fizyka nie może być lokalna i realistyczna ... no ale np. Model Standardowy jest dany formalizmem Lagranżowskim, gdzie istnieje pole ("realizm"), rządzone lokalnymi zasadami - to z tw. Bella powinniśmy go wyrzucić do kosza? Dlaczego on jednak działa? Żeby zrozumieć to nieporozumienie polecam np. model Isinga - który z jednej strony też jest lokalny i realistyczny, z drugiej ma podobną probabilistykę jak MK (reguła Borna), co też pozwala łamać nierówności typu Bella. Sugeruje konkluzję że problem z tw. Bella jest zakładanie asymetrycznej lokalności (narzucającej kierunek), natomiast w Isingu jest P symetryczna, w Modelu Standardowym jest CPT symetryczna. Co do Coudera, daje on intuicje dla interpretacji de Brogliea-Bohma: jednej z równoważnych - wstawiamy psi = sqrt(rho) exp(iS/hbar) do równania Schrodingera i dla rho dostajemy zwykłe równanie ciągłości, dla działania S równanie Hamiltona-Jacobiego z poprawką na oddziaływanie z falą pilotującą: https://en.wikipedia.org/wiki/Pilot_wave_theory#Mathematical_formulation_for_a_single_particle Czyli to jest równanie Schrodingera po transformacji zmiennych - po prostu inna perspektywa. Co więcej, potwierdzona eksperymentalnie w pomiarze średnich trajektorii interferujących fotonów: https://science.sciencemag.org/content/332/6034/1170
  16. Nie widzę konkretnych argumentów tylko ogólniki z książek popularnonaukowych i bluzgi za tarczą anonimowości. W takim razie tylko jeszcze raz podam przykład "nierówności która nie powinna być łamana" (Mermina) - dla 3 binarnych zmiennych ABC: Pr(A=B) + Pr(A=C) + Pr(B=C) >= 1 zakładając dowolny rozkład prawdopodobieństwa na przestrzeni 8 zdarzeń, ta nierówność jest prawdziwa, szczególnie że oznacza mniej więcej "rzucając 3 monetami, przynajmniej 2 dają to samo": Pr(A=B) = p000 + p001 + p110 + p111 Pr(A=B) + Pr(A=C) + Pr(B=C) = 2*p000 + 2*p111 + sum_ABC pABC = 2*p000 + 2*p111 + 1 >= 1 ... a jednak formalizm MK pozwala ją łamać (np. https://arxiv.org/abs/1212.5214 ) - to jest poważny problem który wypadałoby zrozumieć ... i np. ciekawostka: można ją też łamać w modelu Isinga dzięki podobieństwu do całek po trajektoriach: z symetrii dostajemy regułę Borna, co pozwala łamać nierówności wyprowadzone w zwykłej probabilistyce. Na podstawie jednego zdania jedziesz na pracę z Physical Review Letters czyli topowego czasopisma fizyków, widzę że czujesz się znacznie mądrzejszy niż jego edytorzy i recenzenci. Też na eksperymenty typu Coudera, które znowu pochodzą z topowych czasopism, np.: Interference in particle statistics of double-slit experiment (PRL 2006) - corpuscle travels one path, but its "pilot wave" travels all paths - affecting trajectory of corpuscle (measured by detectors). Unpredictable tunneling (PRL 2009) due to complicated state of the field ("memory"), depending on the history - they observe exponential drop of probability to cross a barrier with its width. Landau orbit quantization (PNAS 2010) - using rotation and Coriolis force as analog of magnetic field and Lorentz force (Michael Berry 1980). The intuition is that the clock has to find a resonance with the field to make it a standing wave (e.g. described by Schrödinger's equation). Zeeman-like level splitting (PRL 2012) - quantized orbits split proportionally to applied rotation speed (with sign). Double quantization in harmonic potential (Nature 2014) - of separately both radius (instead of standard: energy) and angular momentum. E.g. n=2 state switches between m=2 oval and m=0 lemniscate of 0 angular momentum. Recreating eigenstate form statistics of a walker's trajectories (PRE 2013). Chętnie o tym mogę podyskutować, ale odpowiadam tylko na konkretne argumenty.
  17. Oczywiście całki po trajektoriach mają swoje problemy matematyczne, jak to że te trajektorie są zwykle niefizyczne: nieskończone energie etc. Te problemy znikają dla dyskretnej wersji jak MERW ( https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk ) czy jego realizacji np. jako rozkład Boltzmannowski na sekwencjach spinów w 1D Ising - dla którego mimo "dyskretnej lokalności" już można konstruować łamanie nierówności typu Bella i ładnie widać dlaczego: amplitudy w regule Borna pochodzą z propagatorów z lewa i prawa, żeby dostać prawdopodobieństwa trzeba je pomnożyć - czyli dokładnie jak w TSVF: https://en.wikipedia.org/wiki/Two-state_vector_formalism ps. Dla ciągłej fizyki ładniejszy sposób to zasada minimalizacji działania - jako symetryczny bliźniak Euler-Lagrange.
  18. Chodziło mi o https://en.wikipedia.org/wiki/Probability_axioms, w szczególności: 3 aksjomat: prawdopodobieństwo alternatywy rozłącznych zdarzeń jest sumą ich prawdopodobieństw. Z niego wynika np. Pr(A=B) + Pr(A=C) + Pr(B=C) >= 1 , która jest łamana w MK ... ponieważ zamiast tego aksjomatu mamy: Reguła Borna: prawdopodobieństwo alternatywy rozłącznych zdarzeń jest proporcjonalne do kwadratu sumy ich amplitud. Trzeba zrozumieć dlaczego w MK mamy to drugie, które niekoniecznie musi spełniać nierówności z pierwszego. Model Isinga daje przykład konstrukcji probabilistyki z regułą Borna - dokładnie jak w zespołach po trajektoriach: z symetrii - https://physics.stackexchange.com/questions/524856/violation-of-bell-like-inequalities-with-spatial-boltzmann-path-ensemble-ising
  19. Owszem też jestem za dBB, ogólnie świetne intuicje dają modele hydrodynamiczne jak typu Coudera, też np. Casimir czy Aharonov-Bohm: https://www.dropbox.com/s/kxvvhj0cnl1iqxr/Couder.pdf Ale to wszystko jest lokalny realizm - żeby to miało sens, trzeba pokazać rozbieżność z tw. Bella. No i jak mówisz i napisałem - zgadzam się że problem jest w lokalności. "Spooky" działanie na odległość to bardzo brzydka opcja - np. nieciągłość, nieskończone energie etc. Ale jest też druga (często pomijana) opcja naprawiania lokalności o której piszę: w Bellu jest asymetryczna lokalność, podczas gdy jest też symetryczna lokalność jak w całkach po trajektoriach czy modelu Isinga: nie wyróżniająca żadnego kierunku. Czyli taka 4D lokalność, jak w czasoprzestrzeni jako "4D galatata": są lokalne reguły minimalizacji działania które nie wyróżniają kierunku. Też np. patrząc na wyprowadzenie nierówności typu Bella jak powyżej - zakładamy probabilistykę Kołmogorova: że istnieje rozkład prawdopodobieństwa na Omega, np. wielkości 2^3=8 dla 3 binarnych zmiennych. Dowolnie wybierzemy taki rozkład, nierówność jest spełniona. Więc kluczowe że w MK dosłownie nie istnieje taki rozkład - zamiast tego mamy regułę Borna: stan dany amplitudami na Omega, które należy dodać dla niezmierzonych zmiennych, po czym pomnożyć żeby dostać prawdopodobieństwa - dokładnie jak w modelu Isinga, dzięki symetrii.
  20. Oczywiście - są nierówności które nie powinny być łamane jak powyższa, problem w tym że jednak fizyka je łamie i tego nie rozumiemy. Akceptując symetrię fizyki, widać że nie problem je łamać, już np. w modelu Isinga. Możemy to robić dzięki niegodności z założeniem lokalności w tw. Bella - tam jest jej wersja asymetryczna (narzucająca kierunek), podczas gdy np. w całkach po trajektoriach czy Isingu jest lokalność symetryczna, też np. jak w tej animacji powyżej. Symetryczne interpretacje MK mają już prawie sto lat ( https://en.wikipedia.org/wiki/Two-state_vector_formalism), problem jest z ich akceptacją - ludzka intuicja mocno narzuca asymetrię.
  21. Przyjmuje się że np. Model Standardowy dobrze opisuje fizykę, jest to CPT-symetryczny formalizm Lagranżowski. Ale pozostawia to sposób rozwiązania takiej matematyki w konkretnej historii wszechświata w której żyjemy - można to robić w sposób symetryczny jak całki po trajektoriach/diagramach Feynmana czy zasada minimalizacji działania ... a można też w sposób asymetryczny jak ewolucja unitarna czy Euler-Lagrange. No więc czy CPT-symetryczna fizyka rozwiązuje swoje równania w sposób asymetryczny (narzucający kierunek), czy symetryczny? Intuicyjnie przyjmujemy sposób asymetryczny, co prowadzi do paradoksów typu twierdzenie Bella ... więc może warto chociaż rozważyć możliwość że robi to symetrycznie - co jak w modelu Isinga, rzeczywiście prowadzi do łamania nierówności typu Bella. Np. Pr(A=B) + Pr(A=C) + Pr(B=C) >= 1, czyli "rzucając 3 monetami, przynajmniej 2 dają to samo" - wydaje się że niemożliwe do złamania, a jednak QM potrafi ... Ising też: dokładnie dzięki symetrii: jedna amplituda z lewej, druga z prawej, finalnie trzeba je pomnożyć żeby dostać prawdopodobieństwa.
  22. Pytanie czy rozwiązanie w którym żyjemy zostało wybrane w sposób symetryczny jak zespoły po trajektoriach, czy asymetryczny jak np. ewolucja unitarna - wyróżniająca początek. Symetryczny w sensie że gdyby poddać cały wszechświat symetrii np. CPT, to znalezione rozwiązanie byłoby takie samo. Stwierdzenie że warunki brzegowe są tylko w przeszłości łamie symetrię - narzuca kierunek. Zespoły po trajektoriach są symetryczne - symetria transformuje wszystkie trajektorie. Najlepiej to widać dla Isinga, czyli Boltzmannowskich zespołów po trajektoriach, które wręcz trudno rozwiązywać w sposób asymetryczny: https://physics.stackexchange.com/questions/524856/violation-of-bell-like-inequalities-with-spatial-boltzmann-path-ensemble-ising Jest transformacja między np. zespołami Feynmana i ewolucją unitarną, ale jeśli rozwiązanie w którym żyjemy zostało wybrane w sposób symetryczny, to aktualny stan został wybrany symetrycznie: dla zgodności zarówno z przeszłością jak i przyszłością - czyli superdeterminizm.
  23. Podałem klasyczną jako bardziej intuicyjny przykład. Na dole napisałem drugi: Nie wiem co ma superdeterminizm do niedziałania MK, ale jeśli fizyka rozwiązuje MK poprzez całki po trajektoriach Feynmana ( https://en.wikipedia.org/wiki/Path_integral_formulation bardzo blisko MERW czy Isinga) to jest to sposób symetryczny: stan jest wybrany też zgodnie z przyszłymi pomiarami - czyli superdeterminizm.
  24. To wyobraź sobie np. mechanikę klasyczną lub klasyczną teorię pola jak EM czy GR. Dwa podstawowe sposoby ich rozwiązywania to: 1) Euler-Lagrange: ewolucja np. wprzód w czasie, 2) Zasada minimalizacji działania - na podstawie wartości wcześniej i później, dobierane jest rozwiązanie (trajektoria/historia) minimalizujące "naprężenie": działanie. Niby obie perspektywy są lokalne: sprowadzają się do czegoś określonego lokalnymi zależnościami. Jednak tylko 2) jest symetryczna, a 1) narzuca kierunek przeszłość -> przyszłość. Fizycy wierzą że fizyka jest CPT symetryczna, więc czy na pewno bezpieczne jest standardowe zakładanie asymetrycznej perspektywy 1) ? Jeśli rozwiązanie w którym żyjemy (w tej fundamentalnie symetrycznej fizyce) zostało oryginalnie wybrane w sposób sposób symetryczny 2), to matematycznie możemy przetransformować do ewolucji 1), ale jej ukryty stan już został zoptymalizowany pod m.in. wszystkie przyszłe pomiary - tzw. superdeterminizm. Z perspektywy mechaniki kwantowej, 1) to np. równianie Schrodingera, 2) to równoważne Feynmanowskie zespoły po trajektoriach - tylko 2) jest symetryczna: nie narzuca żadnego kierunku, ale jej rozwiązanie możemy przetransformować do 1) - z ukrytym superdeterminizmem.
  25. MERW to rozkład Boltzmannowski na przestrzeni trajektorii - jest nie tylko w euklidesowej MK, ale też np. realizowany w modelu Isinga - czyli podstawowym z mechaniki statystycznej, fazy skondensowanej, za którego były ze dwa Noble: https://en.wikipedia.org/wiki/Ising_model Różnica jest taka że w Isingu mamy zespoły Boltzmannowskie po sekwencjach w przestrzeni a nie w czasie, ale matematycznie rozkłady wzorców też są dane MERWem, można w ten sposób np. tanio i prawie dokładnie liczyć 2D Isinga: https://arxiv.org/pdf/1912.13300 Czyli łamanie tej nierówności typu Bella do 0.6 można przynajmniej teoretycznie zrealizować też w Isingu: jako ciąg 3 spinów z oddziaływaniem zabraniającym 000 i 111. Można to łatwo przeanalizować: łamanie jest dzięki regule Borna, którą tutaj dostajemy dosłownie z symetrii: jedna amplituda z lewej, druga z prawej, analogicznie jak w TSVF: https://en.wikipedia.org/wiki/Two-state_vector_formalism Pytanie co z tego? To że trzeba uważać z wnioskowaniem z łamania Bella - zakazuje on lokalnego realizmu, ale używając asymetrycznej wersji lokalności: wyróżniającej kierunek przeszłość -> przyszłość. W Isingu zamiast tego jest symetryczna lokalność: w lewo i w prawo są równoważne. Jeśli użyjemy symetrycznej "4D" lokalności jak np. w Feynmanowskich zespołach po trajektoriach, zasadzie minimalizacji działania, czy twierdzenia CPT dla QFT - wtedy też możemy łamać takie nierówności (np. jak w Isingu). Animacja na ten temat:
×
×
  • Dodaj nową pozycję...