Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1601
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    85

Zawartość dodana przez Jarek Duda

  1. Chyba rzeczywiście przesadziłem z możliwością osobnej selekcji naturalnej, ale skoro są znajdowane w dużej ilości w krwiobiegu to chyba makrofagi ich nie zjadają (przynajmniej nie wystarczająco szybko). Wg. https://en.wikipedia.org/wiki/Apoptosis : np. " After the shrinking, the plasma membrane blebs and folds around different organelles. " - to by się zgadzało (znajdują enkapsulowane), mogą też zostawać z nekrozy. Dalej mogą być po prostu efektem ubocznym, z czasem trawione ... choć może rzeczywiście mogą też łączyć się z innymi komórkami - co pewnie wymagałoby specjalnych mechanizmów, dodatkowych białek w tej błonie - warto sprawdzić czy bardzo odbiega ona od zwykłej błony. Co do ewolucji wirusów, na pierwszy rzut oka transpozony wydają się ich przodkiem ... na drugi ewolucja kapsydów wydaje się dość nieprawdopodobna z tej strony (?) Nie mam pojęcia o megawirusach, ale ogólnie komórki nowotworowe przełączają się na osobną ewolucję jako kolonialne jednokomórkowce - czasem nawet zmieniając hosta jak w DFTD diabłów tasmańskich. Do czego mogłaby doprowadzić ich dalsza ewolucja? Nie wiem, ale megawirusy mają gigantyczne kapsy np. ~400nm, co wymaga dość nietypowych wyspecjalizowanych białek - choć może kapsydy oryginalnie powstały dla wymiany błony jakiegoś jednokomórkowca na coś bardziej praktycznego, wtedy małe wirusy mogłyby wyewoluować ze zmniejszania/optymalizacji dużych...
  2. Skoro ich system odpornościowy dobrze sobie radzi z tymi wirusami, nie dałoby się tego użyć dla zrobienia czegoś w stylu surowicy, np. wyizolować i zsyntetyzować odpowiednie przeciwciała - podawane dla poprawienia odpowiedzi u zarażonego człowieka?
  3. Ciekawy jestem co się dzieje z mitochondriami podczas apoptozy? To jest dość skomplikowany proces eukariotów, pewnie wykorzystujący funkcje cytoszkieletu - których może brakować mitochondriom: będącymi udomowionymi prokariotami ... dalej poddanymi selekcji naturalnej. Może zdarza im się przeżywać apoptozę - ich obecność w krwiobiegu nie musi wynikać z posiadania funkcji dla człowieka, może być produktem ubocznym, czy nawet wynikiem ich naturalnej selekcji.
  4. Chyba najciekawsze jest to że każdy taki gen to jest nowe białko, często enzym - maszynka zoptymalizowana przez miliony lat do konkretnego zadania ... które może mieć dla nas praktyczne znaczenie np. jako lek czy dla procesów (bio)technologicznych. Tylko pytanie co to znaczy "genów nieznanych nauce" - czy chodzi tylko o zmodyfikowane standardowe enzymy jak polimerazy, czy też jakieś rzeczywiście nowe?
  5. Daje do myślenia, są np. różnice mechaniczne między komórkami - ponoć często można rozróżniać nowotworowe mikroskopem sił atomowych ponieważ mają słabiej rozwinięty cytoszkielet. Lepkość mówi o stężeniach, są mechanizmy utrzymujące stałe stężenia jonów jak pompa sodowa-potasowa, wymagająca aktywnego użycia energii (ATP). Bardzo ważne jest też stężenie wody - błona komórkowa jest dość dobrze przepuszczalna dla niej, co wydaje się kluczowe dla wyrównania stężenia w całym organizmie (?) W cytozolu jest bardzo gęsto od białek - które zwykle mają ujemne sprzężenia zwrotne regulujące ich stężenia. Zaburzenia tych sprzężeń zwrotnych mogą prowadzić do patologicznych stężeń - szczególnie nadmiarowych jak przy prionach: system hamujący produkcję nie rozpoznaje zdeformowanych białek, prowadząc do złogów - pewnie też zwiększonej lepkości (skutek). Ale próba naprawiania lepkości tutaj byłaby trochę jak leczenie objawowe - chyba lepiej celować bezpośrednio w patologiczny mechanizm (?)
  6. Owszem, raczej założenie Boltzmannowskości jest tylko przybliżone, ale jest ono analogiczne do założenia Feynmanowskości w mechanice kwantowej - które w takim razie może też jest tylko przybliżone, co raczej uniemożliwiłoby działanie np. algorytmu Shora w większej skali niż kilka bitów. Co do rozkładu Boltzmannowskiego po trajektoriach np. w Isingu, definiujemy energię pary E_ij, energię ścieżki jako suma E_ij po tej ścieżce, zakładamy że prawdopodobieństwo ścieżki jest proporcjonalne do exp(-beta * energia ścieżki). To jest coś innego niż minimalizacja energii - która mówi że osiągamy jeden stan o minimalnej energii, w fizyce statystycznej dostajemy zespół stanów a nie samo minimum. Idealny ferromagnetyk zachowuje spin - można go używać jako kabel. Idealny anty-ferromagnetyk wymusza przeciwny spin - jak bramka NOT. Brak oddziaływania pozwala na dowolne przejścia (bramka X) - np. do przygotowania zespołu 2^w spinów, czy nie-mierzenia danego spinu dla łamania Bella. W QM dzieje się to w czasie - od strony przyszłości potrafimy tylko mierzyć, dostając losową wartość. Shor super to wykorzystuje - zespół Feynamnowskich trajektorii zostaje w ten sposób ograniczony do dających tą samą (zmierzoną) wartość, z tego ograniczonego zespołu dostajemy podpowiedź do faktoryzacji. Żeby wymuszać od strony przyszłości, potrzebowalibyśmy CPT-analog przygotowania stanu ... Mam pomysł na CPT-analog lasera ( https://physics.stackexchange.com/questions/308106/causality-in-cpt-symmetry-analogue-of-free-electron-laser-stimulated-absorbtion ), dla przygotowania stanu nie mam (?)
  7. W subset-sum pytamy się czy istnieje podzbiór o zadanej sumie, możliwych podzbiorów w zbiorze o wielkości n jest 2^n, w NP-zupełnych (duże liczby) rzeczywiście ilość podzbiorów jest porównywalna ilość. Te podejścia np. na fotonach liczą wszystkie możliwe sumy po podzbiorach i sprawdzają czy jest zadana wartość - żeby dostała ona chociaż jeden foton, musielibyśmy zacząć od 2^n fotonów, czyli konieczne natężenie światła do użycia rośnie wykładniczo z wielkością problemów. Jeszcze większym problemem jest to że żeby sprawdzić czy jest foton dla pytanej wartości, potrzebowalibyśmy wykładniczo poprawiać rozdzielczość mikroskopu. Technika jest super do niusów, ale ciężko mi uwierzyć że kiedykolwiek będzie praktyczna - do czego potrzebowalibyśmy czegoś sprytniejszego niż testowanie 2^n podzbiorów. W subset-sum przybliżenie praktycznie nic nie mówi o prawdziwym rozwiązaniu - tutaj (z https://www.dropbox.com/s/nwyxf44u38i42d8/pnpslides.pdf) mam przykładowe posortowane dodatnie sumy podzbiorów z współczynnikami +1 (czarny kwadrat) lub -1 (biały) dla kilku zestawów liczb - na podstawie fałszywych rozwiązań (kolumny po lewej) potrzebujemy stwierdzić czy najbardziej lewa daje sumę 0 : Znam więcej przykładów gdzie jest wykładniczo wiele fałszywych rozwiązań które praktycznie nic nie mówią o prawdziwym. Pytanie czy są trudne problemy w których fałszywe rozwiązania: lokalne minima (o wartości bliskiej globalnemu) coś nam dają? Nie spotkałem się, no i jeśli by były to można też klasyczną numeryką szukać przybliżonych. Wyobraź sobie ogólnego Isinga z E_uv energią między sąsiadami, zapytaj się np. o prawdopodobieństwo 'u' w środku, dostaniesz Pr(u) = (psi_u)^2 i całą resztę dokładnie jak w MERW - jako że matematycznie to jest to samo. Jeśli założysz że fizyka używa Boltzmannowskiego rozkładu między możliwymi sekwencjami na takim komputerze na Isingu, wtedy rozwiąże naszego np. 3-SAT. Analogicznie działanie Shora jest uwarunkowane tym że fizyka używa rozkładu Feynanowskiego między sekwencjami - tym razem w kierunku czasowym. Owszem można się tak patrzeć, ale restrykcja tylko do wyników które losowo dały konkretne n bitów, oznacza zmniejszenie statystyki 2^n razy. Natomiast w przestrzennej realizacji jak Ising, nie ma problemu z zamontowaniem dużej ilości spinów z obu stron.
  8. jest nadzieja - z https://en.wikipedia.org/wiki/2019–20_Wuhan_coronavirus_outbreak
  9. Artykuł z tym i z szerszym drzewkiem filogenetycznym: https://www.sciencemag.org/news/2020/01/mining-coronavirus-genomes-clues-outbreak-s-origins
  10. peceed, jedno pytanie: jaki rozkład powinna osiągnąć cząstka na przedziale [0,1]? Wszelkie chaosy, dyfuzje powiedzą że rozkład jednorodny rho=1. Jednak QM i MERW mówią że zlokalizowany: rho~sin^2. Skąd ta lokalizacja? MERW nie ma interferencji, ale jest dyfuzją zrobioną zgodnie z zasadą maksymalizacji entropii (Jaynes) - co jest konieczne dla modeli fizyki statystycznej. Dzięki temu naprawia rozbieżność dla rozkładu stacjonarnego: daje dokładnie taki sam jak kwantowy stan podstawowy. Dzieje się dzięki użyciu rozkładu Boltzmannowskiego po trajektoriach - który jest matematycznie analogiczny do Feynmanowskiego QM ... i jest powszechnie zakładany np. w modelu Isinga. Matematycznie też mamy mamy superpozycje, np. 2^w wartości dla ciągu w spinów ... na których możemy robić analogiczne bramki. Jasne można rozwiązywać np. 3-SAT w czasie wykładniczym, pytanie czy da się w czasie wielomianowym - pozwala na to np. założenie Boltzmannowskiego rozkładu po sekwencjach w takim Wick-rotated quantum computer. ps. Jest teraz głośno o tym "komputerze fotonicznym rozwiązującym NP-zupełne": https://advances.sciencemag.org/content/6/5/eaay5853 Ale niestety od kogoś kto przynajmniej udaje że nie rozumie trudności z subset-sum: https://en.wikipedia.org/wiki/Subset_sum_problem Czyli mamy zbiór liczb, pytanie jak wybrać podzbiór który np. sumuje się do ustalonej liczby. Sęk w tym że jeśli te liczby są małe, to można to tanio zrobić programowaniem dynamicznym: markujemy osiągalne wartości gdy używamy lub nie kolejnej liczby - ten zbiór rósł by wykładniczo chyba że są małe liczby: wtedy możemy wykorzystać to że dana suma jest osiągana na wiele sposobów. Subset-sum staje się NP-zupełny dopiero gdy tego nie możemy zrobić: kiedy używamy dużych liczb np. po 1000 cyfr ... w tej pracy skupiają się na wersji prostej, chociażby żeby móc wykryć czy jest foton w pytanej pozycji, potrzebowalibyśmy wykładniczo wzmacniać natężenie wchodzącego światła. Ogólnie subset-sum jest świetnym problemem żeby zrozumieć dlaczego adiabatyczne komputery kwantowe raczej nie mają sensu. Mianowicie ilość różnych podzbiorów jest 2^n dla zbioru liczb o wielkości n. Statystycznie te 2^n wartości dają mniej więcej rozkład Gaussa o szerokości ~sqrt(n). Czyli z n szerokość rośnie bardzo powoli, a ilość wartości w niej rośnie wykładniczo - zagęszczenie możliwych sum. Dookoła wartości sumy o którą się pytamy, w wąskim przedziale pojawia się wykładniczo wiele możliwych do osiągnięcia sum - fałszywych lokalnych minimów z perspektywy optymalizacji. Czyli z perspektywy adiabatycznych komputerów kwantowych oznacza to że spectral gap maleje wykładniczo - różnica między prawdziwym rozwiązaniem: globalnym minimum, a pierwszym fałszywym. Co oznacza wykładniczy czas obliczeń i konieczność wykładniczego obniżania temperatury. Też tam widać że te fałszywe lokalne minima nic nie mówią o prawdziwym: globalnym.
  11. Siła oddziaływania monopol-monopol (np. elektryczny) jest 1/r^2, monopol-poruszający się dipol: v/r^3, dipol-dipol (np. dwa magnesy/spiny) jest 1/r^4. Ale nawet biorąc 1/r^3, przechodząc z angstrema do np. mikrometra w sieciach optycznych, spada ~10^12, czyli o niebo lepiej niż w komputerach kwantowych. Ten arXiv jest o nowym podejściu do liczenia modeli typu Isinga, spojrzenie na nie perspektywy pól Markova - które są znane dla ludzi z teorii informacji, ale praktycznie nieznane dla ludzi z condensed matter. Rozwinięcie do łamania Bella czy Wick-rotated quantum computers to na razie tylko dodatek, z którego pewnie kiedyś napiszę osobną pracą może z analogiem kwantowej korekcji błędów, ale ciężko stwierdzić kiedy. Ale ogólnie mając doświadczenie z komputerami kwantowymi to jest dość naturalne - kwestia zamiany Feynmanowskich zespołów, bramek na Boltzmannowskie - co matematycznie jest dość podobne. Nie ma interferencji, ale jest zgodność wielu własności, jak np. lokalizacyjne - jako rozkład stacjonarny dostajemy dokładnie to co w kwantowym stanie podstawowym, jak rho~sin^2 w [0,1] zamiast rho=1 w zwykłej dyfuzji. Ogólnie polecam przemyśleć MERW: https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk
  12. Oddziaływanie między spinami jako dipole magnetyczne maleje 1/r^4, jak w angstomach jest za dużo, to oddalmy np. do mikrometrów ... nie będzie zero, ale w komputerach kwantowych też nie jest idealnie.
  13. Jak dla mnie nieoddziaływanie spinów jest tutaj najmniejszą trudnością, np. można drukować na niemagnetycznym podłożu czy wręcz w próżni w sieciach optycznych ( https://en.wikipedia.org/wiki/Optical_lattice ), oddzielać przestrzennie takie ścieżki etc. ... oczywiście nigdy nie będzie idealnie, ale w komputerach kwantowych też na to nie ma szans. No i można się obejść bez idealnych, analogicznie do korekcji błędów można np. wzmacniać różne efekty poprzez zrównoleglanie etc. Dużo większym problemem jest rzeczywiście pytanie czy rozkład Boltzmannowski w przestrzeni nie jest tylko przybliżeniem ... ale jeśli tak to dlaczego rozkład Feynmanowski w czasie miałby nie być też tylko przybliżeniem? Jeśli żyjemy w czasoprzestrzni, to są one swoimi matematycznymi odpowiednikami (czas i przestrzeń mają przeciwne sygnatury).
  14. Oczywiście podczas gdy np. bramka NOT to antyferromagnetyk, pozostaje wiele technicznych problemów do zrealizowania takiego układu, przedstawioną idealizację trzeba zastąpić realizacją obchodzącą trudności ... ... ale np. z Shorem wcale nie jest lepiej, opierając się na podobnym założeniu: zespole Feynmanowskim po ścieżkach zamiast Boltzmannowskiego w Isingu ... po wydaniu miliardów dolarów błędy np. jednego CNOTa są na poziomie kilkunastu procent, a dla praktyczności potrzebujemy liczyć bezbłędnie setki tysięcy bramek, dodatkowo unikając dekoherencji. Korekcja błędów wymaga mnożenia ilości bramek - też niedoskonałych, dając błędne koło. To są alternatywne ścieżki rozwoju, z trochę innymi problemami, ale jak dla komputerów kwantowych szczytem marzeń jest faktoryzacja czyli łamanie RSA, na Isingu teoretycznie można nieporównywalnie więcej: rozwiązywać NP-zupełne, czyli np. błyskawicznie łamać już wszelką kryptografię. Poprawiony diagram (v4 https://arxiv.org/pdf/1912.13300 ):
  15. Jedno pytanie to czy aby na pewno "wyleczeni" nie pozostają nosicielami? Pewnie jest jakiś niemały czas zanim zacznie się ich mieszać z resztą populacji (?) Drugie, skoro znana już jest sekwencja, to czy nie można by szybko zacząć syntetyzować jego zewnętrzne białka kapsydu/otoczki i podawać dożylnie w niewielkich ilościach jako prowizoryczna szczepionka - żeby wstępnie uczyć układ odpornościowy, szczególnie w obszarach gdzie wirus jest raczej nieunikniony?
  16. Działania ludzkie są kluczowym czynnikiem selekcyjnym dla patogenów, jednak zbyt mało od nas zależy żeby nazwać to sztuczną selekcją (choć jest i taka np. dla wirusów: http://news.mit.edu/2009/virus-battery-0402 ) ... chyba lepiej o tym myśleć jako o ewolucji w aktywnie modyfikowanym środowisku.
  17. Ewolucyjnie dosłownie maksymalizowana jest ilość osobników w kolejnych pokoleniach - mając dwie podpopulacje z których jedna statystycznie prowadzi do trochę większej ilości osobników, asymptotycznie powinna ona całkowicie zdominować populacją ... Ale oczywiście to jest duże uproszczenie, tutaj nie mamy nieskończonego czasu ze statycznymi parametrami, tylko niezwykle szybko ewoluującą sytuację - selekcję na ilość osobników, najszybsze rozprzestrzenianie się w środowisku, np. z ludźmi aktywnie walczącymi z patogenem. Śmiertelność pewnie jest głównie efektem ubocznym "przeskoczenia" ze zwierzęcia na dość innego hosta ludzkiego, inną specyfikę populacji - też z perspektywy ewolucji patogenu jest dość negatywnym czynnikiem selekcyjnym. Do największej ilości osobników patogenu doprowadzają mutacje pozwalające w miarę po cichu dalej się rozprzestrzeniać w populacji - podobnie jak w przypadku wielu innych patogenów, które przeewoluuowały do w miarę niegroźnych acz powszechnych jak przeziębienie, grypa, odra ... co pewnie czeka też koronawirusa - w mniej niebezpiecznej wersji niż obecny. W przypadku poważniejszych epidemii w historii, patogen też wprowadzał czynnik selekcyjny na hosta - współczesny człowiek pewnie jest dość odporny na wiele historycznych patogenów, na przykład przypuszcza się (np. Jared Diamond) że za prawie wymarcie indian odpowiada różnica odporności wynikła z kontaktów ze zwierzętami hodowlanymi mieszkańców starego świata. ps. Co do eboli, udało się ją praktycznie wyeliminować - ukierunkowanymi działaniami ludzi.
  18. Ten jak narazie ma wykładniczy wzrost: https://gisanddata.maps.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6 Co więcej "recovered" może oznaczać nosiciela.
  19. Z perspektywy wirusa, sukcesem ewolucyjnym nie jest wybicie wszystkich hostów jak w grach komputerowych, tylko zadomowienie się na stałe w populacji. Byłem kiedyś na świetnym wykładzie o ewolucji ospy (od https://dblp.org/pers/hd/b/Bier:Martin) - że stała się istotna dość niedawno dzięki rozwojowi miast, początkowo była dużo bardziej zabójcza, ewolucyjnie uspokajając się i zadomowiając na stałe w populacji - pewnie coś podobnego czeka koronawirus: stanie się łagodniejszym powszechnym zjawiskiem typu przeziębienia czy grypy.
  20. Co do tego układu, dołączam chyba ciut lepszy diagram. W przestrzennej realizacji jako model Isinga, "montowanie amplitud" z dwóch stron jest względnie proste, np. - z lewej nieoddziaływujące spiny mają Boltzmannowską superpozycję 2^w możliwości (wychodzi jak próbujesz liczyć np. macierzą transferu), - z prawej wymuszenie spinów 1 to jest kwestia np. przyłożenia silnego pola magnetycznego. "Kabel" to silny ferromagnetyk, bramka NOT to anty-ferromagnetyk, ale z pozostałymi bramkami chyba byłoby ciężko np. OR. Ale ogólnie zgadzam się że największy problem to że założenie rozkładu Boltzmannowskiego w Isingu to raczej tylko przybliżenie ... ale w takim razie może zespoły Feynmanowskie też są tylko przybliżeniem? Jeśli tak to nie ma żadnych szans na praktyczność Shora. Ogólnie odnośnie mechaniki kwantowej, fajnie byłoby w końcu przestać machać rękami jaka ona jest niemożliwa do zrozumienia i wrócić do prawdziwych podstawowych pytań których nie rozumiemy - np. o konfigurację pól (m.in. EM) elektronu. Twierdzenie Bella niby zakazuje fizyki która byłaby realistyczna i lokalna. Formalizm Lagrażowski jak Model Standardowy niby jest lokalny i realistyczny ... a fizycy którzy go uprawiają zupełnie nie przejmują się Bellem. Więc tutaj tłumaczę nieporozumienie: problem w tym że w tw. Bella jest lokalność asymetryczna (narzucająca przeszłość->przyszłość), podczas gdy fizyka fundamentalnie jest CPT symetryczna - jak w Isingu: regułę Borna dostajemy dokładnie z symetrii lewo-prawo, co pozwala na łamanie Bella. Równanie Shrodingera do opisu np. pojedynczego atomu, czy w praktyce bardziej pojedynczego elektronu w atomie, jest bardzo efektywnym opisem - model musi ukrywać uśrednienie po wszystkim czego bezpośrednio nie uwzględnia jak otoczenie. W związku z czym musi "zamknąć oczy" podczas oddziaływania z tym otoczeniem (kolaps), np. ewolucja unitarna nie opisuje deekscytacji atomu, ale uwzględniając otoczenie to jest proces odwracalny: wzbudzony atom <---> zdeekscytowany atom + foton do otoczenia Dla pełniejszego opisu trzeba dodawać otoczenie do rozważań, dochodząc do "Funkcji Falowej Wszechświata" rzeczywiście MK staje się pełnym opisem - czysta unitarna ewolucja, brak oddziaływania z otoczeniem - kolapsu. No ale jest ona dla nas zupełnie niedostępna, co możemy robić to szukać bardziej wygodnych lokalnych perspektyw - interpretacji, no i dBB jest bardzo wygodną dosłownie transformacją zmiennych do psi = sqrt(rho) exp(iS / hbar) ... potwierdzoną eksperymentalnie np. w https://science.sciencemag.org/content/332/6034/1170 - widzę że unikasz skomentowania tej pracy, co o niej uważasz?
  21. Mówię o klasycznym modelu Isinga - zespół Boltzmannowski po sekwencjach np. spinów, czyli zespoły Feynmanowskie (równoważne z MK) po "obrocie Wicka". Też o formalizmie Lagranżowskim na przykładzie Modelu Standardowego - jest konkretne pole (realizm), z dynamiką opartą o pochodne i wartości - czyli lokalność, w diagramach Feynmana nie ma nieciągłości. Więc czy twierdzenie Bella zaprzecza modelowi standardowemu? Co do interpretacji dBB, przyjmuje się że jest poprawna dla 1 cząstki (wręcz równoważna), są prace eksperymentalne twierdzące potwierdzenie (np. https://science.sciencemag.org/content/332/6034/1170 ) - przyjmuje się że jej problem pojawia się przy wielu cząstkach, eksperymenty typu Coudera mogą sugerować jak to naprawiać, np. uzyskują kwantyzację orbit dla wielu kropelek z dualizmem korpuskularno-falowym, "kryształy" na tych kropelkach: http://dualwalkers.com/crystals.html Wracając do łamania nierówności Bella na modelu Isinga, rozszerzając tą konstrukcję możemy na układach typu Isinga realizować "Wick-rotated" komputery kwantowe. Podczas gdy takie "obrócone bramki kwantowe" wydają się ciut słabsze, dzięki przestrzennej realizacji możemy ustawiać amplitudy z obu stron (lewej i prawej), co wydaje się pozwalać rozwiązywać 3-SAT (końcówka https://arxiv.org/pdf/1912.13300 ):
  22. Nie wiem o czym piszesz, bo ja pytałem o się formalizm Lagrażowski jak model standardowy - chcesz powiedzieć że nie wierzysz w model standardowy? Czy że formalizm Lagrażowski nie spełnia założenia realizmu? Lokalności? Też pytałem się o model Isinga - nie zgadzasz się z konstrukcją łamania nierówności Bell dla niego? Uważasz że nie spełnia założenia realizmu? Lokalności? Co do dBB, jeszcze raz: to jest podstawienie psi=sqrt(rho) exp(iS/hbar) do Schrodingera - nie wierzysz w równanie Schrodingera czy operację podstawiania? Pytam się kolejny raz o te same rzeczy, zamiast odpowiadać piszesz jakieś dziwne rzeczy zupełnie nie na temat.
  23. Jeszcze raz: nikt tutaj nie twierdzi że MK nie działa, tylko skupiamy się na twierdzeniu Bella: https://en.wikipedia.org/wiki/Bell's_theorem Czyli że są pewne nierówności, np. Pr(A=B) + Pr(A=C) + Pr(B=C) >= 1, które są zawsze prawdziwe w standardowej probabilistyce, a jednak formalizm MK potrafi je łamać: np. trochę zejść poniżej jedynki - pytanie co zrobić z tym fantem? Owszem ta nierówność byłaby zawsze prawdziwa gdybyśmy mierzyli wszystkie 3 "monety" (zmienne) naraz, więc kluczowe że MK pozwala mierzyć dokładnie dwie - to nie jest tak że trzecia ma po prostu nieznaną wartość, tylko że rzeczywiście trzecia moneta nie ma żadnej wartości - jakby np. wisiała w powietrzu i się kręciła. Standardową konkluzją tw. Bella jest stwierdzenie że fizyka nie może być lokalna i realistyczna ... no ale np. Model Standardowy jest dany formalizmem Lagranżowskim, gdzie istnieje pole ("realizm"), rządzone lokalnymi zasadami - to z tw. Bella powinniśmy go wyrzucić do kosza? Dlaczego on jednak działa? Żeby zrozumieć to nieporozumienie polecam np. model Isinga - który z jednej strony też jest lokalny i realistyczny, z drugiej ma podobną probabilistykę jak MK (reguła Borna), co też pozwala łamać nierówności typu Bella. Sugeruje konkluzję że problem z tw. Bella jest zakładanie asymetrycznej lokalności (narzucającej kierunek), natomiast w Isingu jest P symetryczna, w Modelu Standardowym jest CPT symetryczna. Co do Coudera, daje on intuicje dla interpretacji de Brogliea-Bohma: jednej z równoważnych - wstawiamy psi = sqrt(rho) exp(iS/hbar) do równania Schrodingera i dla rho dostajemy zwykłe równanie ciągłości, dla działania S równanie Hamiltona-Jacobiego z poprawką na oddziaływanie z falą pilotującą: https://en.wikipedia.org/wiki/Pilot_wave_theory#Mathematical_formulation_for_a_single_particle Czyli to jest równanie Schrodingera po transformacji zmiennych - po prostu inna perspektywa. Co więcej, potwierdzona eksperymentalnie w pomiarze średnich trajektorii interferujących fotonów: https://science.sciencemag.org/content/332/6034/1170
  24. Nie widzę konkretnych argumentów tylko ogólniki z książek popularnonaukowych i bluzgi za tarczą anonimowości. W takim razie tylko jeszcze raz podam przykład "nierówności która nie powinna być łamana" (Mermina) - dla 3 binarnych zmiennych ABC: Pr(A=B) + Pr(A=C) + Pr(B=C) >= 1 zakładając dowolny rozkład prawdopodobieństwa na przestrzeni 8 zdarzeń, ta nierówność jest prawdziwa, szczególnie że oznacza mniej więcej "rzucając 3 monetami, przynajmniej 2 dają to samo": Pr(A=B) = p000 + p001 + p110 + p111 Pr(A=B) + Pr(A=C) + Pr(B=C) = 2*p000 + 2*p111 + sum_ABC pABC = 2*p000 + 2*p111 + 1 >= 1 ... a jednak formalizm MK pozwala ją łamać (np. https://arxiv.org/abs/1212.5214 ) - to jest poważny problem który wypadałoby zrozumieć ... i np. ciekawostka: można ją też łamać w modelu Isinga dzięki podobieństwu do całek po trajektoriach: z symetrii dostajemy regułę Borna, co pozwala łamać nierówności wyprowadzone w zwykłej probabilistyce. Na podstawie jednego zdania jedziesz na pracę z Physical Review Letters czyli topowego czasopisma fizyków, widzę że czujesz się znacznie mądrzejszy niż jego edytorzy i recenzenci. Też na eksperymenty typu Coudera, które znowu pochodzą z topowych czasopism, np.: Interference in particle statistics of double-slit experiment (PRL 2006) - corpuscle travels one path, but its "pilot wave" travels all paths - affecting trajectory of corpuscle (measured by detectors). Unpredictable tunneling (PRL 2009) due to complicated state of the field ("memory"), depending on the history - they observe exponential drop of probability to cross a barrier with its width. Landau orbit quantization (PNAS 2010) - using rotation and Coriolis force as analog of magnetic field and Lorentz force (Michael Berry 1980). The intuition is that the clock has to find a resonance with the field to make it a standing wave (e.g. described by Schrödinger's equation). Zeeman-like level splitting (PRL 2012) - quantized orbits split proportionally to applied rotation speed (with sign). Double quantization in harmonic potential (Nature 2014) - of separately both radius (instead of standard: energy) and angular momentum. E.g. n=2 state switches between m=2 oval and m=0 lemniscate of 0 angular momentum. Recreating eigenstate form statistics of a walker's trajectories (PRE 2013). Chętnie o tym mogę podyskutować, ale odpowiadam tylko na konkretne argumenty.
  25. Oczywiście całki po trajektoriach mają swoje problemy matematyczne, jak to że te trajektorie są zwykle niefizyczne: nieskończone energie etc. Te problemy znikają dla dyskretnej wersji jak MERW ( https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk ) czy jego realizacji np. jako rozkład Boltzmannowski na sekwencjach spinów w 1D Ising - dla którego mimo "dyskretnej lokalności" już można konstruować łamanie nierówności typu Bella i ładnie widać dlaczego: amplitudy w regule Borna pochodzą z propagatorów z lewa i prawa, żeby dostać prawdopodobieństwa trzeba je pomnożyć - czyli dokładnie jak w TSVF: https://en.wikipedia.org/wiki/Two-state_vector_formalism ps. Dla ciągłej fizyki ładniejszy sposób to zasada minimalizacji działania - jako symetryczny bliźniak Euler-Lagrange.
×
×
  • Dodaj nową pozycję...