Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Gość kremien
4 hours ago, peceed said:

Można na to spojrzeć inaczej - wszystkie obiekty elementarne  poruszają się z prędkością światła, ale obiekty masywne składają się z zygzakujących części. I niemożliwość staje się czysto logiczna, bo nie da się lecieć z prędkością światła i mieć zygzakujące składowe lecące z prędkością światła. Albo-albo.
Dobra jest analogia stanem oscylacyjnym światła między dwoma lusterkami, bo łatwo też zobrazować dylatację czasu.
 

Pierwszą część rozumiem, ale czym są zygzakujące składowe albo stan oscylacyjny między lusterkami już nie bardzo. Może mi to kolega wyjaśnić, lub naprowadzić, pod jakim hasłem szukać tego w internecie?

Przy okazji dzięki wszystkim za wypowiedzi, dla mnie ten temat jest świetny!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.01.2020 o 07:24, Jarek Duda napisał:

Co do tego układu, dołączam chyba ciut lepszy diagram.

Mam jeszcze jedną wątpliwość odnośnie komputera opartego na modelu Isinga. Mianowicie w fizycznie realizowalnej regularnej siatce spinów nie da się uniknąć interakcji pomiędzy niesąsiednimi spinami. Jeśli energia oddziaływania pomiędzy sąsiadami wynosi r, to energia pomiędzy spinami o dwukrotnie większej odległości powinna wynosić 1/8, potem 1/27. Dochodzą jeszcze przekątne. Nie widzę możliwości ekranowania tych interakcji. Dlatego nawet jeśli model Isinga przewiduje możliwość magicznych obliczeń, to ta matematyka może się załamać ze względu na niezgodność z rzeczywistością.

2 minuty temu, kremien napisał:

czym są zygzakujące składowe albo stan oscylacyjny między lusterkami już nie bardzo. Może mi to kolega wyjaśnić, lub naprowadzić, pod jakim hasłem szukać tego w internecie?


Można sobie wyobrazić foton latający pomiędzy dwoma lustrami prostopadłymi do kierunku ruchu. Taki obiekt zachowuje się jak cząsteczka obdarzona masą. Nieważkie pudełko z fotonem w środku też zachowuje się jakby miało masę, to podstawa do wyprowadzenia wzoru E=mc^2 w oryginalnym rozumowaniu Einsteina.

https://physics.stackexchange.com/questions/75783/penroses-zig-zag-model-and-conservation-of-momentum
Penrose opisał podobną interpretację dla elektronu jako oscylację pomiędzy dwoma stanami (nota bene "Nowy umysł cesarza" zawiera też trochę bzdur").

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 hours ago, peceed said:

Mam jeszcze jedną wątpliwość odnośnie komputera opartego na modelu Isinga. Mianowicie w fizycznie realizowalnej regularnej siatce spinów nie da się uniknąć interakcji pomiędzy niesąsiednimi spinami. Jeśli energia oddziaływania pomiędzy sąsiadami wynosi r, to energia pomiędzy spinami o dwukrotnie większej odległości powinna wynosić 1/8, potem 1/27. Dochodzą jeszcze przekątne. Nie widzę możliwości ekranowania tych interakcji. Dlatego nawet jeśli model Isinga przewiduje możliwość magicznych obliczeń, to ta matematyka może się załamać ze względu na niezgodność z rzeczywistością.

Oczywiście podczas gdy np. bramka NOT to antyferromagnetyk, pozostaje wiele technicznych problemów do zrealizowania takiego układu, przedstawioną idealizację trzeba zastąpić realizacją obchodzącą trudności ...

... ale np. z Shorem wcale nie jest lepiej, opierając się na podobnym założeniu: zespole Feynmanowskim po ścieżkach zamiast Boltzmannowskiego w Isingu ... po wydaniu miliardów dolarów błędy np. jednego CNOTa są na poziomie kilkunastu procent, a dla praktyczności potrzebujemy liczyć bezbłędnie setki tysięcy bramek, dodatkowo unikając dekoherencji. Korekcja błędów wymaga mnożenia ilości bramek - też niedoskonałych, dając błędne koło.

To są alternatywne ścieżki rozwoju, z trochę innymi problemami, ale jak dla komputerów kwantowych szczytem marzeń jest faktoryzacja czyli łamanie RSA, na Isingu teoretycznie można nieporównywalnie więcej: rozwiązywać NP-zupełne, czyli np. błyskawicznie łamać już wszelką kryptografię.

Poprawiony diagram (v4  https://arxiv.org/pdf/1912.13300 ):

IQC.thumb.png.cbd9b89bc2d831097cbc50724d6d1c8e.png

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 godzin temu, peceed napisał:

nota bene "Nowy umysł cesarza" zawiera też trochę bzdur"

Chodziło mi o "Drogę do rzeczywistości". Bardzo miła jeśli chodzi o odświeżenie czy ogólną prezentacje koncepcji, nie nadaje się do nauki a jedynie jako pomoc a w miejscach gdzie jest błędna jest bardzo mocno błędna.

 

 

1 godzinę temu, Jarek Duda napisał:

pozostaje wiele technicznych problemów do zrealizowania takiego układu

Nie jest to trudność techniczna, wydaje mi się że jest to fundamentalna niezgodność modelu z rzeczywistością. Nie widzę opcji aby dało się wprowadzić ekranowanie pomiędzy dalszymi spinami. Nawet jeśli wprowadzi się kwadraty z materiału o niskiej przenikalności magnetycznej, to efektywnie zbliża to jedynie metrykę odległości pomiędzy spinami "na ukos" do taksówkowej. Spin który reaguje z sąsiadem z energią Jij, będzie reagował z dalszymi z energią malejącą jak trzecia energia odległości, czyli Jij/8, Jij/27, Jij/64. Model Isinga przypomina rzeczywistość tylko dlatego, że jest to bardzo szybki spadek i rozwiązania jakościowo są bardzo podobne. Nie znam mechanizmów fizycznych które mogły by spowodować brak takiego oddziaływania w zasadzie, to po prostu nie jest trudność techniczna a raczej fundamentalna.
Jeśli tak jest, to cała matematyka "rozwiązująca" problemy według tego założenia jest nieadekwatna.

Aby to uzyskać działanie Isinga w rzeczywistych układach fizycznych potrzebne byłoby bardzo magiczne oddziaływanie które dokładnie kompensuje energię pomiędzy dalszymi spinami, całkowicie nielokalne. Mam wrażenie że to może być powód "łamania bella" (tutaj od razu mówię że nie analizowałem prawdziwości tego stwierdzenia na poziomie technicznym) nawet w przypadku klasycznym, ten wydaje się być nielokalny.
 

2 godziny temu, Jarek Duda napisał:

ale np. z Shorem wcale nie jest lepiej, opierając się na podobnym założeniu: zespole Feynmanowskim po ścieżkach zamiast Boltzmannowskiego w Isingu

To w ogóle nie jest tak, Shor działa bo wykorzystuje matematyczne własności komputera kwantowego. Wszelkie wyobrażanie sobie mechanizmów działania tego algorytmu za pomocą superpozycji klasycznych ścieżek obliczeniowych nie ma znaczenia dla fizyki, to wirtualna, matematyczna część która uzasadnia i wizualizuje poprawność algorytmu, ale "fizyczna realizacja" obliczeń kwantowych w ten sposób nie jest wymagana. Dlatego też komputer kwantowy nie jest "dowodem" MWI.
 

2 godziny temu, Jarek Duda napisał:

na Isingu teoretycznie można nieporównywalnie więcej: rozwiązywać NP-zupełne

I to jest kolejna bardzo poważna przesłanka za tym, że model jest zupełnie "niefizyczny". Jedyna na co bym liczył w przypadku komputerów kwantowych to efektywne metody aproksymacji problemów np-trudnych.
Są znane modele "hiperfizycznych" komputerów które dają sobie radę z obliczeniami NP-com, na przykład wykorzystujące nieliniową odmianę MK.
Jeden z moich profesorów miał całkiem interesującą metahipotezę, że dla przyrody problemy NP-com muszą być trudne, bo to do czego efektywnie dąży świat to stan o maksymalnej możliwej entropii,  jedyny powód dla którego idzie to tak wolno i mamy stabilną rzeczywistość wynika z faktu, że jest to problem "trudny obliczeniowo dla praw fizyki" (jego sformułowanie było nieco inne i dotyczyło minimalizacji energii ale duch był dokładnie taki sam).

2 godziny temu, Jarek Duda napisał:

To są alternatywne ścieżki rozwoju, z trochę innymi problemami

Wciąż mam wrażenie że ten cały alternatywny model jest oparty na "alternatywnej interpretacji klasycznej MK". To rzeczywiście byłby trochę inny problem, bo wtedy nie ma nawet podstaw teoretycznych aby coś takiego mogło zadziałać. Całe założenie że fizyka będzie tak kierować spinami aby spełnić założenia MERW może być po prostu nieprawdziwe.
Z kolei obliczenia kwantowe mają żelazne fundamenty teoretyczne i muszą działać, problemy rzeczywiście mają charakter techniczny. I kwantowa supremacja jest do uzyskania w sposób praktycznie pewny, bo obserwujemy wykładniczy wzrost możliwości komputerów kwantowych. Tylko że to "kwantowe prawo Moora" jest znacznie wolniejsze od tego, do czego przyzwyczaiła nas elektronika klasyczna.


 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak dla mnie nieoddziaływanie spinów jest tutaj najmniejszą trudnością, np. można drukować na niemagnetycznym podłożu czy wręcz w próżni w sieciach optycznych ( https://en.wikipedia.org/wiki/Optical_lattice ), oddzielać przestrzennie takie ścieżki etc. ... oczywiście nigdy nie będzie idealnie, ale w komputerach kwantowych też na to nie ma szans. No i można się obejść bez idealnych, analogicznie do korekcji błędów można np. wzmacniać różne efekty poprzez zrównoleglanie etc.

Dużo większym problemem jest rzeczywiście pytanie czy rozkład Boltzmannowski w przestrzeni nie jest tylko przybliżeniem ... ale jeśli tak to dlaczego rozkład Feynmanowski w czasie miałby nie być też tylko przybliżeniem? Jeśli żyjemy w czasoprzestrzni, to są one swoimi matematycznymi odpowiednikami (czas i przestrzeń mają przeciwne sygnatury).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 1.02.2020 o 12:37, Jarek Duda napisał:

ak dla mnie nieoddziaływanie spinów jest tutaj najmniejszą trudnością, np. można drukować na niemagnetycznym podłożu czy wręcz w próżni w sieciach optycznych ( https://en.wikipedia.org/wiki/Optical_lattice ), oddzielać przestrzennie takie ścieżki etc.

Ale problem zasięgu oddziaływania nie zależy od sposobu technicznej realizacji, tylko od zauważenia że jeśli mamy gdzieś oddziałujące pary sąsiednich spinów z energiami, Ji i+1, Ji+1 i+2 to na skutek mechanizmu oddziaływania przez pole magnetyczne musimy mieć Ji i+2 != 0. I to całkiem nie mało, wciąż na poziomie 1/8 średniej oddziaływań Ji i+1, Ji+1 i+2.To jest problem nie do obejścia przez żadne zabawy z implementacją i fundamentalny rozjazd. Jeśli mielibyśmy kodować problem w postaci poziomu sprzężenia spinów, to miałby on z pewnością jakąś dokładność reprezentacji (promil?). To wymusza uwzględnianie nawet do 10 sąsiednich spinów w modelu a nie tylko te na diagonali, aby błędy modelu nie były większe od kodowania. A to już nie jest model Isinga.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oddziaływanie między spinami jako dipole magnetyczne maleje 1/r^4, jak w angstomach jest za dużo, to oddalmy np. do mikrometrów ... nie będzie zero, ale w komputerach kwantowych też nie jest idealnie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
18 godzin temu, Jarek Duda napisał:

Oddziaływanie między spinami jako dipole magnetyczne maleje 1/r^4

Ale nas interesuje nie siła a energia wzajemnego oddziaływania, a ta jest jak 1/r^3. To bardzo szybki spadek, ale nie wystarczająco szybki aby zignorować oddziaływanie spinów odległych o 2-3 przeskoki, co robi się w Isingu. Pewnie wciąż czegoś nie rozumiem, ale równoważność przejść po ścieżkach zachodzi dla dokładnego modelu Isinga według równania (4).

W dniu 1.02.2020 o 09:10, Jarek Duda napisał:

Poprawiony diagram (v4  https://arxiv.org/pdf/1912.13300 )

Ta praca jest na oko kilka razy za krótka jak na zakres zagadnień które porusza.
Brakuje dokładnego wskazania gdzie i jak odczytuje się bity wyniku.
Bardzo przydałby się pełny "diagram scalony" dla prostego przypadku, powiedzmy kilka zmiennych i klauzul.
W kilku stanach, tzn. jaki jest początek układu, jak wygląda faza obliczeń, gdzie są bity a gdzie qbity.
Jak wygląda odczyt.
Jeśli to ma ręce i nogi, to na pewno da się nawet przygotować animację która pokazuje jak mają działać te obliczenia, z demonstracją rozkładu po ścieżkach, jak ma się to do działania bramek itd.

18 godzin temu, Jarek Duda napisał:

w komputerach kwantowych też nie jest idealnie

W komputerach kwantowych jest idealnie, bo jest możliwa korekcja błędów na co jest sporo twierdzeń. Do tego wciąż czekamy na topologiczne komputery kwantowe które mają mieć znikomy poziom błędów.
Komputery kwantowe w większości implementacji są dyskretne, operują dobrze zdefiniowanymi q-bitami. Na przykład taki q-bit oparty na jądrze zupełnie nie dba o to jak moment magnetyczny rozkłada się na składowe (bariony/kwarki itd), mechanika kwantowa gwarantuje nam "dyskretność". Tak samo można rozłożyć qbity logiczne na kilkaset realnych splątanych. Ogólnie nie musimy się martwić o indywidualną "jakość" qbitu inaczej niż przez dekoherencję, o resztę dba mechanika kwantowa. Nie trzeba się przejmować faktem, że wartości amplitud spadają na przykład do poziomu 10^-10, każdy qubit to obsłuży za darmo.
Patrząc na ten komputer nie wiem czy tam w ogóle obowiązuje koncepcja q-bitu czy też mamy coś w rodzaju b-bitu.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Siła oddziaływania monopol-monopol (np. elektryczny) jest 1/r^2, monopol-poruszający się dipol: v/r^3, dipol-dipol (np. dwa magnesy/spiny) jest 1/r^4. Ale nawet biorąc 1/r^3, przechodząc z angstrema do np. mikrometra w sieciach optycznych, spada ~10^12, czyli o niebo lepiej niż w komputerach kwantowych.

Ten arXiv jest o nowym podejściu do liczenia modeli typu Isinga, spojrzenie na nie perspektywy pól Markova - które są znane dla ludzi z teorii informacji, ale praktycznie nieznane dla ludzi z condensed matter. Rozwinięcie do łamania Bella czy Wick-rotated quantum computers to na razie tylko dodatek, z którego pewnie kiedyś napiszę osobną pracą może z analogiem kwantowej korekcji błędów, ale ciężko stwierdzić kiedy.

Ale ogólnie mając doświadczenie z komputerami kwantowymi to jest dość naturalne - kwestia zamiany Feynmanowskich zespołów, bramek na Boltzmannowskie - co matematycznie jest dość podobne. Nie ma interferencji, ale jest zgodność wielu własności, jak np. lokalizacyjne - jako rozkład stacjonarny dostajemy dokładnie to co w kwantowym stanie podstawowym, jak rho~sin^2 w [0,1] zamiast rho=1 w zwykłej dyfuzji. Ogólnie polecam przemyśleć MERW: https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk

Edytowane przez Jarek Duda

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 godzin temu, Jarek Duda napisał:

Ogólnie polecam przemyśleć MERW: https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk

Przemyślałem sobie wiele lat temu i wniosek był taki że nie jest to żaden model MK i rzeczywistości.
Może natomiast aproksymować pewne zjawiska na poziomie kwantowym.
 

20 godzin temu, Jarek Duda napisał:

Nie ma interferencji

Interferencja jest jedynym powodem dla którego mamy kwantowy speedup. Bez interferencji mamy komputer klasyczny, bo nie jesteśmy w stanie wyciąć ścieżek obliczeń nie prowadzących do prawidłowych rozwiązań.

20 godzin temu, Jarek Duda napisał:

 Wick-rotated quantum computers

Poproszę o odpowiedź na jedno proste pytanie: czym jest jednostka informacji w tym modelu obliczeń. Czy jest to q-bit czy bit? Czy też może jakiś wariant p-bitu? Skoro jest to komputer, to musi istnieć prosta odpowiedź na tak postawione pytanie. Bo pomimo starań wygląda to wciąż na "zlepek idei".
Użycie nieunitarnych bramek w obliczeniach nie wyklucza użycia q-bitów, ale każda taka bramka w trakcie działania dokonuje redukcji wektora stanu w sposób całkowicie losowy, co powoduje że szanse na uzyskanie prawidłowej ścieżki obliczeń maleją wykładniczo z ich ilością.
p-bity są obecnie tworzone przez szybkie stany oscylacyjne, według innego spojrzenia taki komputer jest układem chaotycznym z atraktorami w pobliżu rozwiązań, jest to komputer probabilistyczny.
Samo rozwiązywanie 3-SAT nic nie znaczy, to robi 6502. Potrzebna jest niewielomianowa ilość powtórzeń obliczeń.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

peceed, jedno pytanie: jaki rozkład powinna osiągnąć cząstka na przedziale [0,1]?

Wszelkie chaosy, dyfuzje powiedzą że rozkład jednorodny rho=1.

Jednak QM i MERW mówią że zlokalizowany: rho~sin^2.

Skąd ta lokalizacja?

image.thumb.png.280192e3e6d0bd6b9d96460e1b4da635.png

MERW nie ma interferencji, ale jest dyfuzją zrobioną zgodnie z zasadą maksymalizacji entropii (Jaynes) - co jest konieczne dla modeli fizyki statystycznej. Dzięki temu naprawia rozbieżność dla rozkładu stacjonarnego: daje dokładnie taki sam jak kwantowy stan podstawowy.

Dzieje się dzięki użyciu rozkładu Boltzmannowskiego po trajektoriach - który jest matematycznie analogiczny do Feynmanowskiego QM ... i jest powszechnie zakładany np. w modelu Isinga.

Matematycznie też mamy mamy superpozycje, np. 2^w wartości dla ciągu w spinów ... na których możemy robić analogiczne bramki.

Jasne można rozwiązywać np. 3-SAT w czasie wykładniczym, pytanie czy da się w czasie wielomianowym - pozwala na to np. założenie Boltzmannowskiego rozkładu po sekwencjach w takim Wick-rotated quantum computer.

 

ps. Jest teraz głośno o tym "komputerze fotonicznym rozwiązującym NP-zupełne": https://advances.sciencemag.org/content/6/5/eaay5853

Ale niestety od kogoś kto przynajmniej udaje że nie rozumie trudności z subset-sum: https://en.wikipedia.org/wiki/Subset_sum_problem

Czyli mamy zbiór liczb, pytanie jak wybrać podzbiór który np. sumuje się do ustalonej liczby.

Sęk w tym że jeśli te liczby są małe, to można to tanio zrobić programowaniem dynamicznym: markujemy osiągalne wartości gdy używamy lub nie kolejnej liczby - ten zbiór rósł by wykładniczo chyba że są małe liczby: wtedy możemy wykorzystać to że dana suma jest osiągana na wiele sposobów.

Subset-sum staje się NP-zupełny dopiero gdy tego nie możemy zrobić: kiedy używamy dużych liczb np. po 1000 cyfr ... w tej pracy skupiają się na wersji prostej, chociażby żeby móc wykryć czy jest foton w pytanej pozycji, potrzebowalibyśmy wykładniczo wzmacniać natężenie wchodzącego światła.

 

Ogólnie subset-sum jest świetnym problemem żeby zrozumieć dlaczego adiabatyczne komputery kwantowe raczej nie mają sensu.

Mianowicie ilość różnych podzbiorów jest 2^n dla zbioru liczb o wielkości n. Statystycznie te 2^n wartości dają mniej więcej rozkład Gaussa o szerokości ~sqrt(n).

Czyli z n szerokość rośnie bardzo powoli, a ilość wartości w niej rośnie wykładniczo - zagęszczenie możliwych sum.

Dookoła wartości sumy o którą się pytamy, w wąskim przedziale pojawia się wykładniczo wiele możliwych do osiągnięcia sum - fałszywych lokalnych minimów z perspektywy optymalizacji.

Czyli z perspektywy adiabatycznych komputerów kwantowych oznacza to że spectral gap maleje wykładniczo - różnica między prawdziwym rozwiązaniem: globalnym minimum, a pierwszym fałszywym. Co oznacza wykładniczy czas obliczeń i konieczność wykładniczego obniżania temperatury.

Też tam widać że te fałszywe lokalne minima nic nie mówią o prawdziwym: globalnym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

W dniu 5.02.2020 o 13:55, Jarek Duda napisał:

wykładniczo wzmacniać natężenie wchodzącego światła

Wysłanie każdego fotonu może być uznane za osobną elementarną operację obliczeniową, czyli algorytm nie jest wielomianowy.

W dniu 5.02.2020 o 13:55, Jarek Duda napisał:

Ogólnie subset-sum jest świetnym problemem żeby zrozumieć dlaczego adiabatyczne komputery kwantowe raczej nie mają sensu.(CIACH)

Jak najbardziej mają mogą mieć sens w zastosowaniach gdzie się je stosuje - w inżynierii.
Tam nie interesuje nas rozwiązanie globalne, ale wystarczająco do niego zbliżone i taki komputer jest niczym innym jak tylko aproksymatorem.
To czy dają rzeczywisty speedup kwantowy nie jest nawet tak istotne jak to, że za określone pieniądze wykonują oczekiwane obliczenia niemożliwe do wykonania taniej w okresie kiedy zamówiono sprzęt (piję do tego, że znaleziono efektowne algorytmy klasyczne bijące ówczesne implementacje D-Wave). Jednak jak sprawdziłem to komputery klasyczne są teraz około 1000x tańsze dla analogicznej mocy obliczeniowej. Być może taki sprzęt zamawia się w celach prestiżowych.

W dniu 5.02.2020 o 13:55, Jarek Duda napisał:

jaki rozkład powinna osiągnąć cząstka na przedziale [0,1]?

Ja rozumiem jak działa MERW. Nie rozumiałem jak ma działać ten komputer i nie jestem w stanie przeanalizować związku między MERW i modelem isinga obliczeń.

Teraz moje (niez?)zrozumienie jest takie:

Zamiast obliczeń kwantowych przeprowadzanych w czasie tworzymy sobie model oparty na MERW który udaje przeprowadzanie obliczeń.


Jest to rozpięty "w przestrzeni" układ b-bitów połączonych bramkami obrazujący kroki wszystkich obliczeń w tym modelu. Ma on taką własność, że jeżeli prawdopodobieństwa uzyskają wartości takie, że jednocześnie będą spełnione warunki brzegowe na ich wartości oraz zostanie osiągnięta statystyka Boltzmana obsadzeń na wszystkich wirtualnych ścieżkach obrazujących przejścia pomiędzy bitami (tutaj zakładam, że chodzi o wszystkie ścieżki łączące przeszłość (lewo) z przyszłością (prawo)), to b-bity będące wynikiem obliczeń uzyskają prawdopodobieństwo  różne od 0.5, co można uzyskać jako probabilistyczną odpowiedź na zadany problem.
I tutaj mam pytania:

Jaka jest zależność pomiędzy wartością b-bitu a ścieżkami? Czy to stosunek ilości ścieżek przechodzących przez dany bit w stosunku do wszystkich ścieżek (raczej niemożliwe), czy też raczej stosunek wszystkich konfiguracji ścieżek pomiędzy przeszłością a przyszłością, tych przechodzących przez bit i nie?

"Początkowy warunek brzegowy" (ten od lewej) tak naprawdę nie określa żadnego prawdopodobieństwa b-bitów?


Może są procesy stochastyczne ściśle zbieżne do takiego modelu (jak Ising który jest bardzo problematyczny w fizycznej realizacji), ale nie widzę opcji aby uzyskać gwarancję odpowiedzi w wielomianowym czasie, mamy tutaj eksplozję kombinatoryczną wartości (ścieżki) po których optymalizujemy wartości prawdopodobieństwa.

Sam model obliczeniowy którego przebieg chcemy osiągnąć w wyniku działań komputera jest inny od mechaniki kwantowej i liczy problemy NP, bo ma nieliniowe bramki. Nie jest to żadna nowość, o takich konstrukcjach czytałem kilkanaście lat temu.
 

Odnośnie terminologii to proponuję nazwę b-bity jako określenie bitów w procesie obliczeniowym stacjonarnym, ich wartości ma osiągnąć nasz działający komputer przy pomocy p-bitów/q-bitów. Czyli dostajemy generyczne b-bity które wykonują obliczenia w swoim modelu, przechodzą przez bramki.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ustawianie warunków brzegowych w "przyszłości" tego procesu b-obliczeniowego jest analogiem postselekcji w obliczeniach kwantowych. Komputer kwantowy z postselekcją ma "moc obliczeniową" PP, co oznacza że bez problemu (wielomianowo) rozwiązuje problemy NP.
To kolejny "trick" który może odpowiadać za "zwiększoną" w stosunku do komputera kwantowego moc obliczeniową, obok nieliniowych bramek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 hours ago, peceed said:

Wysłanie każdego fotonu może być uznane za osobną elementarną operację obliczeniową, czyli algorytm nie jest wielomianowy.

W subset-sum pytamy się czy istnieje podzbiór o zadanej sumie, możliwych podzbiorów w zbiorze o wielkości n jest 2^n, w NP-zupełnych (duże liczby) rzeczywiście ilość podzbiorów jest porównywalna ilość.

Te podejścia np. na fotonach liczą wszystkie możliwe sumy po podzbiorach i sprawdzają czy jest zadana wartość - żeby dostała ona chociaż jeden foton, musielibyśmy zacząć od 2^n fotonów, czyli konieczne natężenie światła do użycia rośnie wykładniczo z wielkością problemów.

Jeszcze większym problemem jest to że żeby sprawdzić czy jest foton dla pytanej wartości, potrzebowalibyśmy wykładniczo poprawiać rozdzielczość mikroskopu.

Technika jest super do niusów, ale ciężko mi uwierzyć że kiedykolwiek będzie praktyczna - do czego potrzebowalibyśmy czegoś sprytniejszego niż testowanie 2^n podzbiorów.

15 hours ago, peceed said:

Tam nie interesuje nas rozwiązanie globalne, ale wystarczająco do niego zbliżone i taki komputer jest niczym innym jak tylko aproksymatorem.

W subset-sum przybliżenie praktycznie nic nie mówi o prawdziwym rozwiązaniu - tutaj (z  https://www.dropbox.com/s/nwyxf44u38i42d8/pnpslides.pdf) mam przykładowe posortowane dodatnie sumy podzbiorów z współczynnikami +1 (czarny kwadrat) lub -1 (biały) dla kilku zestawów liczb - na podstawie fałszywych rozwiązań (kolumny po lewej) potrzebujemy stwierdzić czy najbardziej lewa daje sumę 0 :

image.thumb.png.5f53c0cce6353602dd0ed14951e0f7af.png

Znam więcej przykładów gdzie jest wykładniczo wiele fałszywych rozwiązań które praktycznie nic nie mówią o prawdziwym.

Pytanie czy są trudne problemy w których fałszywe rozwiązania: lokalne minima (o wartości bliskiej globalnemu) coś nam dają?

Nie spotkałem się, no i jeśli by były to można też klasyczną numeryką szukać przybliżonych.

16 hours ago, peceed said:

Ja rozumiem jak działa MERW. Nie rozumiałem jak ma działać ten komputer i nie jestem w stanie przeanalizować związku między MERW i modelem isinga obliczeń.

Wyobraź sobie ogólnego Isinga z E_uv energią między sąsiadami, zapytaj się np. o prawdopodobieństwo 'u' w środku, dostaniesz Pr(u) = (psi_u)^2 i całą resztę dokładnie jak w MERW - jako że matematycznie to jest to samo.

 

Jeśli założysz że fizyka używa Boltzmannowskiego rozkładu między możliwymi sekwencjami na takim komputerze na Isingu, wtedy rozwiąże naszego np. 3-SAT.

Analogicznie działanie Shora jest uwarunkowane tym że fizyka używa rozkładu Feynanowskiego między sekwencjami - tym razem w kierunku czasowym.

1 hour ago, peceed said:

Ustawianie warunków brzegowych w "przyszłości" tego procesu b-obliczeniowego jest analogiem postselekcji w obliczeniach kwantowych.

Owszem można się tak patrzeć, ale restrykcja tylko do wyników które losowo dały konkretne n bitów, oznacza zmniejszenie statystyki 2^n razy.

Natomiast w przestrzennej realizacji jak Ising, nie ma problemu z zamontowaniem dużej ilości spinów z obu stron.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, Jarek Duda napisał:

Nie spotkałem się, no i jeśli by były to można też klasyczną numeryką szukać przybliżonych.

Pewnie dlatego właśnie D-Wave stracił jakąkolwiek przewagę wydajnościowokosztową w stosunku do klasycznych komputerów.

10 minut temu, Jarek Duda napisał:

Jeśli założysz że fizyka używa Boltzmannowskiego rozkładu między możliwymi sekwencjami na takim komputerze na Isingu, wtedy rozwiąże naszego np. 3-SAT.

Co do tego mam wątpliwości, że fizyka realizuje obliczeniowy model Isinga, a dokładniej mam pewność, że nie bardzo. On tylko jakościowo przybliża zachowanie pewnych struktur rzeczywistych struktur. Takie odstępstwo fizyki od perfekcyjnego Isinga może zostać potraktowane analogicznie jak niestabilność numeryczna, i to najprawdopodobniej rozwala fizyczną realizację. 
 

Bardzo prosiłbym o odniesienie się do opisu "ścieżkowego" tego modelu obliczeń, bo taki poziom abstrakcji jest najbardziej zrozumiały. W sensie wskazania co jest poprawne a co złe i uzupełnienie kwestii relacji ścieżek z prawdopodobieństwami i energią stanów. Wygląda na to, że "ścieżka obliczeniowa" to tak naprawdę graf data-flow obliczeń, i obsadzone według statystyki Boltzmanna powinny być wszystkie możliwe ścieżki obliczeniowe według swojej energii?
Jak rozumiem energia ścieżki zależy od stanów bitów (różne stany to różne poziomy energetyczne, można przyjąć konwencję że 1 to większa energia 0 niższa, ale też od przejść pomiędzy sąsiednimi bitami (co pozwala realizować "statystyczne" bramki obliczeniowe).
Bramka NOT to duża energia dla stanów 00 i 11 oraz mała dla 10 i 01. Więzy wyznaczane są przez bardzo duże różnice energetyczne pomiędzy 1 i 0 w stanie pojedynczego bitu(czy mają być tego rzędu co różnice energii na bramkach, czy też powinny być "nieskończone")? Czy różnica poziomów energetycznych w poszczególnych bitach pozwala nam kodować coś użytecznego poza więzami? Zerowa różnica energii pozwala nam wyrazić pełną superpozycję możliwości obliczeń.
 

49 minut temu, Jarek Duda napisał:

Natomiast w przestrzennej realizacji jak Ising, nie ma problemu z zamontowaniem dużej ilości spinów z obu stron.

Od strony fizycznej nie ma żadnego problemu aby "zamontować" dowolne bity w procesie obliczeniowym. Znacznie trudniejsze jest osiągnięcie takiego stanu układu który będzie równoważny rozkładowi boltzmannowskiemu tych trajektorii przy utrzymaniu zadanych bitów.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Owszem, raczej założenie Boltzmannowskości jest tylko przybliżone, ale jest ono analogiczne do założenia Feynmanowskości w mechanice kwantowej - które w takim razie może też jest tylko przybliżone, co raczej uniemożliwiłoby działanie np. algorytmu Shora w większej skali niż kilka bitów.

 

Co do rozkładu Boltzmannowskiego po trajektoriach np. w Isingu, definiujemy energię pary E_ij, energię ścieżki jako suma E_ij po tej ścieżce, zakładamy że prawdopodobieństwo ścieżki jest proporcjonalne do exp(-beta * energia ścieżki). To jest coś innego niż minimalizacja energii - która mówi że osiągamy jeden stan o minimalnej energii, w fizyce statystycznej dostajemy zespół stanów a nie samo minimum.

Idealny ferromagnetyk zachowuje spin - można go używać jako kabel.

Idealny anty-ferromagnetyk wymusza przeciwny spin - jak bramka NOT.

Brak oddziaływania pozwala na dowolne przejścia (bramka X) - np. do przygotowania zespołu 2^w spinów, czy nie-mierzenia danego spinu dla łamania Bella.

8 hours ago, peceed said:

Od strony fizycznej nie ma żadnego problemu aby "zamontować" dowolne bity w procesie obliczeniowym. Znacznie trudniejsze jest osiągnięcie takiego stanu układu który będzie równoważny rozkładowi boltzmannowskiemu tych trajektorii przy utrzymaniu zadanych bitów.

W QM dzieje się to w czasie - od strony przyszłości potrafimy tylko mierzyć, dostając losową wartość. Shor super to wykorzystuje - zespół Feynamnowskich trajektorii zostaje w ten sposób ograniczony do dających tą samą (zmierzoną) wartość, z tego ograniczonego zespołu dostajemy podpowiedź do faktoryzacji.

Żeby wymuszać od strony przyszłości, potrzebowalibyśmy CPT-analog przygotowania stanu ...

Mam pomysł na CPT-analog lasera ( https://physics.stackexchange.com/questions/308106/causality-in-cpt-symmetry-analogue-of-free-electron-laser-stimulated-absorbtion  ), dla przygotowania stanu nie mam (?)

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlaczego akurat w tym momencie "++"? Nie wiem, musi coś się wzięło i skolapsiło ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 8.02.2020 o 21:49, Jarek Duda napisał:

To jest zdecydowanie bardziej szalone niż genialne.
Symetria CPT nie odwraca entropii, więc nic z tego nie będzie działać.
Mam nawet lepszą nazwę niż lasar, to resal.

W dniu 8.02.2020 o 21:49, Jarek Duda napisał:

Brak oddziaływania pozwala na dowolne przejścia (bramka X) - np. do przygotowania zespołu 2^w spinów

To też nie ma prawa działać. Ostatnia rzecz na jaką liczyłem, to następująca możliwość:

Mamy zupełnie wirtualny proces b-obliczeniowy który pozwala kodować rozwiązania za pomocą Isinga w całkowicie niebanalny sposób. Wydawało mi się, że same bramki miałyby być kodowane za pomocą poziomów energetycznych w Isingu.. Za pomocą "ścieżek boltzmanna" trzeba by wyrazić splątanie stanów kwantowych, i wykazać że prawdopodobieństwa w Isingu zachowują się zgodnie z nimi przy zachowaniu struktury problemu udającej "obliczenia".  Niestety raczej nie może to działać. Problemem jest symetria w czasie, która wymusza, że bramki powinny działać też w drugą stronę, co przy ich nieliniowości jest problematyczne. Problemem jest też szczególny stan początkowy. Jako ratunek widziałem możliwość, że użycie odbicia lustrzanego na krawędzi pozwoli nam na mocy symetrii (Ising policzy rozwiązanie w obie strony w 2 miejscach) wykazać symetrię ścieżek prowadzącą do oczekiwanej "superpozycji" w procesie b-obliczeniowym.
Wtedy byłoby to bardzo ciekawe osiągnięcie teoretyczne które mówi nam wiele o strukturze rozwiązań modelu Isinga.

 Ale wszystko wskazuje, że nie chodzi o coś takiego, a  o dziwną hybrydę, która tworzyłaby superpozycję a potem chciała przenieść to do systemu który liczy zwykły problem Isinga.
 

Przede wszystkim - po jakiego grzyba. Ising jest NP-trudny jako problem do symulowania na komputerze klasycznym. Dodatkowo w modelu Isinga można zakodować rozwiązanie problemów NP-com przy użyciu wielomianowej ilości spinów, co oznacza, że nie potrzebujemy dziwnego kodowania aby uzyskać "superkomputer kwantowy", rozwiązanie regularnego Isinga nam to zapewnia.

.
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, peceed said:

Symetria CPT nie odwraca entropii

Nie wiem co ma piernik do wiatraka - fundamentalne teorie są czasowo/CPT symetryczne, diagramy Feynmana nie determinują kierunku czasu, w QFT nie ma entropii.

Żeby w ogóle móc mówić o entropii, trzeba przejść do obrazu efektywnego - matematycznie uśrednić, np. zamieniając cząstki Gaussami, średnimi gęstościami - taki model statystyczny (z entropią) nie wie gdzie są poszczególne cząstki, ale bardziej fundamentalny bez entropii jak QFT wie.

Twierdzenia "dowodzące" wzrost entropii dla symetrycznych teorii można sprowadzić do sprzeczności "dowodząc" też w drugą stronę po zastosowaniu symetrii.

One zawsze ukrywają subtelne założenie o uśrednianiu, tzw. "Stosszahlansatz" np. w https://en.wikipedia.org/wiki/H-theorem

Polecam Kac ring - prosty symetryczny układ (koraliki na okręgu, zmieniają kolor przechodząc przez znacznik), w którym łatwo tak "udowodnić" wzrost entropii dzięki tego typu założeniu (że przed znacznikami jest średni rozkład) ... podczas gdy bez przybliżania entropia ewoluuje tu np. cyklicznie: http://www.maths.usyd.edu.au/u/gottwald/preprints/kac-ring.pdf

image.thumb.png.f774489d6ba41bdcaad92113afd818f4.png

2 hours ago, peceed said:

Problemem jest symetria w czasie, która wymusza, że bramki powinny działać też w drugą stronę

Jaka symetria w czasie? Układ który pokazałem nie używa czasu, tylko założenia rozkładu Boltzmannowskiego w przestrzeni - jeśli jest ono spełnione, to rozwiąże 3-SATa.

2 hours ago, peceed said:

Ising jest NP-trudny jako problem do symulowania na komputerze klasycznym. Dodatkowo w modelu Isinga można zakodować rozwiązanie problemów NP-com przy użyciu wielomianowej ilości spinów, co oznacza, że nie potrzebujemy dziwnego kodowania aby uzyskać "superkomputer kwantowy", rozwiązanie regularnego Isinga nam to zapewnia.

Dokładnie to mówię - rozwiązanie takiego układu Isinga kosztowałoby wykładniczo długi czas na komputerze klasycznym, chcemy wykorzystać fizykę: żeby szybko nam rozwiązała zakodowany tam np. NP-zupełny problem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przepis na resal masłowy: 
Potrzebna jest równowartość kostki masła (może być margaryna, ale puryści się burzą) roztopiona na patelni. Po uruchomieniu stapia się w postać kostki i w pewnym momencie emituje potężny impuls promieniowania podczerwonego w przestrzeń, który zawsze dziwnym trafem trafia w wylot lasera przelatującego tam latającego talerza. Ten ulega ekscytacji i odpompowaniu co powoduje w efekcie naładowanie kondensatora, tuż przed tym jak ekran dotykowy odpycha zielonego palucha, a przypadkowe fotony z otoczenia absorbowane przez wyświetlacz formują dokładnie obraz kostki masła akurat w miejscu gdzie ten paluch się znajdował.

To dopiero jest wynalazek!
 

15 godzin temu, Jarek Duda napisał:

QFT nie ma entropii

Unitarna ewolucja funkcji falowej sama z siebie nie zmienia entropii (zwanej w tym przypadku entropią von Neumanna), i to nie jest żadne odkrycie. Nie potrzeba do tego nawet mieszać QFT. QFT to nie jest świat, to teoria która pozwala nam opisywać świat. MK opisuje wiedzę o świecie z punktu widzenia obserwatora. Ten sam świat może być opisywany zupełnie różnymi funkcjami falowymi przez dwóch różnych obserwatorów. Już to sugeruje, że nie można traktować opisu jako obiektywnej  rzeczywistości i mieszać do jego analizy realistycznych, zupełnych przykładów matematycznych. W pewnym momencie obserwator może otrzymać nową informację i jego wiedza o układzie się zmieni a entropia wzrośnie. Obserwator jest klasyczny, a jego kojarzenie jak najbardziej wymaga wzrostu entropii. A w naszym świecie entropia rośnie na mocy DPT.

15 godzin temu, Jarek Duda napisał:

Jaka symetria w czasie? Układ który pokazałem nie używa czasu, tylko założenia rozkładu Boltzmannowskiego w przestrzeni

Lewo/prawo. W czasie "b-obliczeń".
Ja też mam pytanie, jaki układ? Bo na razie to mamy coś, co nie wie czym jest. Bez żadnych detali.
Na początku proszę się odnieść do kwestii, czy to w ogóle jest kodowanie problemów w isingu, tzn. czy istnieje bezpośrednio udowodniona wyrażalność przebiegu zaprezentowanych obliczeń jako rozwiązania problemu Isinga. To nie jest problem fizyczny, tylko czysta matematyka (bardzo chciałbym zobaczyć jak jest wyrażana superpozycja za pomocą obsadzeń wirtualnych ścieżek). 
Natomiast układ chciałby jednocześnie być komputerem liczącym Isinga ale z dziwnymi dodatkami które są bardzo niefizyczne i niesprecyzowane, jak nadawanie bitom superpozycji na bramkach w czasie (bo to fizyczny proces) a jednocześnie liczenie na to, że będą one równoważne superpozycjom wymaganym przez model obliczeń "w przestrzeni". To jest fizyka, i tutaj nie da się być tak niekonsekwentnym. Trzeba odróżnić problem od fizycznego układu który go rozwiązuje.

15 godzin temu, Jarek Duda napisał:

to rozwiąże 3-SATa

Ale to nie jest żadne osiągnięcie, bo mamy kodowania które rozwiązują go bez żadnych "dziwnych założeń":
https://arxiv.org/pdf/1302.5843.pdf
Co oznacza, że do rozwiązania takich problemów wystarczy nam niemagiczny układ rozwiązujący Isinga.

Jedyne co jest potencjalnie ciekawe i wartościowe to formalne wprowadzenie b-obliczeń i reprezentacja (prosta, bo rozwiązania Isinga są Turing-complete:  https://arxiv.org/pdf/1204.1084.pdf) ich przebiegu jako rozwiązań pewnego problemu szkła spinowego.

 

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Entropia von Neumanna w unitarnej ewolucji (np. funkcji falowej wszechświata) jest stała - nie ma drugiej zasady termodynamiki.

Widzę że obie zalinkowane prace zakładają znalezienie minimum energii - co w praktyce nie działa ponieważ dla trudnych problemów ilość lokalnych minimów (fałszywych rozwiązań) rośnie wykładniczo.

W praktyce układ nie osiąga minimum energii, tylko rozkład Boltzmannowski stanów - na czym opiera się podejście o którym mówię, unikając problemu wykładniczej ilości lokalnych minimów.

Konkretnie, układ jest tak dobrany żeby ograniczyć zespół możliwych ścieżek do odpowiadających wartościowaniom zmiennych które spełniają wszystkie alternatywy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 minut temu, Jarek Duda napisał:

Entropia von Neumanna w unitarnej ewolucji (np. funkcji falowej wszechświata) jest stała - nie ma drugiej zasady termodynamiki.

Tak, ale to właśnie chyba sedno mojej wypowiedzi - pisanie że "w QFT nie ma entropii" nie ma żadnego znaczenia. Największym problemem z LASARem jest to, że nie wiadomo co miałby on robić, poza ilustracją faktu że jak odwróci się czas to jest dziwnie...

20 minut temu, Jarek Duda napisał:

Widzę że obie zalinkowane prace zakładają znalezienie minimum energii - co w praktyce nie działa

W takim razie czego szuka ten wick-rotated w trakcie swojej pracy, jeśli nie minimum globalnego?

Widzę tutaj jakieś problemy komunikacyjne...
 

15 minut temu, Jarek Duda napisał:

Entropia von Neumanna w unitarnej ewolucji (np. funkcji falowej wszechświata) jest stała - nie ma drugiej zasady termodynamiki.

Tak, ale to właśnie chyba sedno mojej wypowiedzi - pisanie że "w QFT nie ma entropii" nie ma żadnego znaczenia. Największym problemem z LASARem jest to, że nie wiadomo co miałby on robić, poza ilustracją faktu że jak odwróci się czas to jest dziwnie...

 

31 minut temu, Jarek Duda napisał:

W praktyce układ nie osiąga minimum energii, tylko rozkład Boltzmannowski stanów

To trzeba zatem sformalizować

32 minuty temu, Jarek Duda napisał:

Konkretnie, układ jest tak dobrany żeby ograniczyć zespół możliwych ścieżek do odpowiadających wartościowaniom zmiennych które spełniają wszystkie alternatywy.

Uzyskanie rozkładu Boltzmannowskiego zakłada jakąś termalizację, na co potrzeba czasu,, i to ona jest wynikiem "działania"  komputera.
Nie jestem pewien, w jaki sposób można uzyskać coś takiego, jednocześnie utrzymując cały czas warunek brzegowy (początkowy w modelu) określający określone splątanie bitów.
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, peceed said:

Największym problemem z LASARem jest to, że nie wiadomo co miałby on robić, poza ilustracją faktu że jak odwróci się czas to jest dziwnie...

Już to przerabialiśmy z perspektywy twierdzenia Bella ... matematycznie mamy podstawowe dwa sposoby rozwiązywania modeli np. Lagranżowskich:

1) asymetryczne: Euler-Lagrange w mechanice klasycznej, równanie Schrodingera w kwantowej,

2) symetryczne: zasada minimalizacji działania w klasycznej, całki Feynmanowski w kwantowej, diagramy Feynmana w QFT.

Mając rozwiązanie jednym możemy przekonwertować w drugi, ale ogólnie rozwiązania znalezione przez 1) lub 2) mają inne własności - pytanie którego używa fizyka?

1) spełnia założenia z których wynikają nierówności Bella - łamane przez fizykę - sprzeczność.

2) ma inny rodzaj lokalności niż w Bellu - nie spełnia jego założeń - nie ma sprzeczności.

Podczas gdy nie jest to dla nas intuicyjne, twierdzenie Bella wyklucza 1), nie wyklucza 2) - sugerując że czasowo/CPT symetryczna fizyka rozwiązuje swoje równania w symetryczny sposób.

1 hour ago, peceed said:

W takim razie czego szuka ten wick-rotated w trakcie swojej pracy, jeśli nie minimum globalnego?

Zakładając idealne bramki, ograniczają one przestrzeń możliwości (zespół) tylko do rozwiązujących nasz problem.

W praktyce nie mamy idealnych bramek - owszem stając się szukaniem globalnego minimum.

Nie twierdziłem że to jest praktyczne, tylko chciałem pociągnąć analogię między Feynmanowskimi i Boltzmannowskim zespołami - dając w tym drugim też regułę Borna, łamanie Bella, czy "Wick-rotated" komputery kwantowe.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Fajnie sobie gadacie, nie chcę przeszkadzać, ale...
... na mój niuch (zakatarzony, bo zima) matematyczna t/CPT symetria diagramów i całek Feynmana nie przesądza symetrii zrealizowanych trajektorii -> i <-. Diagramy i całki F opisują zdarzenia/trajektorie możliwe, a nie konieczne

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, Jarek Duda napisał:

czasowo/CPT symetryczna fizyka rozwiązuje swoje równania w symetryczny sposób

Fizyka nie musi "rozwiązywać" swoich równań w jakikolwiek sposób. To my rozwiązujemy równania a dla nas istnieje wielka różnica pomiędzy przyszłością a przeszłością.

Godzinę temu, Jarek Duda napisał:

Podczas gdy nie jest to dla nas intuicyjne, twierdzenie Bella wyklucza 1), nie wyklucza 2) - sugerując że czasowo/CPT symetryczna fizyka rozwiązuje swoje równania w symetryczny sposób.


Twierdzenie Bella mówi nam o prawdopodobieństwie zdarzeń. Do momentu kiedy nie sprawdzimy co się stało, nic się nie stało, stają się "możliwości". 
A gdy obserwator dowiaduje się o zdarzeniach, znika symetria czasowa. To dokładnie ten moment. Możemy sobie liczyć zmianę prawdopodobieństw, ale w końcu musimy sprawdzić co się stało.

 

W dniu 8.02.2020 o 21:49, Jarek Duda napisał:

Tam jest nieprawdziwe zdanie że:

Cytat

What is nontrivial here is that deexication of the target is stimulated by turning the lasar on 

To nieprawda. Po odwróceniu czasu nie ma takiego związku przyczynowo skutkowego. Deekscytacja celu następuje całkowicie spontanicznie i przypadkowo, przypadkowo trafia w lasaer i jej skutkiem jest naładowanie lasaera. To normalny ciąg przyczynowo skutkowy, tylko całkowicie nieprawdopodobny z makroskopowego punktu widzenia! Obrócenie strzałki czasu zmienia opis zjawisk i ich interpretację. Idąc dalej, zupełnie przypadkowo lasaer zaczał ładować pompę fotonami która poruszyła absorbując ciepło z otoczenia (to tylko nieprawdopodobne) "odesłała prąd do kondensatora", i zupełnie przypadkiem zaraz po tym fakcie zaszło przerwanie obwodu elektrycznego.
Związek między ekscytacją laseara przez cel mógł być opisany jako związek przyczynowo-skutkowy ze względu na uporządkowany charakter oddziaływania w trakcie którego nic z entropią się nie działo (fotony leciały w kulce obok siebie), przez chwilę wyglądało to normalnie, ale już na poziomie mikro taka ekscytacja wymagała gigantycznego fuksa. Przy reszcie zjawisk (makro) wciąż pojawiają się nieprawdopodobne zbiegi okoliczności.

 

 

15 minut temu, ex nihilo napisał:

Diagramy i całki F opisują zdarzenia/trajektorie możliwe, a nie konieczne

Oczywiście. Cały czas staram się to wytłumaczyć koledze że to nie jest "rzeczywistość", tylko opis wiedzy obserwatora. Dopiero pomiar pozwala nam stwierdzić że coś się stało, ale te trajektorie i tak nie są obserwablami. To inny sposób liczenia "estymat przyszłości". Matematyczno-informatyczne wychowanie wciąż jednak zmusza mózg do szukania realistycznych  śrubek i epicykli ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Naukowcy z University of Washington zauważyli, że są w stanie wykryć „atomowy oddech” czyli wibracje mechaniczne pomiędzy dwiema warstwami atomów. Dokonali tego obserwując światło emitowane przez atomy wzbudzone laserem. Odkryte zjawisko można wykorzystać do zakodowania i przesłania informacji kwantowej. Uczeni zbudowali urządzenie, które może stać się elementem składowym przyszłych technologii kwantowych.
      To nowa platforma w skali atomowej, która wykorzystuje optomechanikę, szereg zjawisk w których ruch światła i ruch mechaniczny są ze sobą nierozerwalnie powiązane. Mamy tutaj efekty kwantowe, które możemy wykorzystać do kontrolowania pojedynczego fotonu przemieszczającego się przez zintegrowane obwody optyczne, mówi profesor Mo Li, który stał na czele grupy badawczej.
      Ostatnie badania bazowały na wcześniejszych pracach związanych z ekscytonami. To kwazicząstki w których można zakodować informację kwantową, a następnie przesłać ją w postaci fotonu, którego właściwości kwantowe (jak polaryzacja czy długość fali) pełnią rolę kubitu. A jako że kubit ten jest niesiony przez foton, informacja przemieszcza się z prędkością światła. Fotony są naturalnym wyborem jako nośnik informacji kwantowej, gdyż potrafimy przesyłać je za pomocą światłowodów szybko na duże odległości, nie tracą przy tym zbyt wielu informacji, dodaje doktorantka Adina Ripin.
      Naukowcy pracowali w ekscytonami chcąc stworzyć urządzenie emitujące pojedyncze fotony. Obecnie w tym celu używa się atomowych macierzy, takich jak np. znajdujące się w diamentach. Jednak w macierzach takich występują naturalne defekty, które zaburzają pracę tego typu urządzeń. Naukowcy z Uniwersity of Washington chcieli precyzyjnie kontrolować miejsce, z którego będzie dochodziło do emisji fotonu.
      Wykorzystali w tym celu nałożone na jednoatomowe warstwy diselenku wolframu. Dwie takie warstwy nałożyli na podłoże, na którym znajdowały się setki kolumienek o szerokości 200 nanometrów każda. Diselenek wolframu przykrył te kolumienki, a ich obecność pod spodem doprowadziła do pojawienia się niewielkich naprężeń w materiale. W wyniku naprężeń znajdujących się w miejscu każdej z kolumienek powstała kropka kwantowa. I to właśnie te kropki są miejscem, w którym dochodzi do emisji. Dzięki precyzyjnemu impulsowi laserowemu naukowcy byli w stanie wybić elektron, tworząc w ten sposób ekscytony. Każdy z ekscytonów składał się z ujemnie naładowanego elektronu z jednej warstwy diselenku wolframu i dodatnio naładowanej dziury z drugiej warstwy. Po chwili elektron wracał w miejsce, w którym przed chwilą się znajdował, a ekscyton emitował foton z zakodowaną informacją kwantową.
      Okazało się jednak, że poza fotonami i ekscytonami jest coś jeszcze. Powstawały fonony, kwazicząstki będące produktem wibracji atomowych.
      W ten sposób po raz pierwszy zaobserwowano fonony w emiterze pojedynczych fotonów w dwuwymiarowym systemie atomowym. Bliższe analizy wykazały, że każdy foton emitowany w ekscytonu był powiązany z jednym lub więcej fononami. Naukowcy postanowili więc wykorzystać to zjawisko. Okazało się, że za pomocą napięcia elektrycznego mogą wpływać na energię interakcji pomiędzy fotonami i fononami. Zmiany te są mierzalne i można je kontrolować.
      To fascynujące, że możemy tutaj obserwować nowy typ hybrydowej platformy kwantowej. Badając interakcję pomiędzy fononami a kwantowymi emiterami, odkryliśmy zupełnie nową rzeczywistość i nowe możliwości kontrolowania i manipulowania stanami kwantowymi. To może prowadzić do kolejnych odkryć w przyszłości, dodaje Ruoming Peng, jeden z autorów badań.
      W najbliższym czasie naukowcy chcą stworzyć falowody, za pomocą których będą przechwytywali wygenerowane fotony i kierowali je w wybrane miejsca. Mają tez zamiar skalować swój system, by jednocześnie kontrolować wiele emiterów oraz fonony. W ten sposób poszczególne emitery będą mogły wymieniać informacje, a to będzie stanowiło podstawę do zbudowania kwantowego obwodu. Naszym ostatecznym celem jest budowa zintegrowanego systemu kwantowych emiterów, które mogą wykorzystywać pojedyncze fotony przesyłane za pomocą przewodów optycznych oraz fonony i używać ich do kwantowych obliczeń, wyjaśnia Li.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy.
      Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji.
      Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003.
      Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny.
      Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji.
      Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po raz pierwszy udało się dwukrotnie wykryć poruszający się pojedynczy foton, nie niszcząc go przy tym. To ważna osiągnięcie, gdyż dotychczas foton ulegał zwykle zniszczeniu podczas jego rejestrowania. Najnowsze osiągnięcie może przyczynić się do powstania szybszych i bardziej odpornych na zakłócenia sieci optycznych i komputerów kwantowych.
      Zwykle wykrycie fotonu wiąże się z jego zaabsorbowaniem. Jednak foton może nieść ze sobą cenne informacje, a w takich przypadkach specjaliści woleliby mieć możliwość odczytania tych danych i przepuszczenia fotonu dalej, do miejsca docelowego. Żadna metoda detekcji nie jest w 100% skuteczna, zawsze istnieje ryzyko, że coś się prześliźnie niewykryte, mówi jeden z autorów badań, Stephan Welte, fizyk kwantowy z Instytutu Optyki Kwantowej im. Maxa Plancka w niemieckim Garching. Dlatego też możliwość niedestrukcyjnego wykrywania fotonów jest tak ważna – ustawienie detektorów jeden za drugim zwiększa szanse, że wykryjemy wszystkie interesujące nas fotony.
      Dotychczas opracowano różne sposoby wykrywania fotonu bez jego niszczenia. Często polegają one na interakcji fotonu z jonem, nadprzewodzącym kubitem lub innymi systemami kwantowymi. Jednak w ten sposób możemy albo wykonać pojedynczą niedestrukcyjną rejestrację poruszającego się fotonu, albo liczne niedestrukcyjne odczyty stacjonarnego fotonu uwięzionego we wnęce.
      Teraz naukowcy z Niemiec dwukrotnie wykryli pojedynczy foton wędrujący światłowodem. Wykorzystali w tym celu skonstruowany przez siebie niedestrukcyjny detektor zbudowany z pojedynczego atomu rubidu uwięzionego w odbijającej wnęce. Foton, wpadając do wnęki, odbija się od jej ścian, zmieniając stan kwantowy atomu, co można wykryć za pomocą lasera. Uczeni umieścili dwa takie detektory w odległości 60 metrów od siebie. Wykryły one ten sam foton, nie absorbując go. Welte mówi, że teoretycznie można w ten sposób wykryć pojedynczy foton nieskończoną liczbę razy, jednak w praktyce istnienie 33-procentowe ryzyko, że użycie detektora spowoduje utratę fotonu.
      Nowa technologia może w przyszłości pozwolić na śledzenie trasy fotonów. Pozwoli to na przyspieszenie pracy systemów kwantowych, gdyż będziemy w stanie upewniać się, że zakodowane w fotonach informacje dotrą tam, gdzie powinny.
      Powiedzmy, że chcesz wysłać kwantową informację z Monachium do Nowego Jorku. Możesz w międzyczasie wielokrotnie sprawdzać, czy foton nie został po drodze utracony, np. sprawdzając, czy dotarł do Paryża. Jeśli okaże się, że foton zgubił się po drodze, można będzie natychmiast wysłać go ponownie. Nie trzeba będzie czekać na zakończenie całej transmisji, by upewnić się, że wszystko poszło tak, jak powinno, wyjaśnia główny autor badań, Emanuele Distante.
      Twórcy nowych detektorów uważają, że nie można ich będzie wykorzystać do podsłuchania kwantowej komunikacji. To jak śledzenie przesyłek. Możesz dowiedzieć się, gdzie jest paczka, ale nic nie wiesz o jej zawartości. Foton zawiera w sobie pewną kwantową informację. Możesz w sposób niedestrukcyjny go wykryć, ale nie odczytać, stwierdza Welte.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jak się okazuje, do rozwoju wielkich cywilizacji ludzkości potrzebny był nie tylko miecz i pług, ale również pióro. Autorzy najnowszej analizy dowodzą, że o być albo nie być protopaństw i pierwszych cywilizacji decydowała technologia informacyjna.
      Analiza danych zgromadzonych w ramach projektu „Seshat: Global History Databank” dowodzi, że na pewnym etapie rozwoju rodzące się państwa napotykały wąskie gardło w postaci konieczności wymiany informacji. Te, które sobie z tym poradziły, mogły rozwijać się dalej.
      Jaeweon Shin z Rice University, Michael Holton Price, David Wolpert, Hajime Shimao i Brendan Tracey z Santa Fe Institute oraz Timothy Kohler z Washington State University dowodzą, że każda cywilizacja rozwijała się w trzech etapach.
      Na początkowym etapie rozwój protopaństwa napędzany był samym wzrostem liczby ludności. Osiadły tryb życia, udomowienie roślin i zwierząt pojawiły się niezależnie w wielu miejscach na Ziemi. W wielu społeczeństwach doszło też do znacznej zmiany mobilności ich członków. Wraz z pojawianiem się nadwyżek żywności, przekazywaniem zgromadzonych dóbr kolejnym pokoleniom rosły nierówności, pojawiały się i umacniały ośrodki władzy.
      Powstawały protopaństwa, a wzrost ich siły był napędzany wzrostem liczby ludności. Niemal wszędzie obserwuje się występowanie takich powiązanych ze sobą zjawisk jak wzrost produkcji rolnej, wzrost liczby ludności, pojawianie się zaczątków miast, rozwój hierarchii politycznej i coraz większe nierówności majątkowe. Na wszystkich kontynentach gdzie pojawiło się rolnictwo zauważalny jest wysoki stopień podobieństwa zarówno w sposobie formowania się społeczności ludzkich, od niewielkich grup łowców-zbieraczy po ostatnią znaną nam formę czyli wielkie społeczeństwa miejskie.
      Naukowcy chcieli sprawdzić, co powoduje, że społeczeństwa rozwijają się w tak bardzo podobny sposób. W tym celu wzięli na warsztat bazę Seshat. To ambitny projekt, w którym pod uwagę branych jest ponad 1500 zmiennych, za pomocą których opisano ponad 400 społeczeństw z 6 kontynentów na przestrzeni ostatnich 10 000 lat historii.
      Na podstawie wykonanej analizy autorzy badań doszli do wniosku, że po początkowej pierwszej fazie rozwoju protopaństw wzrost liczby ludności przestaje wystarczać i pojawia się wąskie gardło. Jest nim konieczność opracowania efektywnego systemu wymiany informacji i przeprowadzania transakcji handlowych. Istnieje bardzo silny związek pomiędzy sposobem, w jaki społeczeństwa przetwarzają informacją, a tym, jak duże mogą się stać. Wydaje się, że wcześnie dokonany postęp w przetwarzaniu informacji, a zatem np. pojawienie się pisma czy pieniądze, był dla rozwoju tamtych społeczeństw równie ważny, jak dla nas ważny jest dzisiaj internet, mówi Tim Kohler. Dopiero, gdy w takim protopaństwie pojawi się pismo i pieniądz, społeczeństwo może nadal się rozwijać i przejść do fazy trzeciej.
      Nasze analizy wykazały, że starożytne cywilizacje, po osiągnięciu pewnej wielkości, natykały się na informacyjne wąskie gardło. To punkt zwrotny naszej skali rozwoju społeczeństw. Bardzo rzadko zdarzało się, by bez pisma lub pieniądza, mogły nadal się rozwijać. Jednak tam, gdzie dokonano tych wynalazków, narodziły się wielkie imperia, dodaje Kohler.
      Badania Kohlera i jego kolegów dostarczają też możliwego wyjaśnienia różnic technologicznych, jakie widzimy pomiędzy cywilizacjami Starego i Nowego Świata. Ich praca dowodzi bowiem, że bardzo mało cywilizacji obu Ameryk było w stanie dotrzeć do punktu zwrotnego. W związku z tym istniała tam mniejsza presja na rozwój pisma i innych form informacji, które przyniosły postęp technologiczny w Europie i Azji.
      Jednym z głównych powodów, dla których cywilizacje Ameryki nigdy nie osiągnęły punktu zwrotnego był brak koni, wołów i innych dużych zwierząt zdolnych do przenoszenia ludzi i ładunków. Takie zwierzęta pozwalały na powstanie nadwyżek żywności, ułatwiały handel i umożliwiały ekspansję imperiów w Azji i Europie, dodaje Kohler.
      Naukowcy mają nadzieję, że analiza bazy Seshat da też odpowiedź na inne interesujące pytania, jak np. dlaczego niektóre cywilizacje upadły, mimo że nie widać żadnych zewnętrznych przyczyn ich porażki. Mamy nadzieję, że z czasem, gdy do Seshat będzie trafiało coraz więcej danych, uda nam się odpowiedzieć na tego typu pytania, mówi Kohler.
      Obecnie posiadamy nowe niezwykłe możliwości przechowywania i przetwarzania danych. Większe niż kiedykolwiek wcześniej. Czy to oznacza, że przed nami nowy etap rozwoju ludzkiej cywilizacji? A jeśli tak, to jak będzie on wyglądał, zastanawia się uczony.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa naukowców z Uniwersytetu w Oksfordzie donosi o udanym splątaniu bakterii z fotonami. W październikowym numerze Journal of Physics ukazał się artykuł zespołu pracującego pod kierunkiem Chiary Marletto, który przeanalizował eksperyment przeprowadzony w 2016 roku przez Davida Colesa i jego kolegów z University of Sheffield.
      Podczas wspomnianego eksperymentu Coles wraz z zespołem umieścili kilkaset chlorobakterii pomiędzy dwoma lustrami i stopniowo zmniejszali odległość pomiędzy nimi tak, aż dzieliło je zaledwie kilkaset nanometrów. Odbijając białe światło pomiędzy lustrami naukowcy chcieli spowodować, by fotosyntetyczne molekuły w bakteriach weszły w interakcje z dziurą, innymi słowy, bakterie miały ciągle absorbować, emitować i ponownie absorbować odbijające się fotony. Eksperyment okazał się sukcesem. Sześć bakterii zostało w ten sposób splątanych z dziurą.
      Jednak Marletto i jej zespół twierdzą, że podczas eksperymentu zaszło coś więcej, niż jedynie połączenie bakterii z dziurą. Przeprowadzone analizy wykazały, że sygnatura energetyczna pojawiająca się podczas eksperymentu jest właściwa dla splątania molekuł wewnątrz bakterii e światłem. Wydaje się, że niektóre fotony jednocześnie trafiały w molekuły i je omijały, a to właśnie dowód na splątanie.
      Nasze modele dowodzą, że zanotowano sygnaturę splątania pomiędzy światłem a bakterią, mówi pani Marletto. Po raz pierwszy udało się dokonać splątania kwantowego w żywym organizmie.
      Istnieje jednak wiele zastrzeżeń, mogących podważać wnioski grupy Marletto. Po pierwsze i najważniejsze, dowód na splątanie zależy od tego, w jaki sposób zinterpretujemy interakcję światła z bakterią. Marletto i jej grupa zauważają, że zjawisko to można opisać też na gruncie klasycznego modelu, bez potrzeby odwoływania się do efektów kwantowych. Jednak, jak zauważają, nie można tego opisać modelem „półklasycznym”, w którym do bakterii stosujemy zasady fizyki newtonowskiej, a do fotonu fizykę kwantową To zaś wskazuje, że mieliśmy do czynienia z efektami kwantowymi dotyczącymi zarówno bakterii jak i fotonu. To trochę dowód nie wprost, ale sądzę, że wynika to z faktu, iż oni próbowali bardzo rygorystycznie podejść do tematu i nie wysuwali twierdzeń na wyrost, mówi James Wootton z IBM Zurich Research Laboratory, który nie był zaangażowany w badania.
      Z kolei Simon Gröblacher z Uniwersytetu Technologicznego w Delft zwraca uwagę na kolejne zastrzeżenie. Otóż energię bakterii i fotonu zmierzono wspólnie, nie osobno. To pewne ograniczenie, ale wydaje się, że miały tam miejsce zjawiska kwantowe. Zwykle jednak gdy chcemy dowieść splątania, musimy osobno zbadać oba systemy.
      Wiele zespołów naukowych próbuje dokonać splątania z udziałem organizmów żywych. Sam Gröblacher zaprojektował eksperyment, w którym chce umieścić niesporczaki w superpozycji. Chodzi o to, by zrozumieć nature rzeczy i sprawdzić czy efekty kwantowe są wykorzystywane przez życie. W końcu u swoich podstaw wszystko jest kwantem, wyjaśnia współpracownik Marletto, Tristan Farrow.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...