Jump to content
Forum Kopalni Wiedzy

Recommended Posts

20 godzin temu, Jarek Duda napisał:

Ogólnie polecam przemyśleć MERW: https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk

Przemyślałem sobie wiele lat temu i wniosek był taki że nie jest to żaden model MK i rzeczywistości.
Może natomiast aproksymować pewne zjawiska na poziomie kwantowym.
 

20 godzin temu, Jarek Duda napisał:

Nie ma interferencji

Interferencja jest jedynym powodem dla którego mamy kwantowy speedup. Bez interferencji mamy komputer klasyczny, bo nie jesteśmy w stanie wyciąć ścieżek obliczeń nie prowadzących do prawidłowych rozwiązań.

20 godzin temu, Jarek Duda napisał:

 Wick-rotated quantum computers

Poproszę o odpowiedź na jedno proste pytanie: czym jest jednostka informacji w tym modelu obliczeń. Czy jest to q-bit czy bit? Czy też może jakiś wariant p-bitu? Skoro jest to komputer, to musi istnieć prosta odpowiedź na tak postawione pytanie. Bo pomimo starań wygląda to wciąż na "zlepek idei".
Użycie nieunitarnych bramek w obliczeniach nie wyklucza użycia q-bitów, ale każda taka bramka w trakcie działania dokonuje redukcji wektora stanu w sposób całkowicie losowy, co powoduje że szanse na uzyskanie prawidłowej ścieżki obliczeń maleją wykładniczo z ich ilością.
p-bity są obecnie tworzone przez szybkie stany oscylacyjne, według innego spojrzenia taki komputer jest układem chaotycznym z atraktorami w pobliżu rozwiązań, jest to komputer probabilistyczny.
Samo rozwiązywanie 3-SAT nic nie znaczy, to robi 6502. Potrzebna jest niewielomianowa ilość powtórzeń obliczeń.

Share this post


Link to post
Share on other sites

peceed, jedno pytanie: jaki rozkład powinna osiągnąć cząstka na przedziale [0,1]?

Wszelkie chaosy, dyfuzje powiedzą że rozkład jednorodny rho=1.

Jednak QM i MERW mówią że zlokalizowany: rho~sin^2.

Skąd ta lokalizacja?

image.thumb.png.280192e3e6d0bd6b9d96460e1b4da635.png

MERW nie ma interferencji, ale jest dyfuzją zrobioną zgodnie z zasadą maksymalizacji entropii (Jaynes) - co jest konieczne dla modeli fizyki statystycznej. Dzięki temu naprawia rozbieżność dla rozkładu stacjonarnego: daje dokładnie taki sam jak kwantowy stan podstawowy.

Dzieje się dzięki użyciu rozkładu Boltzmannowskiego po trajektoriach - który jest matematycznie analogiczny do Feynmanowskiego QM ... i jest powszechnie zakładany np. w modelu Isinga.

Matematycznie też mamy mamy superpozycje, np. 2^w wartości dla ciągu w spinów ... na których możemy robić analogiczne bramki.

Jasne można rozwiązywać np. 3-SAT w czasie wykładniczym, pytanie czy da się w czasie wielomianowym - pozwala na to np. założenie Boltzmannowskiego rozkładu po sekwencjach w takim Wick-rotated quantum computer.

 

ps. Jest teraz głośno o tym "komputerze fotonicznym rozwiązującym NP-zupełne": https://advances.sciencemag.org/content/6/5/eaay5853

Ale niestety od kogoś kto przynajmniej udaje że nie rozumie trudności z subset-sum: https://en.wikipedia.org/wiki/Subset_sum_problem

Czyli mamy zbiór liczb, pytanie jak wybrać podzbiór który np. sumuje się do ustalonej liczby.

Sęk w tym że jeśli te liczby są małe, to można to tanio zrobić programowaniem dynamicznym: markujemy osiągalne wartości gdy używamy lub nie kolejnej liczby - ten zbiór rósł by wykładniczo chyba że są małe liczby: wtedy możemy wykorzystać to że dana suma jest osiągana na wiele sposobów.

Subset-sum staje się NP-zupełny dopiero gdy tego nie możemy zrobić: kiedy używamy dużych liczb np. po 1000 cyfr ... w tej pracy skupiają się na wersji prostej, chociażby żeby móc wykryć czy jest foton w pytanej pozycji, potrzebowalibyśmy wykładniczo wzmacniać natężenie wchodzącego światła.

 

Ogólnie subset-sum jest świetnym problemem żeby zrozumieć dlaczego adiabatyczne komputery kwantowe raczej nie mają sensu.

Mianowicie ilość różnych podzbiorów jest 2^n dla zbioru liczb o wielkości n. Statystycznie te 2^n wartości dają mniej więcej rozkład Gaussa o szerokości ~sqrt(n).

Czyli z n szerokość rośnie bardzo powoli, a ilość wartości w niej rośnie wykładniczo - zagęszczenie możliwych sum.

Dookoła wartości sumy o którą się pytamy, w wąskim przedziale pojawia się wykładniczo wiele możliwych do osiągnięcia sum - fałszywych lokalnych minimów z perspektywy optymalizacji.

Czyli z perspektywy adiabatycznych komputerów kwantowych oznacza to że spectral gap maleje wykładniczo - różnica między prawdziwym rozwiązaniem: globalnym minimum, a pierwszym fałszywym. Co oznacza wykładniczy czas obliczeń i konieczność wykładniczego obniżania temperatury.

Też tam widać że te fałszywe lokalne minima nic nie mówią o prawdziwym: globalnym.

Share this post


Link to post
Share on other sites

 

W dniu 5.02.2020 o 13:55, Jarek Duda napisał:

wykładniczo wzmacniać natężenie wchodzącego światła

Wysłanie każdego fotonu może być uznane za osobną elementarną operację obliczeniową, czyli algorytm nie jest wielomianowy.

W dniu 5.02.2020 o 13:55, Jarek Duda napisał:

Ogólnie subset-sum jest świetnym problemem żeby zrozumieć dlaczego adiabatyczne komputery kwantowe raczej nie mają sensu.(CIACH)

Jak najbardziej mają mogą mieć sens w zastosowaniach gdzie się je stosuje - w inżynierii.
Tam nie interesuje nas rozwiązanie globalne, ale wystarczająco do niego zbliżone i taki komputer jest niczym innym jak tylko aproksymatorem.
To czy dają rzeczywisty speedup kwantowy nie jest nawet tak istotne jak to, że za określone pieniądze wykonują oczekiwane obliczenia niemożliwe do wykonania taniej w okresie kiedy zamówiono sprzęt (piję do tego, że znaleziono efektowne algorytmy klasyczne bijące ówczesne implementacje D-Wave). Jednak jak sprawdziłem to komputery klasyczne są teraz około 1000x tańsze dla analogicznej mocy obliczeniowej. Być może taki sprzęt zamawia się w celach prestiżowych.

W dniu 5.02.2020 o 13:55, Jarek Duda napisał:

jaki rozkład powinna osiągnąć cząstka na przedziale [0,1]?

Ja rozumiem jak działa MERW. Nie rozumiałem jak ma działać ten komputer i nie jestem w stanie przeanalizować związku między MERW i modelem isinga obliczeń.

Teraz moje (niez?)zrozumienie jest takie:

Zamiast obliczeń kwantowych przeprowadzanych w czasie tworzymy sobie model oparty na MERW który udaje przeprowadzanie obliczeń.


Jest to rozpięty "w przestrzeni" układ b-bitów połączonych bramkami obrazujący kroki wszystkich obliczeń w tym modelu. Ma on taką własność, że jeżeli prawdopodobieństwa uzyskają wartości takie, że jednocześnie będą spełnione warunki brzegowe na ich wartości oraz zostanie osiągnięta statystyka Boltzmana obsadzeń na wszystkich wirtualnych ścieżkach obrazujących przejścia pomiędzy bitami (tutaj zakładam, że chodzi o wszystkie ścieżki łączące przeszłość (lewo) z przyszłością (prawo)), to b-bity będące wynikiem obliczeń uzyskają prawdopodobieństwo  różne od 0.5, co można uzyskać jako probabilistyczną odpowiedź na zadany problem.
I tutaj mam pytania:

Jaka jest zależność pomiędzy wartością b-bitu a ścieżkami? Czy to stosunek ilości ścieżek przechodzących przez dany bit w stosunku do wszystkich ścieżek (raczej niemożliwe), czy też raczej stosunek wszystkich konfiguracji ścieżek pomiędzy przeszłością a przyszłością, tych przechodzących przez bit i nie?

"Początkowy warunek brzegowy" (ten od lewej) tak naprawdę nie określa żadnego prawdopodobieństwa b-bitów?


Może są procesy stochastyczne ściśle zbieżne do takiego modelu (jak Ising który jest bardzo problematyczny w fizycznej realizacji), ale nie widzę opcji aby uzyskać gwarancję odpowiedzi w wielomianowym czasie, mamy tutaj eksplozję kombinatoryczną wartości (ścieżki) po których optymalizujemy wartości prawdopodobieństwa.

Sam model obliczeniowy którego przebieg chcemy osiągnąć w wyniku działań komputera jest inny od mechaniki kwantowej i liczy problemy NP, bo ma nieliniowe bramki. Nie jest to żadna nowość, o takich konstrukcjach czytałem kilkanaście lat temu.
 

Odnośnie terminologii to proponuję nazwę b-bity jako określenie bitów w procesie obliczeniowym stacjonarnym, ich wartości ma osiągnąć nasz działający komputer przy pomocy p-bitów/q-bitów. Czyli dostajemy generyczne b-bity które wykonują obliczenia w swoim modelu, przechodzą przez bramki.

 

 

Share this post


Link to post
Share on other sites

Ustawianie warunków brzegowych w "przyszłości" tego procesu b-obliczeniowego jest analogiem postselekcji w obliczeniach kwantowych. Komputer kwantowy z postselekcją ma "moc obliczeniową" PP, co oznacza że bez problemu (wielomianowo) rozwiązuje problemy NP.
To kolejny "trick" który może odpowiadać za "zwiększoną" w stosunku do komputera kwantowego moc obliczeniową, obok nieliniowych bramek.

Share this post


Link to post
Share on other sites
15 hours ago, peceed said:

Wysłanie każdego fotonu może być uznane za osobną elementarną operację obliczeniową, czyli algorytm nie jest wielomianowy.

W subset-sum pytamy się czy istnieje podzbiór o zadanej sumie, możliwych podzbiorów w zbiorze o wielkości n jest 2^n, w NP-zupełnych (duże liczby) rzeczywiście ilość podzbiorów jest porównywalna ilość.

Te podejścia np. na fotonach liczą wszystkie możliwe sumy po podzbiorach i sprawdzają czy jest zadana wartość - żeby dostała ona chociaż jeden foton, musielibyśmy zacząć od 2^n fotonów, czyli konieczne natężenie światła do użycia rośnie wykładniczo z wielkością problemów.

Jeszcze większym problemem jest to że żeby sprawdzić czy jest foton dla pytanej wartości, potrzebowalibyśmy wykładniczo poprawiać rozdzielczość mikroskopu.

Technika jest super do niusów, ale ciężko mi uwierzyć że kiedykolwiek będzie praktyczna - do czego potrzebowalibyśmy czegoś sprytniejszego niż testowanie 2^n podzbiorów.

15 hours ago, peceed said:

Tam nie interesuje nas rozwiązanie globalne, ale wystarczająco do niego zbliżone i taki komputer jest niczym innym jak tylko aproksymatorem.

W subset-sum przybliżenie praktycznie nic nie mówi o prawdziwym rozwiązaniu - tutaj (z  https://www.dropbox.com/s/nwyxf44u38i42d8/pnpslides.pdf) mam przykładowe posortowane dodatnie sumy podzbiorów z współczynnikami +1 (czarny kwadrat) lub -1 (biały) dla kilku zestawów liczb - na podstawie fałszywych rozwiązań (kolumny po lewej) potrzebujemy stwierdzić czy najbardziej lewa daje sumę 0 :

image.thumb.png.5f53c0cce6353602dd0ed14951e0f7af.png

Znam więcej przykładów gdzie jest wykładniczo wiele fałszywych rozwiązań które praktycznie nic nie mówią o prawdziwym.

Pytanie czy są trudne problemy w których fałszywe rozwiązania: lokalne minima (o wartości bliskiej globalnemu) coś nam dają?

Nie spotkałem się, no i jeśli by były to można też klasyczną numeryką szukać przybliżonych.

16 hours ago, peceed said:

Ja rozumiem jak działa MERW. Nie rozumiałem jak ma działać ten komputer i nie jestem w stanie przeanalizować związku między MERW i modelem isinga obliczeń.

Wyobraź sobie ogólnego Isinga z E_uv energią między sąsiadami, zapytaj się np. o prawdopodobieństwo 'u' w środku, dostaniesz Pr(u) = (psi_u)^2 i całą resztę dokładnie jak w MERW - jako że matematycznie to jest to samo.

 

Jeśli założysz że fizyka używa Boltzmannowskiego rozkładu między możliwymi sekwencjami na takim komputerze na Isingu, wtedy rozwiąże naszego np. 3-SAT.

Analogicznie działanie Shora jest uwarunkowane tym że fizyka używa rozkładu Feynanowskiego między sekwencjami - tym razem w kierunku czasowym.

1 hour ago, peceed said:

Ustawianie warunków brzegowych w "przyszłości" tego procesu b-obliczeniowego jest analogiem postselekcji w obliczeniach kwantowych.

Owszem można się tak patrzeć, ale restrykcja tylko do wyników które losowo dały konkretne n bitów, oznacza zmniejszenie statystyki 2^n razy.

Natomiast w przestrzennej realizacji jak Ising, nie ma problemu z zamontowaniem dużej ilości spinów z obu stron.

Share this post


Link to post
Share on other sites
4 minuty temu, Jarek Duda napisał:

Nie spotkałem się, no i jeśli by były to można też klasyczną numeryką szukać przybliżonych.

Pewnie dlatego właśnie D-Wave stracił jakąkolwiek przewagę wydajnościowokosztową w stosunku do klasycznych komputerów.

10 minut temu, Jarek Duda napisał:

Jeśli założysz że fizyka używa Boltzmannowskiego rozkładu między możliwymi sekwencjami na takim komputerze na Isingu, wtedy rozwiąże naszego np. 3-SAT.

Co do tego mam wątpliwości, że fizyka realizuje obliczeniowy model Isinga, a dokładniej mam pewność, że nie bardzo. On tylko jakościowo przybliża zachowanie pewnych struktur rzeczywistych struktur. Takie odstępstwo fizyki od perfekcyjnego Isinga może zostać potraktowane analogicznie jak niestabilność numeryczna, i to najprawdopodobniej rozwala fizyczną realizację. 
 

Bardzo prosiłbym o odniesienie się do opisu "ścieżkowego" tego modelu obliczeń, bo taki poziom abstrakcji jest najbardziej zrozumiały. W sensie wskazania co jest poprawne a co złe i uzupełnienie kwestii relacji ścieżek z prawdopodobieństwami i energią stanów. Wygląda na to, że "ścieżka obliczeniowa" to tak naprawdę graf data-flow obliczeń, i obsadzone według statystyki Boltzmanna powinny być wszystkie możliwe ścieżki obliczeniowe według swojej energii?
Jak rozumiem energia ścieżki zależy od stanów bitów (różne stany to różne poziomy energetyczne, można przyjąć konwencję że 1 to większa energia 0 niższa, ale też od przejść pomiędzy sąsiednimi bitami (co pozwala realizować "statystyczne" bramki obliczeniowe).
Bramka NOT to duża energia dla stanów 00 i 11 oraz mała dla 10 i 01. Więzy wyznaczane są przez bardzo duże różnice energetyczne pomiędzy 1 i 0 w stanie pojedynczego bitu(czy mają być tego rzędu co różnice energii na bramkach, czy też powinny być "nieskończone")? Czy różnica poziomów energetycznych w poszczególnych bitach pozwala nam kodować coś użytecznego poza więzami? Zerowa różnica energii pozwala nam wyrazić pełną superpozycję możliwości obliczeń.
 

49 minut temu, Jarek Duda napisał:

Natomiast w przestrzennej realizacji jak Ising, nie ma problemu z zamontowaniem dużej ilości spinów z obu stron.

Od strony fizycznej nie ma żadnego problemu aby "zamontować" dowolne bity w procesie obliczeniowym. Znacznie trudniejsze jest osiągnięcie takiego stanu układu który będzie równoważny rozkładowi boltzmannowskiemu tych trajektorii przy utrzymaniu zadanych bitów.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Owszem, raczej założenie Boltzmannowskości jest tylko przybliżone, ale jest ono analogiczne do założenia Feynmanowskości w mechanice kwantowej - które w takim razie może też jest tylko przybliżone, co raczej uniemożliwiłoby działanie np. algorytmu Shora w większej skali niż kilka bitów.

 

Co do rozkładu Boltzmannowskiego po trajektoriach np. w Isingu, definiujemy energię pary E_ij, energię ścieżki jako suma E_ij po tej ścieżce, zakładamy że prawdopodobieństwo ścieżki jest proporcjonalne do exp(-beta * energia ścieżki). To jest coś innego niż minimalizacja energii - która mówi że osiągamy jeden stan o minimalnej energii, w fizyce statystycznej dostajemy zespół stanów a nie samo minimum.

Idealny ferromagnetyk zachowuje spin - można go używać jako kabel.

Idealny anty-ferromagnetyk wymusza przeciwny spin - jak bramka NOT.

Brak oddziaływania pozwala na dowolne przejścia (bramka X) - np. do przygotowania zespołu 2^w spinów, czy nie-mierzenia danego spinu dla łamania Bella.

8 hours ago, peceed said:

Od strony fizycznej nie ma żadnego problemu aby "zamontować" dowolne bity w procesie obliczeniowym. Znacznie trudniejsze jest osiągnięcie takiego stanu układu który będzie równoważny rozkładowi boltzmannowskiemu tych trajektorii przy utrzymaniu zadanych bitów.

W QM dzieje się to w czasie - od strony przyszłości potrafimy tylko mierzyć, dostając losową wartość. Shor super to wykorzystuje - zespół Feynamnowskich trajektorii zostaje w ten sposób ograniczony do dających tą samą (zmierzoną) wartość, z tego ograniczonego zespołu dostajemy podpowiedź do faktoryzacji.

Żeby wymuszać od strony przyszłości, potrzebowalibyśmy CPT-analog przygotowania stanu ...

Mam pomysł na CPT-analog lasera ( https://physics.stackexchange.com/questions/308106/causality-in-cpt-symmetry-analogue-of-free-electron-laser-stimulated-absorbtion  ), dla przygotowania stanu nie mam (?)

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Dlaczego akurat w tym momencie "++"? Nie wiem, musi coś się wzięło i skolapsiło ;)

Share this post


Link to post
Share on other sites
W dniu 8.02.2020 o 21:49, Jarek Duda napisał:

To jest zdecydowanie bardziej szalone niż genialne.
Symetria CPT nie odwraca entropii, więc nic z tego nie będzie działać.
Mam nawet lepszą nazwę niż lasar, to resal.

W dniu 8.02.2020 o 21:49, Jarek Duda napisał:

Brak oddziaływania pozwala na dowolne przejścia (bramka X) - np. do przygotowania zespołu 2^w spinów

To też nie ma prawa działać. Ostatnia rzecz na jaką liczyłem, to następująca możliwość:

Mamy zupełnie wirtualny proces b-obliczeniowy który pozwala kodować rozwiązania za pomocą Isinga w całkowicie niebanalny sposób. Wydawało mi się, że same bramki miałyby być kodowane za pomocą poziomów energetycznych w Isingu.. Za pomocą "ścieżek boltzmanna" trzeba by wyrazić splątanie stanów kwantowych, i wykazać że prawdopodobieństwa w Isingu zachowują się zgodnie z nimi przy zachowaniu struktury problemu udającej "obliczenia".  Niestety raczej nie może to działać. Problemem jest symetria w czasie, która wymusza, że bramki powinny działać też w drugą stronę, co przy ich nieliniowości jest problematyczne. Problemem jest też szczególny stan początkowy. Jako ratunek widziałem możliwość, że użycie odbicia lustrzanego na krawędzi pozwoli nam na mocy symetrii (Ising policzy rozwiązanie w obie strony w 2 miejscach) wykazać symetrię ścieżek prowadzącą do oczekiwanej "superpozycji" w procesie b-obliczeniowym.
Wtedy byłoby to bardzo ciekawe osiągnięcie teoretyczne które mówi nam wiele o strukturze rozwiązań modelu Isinga.

 Ale wszystko wskazuje, że nie chodzi o coś takiego, a  o dziwną hybrydę, która tworzyłaby superpozycję a potem chciała przenieść to do systemu który liczy zwykły problem Isinga.
 

Przede wszystkim - po jakiego grzyba. Ising jest NP-trudny jako problem do symulowania na komputerze klasycznym. Dodatkowo w modelu Isinga można zakodować rozwiązanie problemów NP-com przy użyciu wielomianowej ilości spinów, co oznacza, że nie potrzebujemy dziwnego kodowania aby uzyskać "superkomputer kwantowy", rozwiązanie regularnego Isinga nam to zapewnia.

.
 

Share this post


Link to post
Share on other sites
2 hours ago, peceed said:

Symetria CPT nie odwraca entropii

Nie wiem co ma piernik do wiatraka - fundamentalne teorie są czasowo/CPT symetryczne, diagramy Feynmana nie determinują kierunku czasu, w QFT nie ma entropii.

Żeby w ogóle móc mówić o entropii, trzeba przejść do obrazu efektywnego - matematycznie uśrednić, np. zamieniając cząstki Gaussami, średnimi gęstościami - taki model statystyczny (z entropią) nie wie gdzie są poszczególne cząstki, ale bardziej fundamentalny bez entropii jak QFT wie.

Twierdzenia "dowodzące" wzrost entropii dla symetrycznych teorii można sprowadzić do sprzeczności "dowodząc" też w drugą stronę po zastosowaniu symetrii.

One zawsze ukrywają subtelne założenie o uśrednianiu, tzw. "Stosszahlansatz" np. w https://en.wikipedia.org/wiki/H-theorem

Polecam Kac ring - prosty symetryczny układ (koraliki na okręgu, zmieniają kolor przechodząc przez znacznik), w którym łatwo tak "udowodnić" wzrost entropii dzięki tego typu założeniu (że przed znacznikami jest średni rozkład) ... podczas gdy bez przybliżania entropia ewoluuje tu np. cyklicznie: http://www.maths.usyd.edu.au/u/gottwald/preprints/kac-ring.pdf

image.thumb.png.f774489d6ba41bdcaad92113afd818f4.png

2 hours ago, peceed said:

Problemem jest symetria w czasie, która wymusza, że bramki powinny działać też w drugą stronę

Jaka symetria w czasie? Układ który pokazałem nie używa czasu, tylko założenia rozkładu Boltzmannowskiego w przestrzeni - jeśli jest ono spełnione, to rozwiąże 3-SATa.

2 hours ago, peceed said:

Ising jest NP-trudny jako problem do symulowania na komputerze klasycznym. Dodatkowo w modelu Isinga można zakodować rozwiązanie problemów NP-com przy użyciu wielomianowej ilości spinów, co oznacza, że nie potrzebujemy dziwnego kodowania aby uzyskać "superkomputer kwantowy", rozwiązanie regularnego Isinga nam to zapewnia.

Dokładnie to mówię - rozwiązanie takiego układu Isinga kosztowałoby wykładniczo długi czas na komputerze klasycznym, chcemy wykorzystać fizykę: żeby szybko nam rozwiązała zakodowany tam np. NP-zupełny problem.

Share this post


Link to post
Share on other sites

Przepis na resal masłowy: 
Potrzebna jest równowartość kostki masła (może być margaryna, ale puryści się burzą) roztopiona na patelni. Po uruchomieniu stapia się w postać kostki i w pewnym momencie emituje potężny impuls promieniowania podczerwonego w przestrzeń, który zawsze dziwnym trafem trafia w wylot lasera przelatującego tam latającego talerza. Ten ulega ekscytacji i odpompowaniu co powoduje w efekcie naładowanie kondensatora, tuż przed tym jak ekran dotykowy odpycha zielonego palucha, a przypadkowe fotony z otoczenia absorbowane przez wyświetlacz formują dokładnie obraz kostki masła akurat w miejscu gdzie ten paluch się znajdował.

To dopiero jest wynalazek!
 

15 godzin temu, Jarek Duda napisał:

QFT nie ma entropii

Unitarna ewolucja funkcji falowej sama z siebie nie zmienia entropii (zwanej w tym przypadku entropią von Neumanna), i to nie jest żadne odkrycie. Nie potrzeba do tego nawet mieszać QFT. QFT to nie jest świat, to teoria która pozwala nam opisywać świat. MK opisuje wiedzę o świecie z punktu widzenia obserwatora. Ten sam świat może być opisywany zupełnie różnymi funkcjami falowymi przez dwóch różnych obserwatorów. Już to sugeruje, że nie można traktować opisu jako obiektywnej  rzeczywistości i mieszać do jego analizy realistycznych, zupełnych przykładów matematycznych. W pewnym momencie obserwator może otrzymać nową informację i jego wiedza o układzie się zmieni a entropia wzrośnie. Obserwator jest klasyczny, a jego kojarzenie jak najbardziej wymaga wzrostu entropii. A w naszym świecie entropia rośnie na mocy DPT.

15 godzin temu, Jarek Duda napisał:

Jaka symetria w czasie? Układ który pokazałem nie używa czasu, tylko założenia rozkładu Boltzmannowskiego w przestrzeni

Lewo/prawo. W czasie "b-obliczeń".
Ja też mam pytanie, jaki układ? Bo na razie to mamy coś, co nie wie czym jest. Bez żadnych detali.
Na początku proszę się odnieść do kwestii, czy to w ogóle jest kodowanie problemów w isingu, tzn. czy istnieje bezpośrednio udowodniona wyrażalność przebiegu zaprezentowanych obliczeń jako rozwiązania problemu Isinga. To nie jest problem fizyczny, tylko czysta matematyka (bardzo chciałbym zobaczyć jak jest wyrażana superpozycja za pomocą obsadzeń wirtualnych ścieżek). 
Natomiast układ chciałby jednocześnie być komputerem liczącym Isinga ale z dziwnymi dodatkami które są bardzo niefizyczne i niesprecyzowane, jak nadawanie bitom superpozycji na bramkach w czasie (bo to fizyczny proces) a jednocześnie liczenie na to, że będą one równoważne superpozycjom wymaganym przez model obliczeń "w przestrzeni". To jest fizyka, i tutaj nie da się być tak niekonsekwentnym. Trzeba odróżnić problem od fizycznego układu który go rozwiązuje.

15 godzin temu, Jarek Duda napisał:

to rozwiąże 3-SATa

Ale to nie jest żadne osiągnięcie, bo mamy kodowania które rozwiązują go bez żadnych "dziwnych założeń":
https://arxiv.org/pdf/1302.5843.pdf
Co oznacza, że do rozwiązania takich problemów wystarczy nam niemagiczny układ rozwiązujący Isinga.

Jedyne co jest potencjalnie ciekawe i wartościowe to formalne wprowadzenie b-obliczeń i reprezentacja (prosta, bo rozwiązania Isinga są Turing-complete:  https://arxiv.org/pdf/1204.1084.pdf) ich przebiegu jako rozwiązań pewnego problemu szkła spinowego.

 

Edited by peceed

Share this post


Link to post
Share on other sites

Entropia von Neumanna w unitarnej ewolucji (np. funkcji falowej wszechświata) jest stała - nie ma drugiej zasady termodynamiki.

Widzę że obie zalinkowane prace zakładają znalezienie minimum energii - co w praktyce nie działa ponieważ dla trudnych problemów ilość lokalnych minimów (fałszywych rozwiązań) rośnie wykładniczo.

W praktyce układ nie osiąga minimum energii, tylko rozkład Boltzmannowski stanów - na czym opiera się podejście o którym mówię, unikając problemu wykładniczej ilości lokalnych minimów.

Konkretnie, układ jest tak dobrany żeby ograniczyć zespół możliwych ścieżek do odpowiadających wartościowaniom zmiennych które spełniają wszystkie alternatywy.

Share this post


Link to post
Share on other sites
15 minut temu, Jarek Duda napisał:

Entropia von Neumanna w unitarnej ewolucji (np. funkcji falowej wszechświata) jest stała - nie ma drugiej zasady termodynamiki.

Tak, ale to właśnie chyba sedno mojej wypowiedzi - pisanie że "w QFT nie ma entropii" nie ma żadnego znaczenia. Największym problemem z LASARem jest to, że nie wiadomo co miałby on robić, poza ilustracją faktu że jak odwróci się czas to jest dziwnie...

20 minut temu, Jarek Duda napisał:

Widzę że obie zalinkowane prace zakładają znalezienie minimum energii - co w praktyce nie działa

W takim razie czego szuka ten wick-rotated w trakcie swojej pracy, jeśli nie minimum globalnego?

Widzę tutaj jakieś problemy komunikacyjne...
 

15 minut temu, Jarek Duda napisał:

Entropia von Neumanna w unitarnej ewolucji (np. funkcji falowej wszechświata) jest stała - nie ma drugiej zasady termodynamiki.

Tak, ale to właśnie chyba sedno mojej wypowiedzi - pisanie że "w QFT nie ma entropii" nie ma żadnego znaczenia. Największym problemem z LASARem jest to, że nie wiadomo co miałby on robić, poza ilustracją faktu że jak odwróci się czas to jest dziwnie...

 

31 minut temu, Jarek Duda napisał:

W praktyce układ nie osiąga minimum energii, tylko rozkład Boltzmannowski stanów

To trzeba zatem sformalizować

32 minuty temu, Jarek Duda napisał:

Konkretnie, układ jest tak dobrany żeby ograniczyć zespół możliwych ścieżek do odpowiadających wartościowaniom zmiennych które spełniają wszystkie alternatywy.

Uzyskanie rozkładu Boltzmannowskiego zakłada jakąś termalizację, na co potrzeba czasu,, i to ona jest wynikiem "działania"  komputera.
Nie jestem pewien, w jaki sposób można uzyskać coś takiego, jednocześnie utrzymując cały czas warunek brzegowy (początkowy w modelu) określający określone splątanie bitów.
 

Share this post


Link to post
Share on other sites
1 hour ago, peceed said:

Największym problemem z LASARem jest to, że nie wiadomo co miałby on robić, poza ilustracją faktu że jak odwróci się czas to jest dziwnie...

Już to przerabialiśmy z perspektywy twierdzenia Bella ... matematycznie mamy podstawowe dwa sposoby rozwiązywania modeli np. Lagranżowskich:

1) asymetryczne: Euler-Lagrange w mechanice klasycznej, równanie Schrodingera w kwantowej,

2) symetryczne: zasada minimalizacji działania w klasycznej, całki Feynmanowski w kwantowej, diagramy Feynmana w QFT.

Mając rozwiązanie jednym możemy przekonwertować w drugi, ale ogólnie rozwiązania znalezione przez 1) lub 2) mają inne własności - pytanie którego używa fizyka?

1) spełnia założenia z których wynikają nierówności Bella - łamane przez fizykę - sprzeczność.

2) ma inny rodzaj lokalności niż w Bellu - nie spełnia jego założeń - nie ma sprzeczności.

Podczas gdy nie jest to dla nas intuicyjne, twierdzenie Bella wyklucza 1), nie wyklucza 2) - sugerując że czasowo/CPT symetryczna fizyka rozwiązuje swoje równania w symetryczny sposób.

1 hour ago, peceed said:

W takim razie czego szuka ten wick-rotated w trakcie swojej pracy, jeśli nie minimum globalnego?

Zakładając idealne bramki, ograniczają one przestrzeń możliwości (zespół) tylko do rozwiązujących nasz problem.

W praktyce nie mamy idealnych bramek - owszem stając się szukaniem globalnego minimum.

Nie twierdziłem że to jest praktyczne, tylko chciałem pociągnąć analogię między Feynmanowskimi i Boltzmannowskim zespołami - dając w tym drugim też regułę Borna, łamanie Bella, czy "Wick-rotated" komputery kwantowe.

Share this post


Link to post
Share on other sites

Fajnie sobie gadacie, nie chcę przeszkadzać, ale...
... na mój niuch (zakatarzony, bo zima) matematyczna t/CPT symetria diagramów i całek Feynmana nie przesądza symetrii zrealizowanych trajektorii -> i <-. Diagramy i całki F opisują zdarzenia/trajektorie możliwe, a nie konieczne

Share this post


Link to post
Share on other sites
Godzinę temu, Jarek Duda napisał:

czasowo/CPT symetryczna fizyka rozwiązuje swoje równania w symetryczny sposób

Fizyka nie musi "rozwiązywać" swoich równań w jakikolwiek sposób. To my rozwiązujemy równania a dla nas istnieje wielka różnica pomiędzy przyszłością a przeszłością.

Godzinę temu, Jarek Duda napisał:

Podczas gdy nie jest to dla nas intuicyjne, twierdzenie Bella wyklucza 1), nie wyklucza 2) - sugerując że czasowo/CPT symetryczna fizyka rozwiązuje swoje równania w symetryczny sposób.


Twierdzenie Bella mówi nam o prawdopodobieństwie zdarzeń. Do momentu kiedy nie sprawdzimy co się stało, nic się nie stało, stają się "możliwości". 
A gdy obserwator dowiaduje się o zdarzeniach, znika symetria czasowa. To dokładnie ten moment. Możemy sobie liczyć zmianę prawdopodobieństw, ale w końcu musimy sprawdzić co się stało.

 

W dniu 8.02.2020 o 21:49, Jarek Duda napisał:

Tam jest nieprawdziwe zdanie że:

Cytat

What is nontrivial here is that deexication of the target is stimulated by turning the lasar on 

To nieprawda. Po odwróceniu czasu nie ma takiego związku przyczynowo skutkowego. Deekscytacja celu następuje całkowicie spontanicznie i przypadkowo, przypadkowo trafia w lasaer i jej skutkiem jest naładowanie lasaera. To normalny ciąg przyczynowo skutkowy, tylko całkowicie nieprawdopodobny z makroskopowego punktu widzenia! Obrócenie strzałki czasu zmienia opis zjawisk i ich interpretację. Idąc dalej, zupełnie przypadkowo lasaer zaczał ładować pompę fotonami która poruszyła absorbując ciepło z otoczenia (to tylko nieprawdopodobne) "odesłała prąd do kondensatora", i zupełnie przypadkiem zaraz po tym fakcie zaszło przerwanie obwodu elektrycznego.
Związek między ekscytacją laseara przez cel mógł być opisany jako związek przyczynowo-skutkowy ze względu na uporządkowany charakter oddziaływania w trakcie którego nic z entropią się nie działo (fotony leciały w kulce obok siebie), przez chwilę wyglądało to normalnie, ale już na poziomie mikro taka ekscytacja wymagała gigantycznego fuksa. Przy reszcie zjawisk (makro) wciąż pojawiają się nieprawdopodobne zbiegi okoliczności.

 

 

15 minut temu, ex nihilo napisał:

Diagramy i całki F opisują zdarzenia/trajektorie możliwe, a nie konieczne

Oczywiście. Cały czas staram się to wytłumaczyć koledze że to nie jest "rzeczywistość", tylko opis wiedzy obserwatora. Dopiero pomiar pozwala nam stwierdzić że coś się stało, ale te trajektorie i tak nie są obserwablami. To inny sposób liczenia "estymat przyszłości". Matematyczno-informatyczne wychowanie wciąż jednak zmusza mózg do szukania realistycznych  śrubek i epicykli ;) 

Share this post


Link to post
Share on other sites

Ekhem, na zakatarzone kichawy nie będę się prześcigał, ale do "pana" fizyka:

4 godziny temu, peceed napisał:

Uzyskanie rozkładu Boltzmannowskiego zakłada jakąś termalizację, na co potrzeba czasu,, i to ona jest wynikiem "działania"  komputera.
Nie jestem pewien, w jaki sposób można uzyskać coś takiego, jednocześnie utrzymując cały czas warunek brzegowy (początkowy w modelu) określający określone splątanie bitów.

Coś takiego jak laser kompletnie nie idzie pod rękę z panem Boltzmannem, ale, o dziwo!, działa w czasie znacznie dłuższym niż czas termalizacji...
Dodam jeszcze do tego "fizyka", że jak się nie znasz, to nie musisz swojej niewiedzy w temacie wyrażać. Też się nie znam , ale czasem tu spojrzę i... Przykro mi jaką "fizykę " reprezentujesz.

1 minutę temu, peceed napisał:

Fizyka nie musi "rozwiązywać" swoich równań w jakikolwiek sposób.

Musi. Po to jest.

1 minutę temu, peceed napisał:

To my rozwiązujemy równania a dla nas istnieje wielka różnica pomiędzy przyszłością a przeszłością.

Ale komputerek Ci się spalił o ile pamiętam...

2 minuty temu, peceed napisał:

Do momentu kiedy nie sprawdzimy co się stało, nic się nie stało, stają się "możliwości". 

Nie serduszko, bo NIC się nie stało; nie ma żadnych możliwości dla ciebie.

3 minuty temu, peceed napisał:

A gdy obserwator dowiaduje się o zdarzeniach, znika symetria czasowa.

Wow! Odkryłeś kolaps funkcji falowej? Jesteś wielki!

4 minuty temu, peceed napisał:

ale w końcu musimy sprawdzić co się stało

ja nie muszę, bo już wiem ;)

4 minuty temu, peceed napisał:

To normalny ciąg przyczynowo skutkowy, tylko całkowicie nieprawdopodobny z makroskopowego punktu widzenia!

Ostatnie pytanie: po czym ty tak jedziesz?

Share this post


Link to post
Share on other sites
8 minut temu, peceed napisał:

wiązek między ekscytacją laseara przez cel mógł być opisany jako związek przyczynowo-skutkowy ze względu na uporządkowany charakter oddziaływania w trakcie którego nic z entropią się nie działo (fotony leciały w kulce obok siebie)

To powinno być dla kolegi kluczowe, aby zrozumieć kiedy nasz język związków przyczynowo-skutkowych działa przy odwróconej strzałce czasu, a kiedy się załamuje. Działa wtedy, kiedy gołym okiem deltaS=0. Załamuje się, kiedy entropia musi maleć. Wtedy nagle związek przyczynowo skutkowy w skali makro znika, ale da się go odtworzyć w skali mikro. Wymaga to fuksa, dowiadujemy się że konfiguracja jest nadzwyczajna.

24 minuty temu, Astro napisał:

Coś takiego jak laser kompletnie nie idzie pod rękę z panem Boltzmannem, ale, o dziwo!, działa w czasie znacznie dłuższym niż czas termalizacji...


Nic w tym dziwnego, laser ma określoną temperaturę.
@Jarek Duda, czy w twoim komputerze przyjmujesz że T to po prostu temperatura "układu scalonego"?

Share this post


Link to post
Share on other sites
Godzinę temu, peceed napisał:

Nic w tym dziwnego, laser ma określoną temperaturę.

Tak. Ujemną. :D (przynajmniej tyle podpowie ci pan Boltzmann)

Share this post


Link to post
Share on other sites

 

15 godzin temu, Astro napisał:

przynajmniej tyle podpowie ci pan Boltzmann

Nie żyje.

Share this post


Link to post
Share on other sites
20 hours ago, ex nihilo said:

matematyczna t/CPT symetria diagramów i całek Feynmana nie przesądza symetrii zrealizowanych trajektorii -> i <-

Wyobraźmy sobie że mamy jakieś warunki brzegowe, dla nich rozwiązujemy problem rozważając zespoły ścieżek/diagramów.

Teraz poddajmy te warunki brzegowe symetrii T/CPT - żeby znaleźć rozwiązanie musimy poddać tej symetrii wszystkie ścieżki/diagramy ... dostając oryginalne rozwiązanie, tylko że poddane symetrii.

Możemy sobie wyobrazić że te warunki brzegowe to np. Wielki Wybuch w naszej przeszłości, Wielki kolaps w przyszłości - że fizyka wybrała naszą historię wszechświata z zespołu po wszystkich diagramach Feynmana między nimi ...

20 hours ago, peceed said:

Fizyka nie musi "rozwiązywać" swoich równań w jakikolwiek sposób. To my rozwiązujemy równania a dla nas istnieje wielka różnica pomiędzy przyszłością a przeszłością.

Zakładamy że fizyka rządzi światem dookoła nas, używając pewnych reguł które próbujemy zgadnąć - dopasowując do rzeczywistości.

To że dla subiektywnych ludzi przeszłość i przyszłość są bardzo różne nie znaczy że obiektywna fizyka się tym przejmuje - najbardziej fundamentalne teorie jakie rozważamy są czasowo/CPT symetryczne. Z https://en.wikipedia.org/wiki/CPT_symmetry : "The CPT theorem says that CPT symmetry holds for all physical phenomena, or more precisely, that any Lorentz invariant local quantum field theory with a Hermitian Hamiltonian must have CPT symmetry. "

Założenie asymetrii np. w równaniu Schrodingera prowadzi do poważnych problemów z tw. Bella ... które znikają jeśli przestaniemy próbować fizyce narzucać nasze asymetrie - np. rozwiązując całkami po trajektoriach.

Właśnie spisałem stacka o tym: https://physics.stackexchange.com/questions/531236/do-feynman-path-integrals-satisfy-bell-locality-assumption

20 hours ago, peceed said:

A gdy obserwator dowiaduje się o zdarzeniach, znika symetria czasowa.

Jeśli chcesz powiedzieć że kolaps funkcji falowej łamie symetrię czasową to zupełnie się nie zgadzam.

Najprostszy przykład to deekscytacja atomu ... która staje się symetryczna gdy tylko uwzględnimy foton uciekający do otocznia ('environment') - nieuwzględnionego w Schrodingerze:

wzbudzony atom <-> atom np. w stanie podstawowym + foton w otoczeniu

Idealizacją pomiaru jest Stern-Gerlach, w którym cząstka ze spinem (dipol magnetyczny) osiąga równoległe lub anty-równoległe ustawienie w silnym polu magnetycznym, bo widocznie w ten sposób ma mniejszą energię (nie musi precesować), różnica energii musi być jakoś wypromieniowana np. jako jako fala EM:

precesujący "unaligned" dipol magnetyczny w polu magnetycznym <-> "aligned" + różnica energii

20 hours ago, peceed said:

Deekscytacja celu następuje całkowicie spontanicznie i przypadkowo

Może wg ludzkiej intuicji, ale jak powyżej - fizyka nie musi się tym przejmować, deekscytacja ma swój CPT-analog: ekscytację.
Jest wiele argumentów za tym że fizyka jest fundamentalnie CPT symetryczna, twierdzenie Bella sugeruje że tak też rozwiązuje swoje równania - jeśli laser działa, to jest CPT-analog też powinien analogicznie działać.

20 hours ago, peceed said:

czy w twoim komputerze przyjmujesz że T to po prostu temperatura "układu scalonego"?

Nie rozumiem pytania - temperatura jest ukryta w beta, która jest użyta w konstrukcji macierzy transferu M_ij = exp(-beta E_ij). Czasu nie ma.

Edited by Jarek Duda

Share this post


Link to post
Share on other sites
Godzinę temu, Jarek Duda napisał:

temperatura jest ukryta w beta, która jest użyta w konstrukcji macierzy transferu M_ij = exp(-beta E_ij)

Niektórzy wolą theta, ale jedna cholera. Peceed, tak, to dokładnie ta sama statystyka

2 godziny temu, Astro napisał:

Boltzmann wiecznie żywy!

W TE (czy LTE) czas absolutnie nie jest potrzebny (kwestia założeń).

Share this post


Link to post
Share on other sites
14 godzin temu, Jarek Duda napisał:

Teraz poddajmy te warunki brzegowe symetrii T/CPT - żeby znaleźć rozwiązanie musimy poddać tej symetrii wszystkie ścieżki/diagramy ... dostając oryginalne rozwiązanie, tylko że poddane symetrii.

Ok., matematycznie pewnie da się to zrobić zamieniając wszystkie znaczki na odwrotne, ale co najmniej wątpię, żeby miało to sens fizyczny z wyjątkiem najprostszych zdarzeń elementarnych, których pdp =1 w danym dt (a są takie w ogóle?). Owszem, np. kreacja/anihilacja są odwracalne, ale raczej nie oznacza to, że muszą nastąpić w tym samym (x, y, z. t) po odwróceniu CPT. Tym bardziej dotyczy to procesów (trajektorii) bardziej złożonych, w których trzeba brać pod uwagę pdp zdarzeń i całego ciągu.
Może się mylę, ale odwrócenie CPT nie jest równoznaczne z powtórzeniem historii, tyle że w odwrotnym kierunku t, nawet w równoległych światach CPT+ i CPT-. No chyba, że przyjmiemy jakiś 100% determinizm... ale wtedy pewnie będę musiał iść na sumę, bo bez tego... ;)

Share this post


Link to post
Share on other sites

Dla ludzi jest to technicznie niewykonalne, ale m.in. QFT, symetria CPT, twierdzenie Bella sugerują że obiektywnie tak działa fizyka w której żyjemy.

Czyli np. skoro mikroskopowo może zachodzić stymulowana emisja, to powinna ona mieć też swój symetryczny analog: stymulowaną absorpcję - jeśli przygotowalibyśmy CPT-analog warunków dla tej pierwszej, powinna zachodzić ta druga.

Takie przygotowanie CPT-analogu warunków wydaje się względnie proste dla lasera na swobodnych elektronach ( https://en.wikipedia.org/wiki/Free-electron_laser ) - kwestia postawienia tarczy z drugiej strony i wstępnego wzbudzania jej do odpowiedniej energii (np. lampa sodowa ponieważ ma wąskie spektrum) - założenie że fizyka jest CPT-symetryczna sugeruje że skierowanie wyniku stymulowanej absorpcji na taką tarczę powinno ułatwić jej emisję w tym kierunku, co powinno być widoczne w balansie energetycznym układu lampla-detektor dookoła niej:

CPT analogue of free electron laser

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Jak się okazuje, do rozwoju wielkich cywilizacji ludzkości potrzebny był nie tylko miecz i pług, ale również pióro. Autorzy najnowszej analizy dowodzą, że o być albo nie być protopaństw i pierwszych cywilizacji decydowała technologia informacyjna.
      Analiza danych zgromadzonych w ramach projektu „Seshat: Global History Databank” dowodzi, że na pewnym etapie rozwoju rodzące się państwa napotykały wąskie gardło w postaci konieczności wymiany informacji. Te, które sobie z tym poradziły, mogły rozwijać się dalej.
      Jaeweon Shin z Rice University, Michael Holton Price, David Wolpert, Hajime Shimao i Brendan Tracey z Santa Fe Institute oraz Timothy Kohler z Washington State University dowodzą, że każda cywilizacja rozwijała się w trzech etapach.
      Na początkowym etapie rozwój protopaństwa napędzany był samym wzrostem liczby ludności. Osiadły tryb życia, udomowienie roślin i zwierząt pojawiły się niezależnie w wielu miejscach na Ziemi. W wielu społeczeństwach doszło też do znacznej zmiany mobilności ich członków. Wraz z pojawianiem się nadwyżek żywności, przekazywaniem zgromadzonych dóbr kolejnym pokoleniom rosły nierówności, pojawiały się i umacniały ośrodki władzy.
      Powstawały protopaństwa, a wzrost ich siły był napędzany wzrostem liczby ludności. Niemal wszędzie obserwuje się występowanie takich powiązanych ze sobą zjawisk jak wzrost produkcji rolnej, wzrost liczby ludności, pojawianie się zaczątków miast, rozwój hierarchii politycznej i coraz większe nierówności majątkowe. Na wszystkich kontynentach gdzie pojawiło się rolnictwo zauważalny jest wysoki stopień podobieństwa zarówno w sposobie formowania się społeczności ludzkich, od niewielkich grup łowców-zbieraczy po ostatnią znaną nam formę czyli wielkie społeczeństwa miejskie.
      Naukowcy chcieli sprawdzić, co powoduje, że społeczeństwa rozwijają się w tak bardzo podobny sposób. W tym celu wzięli na warsztat bazę Seshat. To ambitny projekt, w którym pod uwagę branych jest ponad 1500 zmiennych, za pomocą których opisano ponad 400 społeczeństw z 6 kontynentów na przestrzeni ostatnich 10 000 lat historii.
      Na podstawie wykonanej analizy autorzy badań doszli do wniosku, że po początkowej pierwszej fazie rozwoju protopaństw wzrost liczby ludności przestaje wystarczać i pojawia się wąskie gardło. Jest nim konieczność opracowania efektywnego systemu wymiany informacji i przeprowadzania transakcji handlowych. Istnieje bardzo silny związek pomiędzy sposobem, w jaki społeczeństwa przetwarzają informacją, a tym, jak duże mogą się stać. Wydaje się, że wcześnie dokonany postęp w przetwarzaniu informacji, a zatem np. pojawienie się pisma czy pieniądze, był dla rozwoju tamtych społeczeństw równie ważny, jak dla nas ważny jest dzisiaj internet, mówi Tim Kohler. Dopiero, gdy w takim protopaństwie pojawi się pismo i pieniądz, społeczeństwo może nadal się rozwijać i przejść do fazy trzeciej.
      Nasze analizy wykazały, że starożytne cywilizacje, po osiągnięciu pewnej wielkości, natykały się na informacyjne wąskie gardło. To punkt zwrotny naszej skali rozwoju społeczeństw. Bardzo rzadko zdarzało się, by bez pisma lub pieniądza, mogły nadal się rozwijać. Jednak tam, gdzie dokonano tych wynalazków, narodziły się wielkie imperia, dodaje Kohler.
      Badania Kohlera i jego kolegów dostarczają też możliwego wyjaśnienia różnic technologicznych, jakie widzimy pomiędzy cywilizacjami Starego i Nowego Świata. Ich praca dowodzi bowiem, że bardzo mało cywilizacji obu Ameryk było w stanie dotrzeć do punktu zwrotnego. W związku z tym istniała tam mniejsza presja na rozwój pisma i innych form informacji, które przyniosły postęp technologiczny w Europie i Azji.
      Jednym z głównych powodów, dla których cywilizacje Ameryki nigdy nie osiągnęły punktu zwrotnego był brak koni, wołów i innych dużych zwierząt zdolnych do przenoszenia ludzi i ładunków. Takie zwierzęta pozwalały na powstanie nadwyżek żywności, ułatwiały handel i umożliwiały ekspansję imperiów w Azji i Europie, dodaje Kohler.
      Naukowcy mają nadzieję, że analiza bazy Seshat da też odpowiedź na inne interesujące pytania, jak np. dlaczego niektóre cywilizacje upadły, mimo że nie widać żadnych zewnętrznych przyczyn ich porażki. Mamy nadzieję, że z czasem, gdy do Seshat będzie trafiało coraz więcej danych, uda nam się odpowiedzieć na tego typu pytania, mówi Kohler.
      Obecnie posiadamy nowe niezwykłe możliwości przechowywania i przetwarzania danych. Większe niż kiedykolwiek wcześniej. Czy to oznacza, że przed nami nowy etap rozwoju ludzkiej cywilizacji? A jeśli tak, to jak będzie on wyglądał, zastanawia się uczony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Grupa naukowców z Uniwersytetu w Oksfordzie donosi o udanym splątaniu bakterii z fotonami. W październikowym numerze Journal of Physics ukazał się artykuł zespołu pracującego pod kierunkiem Chiary Marletto, który przeanalizował eksperyment przeprowadzony w 2016 roku przez Davida Colesa i jego kolegów z University of Sheffield.
      Podczas wspomnianego eksperymentu Coles wraz z zespołem umieścili kilkaset chlorobakterii pomiędzy dwoma lustrami i stopniowo zmniejszali odległość pomiędzy nimi tak, aż dzieliło je zaledwie kilkaset nanometrów. Odbijając białe światło pomiędzy lustrami naukowcy chcieli spowodować, by fotosyntetyczne molekuły w bakteriach weszły w interakcje z dziurą, innymi słowy, bakterie miały ciągle absorbować, emitować i ponownie absorbować odbijające się fotony. Eksperyment okazał się sukcesem. Sześć bakterii zostało w ten sposób splątanych z dziurą.
      Jednak Marletto i jej zespół twierdzą, że podczas eksperymentu zaszło coś więcej, niż jedynie połączenie bakterii z dziurą. Przeprowadzone analizy wykazały, że sygnatura energetyczna pojawiająca się podczas eksperymentu jest właściwa dla splątania molekuł wewnątrz bakterii e światłem. Wydaje się, że niektóre fotony jednocześnie trafiały w molekuły i je omijały, a to właśnie dowód na splątanie.
      Nasze modele dowodzą, że zanotowano sygnaturę splątania pomiędzy światłem a bakterią, mówi pani Marletto. Po raz pierwszy udało się dokonać splątania kwantowego w żywym organizmie.
      Istnieje jednak wiele zastrzeżeń, mogących podważać wnioski grupy Marletto. Po pierwsze i najważniejsze, dowód na splątanie zależy od tego, w jaki sposób zinterpretujemy interakcję światła z bakterią. Marletto i jej grupa zauważają, że zjawisko to można opisać też na gruncie klasycznego modelu, bez potrzeby odwoływania się do efektów kwantowych. Jednak, jak zauważają, nie można tego opisać modelem „półklasycznym”, w którym do bakterii stosujemy zasady fizyki newtonowskiej, a do fotonu fizykę kwantową To zaś wskazuje, że mieliśmy do czynienia z efektami kwantowymi dotyczącymi zarówno bakterii jak i fotonu. To trochę dowód nie wprost, ale sądzę, że wynika to z faktu, iż oni próbowali bardzo rygorystycznie podejść do tematu i nie wysuwali twierdzeń na wyrost, mówi James Wootton z IBM Zurich Research Laboratory, który nie był zaangażowany w badania.
      Z kolei Simon Gröblacher z Uniwersytetu Technologicznego w Delft zwraca uwagę na kolejne zastrzeżenie. Otóż energię bakterii i fotonu zmierzono wspólnie, nie osobno. To pewne ograniczenie, ale wydaje się, że miały tam miejsce zjawiska kwantowe. Zwykle jednak gdy chcemy dowieść splątania, musimy osobno zbadać oba systemy.
      Wiele zespołów naukowych próbuje dokonać splątania z udziałem organizmów żywych. Sam Gröblacher zaprojektował eksperyment, w którym chce umieścić niesporczaki w superpozycji. Chodzi o to, by zrozumieć nature rzeczy i sprawdzić czy efekty kwantowe są wykorzystywane przez życie. W końcu u swoich podstaw wszystko jest kwantem, wyjaśnia współpracownik Marletto, Tristan Farrow.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zidentyfikowano błędy, które mogły wpłynąć na niedokładność pomiaru podczas eksperymentów, w wyniku których ogłoszono, że neutrino może poruszać się szybciej niż światło.
      Zespół pracujący przy eksperymencie OPERA stwierdził, że możliwe były dwa błędy związane z obsługą systemu GPS. Czas, jaki potrzebowały neutrino na pokonanie 730-kilometrowej trasy pomiędzy CERN-em a detektorem w Gran Sasso był mierzony za pomocą systemu GPS. Kluczową rolę mogły więc odegrać zegary atomowe na początku i na końcu trasy neutrino. Żeby je zsynchronizować, trzeba wysłać pomiędzy nimi sygnał, a ten też potrzebuje czasu na przebycie określonej odległości. Dlatego też dane są interplowane, w celu wyeliminowania tej różnicy czasu. OPERA przyznaje, że interpolacja mogła zostać źle wykonana. Drugi z możliwych błędów to niewłaściwe połączenie pomiędzy urządzeniem GPS, a głównym zegarem eksperymentu OPERA.
      Należy podkreślić, że są to na razie wstępne najbardziej możliwe wyjaśnienia. Nie wydano jeszcze ostatecznego komunikatu, gdyż oba spostrzeżenia nie zostały ostatecznie zweryfikowane.
      Tymczasem w Fermilab naukowcy pracujący przy eksperymencie MINOS próbują na własną rękę powtórzyć eksperyment CERN-u i sprawdzić uzyskane informacje.
    • By KopalniaWiedzy.pl
      Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD.
      Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii.
      Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York.
      W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii.
      Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku.
      Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.
    • By KopalniaWiedzy.pl
      Badacze z amerykańskiego Narodowego Laboratorium Energii Odnawialnej (NREL) poinformowali o stworzeniu pierwszego ogniwa słonecznego, którego zewnętrzna wydajność kwantowa wynosi ponad 100%. Dla fotoprądu wartość zewnętrznej wydajności kwantowej - podawaną w procentach - wylicza się na podstawie liczby elektronów przepływających przez obwód w ciągu sekundy podzielonej przez liczbę fotonów z określonej długości fali, wpadających w ciągu sekundy do ogniwa słonecznego. Dotychczas nie istniały ogniwa, których wydajność w jakimkolwiek zakresie fali przekraczałaby 100%. Uczonym z NREL udało się osiągnąć szczytową wydajność kwantową rzędu 114%. W przyszłości może to pozwolić na zbudowanie ogniw słonecznych, z których energia będzie równie tania, lub tańsza, od energii uzyskiwanej z paliw kopalnych czy energii jądrowej.
      Mechanizm uzyskania wydajności większej niż 100% bazuje na procesie zwanym Multiple Exciton Generation (MEG), podczas którego pojedynczy foton o odpowiednio wysokiej energii tworzy więcej niż jedną parę elektron-dziura.
      W roku 2001 pracujący w NREL Arthur J. Nozik przewidział, że MEG będzie lepiej działało w półprzewodnikowych kropkach kwantowych niż w zwykłych półprzewodnikach. Pięć lat później w pracy opublikowanej wraz z Markiem Hanną Nozik stwierdził, że kropki kwantowe użyte w ogniwach słonecznych mogą zwiększyć ich wydajność o około 35% w porównaniu z innymi nowoczesnymi rozwiązaniami. Ogniwa bazujące na kropkach kwantowych nazywane się ogniwami trzeciej (lub kolejnej) generacji. Obecnie buduje się ogniwa pierwszej i drugiej generacji.
      Zjawisko MEG, zwane też Carrier Multiplication (CM), zostało po raz pierwszy zaprezentowane w Los Alamos National Laboratory w 2004 roku. Od tamtej chwili wiele innych ośrodków badawczych potwierdziło jego występowanie w różnych półprzewodnikach. Teraz NREL zaprezentował MEG o wartości większej niż 100%. Badań dokonano przy niskiej intensywności symulowanego światła słonecznego, a mimo to eksperymentalne ogniwo słoneczne osiągnęło wydajność konwersji energii rzędu 4,5%. To bardzo dobry wynik, biorąc pod uwagę fakt, że ogniowo nie było optymalizowane pod kątem wydajności.
×
×
  • Create New...