Jump to content
Forum Kopalni Wiedzy

Recommended Posts

10 minut temu, peceed napisał:

A co mam psuć zabawę - samodzielnego zrozumienia problemu i szukania rozwiązania.

Przeca widzę - "miszczem" jesteś jeśli o zabawę chodzi. Robisz jako grajek na weselach?

10 minut temu, peceed napisał:

To taka przemiła sytuacja z "ukrytym łamaniem symetrii" ;) WIN-WIN.

Ukryłeś ją subtelnie. Ni cholery nikt nie zgadnie gdzie. ;)

11 minut temu, peceed napisał:

Ja nigdy nie dokonywałem "spontanicznej redukcji stanu"

Nie musiałeś. Kolaps funkcji falowej Ciebie w końcu nie dotyczy, bo owe ego jest już doskonale zmierzone.

I wiesz... Z mojej strony EOT (nie cierpię słabych grajków, a wesela to nie moje klimaty).

Share this post


Link to post
Share on other sites
2 minuty temu, Astro napisał:

Przeca widzę - "miszczem" jesteś jeśli o zabawę chodzi. Robisz jako grajek na weselach?

Witam w KF.

Share this post


Link to post
Share on other sites
Guest kremien

Śledzę ten temat z zaciekawieniem i muszę przyznać, że do pewnego momentu to była najciekawsza dyskusja, jaką kiedykolwiek znalazłem na tym forum. Dziękuję wam za to i mam szczerą nadzieję, że jeszcze się nie skończył i wróci na właściwe tory bez niepotrzebnych "off topów";) 

Share this post


Link to post
Share on other sites

Fajnie, ale warto nazywać rzeczy po imieniu. Nie sądzisz? ;)

Bo jak ktoś pintoli, to dla mnie nie jest ważne jakim stylem, bo pintoli.

Znaczy bez sensu. ;)

Share this post


Link to post
Share on other sites
Guest kremien
19 minutes ago, Astro said:

Fajnie, ale warto nazywać rzeczy po imieniu. Nie sądzisz? ;)

Myślę, że bardzo ważne jest, aby szanować innych ludzi i ich opinie, jakiekolwiek by nie były. Zauważ, że krytykować i wmawiać innym swoje racje jest łatwe i każdy tak potrafi. Prawdziwą sztuką i mądrością może być powstrzymywanie się od takich zachowań. A to dlatego, że w taki sposób można często zgasić dyskusję niewiele do niej nie wnosząc, na dodatek powodując negatywne emocje u innych i pogorszenie swojego wizerunku w ich oczach. Czy taki był cel? Proszę nie odpowiadać, bo to nic osobistego, a i tak nie mam już nic do dodania w tym temacie. 

Share this post


Link to post
Share on other sites

A jednak odpowiem, bo to nie opinia, a FAKT. :)
Mam nadzieję, że odróżniasz opinie od faktów; sądzę, że warto.

P.S. Może zauważyłeś (a może nie), ale interlokutorów staram się szanować tak tylko, jak nie tylko mogę i się da, bo zdecydowanie bardziej. Jeśli jednak sami się nie szanują, to nic na to nie poradzę...

Share this post


Link to post
Share on other sites
Guest kremien

A wracajac do tematu - odkad pamietam uczono nas, ze osiagniecie predkosci zblizonej do predkosci swiatla przez czasteczki posiadajace mase jest niemozliwe, bo wymaga to nieskonczenie wielkiej energii. Czy jest ktos z was w stanie policzc ile mniej wiecej energii potrzebana rozpedzenie 1g masy do 99% predkoscii swiatla? Pytam, bo chcialbym oszacowac sobie jaka energia musi dysponowac SMBH M87, ze strzela sobie z latwoscia dzetami dlugimi na 5000 lat swietlnych z predkoscia 99% predkosci swiatla. 
Jako ciekawostka zwiazana z tematem maly cytat:

Quote

X-ray data from the Chandra Observatory shows that the knots are travelling at unbelievable speeds: 6.3 times the speed of light for the knot closest to the center, and 2.4 times the speed of light for the other one.

Oczywiscie nie ma tu lamania fizyki, bo blad pomiarowy jest spowodowany tym zjawiskiem: https://en.m.wikipedia.org/wiki/Superluminal_motion

Chcialbym tylko zrozumiec jedna rzecz - czy grawitacja jest forma energii, czy nie? Na przyklad podczas manewru asysty grawitacyjnej wykorzystujemy ja jako forme energii, ale to chyba kosztem utraty predkosci planety,  czyli energii potencjalnej tak? Wiem, ze to laickie pytania, ale moze ktos mi pomoze to zrozumiec i jednoczesnie sprowadzic dyskusje do glownego tematu

Share this post


Link to post
Share on other sites

Coby najprościej było: energia całkowita jest sumą energii spoczynkowej (równoważnik masy) i energii kinetycznej, czyli:
E=E0+Ek
w przypadku relatywistycznym E0 jest zaniedbywalne, czyli pozostanie:
E=Ek
w tym przypadku uzasadnione będzie liczenie energii w jednostkach masy, bo obiekty astronomiczne obserwujemy jako masy, niezależnie od tego, jakie rodzaje energii na ich "masę" się składają, czyli potrzebna do rozpędzenia dżetu energia będzie równoważna odpowiedniej utracie masy przez obiekt. Do tego można wzoru
M = m/\sqrt{1 - v^2/c^2}
gdzie M to masa (energia) zużyta do rozpędzenia dżetu, którego masa spoczynkowa będzie równa coś tam (np. 1 g), m to masa spoczynkowa dżetu, a reszta to mianownik czynnika Lorentza, w którym v to prędkość, a c wiadomo co.
W ten sposób możesz wyliczyć sobie dowolne przypadki włącznie np. z takim: do jakiej prędkości by można rozpędzić muchę, gdyby zużyć do tego całą masę Ziemi? i dowolne inne ;)

Czy grawitacja jest formą energii? Jest polem (krzywizną czasoprzestrzeni) zależnym od rozkładu energii w tym polu (4D objętości) zawartej. Samo pole (puste) własnej energii nie ma, ale zmiana pozycji (koordynat czasoprzestrzennych) obiektu w tym polu - jeśli krzywizna jest niezerowa - powoduje zmianę energii tego obiektu względem innych obiektów (chociaż nie w każdym przypadku, geodezyjne). Fale grawitacyjne mają/przenoszą energię, dlatego np. masa łączących się BH zmniejsza się o energię wyemitowanych fal grawitacyjnych. Chyba tak to można najprościej... Jak ktoś opisze lepiej, to fajnie.
Co do asysty grawitacyjnej, na czym ona polega, najlepiej zajrzeć tu:
https://pl.wikipedia.org/wiki/Asysta_grawitacyjna
 

Edited by ex nihilo

Share this post


Link to post
Share on other sites
3 godziny temu, ex nihilo napisał:

masę" się składają, czyli potrzebna do rozpędzenia dżetu energia będzie równoważna odpowiedniej utracie masy przez obiekt. Do tego można wzoru
M = m/\sqrt{1 - v^2/c^2}

Ponieważ ruch jednostajny zbyt łatwy spróbujmy ruchów przyspieszonych :D Mamy pojazd napędzany jakimś super silnikiem zdolnym generować przyspieszenie 1g przez długi czas, powiedzmy rzędu 600 dni. Prędkość mierzymy dopplerem. Gdzieś po 250 dniach powinniśmy mieć więcej niż 0.7c, na pokładzie kilogram cały czas waży kilogram. Pytanie czy załoga obserwuje (doplerem) załamanie prawa V = a*t ? Czy (znowu) podzieje się coś z czasem i nikt nie wie kto się porusza i jak bardzo?  

Share this post


Link to post
Share on other sites
Guest kremien

Dzięki Ex Nihilo za wyjaśnienie, dzięki Tobie trochę lepiej to kumam. 

Co do asysty grawitacyjnej - Czy dobrze rozumiem, że odbywa się to kosztem energii kinetycznej planety? Czy może obrotowej też? Bo taki Jowisz raczej nie rozdaje "darmowych obiadów" prawda?

Share this post


Link to post
Share on other sites

Dokładnie, choć energia obrotowa to też energia kinetyczna. Przykładowo
(https://en.wikipedia.org/wiki/Gravity_assist):

Cytat

For example, one metric ton is a typical mass for an interplanetary space probe whereas Jupiter has a mass of almost 2 x 1024 metric tons. Therefore, a one-ton spacecraft passing Jupiter will theoretically cause the planet to lose approximately 5 x 10-25 km/s of orbital velocity for every km/s of velocity relative to the Sun gained by the spacecraft. For all practical purposes, since the effects on the planet are so slight (because planets are so much more massive than spacecraft) they can be ignored in the calculation.

Zmiana prędkości kątowej planety tym bardziej.

Edited by Astro

Share this post


Link to post
Share on other sites
22 godziny temu, Jajcenty napisał:

Pytanie czy załoga obserwuje (doplerem) załamanie prawa V = a*t ? Czy (znowu) podzieje się coś z czasem i nikt nie wie kto się porusza i jak bardzo?  

W tym przypadku najwygodniej by było mierzyć w uniwersalnym układzie odniesienia - względem promieniowania tła. Nie powinno być problemów z zaobserwowaniem załamania.Oni swoje 1g będą odczuwać, ale doppler pokaże zmniejszanie a. Nie może pokazać v>c, czyli... Tak przynajmniej mi to wychodzi. Przyspieszenie transformuje się dosyć paskudny sposób.
Kurcze, w dawnych czasach lubiłem wziąć kartkę, ołówek, i mogłem przesiedzieć przy tym całą noc - albo znalazłem rozwiązanie, albo wszytko mi się pod kopułą dokładnie popnotego. Od dłuższego czasu mam jakiś kartkowstręt, wszystko we łbie... ze skutkiem, no mocno różnym. Przez te komputery? Ale jedną zaletę to ma - lepiej działa wyobraźnia :D
 

13 godzin temu, Astro napisał:

Zmiana prędkości kątowej planety tym bardziej.

Raczej zmiana prędkości kątowej byłaby niemierzalnie mała (nawet teoretycznie), podobnie jak niektóre inne efekty.
W ogóle w samym układzie planeta-statek nic właściwie się nie dzieje, "co dał, to zabrał", efekt jest względem innych obiektów, np. Słońca.

Edited by ex nihilo

Share this post


Link to post
Share on other sites
W dniu 29.01.2020 o 16:38, kremien napisał:

Co do asysty grawitacyjnej - Czy dobrze rozumiem, że odbywa się to kosztem energii kinetycznej planety?

Kinetycznej. Pływy można zaniedbać.
 

W dniu 28.01.2020 o 22:58, kremien napisał:

bo wymaga to nieskończenie wielkiej energii

Można na to spojrzeć inaczej - wszystkie obiekty elementarne  poruszają się z prędkością światła, ale obiekty masywne składają się z zygzakujących części. I niemożliwość staje się czysto logiczna, bo nie da się lecieć z prędkością światła i mieć zygzakujące składowe lecące z prędkością światła. Albo-albo.
Dobra jest analogia stanem oscylacyjnym światła między dwoma lusterkami, bo łatwo też zobrazować dylatację czasu.

 

 

W dniu 28.01.2020 o 22:58, kremien napisał:

Chcialbym tylko zrozumiec jedna rzecz - czy grawitacja jest forma energii, czy nie?

Energia to pojęcie abstrakcyjnę będące funkcją stanu układu, więc pytanie "czy coś jest formą energii" nie ma sensu logicznego. Układowi można przyporządkować energię.
Fale grawitacyjne przenoszą energię, ale pole grawitacyjne nie ma czegoś takiego jak lokalna gęstość energii.
W MK można tylko mówić o wartości oczekiwanej pomiarów operatora H, potocznie mówiąc energia każdego układu może fluktuować.

 

Share this post


Link to post
Share on other sites
W dniu 30.01.2020 o 08:06, ex nihilo napisał:

Raczej zmiana prędkości kątowej byłaby niemierzalnie mała (nawet teoretycznie)

Spróbuj zmierzyć (nawet teoretycznie :D) zmianę okresu obiegu Jowisza powodowaną asystami grawitacyjnymi. Strzelam, że gdybyśmy co roku robili taką asystę, to na to, by Jowisz zgubił sekundę przy okresie obiegu coś kole 12 lat musielibyśmy zacząć w Kredzie, a może i przed BB. ;) Nie wątpisz chyba, że jak pobiegnę na wschód, to Ziemia zwolni w swoim obrocie, prawda? To, że nikt tego nie zmierzy to inna sprawa.

 

ed: Ło, zdziwiłem się. Wziąłem niechcianą kartkę i ołówek... Wystarczyłby nam niecały milion lat by tym przemysłem zwolnić Jowisza w ruchu obiegowym o sekundę; nieźle. ;)

Share this post


Link to post
Share on other sites
Guest kremien
4 hours ago, peceed said:

Można na to spojrzeć inaczej - wszystkie obiekty elementarne  poruszają się z prędkością światła, ale obiekty masywne składają się z zygzakujących części. I niemożliwość staje się czysto logiczna, bo nie da się lecieć z prędkością światła i mieć zygzakujące składowe lecące z prędkością światła. Albo-albo.
Dobra jest analogia stanem oscylacyjnym światła między dwoma lusterkami, bo łatwo też zobrazować dylatację czasu.
 

Pierwszą część rozumiem, ale czym są zygzakujące składowe albo stan oscylacyjny między lusterkami już nie bardzo. Może mi to kolega wyjaśnić, lub naprowadzić, pod jakim hasłem szukać tego w internecie?

Przy okazji dzięki wszystkim za wypowiedzi, dla mnie ten temat jest świetny!

Share this post


Link to post
Share on other sites
W dniu 25.01.2020 o 07:24, Jarek Duda napisał:

Co do tego układu, dołączam chyba ciut lepszy diagram.

Mam jeszcze jedną wątpliwość odnośnie komputera opartego na modelu Isinga. Mianowicie w fizycznie realizowalnej regularnej siatce spinów nie da się uniknąć interakcji pomiędzy niesąsiednimi spinami. Jeśli energia oddziaływania pomiędzy sąsiadami wynosi r, to energia pomiędzy spinami o dwukrotnie większej odległości powinna wynosić 1/8, potem 1/27. Dochodzą jeszcze przekątne. Nie widzę możliwości ekranowania tych interakcji. Dlatego nawet jeśli model Isinga przewiduje możliwość magicznych obliczeń, to ta matematyka może się załamać ze względu na niezgodność z rzeczywistością.

2 minuty temu, kremien napisał:

czym są zygzakujące składowe albo stan oscylacyjny między lusterkami już nie bardzo. Może mi to kolega wyjaśnić, lub naprowadzić, pod jakim hasłem szukać tego w internecie?


Można sobie wyobrazić foton latający pomiędzy dwoma lustrami prostopadłymi do kierunku ruchu. Taki obiekt zachowuje się jak cząsteczka obdarzona masą. Nieważkie pudełko z fotonem w środku też zachowuje się jakby miało masę, to podstawa do wyprowadzenia wzoru E=mc^2 w oryginalnym rozumowaniu Einsteina.

https://physics.stackexchange.com/questions/75783/penroses-zig-zag-model-and-conservation-of-momentum
Penrose opisał podobną interpretację dla elektronu jako oscylację pomiędzy dwoma stanami (nota bene "Nowy umysł cesarza" zawiera też trochę bzdur").

 

Share this post


Link to post
Share on other sites
30 minut temu, Astro napisał:

Wziąłem niechcianą kartkę i ołówek...

Ups. Chyba walnąłem się o czynnik jakieś 10--5. Tak to jest jak człek brata trzecie prawo Keplera z różniczką zupełną po dobrym winie i to bez kalkulatora... Jutro postaram się to zweryfikować. :ph34r:

Share this post


Link to post
Share on other sites
14 hours ago, peceed said:

Mam jeszcze jedną wątpliwość odnośnie komputera opartego na modelu Isinga. Mianowicie w fizycznie realizowalnej regularnej siatce spinów nie da się uniknąć interakcji pomiędzy niesąsiednimi spinami. Jeśli energia oddziaływania pomiędzy sąsiadami wynosi r, to energia pomiędzy spinami o dwukrotnie większej odległości powinna wynosić 1/8, potem 1/27. Dochodzą jeszcze przekątne. Nie widzę możliwości ekranowania tych interakcji. Dlatego nawet jeśli model Isinga przewiduje możliwość magicznych obliczeń, to ta matematyka może się załamać ze względu na niezgodność z rzeczywistością.

Oczywiście podczas gdy np. bramka NOT to antyferromagnetyk, pozostaje wiele technicznych problemów do zrealizowania takiego układu, przedstawioną idealizację trzeba zastąpić realizacją obchodzącą trudności ...

... ale np. z Shorem wcale nie jest lepiej, opierając się na podobnym założeniu: zespole Feynmanowskim po ścieżkach zamiast Boltzmannowskiego w Isingu ... po wydaniu miliardów dolarów błędy np. jednego CNOTa są na poziomie kilkunastu procent, a dla praktyczności potrzebujemy liczyć bezbłędnie setki tysięcy bramek, dodatkowo unikając dekoherencji. Korekcja błędów wymaga mnożenia ilości bramek - też niedoskonałych, dając błędne koło.

To są alternatywne ścieżki rozwoju, z trochę innymi problemami, ale jak dla komputerów kwantowych szczytem marzeń jest faktoryzacja czyli łamanie RSA, na Isingu teoretycznie można nieporównywalnie więcej: rozwiązywać NP-zupełne, czyli np. błyskawicznie łamać już wszelką kryptografię.

Poprawiony diagram (v4  https://arxiv.org/pdf/1912.13300 ):

IQC.thumb.png.cbd9b89bc2d831097cbc50724d6d1c8e.png

 

Share this post


Link to post
Share on other sites
16 godzin temu, peceed napisał:

nota bene "Nowy umysł cesarza" zawiera też trochę bzdur"

Chodziło mi o "Drogę do rzeczywistości". Bardzo miła jeśli chodzi o odświeżenie czy ogólną prezentacje koncepcji, nie nadaje się do nauki a jedynie jako pomoc a w miejscach gdzie jest błędna jest bardzo mocno błędna.

 

 

1 godzinę temu, Jarek Duda napisał:

pozostaje wiele technicznych problemów do zrealizowania takiego układu

Nie jest to trudność techniczna, wydaje mi się że jest to fundamentalna niezgodność modelu z rzeczywistością. Nie widzę opcji aby dało się wprowadzić ekranowanie pomiędzy dalszymi spinami. Nawet jeśli wprowadzi się kwadraty z materiału o niskiej przenikalności magnetycznej, to efektywnie zbliża to jedynie metrykę odległości pomiędzy spinami "na ukos" do taksówkowej. Spin który reaguje z sąsiadem z energią Jij, będzie reagował z dalszymi z energią malejącą jak trzecia energia odległości, czyli Jij/8, Jij/27, Jij/64. Model Isinga przypomina rzeczywistość tylko dlatego, że jest to bardzo szybki spadek i rozwiązania jakościowo są bardzo podobne. Nie znam mechanizmów fizycznych które mogły by spowodować brak takiego oddziaływania w zasadzie, to po prostu nie jest trudność techniczna a raczej fundamentalna.
Jeśli tak jest, to cała matematyka "rozwiązująca" problemy według tego założenia jest nieadekwatna.

Aby to uzyskać działanie Isinga w rzeczywistych układach fizycznych potrzebne byłoby bardzo magiczne oddziaływanie które dokładnie kompensuje energię pomiędzy dalszymi spinami, całkowicie nielokalne. Mam wrażenie że to może być powód "łamania bella" (tutaj od razu mówię że nie analizowałem prawdziwości tego stwierdzenia na poziomie technicznym) nawet w przypadku klasycznym, ten wydaje się być nielokalny.
 

2 godziny temu, Jarek Duda napisał:

ale np. z Shorem wcale nie jest lepiej, opierając się na podobnym założeniu: zespole Feynmanowskim po ścieżkach zamiast Boltzmannowskiego w Isingu

To w ogóle nie jest tak, Shor działa bo wykorzystuje matematyczne własności komputera kwantowego. Wszelkie wyobrażanie sobie mechanizmów działania tego algorytmu za pomocą superpozycji klasycznych ścieżek obliczeniowych nie ma znaczenia dla fizyki, to wirtualna, matematyczna część która uzasadnia i wizualizuje poprawność algorytmu, ale "fizyczna realizacja" obliczeń kwantowych w ten sposób nie jest wymagana. Dlatego też komputer kwantowy nie jest "dowodem" MWI.
 

2 godziny temu, Jarek Duda napisał:

na Isingu teoretycznie można nieporównywalnie więcej: rozwiązywać NP-zupełne

I to jest kolejna bardzo poważna przesłanka za tym, że model jest zupełnie "niefizyczny". Jedyna na co bym liczył w przypadku komputerów kwantowych to efektywne metody aproksymacji problemów np-trudnych.
Są znane modele "hiperfizycznych" komputerów które dają sobie radę z obliczeniami NP-com, na przykład wykorzystujące nieliniową odmianę MK.
Jeden z moich profesorów miał całkiem interesującą metahipotezę, że dla przyrody problemy NP-com muszą być trudne, bo to do czego efektywnie dąży świat to stan o maksymalnej możliwej entropii,  jedyny powód dla którego idzie to tak wolno i mamy stabilną rzeczywistość wynika z faktu, że jest to problem "trudny obliczeniowo dla praw fizyki" (jego sformułowanie było nieco inne i dotyczyło minimalizacji energii ale duch był dokładnie taki sam).

2 godziny temu, Jarek Duda napisał:

To są alternatywne ścieżki rozwoju, z trochę innymi problemami

Wciąż mam wrażenie że ten cały alternatywny model jest oparty na "alternatywnej interpretacji klasycznej MK". To rzeczywiście byłby trochę inny problem, bo wtedy nie ma nawet podstaw teoretycznych aby coś takiego mogło zadziałać. Całe założenie że fizyka będzie tak kierować spinami aby spełnić założenia MERW może być po prostu nieprawdziwe.
Z kolei obliczenia kwantowe mają żelazne fundamenty teoretyczne i muszą działać, problemy rzeczywiście mają charakter techniczny. I kwantowa supremacja jest do uzyskania w sposób praktycznie pewny, bo obserwujemy wykładniczy wzrost możliwości komputerów kwantowych. Tylko że to "kwantowe prawo Moora" jest znacznie wolniejsze od tego, do czego przyzwyczaiła nas elektronika klasyczna.


 

 

Share this post


Link to post
Share on other sites

Jak dla mnie nieoddziaływanie spinów jest tutaj najmniejszą trudnością, np. można drukować na niemagnetycznym podłożu czy wręcz w próżni w sieciach optycznych ( https://en.wikipedia.org/wiki/Optical_lattice ), oddzielać przestrzennie takie ścieżki etc. ... oczywiście nigdy nie będzie idealnie, ale w komputerach kwantowych też na to nie ma szans. No i można się obejść bez idealnych, analogicznie do korekcji błędów można np. wzmacniać różne efekty poprzez zrównoleglanie etc.

Dużo większym problemem jest rzeczywiście pytanie czy rozkład Boltzmannowski w przestrzeni nie jest tylko przybliżeniem ... ale jeśli tak to dlaczego rozkład Feynmanowski w czasie miałby nie być też tylko przybliżeniem? Jeśli żyjemy w czasoprzestrzni, to są one swoimi matematycznymi odpowiednikami (czas i przestrzeń mają przeciwne sygnatury).

Share this post


Link to post
Share on other sites
5 godzin temu, peceed napisał:

bo to do czego efektywnie dąży świat to stan o maksymalnej możliwej entropii

Świat do tego nie dąży, zwyczajnie temu podlega. Świat moim zdaniem jest na to zbyt głupi.

5 godzin temu, peceed napisał:

Jeden z moich profesorów miał całkiem interesującą metahipotezę,

Hipoteza po dwóch winach?

23 godziny temu, Astro napisał:

Chyba walnąłem się o czynnik jakieś 10--5.

Chyba jednak więcej i musielibyśmy mieć wsparcie nie tylko dinozaurów, ale nie bardzo mam czas na kartkę i ołówek...

5 godzin temu, peceed napisał:

I to jest kolejna bardzo poważna przesłanka za tym, że model jest zupełnie "niefizyczny".

Niefizyczny był prosty model Bohra swego czasu, a jednak...

Niefizyczna była STW... Ale, mówisz o "intuicjach". Te bywają zwodnicze.

5 godzin temu, peceed napisał:

Z kolei obliczenia kwantowe mają żelazne fundamenty teoretyczne i muszą działać

Zabawne jak historia fizyki. Teorie nie raz padały na pysk. "Żelazne fundamenty teoretyczne"? Naprawdę zabawne żelazo. ;)

Share this post


Link to post
Share on other sites
W dniu 1.02.2020 o 12:37, Jarek Duda napisał:

ak dla mnie nieoddziaływanie spinów jest tutaj najmniejszą trudnością, np. można drukować na niemagnetycznym podłożu czy wręcz w próżni w sieciach optycznych ( https://en.wikipedia.org/wiki/Optical_lattice ), oddzielać przestrzennie takie ścieżki etc.

Ale problem zasięgu oddziaływania nie zależy od sposobu technicznej realizacji, tylko od zauważenia że jeśli mamy gdzieś oddziałujące pary sąsiednich spinów z energiami, Ji i+1, Ji+1 i+2 to na skutek mechanizmu oddziaływania przez pole magnetyczne musimy mieć Ji i+2 != 0. I to całkiem nie mało, wciąż na poziomie 1/8 średniej oddziaływań Ji i+1, Ji+1 i+2.To jest problem nie do obejścia przez żadne zabawy z implementacją i fundamentalny rozjazd. Jeśli mielibyśmy kodować problem w postaci poziomu sprzężenia spinów, to miałby on z pewnością jakąś dokładność reprezentacji (promil?). To wymusza uwzględnianie nawet do 10 sąsiednich spinów w modelu a nie tylko te na diagonali, aby błędy modelu nie były większe od kodowania. A to już nie jest model Isinga.

 

Share this post


Link to post
Share on other sites

Oddziaływanie między spinami jako dipole magnetyczne maleje 1/r^4, jak w angstomach jest za dużo, to oddalmy np. do mikrometrów ... nie będzie zero, ale w komputerach kwantowych też nie jest idealnie.

Share this post


Link to post
Share on other sites
18 godzin temu, Jarek Duda napisał:

Oddziaływanie między spinami jako dipole magnetyczne maleje 1/r^4

Ale nas interesuje nie siła a energia wzajemnego oddziaływania, a ta jest jak 1/r^3. To bardzo szybki spadek, ale nie wystarczająco szybki aby zignorować oddziaływanie spinów odległych o 2-3 przeskoki, co robi się w Isingu. Pewnie wciąż czegoś nie rozumiem, ale równoważność przejść po ścieżkach zachodzi dla dokładnego modelu Isinga według równania (4).

W dniu 1.02.2020 o 09:10, Jarek Duda napisał:

Poprawiony diagram (v4  https://arxiv.org/pdf/1912.13300 )

Ta praca jest na oko kilka razy za krótka jak na zakres zagadnień które porusza.
Brakuje dokładnego wskazania gdzie i jak odczytuje się bity wyniku.
Bardzo przydałby się pełny "diagram scalony" dla prostego przypadku, powiedzmy kilka zmiennych i klauzul.
W kilku stanach, tzn. jaki jest początek układu, jak wygląda faza obliczeń, gdzie są bity a gdzie qbity.
Jak wygląda odczyt.
Jeśli to ma ręce i nogi, to na pewno da się nawet przygotować animację która pokazuje jak mają działać te obliczenia, z demonstracją rozkładu po ścieżkach, jak ma się to do działania bramek itd.

18 godzin temu, Jarek Duda napisał:

w komputerach kwantowych też nie jest idealnie

W komputerach kwantowych jest idealnie, bo jest możliwa korekcja błędów na co jest sporo twierdzeń. Do tego wciąż czekamy na topologiczne komputery kwantowe które mają mieć znikomy poziom błędów.
Komputery kwantowe w większości implementacji są dyskretne, operują dobrze zdefiniowanymi q-bitami. Na przykład taki q-bit oparty na jądrze zupełnie nie dba o to jak moment magnetyczny rozkłada się na składowe (bariony/kwarki itd), mechanika kwantowa gwarantuje nam "dyskretność". Tak samo można rozłożyć qbity logiczne na kilkaset realnych splątanych. Ogólnie nie musimy się martwić o indywidualną "jakość" qbitu inaczej niż przez dekoherencję, o resztę dba mechanika kwantowa. Nie trzeba się przejmować faktem, że wartości amplitud spadają na przykład do poziomu 10^-10, każdy qubit to obsłuży za darmo.
Patrząc na ten komputer nie wiem czy tam w ogóle obowiązuje koncepcja q-bitu czy też mamy coś w rodzaju b-bitu.

 

Share this post


Link to post
Share on other sites

Siła oddziaływania monopol-monopol (np. elektryczny) jest 1/r^2, monopol-poruszający się dipol: v/r^3, dipol-dipol (np. dwa magnesy/spiny) jest 1/r^4. Ale nawet biorąc 1/r^3, przechodząc z angstrema do np. mikrometra w sieciach optycznych, spada ~10^12, czyli o niebo lepiej niż w komputerach kwantowych.

Ten arXiv jest o nowym podejściu do liczenia modeli typu Isinga, spojrzenie na nie perspektywy pól Markova - które są znane dla ludzi z teorii informacji, ale praktycznie nieznane dla ludzi z condensed matter. Rozwinięcie do łamania Bella czy Wick-rotated quantum computers to na razie tylko dodatek, z którego pewnie kiedyś napiszę osobną pracą może z analogiem kwantowej korekcji błędów, ale ciężko stwierdzić kiedy.

Ale ogólnie mając doświadczenie z komputerami kwantowymi to jest dość naturalne - kwestia zamiany Feynmanowskich zespołów, bramek na Boltzmannowskie - co matematycznie jest dość podobne. Nie ma interferencji, ale jest zgodność wielu własności, jak np. lokalizacyjne - jako rozkład stacjonarny dostajemy dokładnie to co w kwantowym stanie podstawowym, jak rho~sin^2 w [0,1] zamiast rho=1 w zwykłej dyfuzji. Ogólnie polecam przemyśleć MERW: https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk

Edited by Jarek Duda

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Jak się okazuje, do rozwoju wielkich cywilizacji ludzkości potrzebny był nie tylko miecz i pług, ale również pióro. Autorzy najnowszej analizy dowodzą, że o być albo nie być protopaństw i pierwszych cywilizacji decydowała technologia informacyjna.
      Analiza danych zgromadzonych w ramach projektu „Seshat: Global History Databank” dowodzi, że na pewnym etapie rozwoju rodzące się państwa napotykały wąskie gardło w postaci konieczności wymiany informacji. Te, które sobie z tym poradziły, mogły rozwijać się dalej.
      Jaeweon Shin z Rice University, Michael Holton Price, David Wolpert, Hajime Shimao i Brendan Tracey z Santa Fe Institute oraz Timothy Kohler z Washington State University dowodzą, że każda cywilizacja rozwijała się w trzech etapach.
      Na początkowym etapie rozwój protopaństwa napędzany był samym wzrostem liczby ludności. Osiadły tryb życia, udomowienie roślin i zwierząt pojawiły się niezależnie w wielu miejscach na Ziemi. W wielu społeczeństwach doszło też do znacznej zmiany mobilności ich członków. Wraz z pojawianiem się nadwyżek żywności, przekazywaniem zgromadzonych dóbr kolejnym pokoleniom rosły nierówności, pojawiały się i umacniały ośrodki władzy.
      Powstawały protopaństwa, a wzrost ich siły był napędzany wzrostem liczby ludności. Niemal wszędzie obserwuje się występowanie takich powiązanych ze sobą zjawisk jak wzrost produkcji rolnej, wzrost liczby ludności, pojawianie się zaczątków miast, rozwój hierarchii politycznej i coraz większe nierówności majątkowe. Na wszystkich kontynentach gdzie pojawiło się rolnictwo zauważalny jest wysoki stopień podobieństwa zarówno w sposobie formowania się społeczności ludzkich, od niewielkich grup łowców-zbieraczy po ostatnią znaną nam formę czyli wielkie społeczeństwa miejskie.
      Naukowcy chcieli sprawdzić, co powoduje, że społeczeństwa rozwijają się w tak bardzo podobny sposób. W tym celu wzięli na warsztat bazę Seshat. To ambitny projekt, w którym pod uwagę branych jest ponad 1500 zmiennych, za pomocą których opisano ponad 400 społeczeństw z 6 kontynentów na przestrzeni ostatnich 10 000 lat historii.
      Na podstawie wykonanej analizy autorzy badań doszli do wniosku, że po początkowej pierwszej fazie rozwoju protopaństw wzrost liczby ludności przestaje wystarczać i pojawia się wąskie gardło. Jest nim konieczność opracowania efektywnego systemu wymiany informacji i przeprowadzania transakcji handlowych. Istnieje bardzo silny związek pomiędzy sposobem, w jaki społeczeństwa przetwarzają informacją, a tym, jak duże mogą się stać. Wydaje się, że wcześnie dokonany postęp w przetwarzaniu informacji, a zatem np. pojawienie się pisma czy pieniądze, był dla rozwoju tamtych społeczeństw równie ważny, jak dla nas ważny jest dzisiaj internet, mówi Tim Kohler. Dopiero, gdy w takim protopaństwie pojawi się pismo i pieniądz, społeczeństwo może nadal się rozwijać i przejść do fazy trzeciej.
      Nasze analizy wykazały, że starożytne cywilizacje, po osiągnięciu pewnej wielkości, natykały się na informacyjne wąskie gardło. To punkt zwrotny naszej skali rozwoju społeczeństw. Bardzo rzadko zdarzało się, by bez pisma lub pieniądza, mogły nadal się rozwijać. Jednak tam, gdzie dokonano tych wynalazków, narodziły się wielkie imperia, dodaje Kohler.
      Badania Kohlera i jego kolegów dostarczają też możliwego wyjaśnienia różnic technologicznych, jakie widzimy pomiędzy cywilizacjami Starego i Nowego Świata. Ich praca dowodzi bowiem, że bardzo mało cywilizacji obu Ameryk było w stanie dotrzeć do punktu zwrotnego. W związku z tym istniała tam mniejsza presja na rozwój pisma i innych form informacji, które przyniosły postęp technologiczny w Europie i Azji.
      Jednym z głównych powodów, dla których cywilizacje Ameryki nigdy nie osiągnęły punktu zwrotnego był brak koni, wołów i innych dużych zwierząt zdolnych do przenoszenia ludzi i ładunków. Takie zwierzęta pozwalały na powstanie nadwyżek żywności, ułatwiały handel i umożliwiały ekspansję imperiów w Azji i Europie, dodaje Kohler.
      Naukowcy mają nadzieję, że analiza bazy Seshat da też odpowiedź na inne interesujące pytania, jak np. dlaczego niektóre cywilizacje upadły, mimo że nie widać żadnych zewnętrznych przyczyn ich porażki. Mamy nadzieję, że z czasem, gdy do Seshat będzie trafiało coraz więcej danych, uda nam się odpowiedzieć na tego typu pytania, mówi Kohler.
      Obecnie posiadamy nowe niezwykłe możliwości przechowywania i przetwarzania danych. Większe niż kiedykolwiek wcześniej. Czy to oznacza, że przed nami nowy etap rozwoju ludzkiej cywilizacji? A jeśli tak, to jak będzie on wyglądał, zastanawia się uczony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Grupa naukowców z Uniwersytetu w Oksfordzie donosi o udanym splątaniu bakterii z fotonami. W październikowym numerze Journal of Physics ukazał się artykuł zespołu pracującego pod kierunkiem Chiary Marletto, który przeanalizował eksperyment przeprowadzony w 2016 roku przez Davida Colesa i jego kolegów z University of Sheffield.
      Podczas wspomnianego eksperymentu Coles wraz z zespołem umieścili kilkaset chlorobakterii pomiędzy dwoma lustrami i stopniowo zmniejszali odległość pomiędzy nimi tak, aż dzieliło je zaledwie kilkaset nanometrów. Odbijając białe światło pomiędzy lustrami naukowcy chcieli spowodować, by fotosyntetyczne molekuły w bakteriach weszły w interakcje z dziurą, innymi słowy, bakterie miały ciągle absorbować, emitować i ponownie absorbować odbijające się fotony. Eksperyment okazał się sukcesem. Sześć bakterii zostało w ten sposób splątanych z dziurą.
      Jednak Marletto i jej zespół twierdzą, że podczas eksperymentu zaszło coś więcej, niż jedynie połączenie bakterii z dziurą. Przeprowadzone analizy wykazały, że sygnatura energetyczna pojawiająca się podczas eksperymentu jest właściwa dla splątania molekuł wewnątrz bakterii e światłem. Wydaje się, że niektóre fotony jednocześnie trafiały w molekuły i je omijały, a to właśnie dowód na splątanie.
      Nasze modele dowodzą, że zanotowano sygnaturę splątania pomiędzy światłem a bakterią, mówi pani Marletto. Po raz pierwszy udało się dokonać splątania kwantowego w żywym organizmie.
      Istnieje jednak wiele zastrzeżeń, mogących podważać wnioski grupy Marletto. Po pierwsze i najważniejsze, dowód na splątanie zależy od tego, w jaki sposób zinterpretujemy interakcję światła z bakterią. Marletto i jej grupa zauważają, że zjawisko to można opisać też na gruncie klasycznego modelu, bez potrzeby odwoływania się do efektów kwantowych. Jednak, jak zauważają, nie można tego opisać modelem „półklasycznym”, w którym do bakterii stosujemy zasady fizyki newtonowskiej, a do fotonu fizykę kwantową To zaś wskazuje, że mieliśmy do czynienia z efektami kwantowymi dotyczącymi zarówno bakterii jak i fotonu. To trochę dowód nie wprost, ale sądzę, że wynika to z faktu, iż oni próbowali bardzo rygorystycznie podejść do tematu i nie wysuwali twierdzeń na wyrost, mówi James Wootton z IBM Zurich Research Laboratory, który nie był zaangażowany w badania.
      Z kolei Simon Gröblacher z Uniwersytetu Technologicznego w Delft zwraca uwagę na kolejne zastrzeżenie. Otóż energię bakterii i fotonu zmierzono wspólnie, nie osobno. To pewne ograniczenie, ale wydaje się, że miały tam miejsce zjawiska kwantowe. Zwykle jednak gdy chcemy dowieść splątania, musimy osobno zbadać oba systemy.
      Wiele zespołów naukowych próbuje dokonać splątania z udziałem organizmów żywych. Sam Gröblacher zaprojektował eksperyment, w którym chce umieścić niesporczaki w superpozycji. Chodzi o to, by zrozumieć nature rzeczy i sprawdzić czy efekty kwantowe są wykorzystywane przez życie. W końcu u swoich podstaw wszystko jest kwantem, wyjaśnia współpracownik Marletto, Tristan Farrow.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zidentyfikowano błędy, które mogły wpłynąć na niedokładność pomiaru podczas eksperymentów, w wyniku których ogłoszono, że neutrino może poruszać się szybciej niż światło.
      Zespół pracujący przy eksperymencie OPERA stwierdził, że możliwe były dwa błędy związane z obsługą systemu GPS. Czas, jaki potrzebowały neutrino na pokonanie 730-kilometrowej trasy pomiędzy CERN-em a detektorem w Gran Sasso był mierzony za pomocą systemu GPS. Kluczową rolę mogły więc odegrać zegary atomowe na początku i na końcu trasy neutrino. Żeby je zsynchronizować, trzeba wysłać pomiędzy nimi sygnał, a ten też potrzebuje czasu na przebycie określonej odległości. Dlatego też dane są interplowane, w celu wyeliminowania tej różnicy czasu. OPERA przyznaje, że interpolacja mogła zostać źle wykonana. Drugi z możliwych błędów to niewłaściwe połączenie pomiędzy urządzeniem GPS, a głównym zegarem eksperymentu OPERA.
      Należy podkreślić, że są to na razie wstępne najbardziej możliwe wyjaśnienia. Nie wydano jeszcze ostatecznego komunikatu, gdyż oba spostrzeżenia nie zostały ostatecznie zweryfikowane.
      Tymczasem w Fermilab naukowcy pracujący przy eksperymencie MINOS próbują na własną rękę powtórzyć eksperyment CERN-u i sprawdzić uzyskane informacje.
    • By KopalniaWiedzy.pl
      Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD.
      Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii.
      Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York.
      W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii.
      Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku.
      Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.
    • By KopalniaWiedzy.pl
      Badacze z amerykańskiego Narodowego Laboratorium Energii Odnawialnej (NREL) poinformowali o stworzeniu pierwszego ogniwa słonecznego, którego zewnętrzna wydajność kwantowa wynosi ponad 100%. Dla fotoprądu wartość zewnętrznej wydajności kwantowej - podawaną w procentach - wylicza się na podstawie liczby elektronów przepływających przez obwód w ciągu sekundy podzielonej przez liczbę fotonów z określonej długości fali, wpadających w ciągu sekundy do ogniwa słonecznego. Dotychczas nie istniały ogniwa, których wydajność w jakimkolwiek zakresie fali przekraczałaby 100%. Uczonym z NREL udało się osiągnąć szczytową wydajność kwantową rzędu 114%. W przyszłości może to pozwolić na zbudowanie ogniw słonecznych, z których energia będzie równie tania, lub tańsza, od energii uzyskiwanej z paliw kopalnych czy energii jądrowej.
      Mechanizm uzyskania wydajności większej niż 100% bazuje na procesie zwanym Multiple Exciton Generation (MEG), podczas którego pojedynczy foton o odpowiednio wysokiej energii tworzy więcej niż jedną parę elektron-dziura.
      W roku 2001 pracujący w NREL Arthur J. Nozik przewidział, że MEG będzie lepiej działało w półprzewodnikowych kropkach kwantowych niż w zwykłych półprzewodnikach. Pięć lat później w pracy opublikowanej wraz z Markiem Hanną Nozik stwierdził, że kropki kwantowe użyte w ogniwach słonecznych mogą zwiększyć ich wydajność o około 35% w porównaniu z innymi nowoczesnymi rozwiązaniami. Ogniwa bazujące na kropkach kwantowych nazywane się ogniwami trzeciej (lub kolejnej) generacji. Obecnie buduje się ogniwa pierwszej i drugiej generacji.
      Zjawisko MEG, zwane też Carrier Multiplication (CM), zostało po raz pierwszy zaprezentowane w Los Alamos National Laboratory w 2004 roku. Od tamtej chwili wiele innych ośrodków badawczych potwierdziło jego występowanie w różnych półprzewodnikach. Teraz NREL zaprezentował MEG o wartości większej niż 100%. Badań dokonano przy niskiej intensywności symulowanego światła słonecznego, a mimo to eksperymentalne ogniwo słoneczne osiągnęło wydajność konwersji energii rzędu 4,5%. To bardzo dobry wynik, biorąc pod uwagę fakt, że ogniowo nie było optymalizowane pod kątem wydajności.
×
×
  • Create New...