Skocz do zawartości
Forum Kopalni Wiedzy

peceed

Użytkownicy
  • Liczba zawartości

    1616
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    57

Zawartość dodana przez peceed

  1. W Polandii to "przedsiębiorstwa naftowe".
  2. A jaką miarę kolega przyjmuje do porównywania osiągnięć?
  3. 1) Poniżej 1% tego co miałem 2) 100% Anhedonia nie pozwala mi się cieszyć czymkolwiek. 3) Zdążyłem zauważyć.
  4. Nie, skazałem się na sukcesy w innych dziedzinach. Niestety nie przewidziałem że uczulenie na penicylinę mnie wykończy. Raczej zimna logiczna kalkulacja. Z jednej strony mam dziedzinę której "wynik" mnie interesuje, ale nie uprawianie, i inne które dają mi jednocześnie więcej radości jak i zwiększają szanse, że poznam ten "wynik". Dodatkowo o większej praktycznej użyteczności "dla ludzkości" (nie oszukujmy się, poznanie TOE nic nie zmieni z punktu widzenia życia przeciętnych ludzi, no chyba że ostateczne poznanie to bogowie i książka kodów błagalnych ; )).
  5. Mam nadzieję, że sprawia mu to radość. Jeśli chodzi o fizykę, to dawno temu sobie odpuściłem. Nawet gdybym został fizykiem strunowym, to nie sądzę abym zwiększyłbym tempo rozwoju prac nad TOE o marny 1 procent, i bardzo nie lubiłem dokonywać mozolnych obliczeń algebraicznych. Zatem przyjąłem, jeśli chodzi o fizykę, strategię pasożytniczą Przedłużanie ludzkiego życia i tworzenie AI dawało większe szanse na poznanie TOE, niestety wyszło jak zwykle, jakby to powiedział Czarnomyrdin . Porównując informatyczne i fizyczne osiągnięcia Jarka mam jednak wrażenie, że lepiej byłoby gdyby skupił się na AI, jest naprawdę wiele do zrobienia i właśnie "takich" (z pograniczna matematyki, fizyki, informatyki i interesujących się "wszystkim") ludzi tam trzeba. Potem wystarczy stworzyć system o mocy ponad 1000 miliwittenów
  6. To tylko możliwość którą lubię ze względu na minimalizm założeń i symetrie, życia wiecznego nie obiecuję. Nie znam, i nawet nie szukam. Naszym "przekleństwem" jest oglądanie wszechświata "od środka" co skazuje nas na fundamentalny brak możliwości "pełnego" poznania, nawet jeśli wszechświat byłby pięknie określoną platońską strukturą matematyczną. Tak naprawdę badamy nie wszechświat, tylko granice naszego refleksyjnego poznania. Kolega Jarek jeszcze się z tym nie pogodził
  7. W takim ujęciu to zbiór praw fizyki z których wynika unikalny stan początkowy analogiczny do Hartla-Hawkinga. Przypuszczam że na mocy czystej matematyki wymusza to istnienie wszystkich możliwych "subiektywnych historii" jego ewolucji. Taki wieloświat, tylko że nie używam go jako uzasadnienia postulatów mechaniki kwantowej, to raczej dodatkowy aksjomat. Wystarczy na przykład przyjąć, że takich początkowych światów w unikalnym stanie początkowym jest w pewnym sensie "mocno nieskończenie wiele", nie zmieniać niczego w MK i dostajemy automatycznie możliwość interpretacji kwantowych prawdopodobieństw jako stosunku ilości wszechświatów realizujących możliwość do ilości wyjściowych. Nie musimy się martwić o jakiekolwiek "rozszczepienia", bo te wszechświaty na poziomie MK są osobne. Wyszedł mi językowy potworek, chodziło mi o tym, że te wszystkie obiekty typu funkcje falowe i wektory stanu to nie jest "rzeczywistość", tylko wiedza/model "o czymś", i jedynym czymś co tak naprawdę nas obchodzi są wyniki pomiarów.
  8. Musi. O ile MK opisuje wszechświat. Tylko że wciąż piszę, że ten opis ma charakter "wiedzy o czymś", a nie "czegoś". Funkcja falowa wszechświata niesie dokładnie zero informacji w modelu "praw fizyki", i nie da się na nim wykonać pomiaru. Tutaj chodzi o zastosowanie symetrii CPT w opisie. Czyli oglądamy nasz istniejący świat tylko w drugą stronę. I wtedy też obowiązuje zachowanie przyczynowości, żadne LASARy nie są możliwe. Jedyna różnica to pojawienie się gigantycznej ilości "fuksów". Natomiast jak pisałem, mam świadomość że "pod prąd" przestaje działać "obserwator klasyczny" i dekoherencja. Najlepszy możliwy sposób opisu rzeczywistości.
  9. Podniesienie poziomu ekspresji białka to taki tani trik, że gdyby miało szansę to zadziałać bez skutków negatywnych to już dawno ewolucja by to wykorzystała. I dalej tego nie wiadomo. Wiara w prosty "magic bullet" wzrusza. Typowe podejście w którym lekarze rozwiązują swoje problemy. Zdecydowanie nie rozumieją że walka z patogenami ma "informacyjny" charakter. Należy się raczej spodziewać, że będziemy mieli tysiące leków na różne odmiany wirusów i zaawansowaną, zautomatyzowaną diagnostykę.
  10. Tylko po co kolega się tym chwali? Aha... Kolega dajmon chyba pisał o sobie.
  11. Jeśli kolega wykaże że równanie Schroedingera w jakikolwiek sposób prowadzi do nierówności Bella, to Nobel murowany. A ja polecam zacząć czytać poważne prace z fizyki teoretycznej. Bo Ising to zabawka z której robiono prace magisterskie 20 lat temu, bo komputery stały się szeroko dostępne i wystarczająco szybkie. Jeśli ktoś rozwijał je w doktorat, to tylko dlatego że na niczym innym się nie znał (w fizyce, znam przypadki osobiście). Ma kolega zbyt matematyczne podejście do fizyki w sensie uprawiania dyscypliny. To nie polega na maniakalnym mechanicznym studiowaniu konsekwencji kilku aksjomatów, tylko na budowaniu jak najlepszych modeli rzeczywistości z konceptualnych klocków i badaniu konsekwencji. Nie dotarliśmy do poziomu modeli opartych na zbiorach teorii mnogości, i być może jest to "fizycznie niemożliwe". Dlaczego taki Edward Witten nie pisze w kółko o modelach Isinga i problemach MK? Bo jego źródłem intuicji są zupełnie inne, znacznie bardziej zaawansowane problemy. W fizyce potrzebny jest "pełny przegląd pola", że się taką piłkarską analogią posłużę. "Wyjaśnianie podstaw" można prowadzić bez końca, w szczególności kręcąc się w kółko. Albo zatrzymać na najwygodniejszych z praktycznego punktu widzenia aksjomatach, i badać ważne konsekwencje całości. Na poziomie ścisłości który obowiązywał w matematyce w czasach Eulera, nie przejmując się "fundamentami". Eulerowi nie przeszkadzało to, że nie znał teorii Cantora i definicji liczb rzeczywistych. Ludzie którzy zajmują się analizą też nie muszą się zastanawiać "czym jest liczba" (o ile nie zajmują się analizą niestandardową). Teraz mamy teorię strun która działa zbyt dobrze aby być nieprawdziwa. Jeśli pojawią się nowe idee które zmienią nasze wyobrażenie o MK i rzeczywistości, to zostaną one bez wątpienia zaproponowane przez fizyków strunowych (wliczając w to odpowiednie AI) a nie przez osoby które liczą Isinga na komputerze (to nie jest wycieczka osobista), bo mają lepsze intuicje (modele neuronalne) czym naprawdę jest fizyka i co jest ważne. Gdyby komuś kazano wyprowadzać wzory na funkcje trygonometryczne kolejnych wielokrotności argumentów to szanse na to, że wymyśliłby liczby zespolone są praktycznie równe zeru. To jest dobry analog rozważań o "podstawach MK". Jeszcze raz: odwrócenie strzałki czasu całkowicie odwraca związek przyczynowo skutkowy, z wszystkimi tego konsekwencjami. Ale nasza percepcja się zmienia. Przypadkowe zdarzenia stają się przewidywalne w odwróconym opisie, przypadkowa deekscytacja atomu staje się 100% pewną absorbcją fotonu której moment da się wyliczyć z ogromną precyzją znając położenie fotonu i atomu. Na innym poziomie trzeba pamiętać że równania fizyki opisują amplitudy, które mają "fizyczne" znaczenie dopiero jak wykonamy pomiar. Koledze ciągle się wydaje że mamy jakąś "rzeczywistość". Z punktu widzenia obserwatora mamy ewolucję unitarną opisującą zmiany jego wewnętrznego bukmachera aktualizowane obserwacjami które są skokiem kwantowym. Ten skok może prowadzić do sytuacji bardziej uporządkowanej, ale jest to statystycznie nieprawdopodobne (tym bardziej im bardziej skomplikowany układ obserwujemy). Zespół całek po trajektoriach wciąż liczy prawdopodobieństwa. "Historia" pomiędzy pomiarami nie istnieje w MK. Cała ta sytuacja to stan początkowy Hartla-Hawkinga, ewolucja unitarna ("wieloświatowa") a potem "ktoś na końcu" wykonuje sobie pomiar i dostajemy stan końcowy, w którym mamy "konkretną realizację". Ludzka intuicja uwzględnia DPT, i to jest cała magia. Tak naprawdę to całe uprawianie fizyki jest możliwe, bo żyjemy w świecie o szokująco niskiej entropii. Nawet proste wyodrębnienie obserwatora i układu obserwowanego sugeruje, że to bardzo nietypowa i niegeneryczna sytuacja. Jakiekolwiek obserwacje są możliwe tylko dlatego, że jest potężny potencjał do wzrostu entropii. Zabawy ze "strzałką czasu" nie zmieniają faktu, że wciąż jesteśmy w części wszechświata o zadziwiająco niskiej entropii i myślimy w tych kategoriach. Akurat stan początkowy wszechświata (entropia 0) nie zostawia wielkiego pola na jakąkolwiek losowość Losowość pojawia się w jego ewolucji z subiektywnej perspektywy jego fragmentów. W obecnej mechanice kwantowej brakuje "teorii obserwatora", mam podejrzenie że należy ją rozumieć w taki sposób że jest to przypadek graniczny pełniejszej teorii w którym obserwator staje się "nieskończenie inteligentny", czyli klasyczny. Spodziewam się ciekawych efektów gdy sam obserwator staje się "kwantowy", w przybliżeniu będzie się to zachowywać jako MK i dodatkowa niepewność obserwatora. Prosty idiota z kilku atomów mógłby zobaczyć kota jednocześnie żywego i martwego, i jedyna sprzeczność logiczna jest taka że znajomość koncepcji kota już wymusza rozmiar który to wyklucza, ale chodzi o zasadę. Pełna teoria percepcji pokaże nam, że wszechświat musi wyglądać tak, jak wygląda, i na pewno będzie miało to charakter "antropiczny": świadomi obserwatorzy uprawiający fizykę muszą się znajdować blisko "początku" wszechświata mając bardzo niską entropię. To jest wynik naszej niewiedzy, ale jest fundamentalny, tutaj nie ma sprzeczności (ilość informacji jest definiowana z użyciem prawdopodobieństw, losowość i wiedza są ze sobą nierozerwane logicznie!) . Zawsze można stwierdzić że losowość to wynik braku wiedzy o przyszłości, i w pewnym sensie mają charakter dopełnieniowy: po odwróceniu strzałki czasu mamy wiedzę, a losowość znika. To gdzie jest sprzeczność to założenie, że pojęcia których używamy do formułowania zasad przyrody mają sens po odwróceniu strzałki czasu. Ale praktyczne wykonywanie obserwacji jest niemożliwe w kierunku z malejącą entropią. Z jednej strony chcielibyśmy mieć odwróconą ewolucję układu który obserwujemy, ale jednocześnie zachować strzałkę czasu obserwatora w kierunku rosnącej entropii aby wykonywać obserwacje w takim świecie, tak się nie da. To zabawne, bo matematyka już dawno odeszła od pytań w stylu "czym jest", natura obiektów matematycznych jest zdefiniowana przez ich własności Zastosowanie tego podejścia do MK bardzo wiele upraszcza. To w skrajnym (optymistycznym) przypadku oznacza matematyczną równoważność dwóch opisów. Mam pytanie - co koledze przeszkadza obraz strunowy cząstek elementarnych? Te pola muszą być kwantowe aby opisywać zachowanie rzeczywistości, co niczego nie rozwiązuje z punktu rozmnażania światów. Zamiast superpozycji cząstek musi kolega rozważać superpozycje dwóch konfiguracji pól. Kolega lubi solitony, bo rozważa tylko pola klasyczne. Nie mają szans zadziałać, bo są równoważne zmiennym ukrytym z superdeterminizmem. Superdeterminizm ma tę zaletę, że jest w stanie "wytłumaczyć" absolutnie wszystko. Tylko co to zmienia? Ta cała reszta to wciąż najlepszy możliwy sposób rzeczywistości.
  12. Problemem jest to, że sama symetria CPT nie opisuje całej fizyki obserwowanego wszechświata w skali makro. Zrobienie CPT opisywałoby nam świat o malejącej entropii, którym nie obowiązuje DPT. Żyjąc w świecie o niskiej entropii spodziewamy się jej wzrostu, nie malenia. To ogromy błąd logiczny. Po odwróceniu czasu odwraca się związek przyczynowo skutkowy w skali mikro. Odsyłam do "Resala masłowego". A w skali makro pojawiają się niewiarygodnie zbiegi okoliczności, które nie są niemożliwe z punktu widzenia praw fizyki w skali mikro, a jedynie skrajnie nieprawdopodobne (skala makro i DPT). Użycie słowa "skierowanie" czegoś powinno zapalić czerwoną lampkę, bo to pojęcie stosuje się do świata z rosnącą entropią, jakiekolwiek liczenie, podejmowanie decyzji, itd. wymaga DPT. Świat widziany w drugą stronę (opisywany w drugą stronę) nie może stosować bezwarunkowo naszego aparatu pojęciowego. To niemożliwe na mocy teorii względności. Nie da się "stymulować" czegoś poza swoim stożkiem świetlnym przyszłości, szczególnie "zmieniać prawdopodobieństwa czegoś". Jedyne o czym możemy mówić to opisie istniejących sytuacji fizycznych w drugim kierunku czasowym. Z tego punktu widzenia wciąż mamy laser, i jedyna magia jaka się pojawia w jego opisie w drugą stronę to ogromy spadek entropii! "Spontaniczna emisja" po zastosowaniu symetrii <CPT> to "Absorbcja". Spontaniczna emisja jest zupełnie przypadkowa w czasie, po odwróceniu strzałki czasu mamy stuprocentowy związek przyczynowo skutkowy w tym sensie, że dokładnie wiemy co się stanie (+-) ale wymaga to ogromnego dopasowania warunków początkowych aby cząsteczka się spotkały. Tutaj kłania się DPT. Spontaniczność bierze się z braku możliwości przewidzenia kiedy dojdzie do zdarzenia, w odwrotnym kierunku czasu możemy to przewidzieć w 100%. Stymulowana absorbcja to przykład stosowania jakichś dziwnych reguł symetrii na poziomie lingwistycznym, tak mogą bawić się humaniści ale nie fizycy. Spontaniczna emisja zwiększa entropię. Emisja wymuszona również podnosi entropię. Zastosowanie symetrii CPT w opisie wszechświata tworzy świat o malejącej entropii. Nie da się CPT-obrócić fragmentu rzeczywistości. A jeśli będą to zwykłe lasery, to nie ma w ich zachowaniu niczego dziwnego z punktu widzenia obecnych praw fizyki.
  13. Najważniejszą cechą tych antybiotyków wydaje się być bezpieczny mechanizm działania, w organizmie nie powinno być struktur które zostaną przez nie zablokowane. Mogą być równie bezpieczne jak penicylina.
  14. To powinno być dla kolegi kluczowe, aby zrozumieć kiedy nasz język związków przyczynowo-skutkowych działa przy odwróconej strzałce czasu, a kiedy się załamuje. Działa wtedy, kiedy gołym okiem deltaS=0. Załamuje się, kiedy entropia musi maleć. Wtedy nagle związek przyczynowo skutkowy w skali makro znika, ale da się go odtworzyć w skali mikro. Wymaga to fuksa, dowiadujemy się że konfiguracja jest nadzwyczajna. Nic w tym dziwnego, laser ma określoną temperaturę. @Jarek Duda, czy w twoim komputerze przyjmujesz że T to po prostu temperatura "układu scalonego"?
  15. Fizyka nie musi "rozwiązywać" swoich równań w jakikolwiek sposób. To my rozwiązujemy równania a dla nas istnieje wielka różnica pomiędzy przyszłością a przeszłością. Twierdzenie Bella mówi nam o prawdopodobieństwie zdarzeń. Do momentu kiedy nie sprawdzimy co się stało, nic się nie stało, stają się "możliwości". A gdy obserwator dowiaduje się o zdarzeniach, znika symetria czasowa. To dokładnie ten moment. Możemy sobie liczyć zmianę prawdopodobieństw, ale w końcu musimy sprawdzić co się stało. Tam jest nieprawdziwe zdanie że: To nieprawda. Po odwróceniu czasu nie ma takiego związku przyczynowo skutkowego. Deekscytacja celu następuje całkowicie spontanicznie i przypadkowo, przypadkowo trafia w lasaer i jej skutkiem jest naładowanie lasaera. To normalny ciąg przyczynowo skutkowy, tylko całkowicie nieprawdopodobny z makroskopowego punktu widzenia! Obrócenie strzałki czasu zmienia opis zjawisk i ich interpretację. Idąc dalej, zupełnie przypadkowo lasaer zaczał ładować pompę fotonami która poruszyła absorbując ciepło z otoczenia (to tylko nieprawdopodobne) "odesłała prąd do kondensatora", i zupełnie przypadkiem zaraz po tym fakcie zaszło przerwanie obwodu elektrycznego. Związek między ekscytacją laseara przez cel mógł być opisany jako związek przyczynowo-skutkowy ze względu na uporządkowany charakter oddziaływania w trakcie którego nic z entropią się nie działo (fotony leciały w kulce obok siebie), przez chwilę wyglądało to normalnie, ale już na poziomie mikro taka ekscytacja wymagała gigantycznego fuksa. Przy reszcie zjawisk (makro) wciąż pojawiają się nieprawdopodobne zbiegi okoliczności. Oczywiście. Cały czas staram się to wytłumaczyć koledze że to nie jest "rzeczywistość", tylko opis wiedzy obserwatora. Dopiero pomiar pozwala nam stwierdzić że coś się stało, ale te trajektorie i tak nie są obserwablami. To inny sposób liczenia "estymat przyszłości". Matematyczno-informatyczne wychowanie wciąż jednak zmusza mózg do szukania realistycznych śrubek i epicykli
  16. Tak, ale to właśnie chyba sedno mojej wypowiedzi - pisanie że "w QFT nie ma entropii" nie ma żadnego znaczenia. Największym problemem z LASARem jest to, że nie wiadomo co miałby on robić, poza ilustracją faktu że jak odwróci się czas to jest dziwnie... W takim razie czego szuka ten wick-rotated w trakcie swojej pracy, jeśli nie minimum globalnego? Widzę tutaj jakieś problemy komunikacyjne... Tak, ale to właśnie chyba sedno mojej wypowiedzi - pisanie że "w QFT nie ma entropii" nie ma żadnego znaczenia. Największym problemem z LASARem jest to, że nie wiadomo co miałby on robić, poza ilustracją faktu że jak odwróci się czas to jest dziwnie... To trzeba zatem sformalizować Uzyskanie rozkładu Boltzmannowskiego zakłada jakąś termalizację, na co potrzeba czasu,, i to ona jest wynikiem "działania" komputera. Nie jestem pewien, w jaki sposób można uzyskać coś takiego, jednocześnie utrzymując cały czas warunek brzegowy (początkowy w modelu) określający określone splątanie bitów.
  17. Przepis na resal masłowy: Potrzebna jest równowartość kostki masła (może być margaryna, ale puryści się burzą) roztopiona na patelni. Po uruchomieniu stapia się w postać kostki i w pewnym momencie emituje potężny impuls promieniowania podczerwonego w przestrzeń, który zawsze dziwnym trafem trafia w wylot lasera przelatującego tam latającego talerza. Ten ulega ekscytacji i odpompowaniu co powoduje w efekcie naładowanie kondensatora, tuż przed tym jak ekran dotykowy odpycha zielonego palucha, a przypadkowe fotony z otoczenia absorbowane przez wyświetlacz formują dokładnie obraz kostki masła akurat w miejscu gdzie ten paluch się znajdował. To dopiero jest wynalazek! Unitarna ewolucja funkcji falowej sama z siebie nie zmienia entropii (zwanej w tym przypadku entropią von Neumanna), i to nie jest żadne odkrycie. Nie potrzeba do tego nawet mieszać QFT. QFT to nie jest świat, to teoria która pozwala nam opisywać świat. MK opisuje wiedzę o świecie z punktu widzenia obserwatora. Ten sam świat może być opisywany zupełnie różnymi funkcjami falowymi przez dwóch różnych obserwatorów. Już to sugeruje, że nie można traktować opisu jako obiektywnej rzeczywistości i mieszać do jego analizy realistycznych, zupełnych przykładów matematycznych. W pewnym momencie obserwator może otrzymać nową informację i jego wiedza o układzie się zmieni a entropia wzrośnie. Obserwator jest klasyczny, a jego kojarzenie jak najbardziej wymaga wzrostu entropii. A w naszym świecie entropia rośnie na mocy DPT. Lewo/prawo. W czasie "b-obliczeń". Ja też mam pytanie, jaki układ? Bo na razie to mamy coś, co nie wie czym jest. Bez żadnych detali. Na początku proszę się odnieść do kwestii, czy to w ogóle jest kodowanie problemów w isingu, tzn. czy istnieje bezpośrednio udowodniona wyrażalność przebiegu zaprezentowanych obliczeń jako rozwiązania problemu Isinga. To nie jest problem fizyczny, tylko czysta matematyka (bardzo chciałbym zobaczyć jak jest wyrażana superpozycja za pomocą obsadzeń wirtualnych ścieżek). Natomiast układ chciałby jednocześnie być komputerem liczącym Isinga ale z dziwnymi dodatkami które są bardzo niefizyczne i niesprecyzowane, jak nadawanie bitom superpozycji na bramkach w czasie (bo to fizyczny proces) a jednocześnie liczenie na to, że będą one równoważne superpozycjom wymaganym przez model obliczeń "w przestrzeni". To jest fizyka, i tutaj nie da się być tak niekonsekwentnym. Trzeba odróżnić problem od fizycznego układu który go rozwiązuje. Ale to nie jest żadne osiągnięcie, bo mamy kodowania które rozwiązują go bez żadnych "dziwnych założeń": https://arxiv.org/pdf/1302.5843.pdf Co oznacza, że do rozwiązania takich problemów wystarczy nam niemagiczny układ rozwiązujący Isinga. Jedyne co jest potencjalnie ciekawe i wartościowe to formalne wprowadzenie b-obliczeń i reprezentacja (prosta, bo rozwiązania Isinga są Turing-complete: https://arxiv.org/pdf/1204.1084.pdf) ich przebiegu jako rozwiązań pewnego problemu szkła spinowego.
  18. To jest zdecydowanie bardziej szalone niż genialne. Symetria CPT nie odwraca entropii, więc nic z tego nie będzie działać. Mam nawet lepszą nazwę niż lasar, to resal. To też nie ma prawa działać. Ostatnia rzecz na jaką liczyłem, to następująca możliwość: Mamy zupełnie wirtualny proces b-obliczeniowy który pozwala kodować rozwiązania za pomocą Isinga w całkowicie niebanalny sposób. Wydawało mi się, że same bramki miałyby być kodowane za pomocą poziomów energetycznych w Isingu.. Za pomocą "ścieżek boltzmanna" trzeba by wyrazić splątanie stanów kwantowych, i wykazać że prawdopodobieństwa w Isingu zachowują się zgodnie z nimi przy zachowaniu struktury problemu udającej "obliczenia". Niestety raczej nie może to działać. Problemem jest symetria w czasie, która wymusza, że bramki powinny działać też w drugą stronę, co przy ich nieliniowości jest problematyczne. Problemem jest też szczególny stan początkowy. Jako ratunek widziałem możliwość, że użycie odbicia lustrzanego na krawędzi pozwoli nam na mocy symetrii (Ising policzy rozwiązanie w obie strony w 2 miejscach) wykazać symetrię ścieżek prowadzącą do oczekiwanej "superpozycji" w procesie b-obliczeniowym. Wtedy byłoby to bardzo ciekawe osiągnięcie teoretyczne które mówi nam wiele o strukturze rozwiązań modelu Isinga. Ale wszystko wskazuje, że nie chodzi o coś takiego, a o dziwną hybrydę, która tworzyłaby superpozycję a potem chciała przenieść to do systemu który liczy zwykły problem Isinga. Przede wszystkim - po jakiego grzyba. Ising jest NP-trudny jako problem do symulowania na komputerze klasycznym. Dodatkowo w modelu Isinga można zakodować rozwiązanie problemów NP-com przy użyciu wielomianowej ilości spinów, co oznacza, że nie potrzebujemy dziwnego kodowania aby uzyskać "superkomputer kwantowy", rozwiązanie regularnego Isinga nam to zapewnia. .
  19. 1) Zaczęły być alarmistyczne? A jakie były wcześniej? 2) Buforowanie nie jest żadnym sprzężeniem zwrotnym. 3) W jaki sposób ujemne sprzężenia zwrotne miałyby być problematyczne? (no chyba że dla ciepłych posadek klimatologuf). Miałem zanim się nie zepsuł, ten w głowie. Problemem są rozbieżności pomiędzy mainstreamowymi wyliczeniami a rzeczywistością.
  20. 0.45-0.6°C (ECS), i to jest "sufit". To nie jest sprzężenie zwrotne.
  21. Z niczego się nie wycofuję, życie należy rozumieć w kategoriach ewolucyjnych, tylko one mówią o powstaniu mechanizmów. Z dalszej dyskusji się wycofuję, bo ta lampka znowu mi się zapala.
  22. Coś czuję że się nie dogadamy (taka sama lampka zapalała mi się w przypadku niektórych korepetycji). Otóż mechanizmy ewolucyjne zostały wprowadzone ponad 4 miliardy lat temu. To jaki nietoperz ma metabolizm to ich wynik. Artykuł sugerował że dłuższe życie jest efektem ubocznym adaptacji do zwiększonego metabolizmu. Otóż nie jest. Jakby wziąść takiego "niezmetabolizowanego nietoprzerza" (specjalnie wychodowany gatunek), to jakby nagle mu podkręcić ten metabolizm to jego życie uległoby skróceniu. Pojawiłaby się presja na co najwyżej przywrócenie obecnej długości życia (a nawet nie do końca). Życie jest czasami bardziej skomplikowane, i czasami rozwiązanie jednego problemu pozwala na proste rozwiązanie innych (na przykład "wynalezione" białko dostaje więcej kopii w dna przez proste duplikacje), ale podstawowe mechanizmy są niezmienne.
×
×
  • Dodaj nową pozycję...