Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1452
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    77

Zawartość dodana przez Jarek Duda

  1. Tym razem odpisał odnośnie własnego algorytmu, dodając "niewinny" wymóg (uncomputing auxiliary qubits to fixed values) który chyba jest zupełnie ignorowany w literaturze ... i niemożliwy do spełnienia. Obawiam się że komputery kwantowe mają podobny status jak np. zimna fuzja ... tyle że dzięki lepszemu PR magii QM udało im się zbudować potężną niszę ekologiczną ...
  2. Wrzuciłem tą swoją obiekcję na stackexchange ... i właśnie potwierdził mi ją sam Peter Shor: https://physics.stackexchange.com/questions/369590/shors-algorithm-why-doesnt-the-final-collapse-of-the-auxiliary-qubits-crippl/ W skrócie odpowiedział że konieczne jest ich "uncompute" do jakichś ustalonych wartości ... Tyle że tego "drobnego wymogu" wydaje się że nikt nie rozważał w literaturze ... i jest niemożliwy do realizacji: ostatecznie mamy mieć permutację, czyli nie wolno nam zafiksować większości bitów! Czyli chyba RSA jest bezpieczne - Shor z niemożliwego do realizacji stał się jeszcze bardziej niemożliwy Ps. tutaj jest obiekcja do adiabatycznych komputerów kwantowych - podczas gdy wymagają rozsądnie dużej "spectral gap", w trudnych problemach ona chyba zawsze maleje wykładniczo: https://physics.stackexchange.com/questions/370633/adiabatic-qc-are-there-known-difficult-problems-with-spectral-gap-not-exponenti Czyli chyba bańka komputerów kwantowych zbliża się do pęknięcia ... chyba ostatnia nadzieja to kontrowersyjne time-loop computing ...
  3. Analogiczny problem dotyczy głośnych obecnie adiabatycznych komputerów kwantowych ( https://en.wikipedia.org/wiki/Adiabatic_quantum_computation ): podczas gdy w publikacjach rozważają sytuacje z dosłownie kilkoma lokalnymi minimami energetycznymi, trudne problemy zawierałyby ich wykładniczo wiele, np. 2^1000 ... Pewnie też dlatego ostatnio już raczej mówią tylko o innych motywacjach - symulacje fizyczne ... zobaczymy. Trochę inaczej wygląda sytuacja "tradycyjnych komputerów kwantowych", jak algorytm Shora - przynajmniej w teorii pozwalający na faktoryzację w czasie wielomianowym, podczas gdy klasycznie znamy na razie tylko wykładnicze - dodatkowo problem jest istotny ponieważ na jego trudności opiera się sporo używanej obecnie kryptografii (RSA). Tutaj jest diagram co tam się dzieje od strony kwantowej ( https://www.physicsforums.com/threads/shors-algorithm-and-similar-exploitation-of-qm.922555/ ): Robimy superpozycję wszystkich możliwych wartości, liczymy funkcję klasyczną na tych wartościach, potem mierzymy wartość tej funkcji klasycznej. Ten pomiar ograniczył oryginalną superpozycję 2^n możliwości, do superpozycji tylko tych które dają stałą zmierzoną wartość - taka ograniczona superpozycja jest zwykle okresowa i ten okres (mierzony QFT) pozwala powiedzieć coś o dzielnikach N - rozwiązując problem faktoryzacji. Ciekawe jest to z perspektywy kauzalnej - rozgałęziamy obliczenia, na jednej gałęzi coś robimy (pomiar ograniczający zespół), co istotnie wpływa na drugą gałąź obliczeń ... Jednak oczywiście jest kilka problemów, jak dekoherencja, konieczność korekcji błędów ... która wymaga dodatkowych bramek, które tworzą nowe miejsca dla potencjalnych błędów ... Dalej obliczenia kwantowe (klasyczna funkcja) wymagają odwracalnych bramek, które wymagają olbrzymiej ilość auxiliary qbits (1-2 zmienne na bramkę jak OR) ... które pewnie w końcu skolapsują ("zostaną zmierzone") ... znowu ograniczająć oryginalną superpozycję - psując zamierzone obliczenia ... Podsumowując, jestem dość sceptyczny odnośnie istotnego przyśpieszenia obliczeń (wykładnicza -> wielomianowa złożoność) za pomocą komputerów kwantowych ... Jakaś iskierka nadziei tli się w możliwości zamknięcia pętli "loop computing" w czasie ... np. skoro zwykły laser pozwala przesyłać informację w przód w czasie oraz wierzymy że fizyka jest fundamentalnie CPT-symetryczna, teoretycznie wydaje się (?) możliwe zbudowanie analogu CPT lasera ( https://physics.stackexchange.com/questions/308106/causality-in-cpt-symmetry-ananlogue-of-free-electron-laser-stimulated-absorbtio ) do przesyłania informacji wstecz ... ale nawet zakładając że udałoby się zbudować taki time-loop computer, mam mieszane uczucia czy udałoby się go uchronić przed problemem wykładniczej ilości lokalnych optimów (że kilka bramek kłamie) ?
  4. Ogólnie jest kilka opcji/pytań: 1) czy taki układ bez zegara będzie zawsze sam się synchronizował? (ostatecznie zachowując jak układ z zegarem) 2) jeśli nie to czy będzie "szumiał" w nieskończoność, czy może jednak powinien zbiec do stabilnego przepływu? - wyobrażając sobie że tam są amperomierze, wskazywałyby one niekończące się fluktuacje, czy ostatecznie stabilizowałyby się na stałych wartościach? 3) Jeśli będą się stabilizowały, to jak szybko i czy taki finalny stan będzie odpowiadał rozwiązaniu naszego problemu? Osobiście myślę że wszystkie trzy opcje mogą występować w zależności od szczegółów/parametrów, ale obawiam się że w 3) przypadku zwykle nie będzie rozwiązywał naszego problemu, "kłamiąc" na kilku bramkach: ustawiając je pomiędzy dyskretnymi wartościami. Jest ogólny problem w konwertowaniu trudnych problemów na ciągłą optymalizację (też np. w adiabatycznych komputerach kwantowych) - zwykle pojawia się wykładnicza ilość lokalnych minimów (w przeciwnym razie też klasycznie moglibyśmy rozwiązać w czasie wielomianowym). Dobrze to widać w problemie subset-sum (chyba trudniej o coś prostszego): mamy (duże) liczby naturalne k_i, pytanie czy hiperpłaszczyzna prostopadła do wektora k przecina {-1,1}^n ? Jako problem globalnej optymizacji: na hiperpłaszczyźnie minimalizujemy odległość do najbliższego wierzchołka. Schodząc po gradiencie, mamy mamy zwykle wykładniczo wiele atraktorów odpowiadających różnym wierzchołkom. Interesujący nas atraktor: do minimalnej odległości zero, zwykle nie wyróżnia się wystarczająco żeby ułatwić szukanie. ps. także sceptyczna praca Scotta Aaronsona odnośnie różnych fizycznych podejść: arxiv.org/pdf/quant-ph/0502072.pdf
  5. Ogólnie chciałoby się użyć fizyki dla rozwiązywania trudnych problemów obliczeniowych - podłożyć jej problem tak żeby rozwiązała go swoim naturalnym zachowaniem ... szybciej niż klasyczny komputer. Nie jest to łatwe, komputery kwantowe (nie te adiabatyczne) dają nadzieję m.in. na faktoryzację w czasie wielomianowym algorytmem Shora, ale ogólnie nie znamy wiele takich podejść, najważniejsze pytanie to czy fizyka pozwala rozwiązywać problemy NP-zupełne w czasie wielomianowym (?). Wydaje się naturalnym sposobem konwersji problemu NP na system fizyczny jest szukanie punktu stałego pętli - wrzuciłem to ostatnio na stackexchange, odpisał sam Peter Shor, na razie konkluzja jest że to podejście nie jest znane w literaturze i nie wiadomo czy ma szansę działać (?): https://physics.stackexchange.com/questions/365542/continuous-time-loop-computer-for-np-problems W problemie NP łatwo (czas wielomianowy) przetestować czy dany input (ciąg bitów) jest satysfakcjonujący, trudnością jest to że istnieje wykładniczo wiele takich ciągów, ale np. tylko jeden z nich jest satysfakcjonujący - pytanie jak efektywnie sprawdzać istnienie takiego satysfakcjonującego ciągu? Wyobraźmy sobie że tester (czy input jest satysfakcjonujący) jest zaimplementowany jako kilka warstw bramek logicznych (np. w postaci 3-SAT), teraz połączmy kabelkami w pętlę w ten sposób: Zwykle elektronika ma zegar synchronizujący działanie - powyższy układ testowałby jedno wejście na cykl, aż do do osiągnięcia satysfakcjonującego, będącego punktem stałym takiej pętli. Czyli z zegarem rozwiązalibyśmy problem w czasie wykładniczym ... ale co jeśli taki układ byłby bez zegara/synchronizacji? Chyba nie ma powodu żeby przechodził przez wykładniczą ilość możliwości (?) - powinien się stabilizować dużo szybciej (?) Pytanie czy taki ustabilizowany przepływ elektronów będzie się (wystarczająco często?) stabilizował na rozwiązaniu naszego problemu? ps. slajdy o nietypowych podejściach do trudnych problemów obliczeniowych: https://www.dropbox.com/s/nwyxf44u38i42d8/pnpslides.pdf Jakieś inne obiecujące nietypowe podejścia?
  6. Szkoda że Darwin go nie używał Tutaj jest dobrze opisane: https://en.wikipedia.org/wiki/Patrick_Matthew Ale widzę że nie trafiło na https://en.wikipedia.org/wiki/List_of_examples_of_Stigler%27s_law ... może słusznie: https://en.wikipedia.org/wiki/Talk:List_of_examples_of_Stigler%27s_law#Darwin
  7. Rzeczywiście kilka razy miałem tak że zainteresował mnie artykuł na Kopalni, no więc szukam po nazwiskach i słowach kluczowych niedawnego artykułu ... dla powyższego nie znalazłem motywacji dla tej często irytującej czynności, ale gdyby był link czy chociaż tytuł oryginalnego artykułu (coś po czym łatwo szukać), raczej dawno bym sprawdził przynajmniej co to za czasopismo i co dokładnie rzeczywiście jest w abstrakcie. Umieszczanie jasnej referencji to powinna być podstawa - szczególnie w informacji naukowej. Co do inbreedingu, całe szczęście dla naszego zdrowia że chłopi mieli trochę silniejszy dobór naturalny niż arystokracja. Odnośnie publikacji naukowych, takie wydawnictwo to jest świetny biznes: ten kto rzeczywiście włożył pracę (często za pieniądze podatników) oddaje artykuł za darmo (czasami nawet musi dopłacić), recenzenci też zwykle pracują za darmo ... natomiast główna rola "wydawcy" (dzisiaj: utrzymującego stronę) to zbieranie 30+ dolców za każde wyświetlenie ... No więc rzeczywiście powstaje pełno podejrzanych wydawnictw/żurnali/konferencji ... ale jednak te topowe mogą sobie pozwolić na utrzymanie poziomu. Innego rodzaju istotny problem jest z drugiej strony - naukowców zbierających pokemony: wszystko się kręci dookoła desperackiej masowej produkcji papieru - nie ważne czy (pseudo)praca ma sens, ważne żeby przepchnąć przez recenzję żeby były punkty, wymieniane na (pseudo)granty. To jest niezwykle patogenne, przykładowo gdy pytanie ma proste rozwiązanie, powstanie jedna praca której nawet nie ma po co cytować ... ale gdy obok powstanie egzotyczne rozwiązanie, na którym można oprzeć tysiące kolejnych publikacji - w kilka dekad naturalnie stanie się ono tym jedynym słusznym sposobem myślenia ...
  8. Ta incentywa jest szczególnie problematyczna np. przy udzielaniu patentów - zatwierdzenie takiego monopolu oznacza że zainteresowany zapłaci urzędowi jeszcze kupę kasy. Przy publikacjach naukowych kwestia jest trochę bardziej skomplikowana, szczególnie że dobre czasopisma mają limit miejsc, mogą przebierać wśród zainteresowanych i dbają o reputację - trzeba by się przyglądnąć sytuacji powyższego artykułu na co szkoda mi czasu (fajnie gdyby Kopalnia umieszczała link do oryginalnego artykułu) ... kulturowo to raczej znamy przykłady w drugą stronę - wbrew biologii, jak preferencje inbreedingu u arystokracji i wynikła m.in. hemofilia.
  9. Jak ktoś mógł przyjąć taki artykuł?? To nie są kulturowe mechanizmy, tylko dużo głębsze biologiczne, występujące też u innych zwierząt: https://en.wikipedia.org/wiki/Inbreeding_avoidance Oparte prawdopodobnie m.in. o MHC ( https://en.wikipedia.org/wiki/Major_histocompatibility_complex ), jak i unikanie osobników z którymi było się wychowanym, co obserwowano np. w kibucach ( https://en.wikipedia.org/wiki/Kibbutz ) - polecam "Wprowadzenie do ekologii behawioralnej" Krebs, Davies.
  10. Przykładowe tematy do dyskusji o lustrzanym życiu ... którą warto byłoby na poważnie zacząć (od ponad roku jest lustrzana polimeraza): - czy drobne poprawki z symetrii przestrzennej mogą zakłócić działanie lustrzanej bakterii, drożdży, nicienia ... człowieka? Rozmawiałem m.in. z chemikiem kwantowym czy rozważa się poprawki z łamania symetrii przestrzennej w obliczeniach, odpowiedział że uważa że są zupełnie zaniedbywalne i że nie słyszał. Pytanie czy takie zaniedbywane poprawki nie mogą się zakumulować w coś istotnego na poziomie większych struktur? Chyba nie? - zrozumieć trudności w syntezie szczególnie pierwszej lustrzanej komórki (m.in. synteza, fałdowanie białek, rybosomy, rekonstrukcja struktur), możliwe techniki (np. 3D drukowanie AFM części zamrożonej komórki), oszacować czas pozostały do uzyskania przez kogoś pełnej syntezy (10 lat? 20? 50?), głównych graczy w tym zaczynającym się wyścigu, może miejsca Polski w nim? - ocenić motywacje ekonomiczne, szczególnie bezpośrednie: dla masowej produkcji lustrzanych biomolekuł (np. L-glukoza, aptamery) - dla jakich obecnie znanych substancji wiadomo że byłby popyt? Jak duży? Czy można ocenić wzrost ilości takich znanych substancji o potencjalnych zastosowaniach? - sporządzenie listy niebezpieczeństw i ocenienie ich poziomu zagrożenia: od potencjalnej toksyczności metabolitów, do możliwości katastrofy ekologicznej przykładowo przez lustrzane sinice, - zakładając syntezę lustrzanej komórki, jak zbudować bezpieczne środowisko (bioreaktor) do masowej produkcji lustrzanych biomolekuł? – produkować konieczne substraty (szczególnie L-glukozę), prawdopodobnie unikając fotosyntezy, - ocenić różne interakcje takich organizmów z naszą biologią – przykładowo toksyczności, możliwości przystosowania się np. do trawienia lustrzanych cukrów, kompatybilności lustrzanych patogenów i ewentualnych możliwości przystosowania się, - jakie są inne potencjalne zastosowania? Przykładowo projektowanie sterylnych ekosystemów, aż do lustrzanego człowieka, - jak mogą wyglądać różne kwestie własności intelektualnych związanych z taką syntezą? - czy/jak można działać w tej sprawie, może spróbować wystartować o grant - przykładowo żeby lepiej ocenić sytuację, może uświadomić opinię społeczną, może próbować jakoś przeciwdziałać jeśli nie widać możliwości realnego zabezpieczenia przed potencjalnymi zagrożeniami?
  11. Jarek Duda

    Jarek Duda vs gugły!

    MERW to nie QM, tylko poprawnie wykonana dyfuzja - zgodnie z zasadą maksymalizacji entropii, konieczną dla modeli fizyki statystycznej: https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk Zwykłe modele dyfuzyjne często okazują się używać tylko przybliżenia tej zasady, prowadząc do błędnych przewidywań np. że półprzewodnik jest przewodnikiem (brak własności lokalizacji). MERW naprawia to przybliżenie, przy okazji naprawiając rozbieżności tam gdzie przecinają się dziedziny stosowalności dyfuzji i QM - np. przy modelowaniu przewodnictwa oba modele przewidują stacjonarną gęstość prawdopodobieństwa jak dla kwantowego stanu podstawowego, też oba mają reguły Borna, łamią nierówności Bella. Ale MERW to dalej tylko dyfuzja - skupia się na korpuskularnej naturze dyfundujących obiektów, pomija falową naturę, zupełnie nie ma interferencji. Natomiast QM skupia się na falowej naturze, jednak ciężko byłoby go użyć do modelowania np. dyfuzji gazu w pomieszczeniu. Czasami można zastosować obie te bardzo różne perspektywy: stochastyczną i kwantową - np. w przewodnictwie - ważne żeby w takich sytuacjach dawały zgodne przewidywania.
  12. Okazało się że złożyli ten patent też międzynarodowo i jest wstępna opinia - bardzo negatywna, wyraźnie pokazująca że jest to oczywista kombinacja znanych metod, m.in. z materiałów których nie raczyli dostarczyć podczas składania (jak bezpośrednia konwersacja ze mną na ich forum) - 5 stronicowy dokument z https://register.epo.org/application?number=EP16819781&lng=en&tab=doclist
  13. Jarek Duda

    Jarek Duda vs gugły!

    W szukaniu najważniejsze jest pytanie: "gdzie?" - problem w tym że przez magiczność QM, której z definicji nikt nie rozumie (Feynman: "If you think you understand quantum mechanics, you don't understand quantum mechanics") współczesna fizyka wywróciła się do góry nogami: super popularne jest np. szukanie teorii strun w kilkudziesięciu wymiarach ... natomiast podstawowe zapytanie: o zrozumienie sklejenia pól elektrycznych w centrum elektronu, co dla punktowego nie ma sensu ze względu na nieskończoną energię pola elektrycznego, ale niby tak się bezkrytycznie przyjmuje ... okazuje się być dzisiaj widziane jako pytanie wysoko kontrowersyjne ??? ps. do góry nogami chyba też wywróciły się media, np. to że informacja na całym świecie zaczyna być zapisywana metodą z Krakowa, będącą prostym uogólnieniem znanych wszystkim systemów liczbowych - to nikogo nie interesuje ... natomiast wydaje się codzienność: oprotstowanie patentu i wszystkie krzyczą ??? Zamiast z autorstwa ANS, jestem znany z kłótliwości.
  14. Jarek Duda

    Jarek Duda vs gugły!

    Kluczowa nie jest klasyczność (w sensie teorii pola, jak dla kropelek Coudera), tylko determinizm - że "fizyka wie co robi" a nie potrzebuje jakichś dodatkowych nadprzyrodzonych bytów odpowiadających na pytania z którymi fizyka sobie nie radzi. I w żadnym razie nie będzie prostsze: za chmurką prawdopodobieństwa QM chcemy znaleźć konkretną skomplikowaną dynamikę - która efektywnie jest opisywana (uśrednia się) do tej chmurki. No i takie same chmurki jak w QM wychodzą naturalnie w MERWie - będącym tylko poprawnie zrobioną dyfuzją: zgodnie z zasadą maksymalizacji entropii - co jest konieczne dla modeli fizyki statystycznej ... a fizyka statystyczna z definicji ignoruje szczegóły, tylko próbuje przewidzieć uśrednione zachowanie ... Kwestia żeby za tym upraszczającym uśrednieniem w końcu zacząć szukać ukrytej prawdziwej dynamiki, zacząć zadawać zabronione pytania w "shut up and calculate" umagicznionym spojrzeniu na QM.
  15. Jarek Duda

    Jarek Duda vs gugły!

    MERW staje się Boltzmannowskim rozkładem po trajektoriach, czyli praktycznie Euklidesowymi całkami po trajektoriach - których numerycznie wielu fizyków używa na co dzień, wiadomo że mają wiele wspólnego z QM ... tyle że normalnie mają magiczną genezę: startujesz z QM i robisz "obrób Wicka" do urojonego czasu ... cokolwiek to znaczy (chyba nikt nie wie - tzw. "shut up and calculate"). Czyli MERW dla mnie to głównie narzędzie do odmagicznienia QM - pokazania że dużo rzeczy można tam pojąć, wychodzą naturalnie ... teraz też łamanie Bella, co jest główną bronią kwantwoych szamanów - kolejne kroki to powrót do "zakazanych pytań" jak o dynamikę elektronu (Gryziński?) czy jego strukturę pól (solitonowe modele cząstek). Forum jest rzeczywiście dziwne, jedyna aktywna część to foundations, gdzie gadają o Bellu, łącznie z Joy Christianem który jest chyba najbardziej rozpoznawany jeśli chodzi o łamanie ... jednak żadnego konstruktywnego komentarza nie usłyszałem. Odpoczywając od G, wczoraj wrzuciłem na https://physics.stackexchange.com/questions/351540/bell-theorem-the-simplest-proof-and-understanding-of-the-violation
  16. Jarek Duda

    Jarek Duda vs gugły!

    Nie "chce złożyć" tylko wczoraj złożył: http://th.if.uj.edu.pl/~dudaj/protestGoogle.pdf
  17. Jarek Duda

    Jarek Duda vs gugły!

    Eh, szkoda gadać ... zmienić to jak świat zapisuje informację i jedyne co z tego mieć to wroga z gugła - moje zdolności mnie przerażają :/ Jak ktoś chce pogadać o czymś ciekawym to zapraszam na http://www.sciphysicsforums.com/spfbb1/viewtopic.php?f=6&t=318
  18. Odnośnie wypożyczania pand przez Chiny, polecam: https://en.wikipedia.org/wiki/Panda_diplomacy Nie, to nie żart
  19. Korekta - jednak Apple zapłaci tutaj 506 miliony USD: https://www.theverge.com/2017/7/26/16035510/apple-university-wisconsin-madison-patent-infringement-processor-payout
  20. Jest jeden podstawowy problem z wizją pełnego przejścia na samochody elektryczne: zasoby litu konieczne do produkcji akumulatorów. Polecam np.: https://www.greentechmedia.com/articles/read/is-there-enough-lithium-to-maintain-the-growth-of-the-lithium-ion-battery-m Nie jest tragicznie, ale będzie ciężko bez innych źródeł jak ogniwa paliwowe (wodór) czy może jakieś zupełnie nowe technologie.
  21. Regulowania w sensie regulacji wymyślanych przez polityków?
  22. Widzę że zachowanie Google też trafiło na szczyt Wykopu: https://www.wykop.pl/link/3818701/google-probuje-opatentowac-kodowanie-z-uj-2800-pkt-400-komentarzy-na-reddit/
  23. Wracając do gigantów i patentów ... https://www.reddit.com/r/programming/comments/6h08z5/google_is_currently_trying_to_patent_video/?sort=confidence
  24. Izocyjanian metylu ( https://pl.wikipedia.org/wiki/Izocyjanian_metylu ) to molekuła złożona z 7 atomów: H 3C-N=C=O Dużo bardziej złożone dostają w https://en.wikipedia.org/wiki/Miller%E2%80%93Urey_experiment To jest raczej przypadek niż obserwacja zdarzenia mającego rzeczywiście jakiś związek z życiem - równie dobrze można się ekscytować wodorem jako "jednym z budulców życia odnalezionym w przestrzeni międzygwiezdnej"
  25. Ke Jie ma obecnie największe ludzkie "Elo rating" - 3620, Lee Sedol 3516 ( https://www.goratings.org/en/ ) Gdzie różnica dR Elo oznacza szansę na wygranie oszacowaną na 1/(1 + 10^(dR/400)). Obawiam się że przez ten rok AlphaGo skoczyło pewnie o ładne kilkaset punktów dzięki treningowi: nauce na podstawie milionów rozgrywek ze sobą (pewnie już skończył fazę treningu na podstawie ludzkich partii) - czyli że człowiek raczej już nie ma za bardzo szans. Podstawowe heurezy które mógł w ten sposób podszlifować, wykonywane na głębokich sieciach neuronowych, to: - wybór bardziej obiecujących pojedynczych ruchów (rozpatrywanie wszystkich jest w Go zbyt kosztowne), - zgrubsza ocena sytuacji w drzewie ruchów (schodzenie do sytuacji pewnych jest znowu zbyt kosztowne).
×
×
  • Dodaj nową pozycję...