
Jarek Duda
Użytkownicy-
Liczba zawartości
1668 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
87
Zawartość dodana przez Jarek Duda
-
Inne obiecujące podejścia do gorącej fuzji: http://en.wikipedia.org/wiki/Polywell i http://en.wikipedia.org/wiki/Dense_plasma_focus
-
Drugie życie metody Jacobiego?
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Link do pracy: http://engineering.jhu.edu/fsag/wp-content/uploads/sites/23/2013/10/JCP_revised_WebPost.pdf Ciekawe, twierdzą ponad 100 krotne przyśpieszenie ... Dobra nauczka żeby automatycznie nie uznawać nawet podstawowych domyślnie używanych algorytmów jako już tych najlepszych. Np. postawą kompresji danych jest koder entropii: szybkie ale dające gorszą kompresję kodowanie Huffmana, albo dobre ale strasznie wolne kodowanie arytmetyczne ... a tu kilka miesięcy temu pojawiły się dobre i nawet szybsze od Huffmana kodery oparte na nowym podejściu (np. FSE, rANS), dając to co kodowanie arytmetyczne tylko np. 8x szybciej: http://encode.ru/threads/1920-In-memory-open-source-benchmark-of-entropy-coders -
Rzeczywiście w rankingu najbardziej zanieczyszczonych miast na prowadzenie wysuwają się Indie: http://edition.cnn.com/2014/05/08/world/asia/india-pollution-who/
-
Społecznie/naukowo wartościowa alternatywa dla bitcoin?
Jarek Duda odpowiedział Jarek Duda na temat w dziale Luźne gatki
Jakby kogoś interesował ten temat, to okazuje się że są już podobne inicjatywy i ogólnie tu rozwija się dyskusja: https://bitcointalk.org/index.php?topic=606402.0 -
Społecznie/naukowo wartościowa alternatywa dla bitcoin?
Jarek Duda odpowiedział Jarek Duda na temat w dziale Luźne gatki
Sponsoring wymaga zorganizowania pieniędzy z zewnątrz, natomiast tutaj ludzie sami się napędzają kierowani chęcią zysku - wystarczy nadać wartość rynkową owocom pewnej aktywności ("miningu") poprzez samo zorganizowanie handlu i ludzie będą to robić. Pytanie jak dobrać te aktywności żeby były społecznie użyteczne. -
Społecznie/naukowo wartościowa alternatywa dla bitcoin?
Jarek Duda odpowiedział Jarek Duda na temat w dziale Luźne gatki
Właśnie się dowiedziałem że dwa dni temu wystartował curecoin - dokładnie odnośnie fałdowania białek: https://bitcointalk.org/index.php?topic=603757.0 Za udział w projektach rozproszonych raczej nic nie dostaniesz ... podczas gdy farmy bitcoinów budujesz czysto pod zysk - zrobi to znacznie więcej ludzi, przeznaczając znacznie więcej środków. Przydałyby się projekty rozproszone na których zarabiasz - trochę więcej niż koszt prądu i starzejącego się sprzętu ... no i porównywalnie jak z miningu kryptowalut. -
Nasze społeczeństwo przeżywa obecnie boom na bitcoiny, litecoiny, dogecoiny etc. - miliony ludzi jest zmotywowana chęcią posiadania do użycia olbrzymich ilości czasu, sprzętu i prądu na rozwiązywanie problemów obliczeniowych ... które poza tym nie mają zupełnie żadnej wartości. Chciałbym zaproponować dyskusję o możliwości ukierunkowania tych motywacji użycia olbrzymich środków obliczeniowych do jakichś bardziej wartościowych problemów. Zamiast marnować je np. na szukanie ciągów o małej wartości funkcji haszującej (bitcoin), przeznaczyć je np. na problem fałdowania białek, który pomaga zrozumieć życie i tworzyć nowe leki: dla danej sekwencji aminokwasów, znajdź ich konfigurację (ciąg kątów) o najmniejsze energii. Czyli "mining takiego scicoina" to byłoby np. znalezienie konfiguracji o mniejszej energii niż aktualnie najlepszy. Oczywiście dozwolone (motywowane ekonomicznie) byłyby też inne sposoby "miningu", jak metody krystalograficzne szukania struktury. Inna klasa problemów to może być np. dobór optymalnych parametrów dla jakiegoś algorytmu etc. Czyli potrzebowalibyśmy market z bazą danych zadań które mogą być zaatakowane w ten sposób. Każde z tych zadań (np. białko do sfałdowania) odpowiadałoby osobnej walucie. Liczba "monet" dla każdej z nich może być mocno ograniczona - np. znalezienie najlepszej konfiguracji białka zamraża ilość monet. Oczywiście dalej można nimi handlować i ich cena może fluktuować - np. pewnie wzrosnąć gdy dane białko okaże się ważne. Co dodatkowo motywowałoby ludzi do interesowania się nauką - w miejsce zainteresowań czysto ekonomicznych. Niektóre pytania: - jakie rodzaje problemów nadawałyby się tutaj? Muszą być dobrze określone, pozwalać na względnie dużą ilość "monet". Może można by tego użyć do bardziej ogólnych zadań niż czysto obliczeniowe? - jak optymalnie zbudować infrastrukturę dla takie dużej ilości walut o pewnie małej ilości "monet"? Mogą być traktowane analogicznie do bitcoinów, zawierając np. ciąg kątów konfiguracji. - jak wyglądałaby ich ekonomia? Ogólnie - jak przekierować ludzki egoizm ze skupiania się na społecznie bezużytecznych problemach, na takie które miałyby jakąś wartość? ps. Rok temu bitcoin mining to było ok. 15 milionów dolarów dziennie za sam prąd ( http://www.forbes.com/sites/timworstall/2013/12/03/fascinating-number-bitcoin-mining-uses-15-millions-worth-of-electricity-every-day/ ) ... i pewnie szybko rośnie.
-
Rozpoczęto uruchamianie Wielkiego Zderzacza Hadronów
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Bardzo ciekawe dzisiejsze obwieszczenie z LHC - potwierdzone wyjście poza klasyczny model kwarków: http://home.web.cern.ch/about/updates/2014/04/lhcb-confirms-existence-exotic-hadrons -
W 2012 r. zanieczyszczenie powietrza zabiło na świecie 7 mln osób
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Zdrowie i uroda
Oryginalne źródło z linkiem do raportu: http://www.who.int/mediacentre/news/releases/2014/air-pollution/en/ Niedługo wracam do Krakowa - bardzo lubię to miasto, ale niestety, jak komuś zdrowie miłe, na zimę po prostu trzeba się stamtąd ewakuować. Podczas gdy większość tych ofiar jest spowodowane różnego rodzaju spaleniem, ciekawy jestem jaki procent pochodzi od jedynej realnej alternatywy: energetyki jądrowej? ps. Tutaj są jakieś oszacowania, np. Fukushima 15-1300 ofiar w sumie na przestrzeni lat: http://theenergycollective.com/willem-post/191326/deaths-nuclear-energy-compared-other-causes -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Owszem, sygnatura to najbardziej podstawowy "parametr" metryki. -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Sygnatura to jeden z wielu "parametrów" metryki http://en.wikipedia.org/wiki/Metric_signature -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Interwał to ds^2=dt^2 - (dx^2+dy^2+dz^2) w rozmaitości Minkowskiego. Natomiast sygnatura to to że tam ma być ten minusik ... w rozmaitości Riemanna byłyby same plusy. -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Sygnatura to np. różnica między wymiarem przestrzennym i czasowym w STW ... -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Ehh, nie mam siły, weź sobie jakiś podstawowy podręcznik ... płaszczyzna/surface to specjalny przypadek rozmaitości/manifold - mająca dwa wymiary rzeczywiste. Z Riemannem jest trochę namieszane, bo jego manifold to zupełnie coś innego niż surface - używają jej raczej fizycy na rozmaitości o dodatniej sygnaturze (w przeciwieństwie do Minkowskiego) ... matematycy raczej rzadko używają rozmaitości o niedodatniej sygnaturze (choć chodziłem na jeden taki wykład). Pozdrawiam -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
"One-dimensional compex" oznacza dwuwymiarową manifold (gdzie liczy się wymiary rzeczywiste). -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
http://en.wikipedia.org/wiki/Riemann_surface surface się używa na rozmaitość dwuwymiarową, variety na algebraiczną. Jak na razie nie mamy lepszej fizyki niż przybliżanie rzeczywistości - idealizacja. Ważne że działa, ważne żeby być świadomym słabości danych przybliżeń ... i ważne żeby szukać lepszych. Pozdrawiam -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Co do adiabaty, oczywiście odwracalność to idealizacja: np. dla gazu doskonałego, ruchu bez tarcia czy unitarnej ewolucji - mówienie o prawdziwych procesach że są adiabatyczne jest raczej przybliżeniem ... tak przynajmniej byłem uczony, ale to oczywiście dyskusja o nomenklaturę. Co do płaszczyzn Riemanna (surface, nie mylić z manifold), to są te dwuwymiarowe rozmaitości w analizie zespolonej wynikłe z tego że np. pierwiastki zespolone stopnia k mają k rozwiązań, logarytm nieskończoność - opisuje się je przy pomocy grup Galois (np. Forster) ... ale jak powiedziałem - tutaj wystarczy skupić się na rzeczywistych wielomianach (choć może metody geometrii algebraicznej mogą być tutaj użyteczne). -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
astroboy, zmiana podstawy jest równoważna z liniowym przeskalowaniem wykładnika. Z adiabatą można się też spotkać np. w mechanice klasycznej Arnolda - jest to ogólnie proces na tyle powolny że odwracalny. Co do grup Galois, to myślałem że masz na myśli opis płaszczyzn Riemanna, ale tutaj mamy rzeczywisty wielomian (bez pierwiastków). Flaku, oczywiście jest nieskończenie więcej rodzajów wzrostów niż wielomianowy i eksponencjalny (jak exp(x/ln(x)) między nimi), jednak różnica między tymi dwoma jest tą kluczową tutaj. -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Po pierwsze, specjalnie napisałem "typu" ext(wielkość problemu) na pytanie co to znaczy wykładniczy wzrost - oczywiście liniowo skalując wykładnik pozostajemy w wykładniczym wzroście. Co do Shora to też jestem sceptyczny - gdzieś tam się udało zfaktoryzować 15 ... gdzieś tam koło 200 ... w eksperymentach dedykowanych żeby dokładnie daną faktoryzację pokazać ... Co do adiabaty, to jasne historycznie kojarzy się np. z cyklem Carnota ... jednak np. od nawiązanego twierdzenia adiabatycznego (1928, Born & Fock), wkroczyła ona do mechaniki kwantowej (i jak dla mnie słusznie), prowadząc do tak nazywanych dzisiaj komputerów: http://en.wikipedia.org/wiki/Adiabatic_quantum_computation Co do "prostych Hamiltonianów" to oczywiście chodzi o idealizację, które jest podstawą mechaniki kwantowej i takowych komputerów. Osobiście wierzę że jest to efektywna reprezentacja jakiejś głębszej dynamiki, np. jak kropelkach Coudera: Nie wiem co tu mają do rzeczy grupy Galois, ale transformację 3SAT do globalnej minimalizacji nieujemnego wielomianu podałem w celu pokazania problemu tego typu podejść: wykładniczy wzrost ilości lokalnych minimów. -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Wykładniczo oznacza że wzrost jest typu exp(wielkośc problemu). Podczas gdy jeśli P!=NP, na standardowych komputerach koszt rozwiązywania trudnych problemów rośnie zawsze wykładniczo z wielkością, nadzieją komputerów kwantowych jest wielomianowy wzrost - np. koszt faktoryzacji rosnący wielomianowo z ilością cyfr (Shor). Natomiast adiabatyczne komputery kwantowe działają na innej zasadzie niż te "standardowe QC" pozwalające na algorytm Shora - one szukają minimum Hamiltonianu w sposób adiabatyczny - czyli zaczynamy od prostego Hamiltonianu dla którego łatwo mu znaleźć minimum, i powoli przełączamy do Hamiltonianu naszego problemu - zakładając że cały czas pozostajemy w jakimś minimum: http://en.wikipedia.org/wiki/Adiabatic_theorem ... ale to ostateczne minimum wcale nie musi być tym globalnym ... i dodatkowo termodynamika wszystko psuje. NP trudny problem możemy łatwo zamienić na globalną minimalizację. Np. 3SAT to pytanie czy dana koniugacja alternatyw trójek może być prawdziwa. Alternatywę dwóch zmiennych: x OR y można zamienić na zerowanie nieujemnego wielomianu: ((x-1)^2+y^2)((x-1)^2+(y-1)^2)(x^2+(y-1)^2) analogicznie dla trójek mamy wielomian stopnia 14 (można zmniejszyć do 10). Sumując takie wielomiany dla poszczególnych trójek, oryginalny problem 3SAT jest równoważny z znalezieniem globalnego minimum tego wielomianu. Czyli jeśli miałby tylko wielomianowo wiele lokalnych minimów, w czasie wielomianowym moglibyśmy przeszukać wszystkie, czyli P=NP ... co sugeruje że dla trudnych problemów ilość minimów rośnie wykładniczo - a więc i odległości energetyczne między nimi maleją wykładniczo, czyli dla takiego komputera adiabatycznego musielibyśmy obniżać temperaturę jak exp(- wielkość problemu). -
NSA buduje komputer kwantowy
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Te 20 lat brzmią dość optymistycznie ... co do D-Wave, to sprowadza się tutaj problem do szukania minimum Hamiltonianu (Shor jest bardziej wyrafinowany), do którego próbujemy zejść w sposób adiabatyczny. Tylko że wymaga to żeby istniało pojedyncze globalne minimum energetyczne, które jest odseparowane od reszty - co dla trudnych problemów po prostu nie jest prawdą - mają one wykładniczo wiele lokalnych minimów, czyli układ czysto termicznie nie jest w stanie ich odróżnić, szczególnie że ewolucja nie jest idealnie adiabatyczna. Chyba największy sukces D-Wave to aktualnie liczba Ramseya R(3,3): http://physicsworld.com/cws/article/news/2013/sep/27/has-a-quantum-computer-solved-the-party-problem ... którą zwykły komputer jest w stanie znaleźć w ułamek sekundy ... -
Google utrudni życie NSA
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
Miałem na myśli długości cykli wybierane lokalnie w sposób pseudolosowy - że np. klucz wraz z ostatnim zdekodowanym blokiem decydują czy dla kolejnego bloku należy użyć np. 13 czy 14 cykli ... Problem w tym że aktualnie np. AES to wykonanie w ściśle określonej kolejności niezwykle prostych operacji: XOR i permutacji - to by było wręcz dziwne gdyby tam nie zostały jakieś głębsze zależności, np. jakiś daleko nietrywialny niezmiennik, do którego wyszukiwania mogą istnieć wyspecjalizowane superkomputery ... Jak w sztuczkach z liczbami czy kartami że wykonujesz kilka prostych operacji a na końcu okazuje się że dostajesz trywialny wynik... Jeśli chcemy być pewni że tam nie ma backdoorów, trzeba zaburzyć ten idealny porządek, np. - pseudolosowo zaburzać idealny schemat wykonywania tych prostych operacji (np. na podstawie klucza i ostatniego zdekodowanego bloku), - pseudolosowo na podstawie klucza wybierać parametry używane przez koder, jak wybór S-box w pewnej sporej rodzinie dobrze zachowujących się (ilość możliwości musi być duża), - wstawić jakąś bardzo nieliniową operację w środek, - ... ? -
Google utrudni życie NSA
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
Praktycznie cała kryptografia symetryczna, łącznie z AES, opiera się na permutacjach i XORach wykonanych w konkretnej kolejności (stała ilości cyklów) - budowaniu na tyle skomplikowanej łamigłówki logicznej, że już na pewno nikt jej nie powinien sprytniej rozwiązać ... Jeśli chcemy się rzeczywiście zabezpieczyć przed istnieniem trików do obchodzenia, przed wbudowywaniem backdoorów ... trzeba w końcu wyjść poza stałe schematy na prosto odwracalnych operacjach! Np. samo uzmiennienie ilości cykli, jak że jest wykonywane 13 lub 14 cykli w zależności od klucza i aktualnych danych - niesłychanie utrudniłoby by próby odwracania tej łamigłówki. Natomiast dodanie w środku czegoś mocno nieliniowego-chaotycznego, praktycznie z automatu by uniemożliwiło wszelkie takie próby. Np. wrzucić do środka asymetryczny system liczbowy stablicowany na niewielkim przedziale - dostajemy coś jakby "permutację z pamięcią" używającą losową ilość bitów na krok ... -
Maszyna D-Wave starła się z klasycznym pecetem
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
To że formalizm Lagranżowski - którego używamy we wszystkich skalach: od kwantowej teorii pola do ogólnej teorii względności, mówi że fizyka już znalazła czterowymiarowe rozwiązanie (np. trajektorię, historię konfiguracji pola, kształt czasoprzestrzeni) optymalizujące działanie to nie moje wywody tylko jest znane od ponad dwóch stuleci ... ( http://en.wikipedia.org/wiki/Lagrangian_mechanics#Lagrangian_and_action ) Pytanie jak przetłumaczyć problemy algorytmiczne na minimalizację działania i podstawić fizyce - żeby się okazywało że ona już rozwiązała nasz problem (np. uzgadniając pętlę przyczynową) ... ? -
Maszyna D-Wave starła się z klasycznym pecetem
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Rzeczywiście budowanie standardowych komputerów asynchronicznych przysparza wiele problemów z synchronizowaniem np. pętli ... to o czym mówię nie ma takich pętli: podstawowy układ składa się z kilku warstw bramek logicznych - bez pętli, znalezienie rozwiązania oznacza ustabilizowanie prądów. Dodatkowa zewnętrzna pętla jest tylko żeby ustawić stabilizację na szukane rozwiązania naszego problemu - w celu minimalizacji energii ta rzeka elektronów powinna przejść do stabilnego przepływu - rozwiązać nasz problem szukając wśród ciągłych wartości między 0 i 1. A może zamiast takiego ciągłego szukania minimum energetycznego, moglibyśmy wykorzystać to że mechanika Lagranżowska już znalazła trajektorie (historie konfiguracji pola) minimalizujące działanie ... pytanie jak zamienić problem algorytmiczny na minimalizację działania. Teoretycznie można by bardzo prosto - wystarczyłoby tą pętlę zamknąć nie przestrzennie tylko czasowo - gdyby dało się przesłać wyjście w przeszłość, tak żeby ten układ korzystał z niego na wejściu - wtedy w celu minimalizacji działania, fizyka powinna od razu wybrać wejście dające zgodną pętlę przyczynową - rozwiązując nasz problem. No ale przecież nie da się przesyłać informacji wstecz w czasie ... no ale zarówno mechanika Lagranżowska jak i unitarna mechanika kwantowa są czasowo/CPT symetryczne - nie rozróżniają przeszłości i przyszłości. Więc i są potwierdzone "kwantowe" doświadczenia jak Wheelera, w którym późniejszy wybór ma wpływ na interpretację tego co działo się wcześniej ( http://en.wikipedia.org/wiki/Wheeler%27s_delayed_choice_experiment ) ... albo delayed choice quantum erasure, dla którego np. obrót polaryzatora na jednej drodze optycznej zmienia statystykę na drugiej, czyli wydaje się że zmieniając długości dróg optycznych moglibyśmy wpływać na przeszłą statystykę: http://www.thescienceforum.com/physics/27354-controlled-delayed-quantum-erasure-where-causality.html Osobiście na mechanikę kwantową, jej nieintuicyjność, patrzę jako na rezultat tego że nie żyjemy w "ewoluującym 3D" jak podpowiada nasza intuicja, tylko w prawdziwej "czterowymiarowej czasoprzestrzeni", Einsteinowskim Block Universe - taka czterowymiarowa galareta: teraźniejszość jest rezultatem minimalizacji naprężenia/działania z obu stron. Asymetria jest na poziomie statystyki/termodynamiki - nie ma na nią miejsca w fundamentalnych równaniach, tylko jest rezultatem konkretnego rozwiązania w którym żyjemy - konkretnie bliskości Wielkiego Wybuchu, w którym wszystko było praktycznie w tym samym miejscu, czyli miało małą entropię, więc i wytworzyło jej gradient w który teraz żyjemy: drugą zasadę termodynamiki. Tutaj jest wytłumaczenie siły algorytmu Shora z tej perspektywy - kluczowe jest że komputer kwantowy potrafi "zamocować" przestrzeń rozwiązań nie tylko z przeszłości (inicjalizacja) ale i z przyszłości (pomiary):