Jarek Duda
Użytkownicy-
Liczba zawartości
1595 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
85
Zawartość dodana przez Jarek Duda
-
Maszyna D-Wave starła się z klasycznym pecetem
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
To że formalizm Lagranżowski - którego używamy we wszystkich skalach: od kwantowej teorii pola do ogólnej teorii względności, mówi że fizyka już znalazła czterowymiarowe rozwiązanie (np. trajektorię, historię konfiguracji pola, kształt czasoprzestrzeni) optymalizujące działanie to nie moje wywody tylko jest znane od ponad dwóch stuleci ... ( http://en.wikipedia.org/wiki/Lagrangian_mechanics#Lagrangian_and_action ) Pytanie jak przetłumaczyć problemy algorytmiczne na minimalizację działania i podstawić fizyce - żeby się okazywało że ona już rozwiązała nasz problem (np. uzgadniając pętlę przyczynową) ... ? -
Maszyna D-Wave starła się z klasycznym pecetem
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Rzeczywiście budowanie standardowych komputerów asynchronicznych przysparza wiele problemów z synchronizowaniem np. pętli ... to o czym mówię nie ma takich pętli: podstawowy układ składa się z kilku warstw bramek logicznych - bez pętli, znalezienie rozwiązania oznacza ustabilizowanie prądów. Dodatkowa zewnętrzna pętla jest tylko żeby ustawić stabilizację na szukane rozwiązania naszego problemu - w celu minimalizacji energii ta rzeka elektronów powinna przejść do stabilnego przepływu - rozwiązać nasz problem szukając wśród ciągłych wartości między 0 i 1. A może zamiast takiego ciągłego szukania minimum energetycznego, moglibyśmy wykorzystać to że mechanika Lagranżowska już znalazła trajektorie (historie konfiguracji pola) minimalizujące działanie ... pytanie jak zamienić problem algorytmiczny na minimalizację działania. Teoretycznie można by bardzo prosto - wystarczyłoby tą pętlę zamknąć nie przestrzennie tylko czasowo - gdyby dało się przesłać wyjście w przeszłość, tak żeby ten układ korzystał z niego na wejściu - wtedy w celu minimalizacji działania, fizyka powinna od razu wybrać wejście dające zgodną pętlę przyczynową - rozwiązując nasz problem. No ale przecież nie da się przesyłać informacji wstecz w czasie ... no ale zarówno mechanika Lagranżowska jak i unitarna mechanika kwantowa są czasowo/CPT symetryczne - nie rozróżniają przeszłości i przyszłości. Więc i są potwierdzone "kwantowe" doświadczenia jak Wheelera, w którym późniejszy wybór ma wpływ na interpretację tego co działo się wcześniej ( http://en.wikipedia.org/wiki/Wheeler%27s_delayed_choice_experiment ) ... albo delayed choice quantum erasure, dla którego np. obrót polaryzatora na jednej drodze optycznej zmienia statystykę na drugiej, czyli wydaje się że zmieniając długości dróg optycznych moglibyśmy wpływać na przeszłą statystykę: http://www.thescienceforum.com/physics/27354-controlled-delayed-quantum-erasure-where-causality.html Osobiście na mechanikę kwantową, jej nieintuicyjność, patrzę jako na rezultat tego że nie żyjemy w "ewoluującym 3D" jak podpowiada nasza intuicja, tylko w prawdziwej "czterowymiarowej czasoprzestrzeni", Einsteinowskim Block Universe - taka czterowymiarowa galareta: teraźniejszość jest rezultatem minimalizacji naprężenia/działania z obu stron. Asymetria jest na poziomie statystyki/termodynamiki - nie ma na nią miejsca w fundamentalnych równaniach, tylko jest rezultatem konkretnego rozwiązania w którym żyjemy - konkretnie bliskości Wielkiego Wybuchu, w którym wszystko było praktycznie w tym samym miejscu, czyli miało małą entropię, więc i wytworzyło jej gradient w który teraz żyjemy: drugą zasadę termodynamiki. Tutaj jest wytłumaczenie siły algorytmu Shora z tej perspektywy - kluczowe jest że komputer kwantowy potrafi "zamocować" przestrzeń rozwiązań nie tylko z przeszłości (inicjalizacja) ale i z przyszłości (pomiary): -
Maszyna D-Wave starła się z klasycznym pecetem
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Trudne problemy algorytmiczne od zawsze próbujemy atakować pozostając w dyskretnym świecie zerojedynek - uciąglenie problemu, wyjście poza 0/1 np. w takim "asynchronicznym komputerze pętlowym" jest właśnie przejściem do innego królestwa matematyki/fizyki, gdzie może (ale nie musi) istnieć szybszy sposób - to jest ciężkie zadanie, ale myślę że warto je eksplorować. Szczególnie że fizyka jest idealna właśnie w ciągłych problemach jak np. minimalizacja energii - działanie takiego komputera zdecydowanie zależałoby od użytej elektroniki, pośrednich zachowań bramek, ale może istnieje też taka w której by działał ... np. błyskawicznie znajdujący klucz kryptograficzny dla zaszyfrowanej wiadomości ... ? Zresztą taki adiabatyczny komputer kwantowy jak D-Wave też polega na ciągłej ewolucji pomiędzy klasycznymi 0 i 1 ... Skoro fizyka jest idealna w minimalizacji energii, może da się skonstruować ciągły potencjał którego (globalna!) minimalizacja rozwiązywałaby nasz problem? I owszem ... Problemy NP-zupełne możemy sprowadzić do 3SAT, czyli pytanie o istnienia wartościowań zmiennych, takich że wszystkie alternatywy trójek (x lub y lub z, gdzie dodatkowo zmienne mogą być zanegowane) są spełnione. Zauważmy że (x lub y) możemy sprowadzić do minimalizacji wielomianu 6 stopnia: ((x-1)^2+y^2)((x-1)^2+(y-1)^2)(x^2+(y-1)^2) Analogicznie dla alternatywy trójki zmiennych mamy wielomian 14 stopnia (można zredukować przynajmniej do 8). Sumujemy takie nieujemne wielomiany dla wszystkich trójek z 3SAT i rozwiązanie problemu jest równoważne ze znalezieniem zera - globalnego minimum wielomianu. Oryginalny problem wychodzi poza 0,1 do ciągłych wartości pomiędzy - mamy tu zupełnie inne narzędzia ciągłej optymalizacji globalnej. Ta transformacja jest trochę zbyt wysoko wymiarowa żeby bezpośrednio podstawić fizyce, ale może istnieją inne sprowadzenia problemów algorytmicznych do bezpośrednio dostępnych fizyce (jak komputery kwantowe czy asynchroniczny komputer pętlowy) ... ? -
Maszyna D-Wave starła się z klasycznym pecetem
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Równie dobrze możemy powiedzieć że komputery mechaniczne są lepsze ... np. wiele problemów dalej lepiej analizować w tunelu aerodynamicznym niż porównywalnie dokładnie liczyć z Naviera-Stokesa ... Nic dziwnego że fizyka pozwala szybciej bezpośrednio liczyć jej własne problemy (np. dalej nie potrafimy satysfakcjonująco policzyć co się dzieje w pojedynczym protonie, co dla fizyki jest trywialne), pytanie czy możemy to zastosować do pożytecznych problemów algorytmicznych jak np. obiecywany algorytm Shora ... którego raczej nie uruchomimy na adiabatycznym komputerze kwantowym ... http://physics.stackexchange.com/questions/10496/what-can-the-d-wave-quantum-computer-do Ale ogólnie wierzę że warto szukać alternatywnych podejść "podstawienia" fizyce, idealnej w rozwiązywaniu swojej teoriopolowej mechaniki Lagranżowskiej, trudnych problemów algorytmicznych do rozwiązania - na przykład myślałem o asynchronicznym komputerze z pętlą: Weźmy jakiś problem NP-trudny, czyli szybko możemy stwierdzić czy dane wejście jest satysfakcjonujące, ale sęk w tym że jest wykładniczo wiele różnych możliwych wejść, np. mamy zaszyfrowaną wiadomość ale rozszyfrowanie tylko z poprawnym kluczem nas satysfakcjonuje - dla innych kluczy dostajemy praktycznie biały szum. Ten weryfikator stwierdzający poprawność wejścia może być zrealizowany przez kilka warstw podstawowych bramek (bez pętli, np. przez sprowadzenie do 3SAT) - załóżmy że mamy układ elektroniczny (bez zegara!) który w taki sposób sprawdza czy dane wejście jest poprawne. Połączmy go w pętlę w ten sposób: - Jeśli wejście poprawne zwróć wejście, w przeciwnym razie zwróć wejście+1 - Podaj wyjście na wejście Czyli z zegarem taki układ sprawdzałby po kolei wszystkie możliwości aż do stabilizacji w jakimś satysfakcjonującym (załóżmy że istnieje). Ale co gdy nie ma zegara? Mamy czystą hydrodynamikę elektronów, które płyną przez pętlę i żeby zminimalizować energię powinny szukać stacjonarnego przepływu - naszego rozwiązania ... pytanie czy mogą to zrobić szybciej niż z zegarem ??? czy np. rzeka optymalizuje przepływ badając kolejne możliwości, czy może płynnie przechodzi do optymalnego przepływu ... -
CERN zarejestrował nadmiar pozytonów w promieniowaniu kosmicznym
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Na OTW możemy patrzeć jako szereg poprawek do grawitacji Newtonowskiej, jednak eksperymentalnie (szczególnie przez Gravity Probe B ) zostało potwierdzone tylko do powiedzmy drugiej - tzw. grawitomagnetyzmu (GEM): http://en.wikipedia.org/wiki/Gravitoelectromagnetism Bezpośrednie sprawdzenie kolejnej poprawki jest już raczej praktycznie zupełnie niewykonalne - dalej mamy tylko ekstrapolację z wiary w estetykę Einsteina... Na przykład samo GEM, wprowadzone w 1893 przez Heavisida, też już może funkcjonować jako samodzielne rozszerzenie grawitacji Newtona do teorii Lorentzowsko nieimienniczej - i to dużo prostsze: nie wymaga zakrzywiania czasoprzestrzeni (tylko samej przestrzeni: podrozmaitości stałego czasu), a więc i jest dużo mniej kontrowersyjne: nie trzeba hipotetycznych dodatkowych wymiarów, nie ma wormholi, nie ma osobliwości wychodzących poza stosowalność teorii jak w centrum czarnej dziury gdzie czasoprzestrzeń przestaje być rozmaitością ... W każdym razie uważam że jeszcze za mało wiemy żeby ekstrapolować silne wnioski na temat kosmologii ... -
CERN zarejestrował nadmiar pozytonów w promieniowaniu kosmicznym
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Kosmiczna próżnia nie jest taka pusta - jest tam np. pełno protonów ... granica GZK na produkcję pionów (które często dalej rozpadają się do pozytonów) jest dość wysoka (z 10^7 razy większa energia niż w LHC): http://en.wikipedia.org/wiki/Greisen%E2%80%93Zatsepin%E2%80%93Kuzmin_limit ale wcześniej chyba powinniśmy też oczekiwać bezpośredniej produkcji par pozyton-elektron np. w obecności protonów? http://en.wikipedia.org/wiki/Pair_production Z jednej strony są to energie cząstek o kilka rzędów wielkości większe niż dostępne np. w LHC, więc chyba powinniśmy być ostrożni z ekstrapolacjami ... z drugiej nie rozumiemy ich pochodzenia i ogólnie jest jeszcze sporo rzeczy szczególnie w astrofizyce czy kosmologii których obecnie za bardzo nie rozumiemy - myślę że jeszcze należy być bardzo ostrożnym z silnymi wnioskami jak pochodzenie z hipotetycznej ciemnej materii ... której jakoś nie widać w bezpośrednich eksperymentach ... -
CERN zarejestrował nadmiar pozytonów w promieniowaniu kosmicznym
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Rzeczywiście nadmiar wysokoenergetycznych pozytonów to ciekawa obserwacja, kolejne przypomnienie że nasze zrozumienie wszechświata nie jest takie pełne jak by się nam wydawało ... ale zupełnie nie widzę związku z hipotetyczną ciemną materią?? Pewnie to jest dobre wytłumaczenie do zdobywania grantów, ale dlaczego chociażby teoretycznie ciemna materia miałaby się przyczyniać do produkcji wysokoenergetycznych pozytonów? Jeśli jednak się rozpada to powinniśmy też widzieć jakiś charakterystyczny pik w gammach ... dalej temperatura powinna wpływać na rozpad, skoro niby oddziałuje grawitacyjnie to powinna się koncentrować w gwiazdach, czyli już może mieć istotny wpływ na modele gwiazdowe ... Ja bym tam raczej szukał wytłumaczenia w innym fakcie którego nie bardzo rozumiemy: ultra-wysoko-energetycznym promieniowaniu kosmicznym http://en.wikipedia....ergy_cosmic_ray które też powinno produkować wysokoenergetyczne pary elektron-pozyton ... -
Indukcyjne ładowanie transportu miejskiego
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Myślałem że takie ładowanie ma dość niską efektywność, ale ponoć dochodzi do 90% http://en.wikipedia....uctive_charging http://batteryuniver...g_without_wires jednak mam wrażenie że powszechne przesyłanie dużych mocy w ten sposób nie wpłynie pozytywnie na już niemały i dalej rosnący poziom szumu elektromagnetycznego - utrudni komunikację wewnątrz miast, ale i może mieć inne trudne do wytropienia efekty uboczne, na przykład podejrzewa się go jako jeden z powodów wymierania pszczół ... http://en.wikipedia.org/wiki/Colony_collapse_disorder#Electromagnetic_radiation -
Pierwsze prawdziwe obliczenia kwantowe
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Whow, to może już za parę lat uda się obliczyć że 15 to 3 razy 5 także nawet nie wiedząc tego -
No tak, skoro roboty zastępują ludzi w różnych dziedzinach życia, mogą też zastąpić biedne dzieci żeby już nie musiały się męczyć na lekcjach
-
"Niemożliwy" silnik osiąga coraz lepsze wyniki?
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Tutaj akurat nie ma problemu - fotony, czyli nośniki pola elektromagnetycznego, jak najbardziej niosą też pęd. Stąd też na przykład pomysł żagli słonecznych, w których odbijające się fotony ze słońca nadają statkowi pęd ... albo można by bezpośrednio napędzać statek laserem ("fotonowy silnik odrzutowy") ... problem w tym że raczej sensownej efektywności tak nie osiągniemy ... Fale radiowe też niosą pewien pęd: http://en.wikipedia....iation_pressure Pytanie czy ilościowo to tym razem może mieć sens ...? -
Chodzi o zwykłą inwersję obsadzeń - że z jakichś powodów np. któryś stan wzbudzony jest bardziej obsadzony niż podstawowy, czyli w tej definicji w każdym laserze mamy "ujemną temperaturę". Ciekawe jest że tym razem dzieje się to z powodów entropijnych. http://en.wikipedia.org/wiki/Negative_temperature
-
Licencja na zabijanie (się)
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Zdrowie i uroda
Miałem podobny pomysł z licencją na zabijanie (się) ze 3 lata temu - żeby koszty przerzucić na dłuższe okresy, dzięki czemu łatwiej powinno być rzucić, trudniej zacząć, dzięki licencjom byłaby lepsza kontrola i opieka zdrowotna z akcyzy ... http://www.racjonalista.pl/forum.php/s,208181 Potem zostały zaostrzone przepisy ... ale mam wrażenie że parę miesięcy później już przestały być przestrzegane - od wielu knajp należy trzymać się z daleka dla swojego zdrowia. -
160MHz i 8MB rzeczywiście brzmi ograniczająco dla solidnej korekcji trudnych kanałów: BSC (czy AWGN - z dodatkową "soft information") ... ale dla Erasure do radzenia sobie ze zgubionymi pakietami jest zdecydowanie wystarczające. Dodatkowo może używać zasobów sprzętu którego jest częścią - wysyłać mu trudniejsze przypadki, tak że o przepustowości decyduje też główny procesor i wybrany przez użytkownika poziom jego wykorzystania. Nie mówię że jest proste, tylko że jednak może być bardziej optymalnie - że płacimy za zaniedbywanie podstawowej dziedziny dzisiejszego światu informacji: (niekwantowej!) teorii informacji. Na przykład: jakie są ograniczenia dla hashowania? Podczas gdy używa się przynajmniej kilkanaście bitów na element, kilka miesięcy temu okazało się że do rozróżniania elementów wystarczy ok. 2.33 bita/element (slajdy i źródła: http://dl.dropbox.com/u/12405967/hashsem.pdf ).
-
Przemek, masz dużo racji - rzeczywiście porządna korekcja jest dość kosztowna - dopiero w WiMaxie włączają współczesne metody: Turbo Codes i Low Density Parity Check (w dość oszczędnych wersjach) ... jednak gdy mówimy o utracie pakietów to jest najprostszy możliwy scenariusz do korekcji: Erasure z regularnie rozmieszczonymi uszkodzeniami - do tego od dawna istnieją szybkie prawie optymalne metody jak LT Codes ( http://en.wikipedia...._transform_code ) ... ... a jak chcielibyśmy nie wyrzucać uszkodzonych pakietów tylko wycisnąć z nich ile się da, trzeba jednak solidną korekcję - myślę że tutaj lepiej niż TC i LDPC pasują Correction Trees (podobne do splotowych, ale po kilku istotnych ulepszeniach) - dla małych szumów korekcja jest pełna i praktycznie darmo (a dla dużych, obciążając procesor można wyciągnąć więcej niż z pozostałych: https://dl.dropbox.c.../comaprison.jpg ). Kolejną sprawą jest nie wysyłanie ponownie całych pakietów, tylko w razie potrzeby dodatkowych bloków "bitów parzystości" - wstępnie przesyłasz wiadomość (np. 10 bloków) plus powiedzmy jeden taki blok dodatkowej redundancji ... a jeśli w danym czasie nie dostaniesz potwierdzenia rekonstrukcji, przesyłasz dodatkowy (inny) itd...
-
@Skotos, Piszesz o rozwoju sprzętu (kanału informacyjnego), natomiast tutaj twierdzą że już samą wymianą protokołu (obsługi danego kanału) poprawiają transmisję o rzędy wielkości - nie ma problemu zrobić blisko optimum, co oznacza że poprzednie rozwiązania były koszmarnym marnotrawstwem z perspektywy teorii informacji ... co zdążyło przestać mnie dziwić.
-
@jotunn, Wymiana na IPv6 to trochę bardziej skomplikowana konsekwencja kilku dekad rozwoju, wzrostu rozmiarów sieci ... natomiast Wi-Fi jest czymś w miarę świeżym - przynajmniej od strony protokołu można by zrobić raz a porządnie, tyle że - telekomunikacją zajmują się głównie inżynierzy - z względnie przeciętnym podłożem matematycznym ... zrobi rzetelnie żeby działało, ale optymalność jest zwykle dość odległym kryterium, - teoria informacji jest strasznie zaniedbaną dziedziną, - istotne może być też że jak w "spisku żarówkowym", opłaca się robić a nie zrobić - producenci my na tych wymianach sprzętu niemało zarabiają ...
-
Dla mnie to jest raczej kolejna nauczka jak kiepskie są podstawowe używane algorytmy, szczególnie w teorii informacji - nakazywanie ponownego przesyłania zagubionych pakietów jest żałośnie prymitywnym rozwiązaniem. Zamiast tego można praktycznie darmo dołożyć korekcję błędów, która i tak tam powinna być tam włączona - zgubienie pakietu jest dosłownie najprostszym możliwym scenariuszem uszkodzenia: w przeciwieństwie do standardowego Binary Symmetric Channel w którym nie znamy pozycji uszkodzeń, tym razem wiemy które bity należy odtworzyć (Erasure Channel) i do tego są one równomiernie rozłożone - w tym scenariuszu bardzo łatwo podejść dowolnie blisko granicy Shannona, czyli w naszym przypadku: używamy praktycznie wszystkich nieuszkodzonych bitów. Jeśli wiemy że 5% pakietów jest średnio uszkodzonych, przesyłanie powiedzmy 1.06 bitów/oryginalny bit spokojnie wystarczy żeby odtwarzać oryginalną wiadomość z tych które dotrą. Na przykład dzielimy wiadomość na bloki n bitowe i wysyłamy w n pakietach, z których k-ty jest zbudowany z k-tych bitów oraz dodatkowy (lub kilka) pakiet tej samej długości - zawierający po 1 bicie kontrolnym na blok. Po utracie ostatniego pakietu nic się nie dzieje, natomiast gdy jest to jeden z wcześniejszych, przeglądając drzewo możliwości prawie na pewno uda nam się odtworzyć oryginalną wiadomość: http://arxiv.org/pdf/1204.5317 Ale największym marnotrawstwem jest tutaj używanie sumy kontrolnej na cały pakiet, czyli mimo że po uszkodzeniu pojedynczego bitu pakiet dalej zawiera prawie całą informację, w tym podejściu idzie on śmietnik - wrzucenie korekcji błędów zamiast pojedynczej weryfikacji, jak rozsmarowanie sumy kontrolnej jednorodnie na cały pakiet, powoduje że z uszkodzonego odzyskujemy prawie całą informację. Z kwantowej teorii informacji - która prawdopodobnie nigdy nie znajdzie prawdziwego zastosowania, mamy w Polsce dziesiątki światowej sławy specjalistów ... natomiast z tej praktycznej: klasycznej, która jest podstawą całego przesyłania/zapisywania informacji, pomimo szkół/wydziałów telekomunikacji, na przykład gdy szukałem recenzentów do pierwszego doktoratu (z asymetrycznych systemów liczbowych - prostszej alternatywy kodowania arytmetycznego), okazało się że straszna bida ... Ta sytuacja jest dla mnie jednym z symboli kryzysu w nauce - zamiast pracy nad tym co ważne, nauka stała się jakimś ślepym pędem za publikacjami z tego co modne ... rezultat: zajmuję się klasyczną teorią informacji od kilku lat i gdzie nie spojrzę to widzę podstawowe braki koncepcyjne ... tyle że nikogo to nie interesuje.
-
Ogłoszono nową funkcję skrótu SHA-3
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
Rzeczywiście gąbka w Keccaku zawiera nieliniowość: http://keccak.noekeo...cs_summary.html A[x,y] = B[x,y] xor ((not B[x+1,y]) and B[x+2,y]), forall (x,y) in (0…4,0…4) jednego "and"a - cała reszta to xory i permutacje. Nie mówię że wiem jak to zrobić, tylko że nie jestem przekonany że tym razem już nie istnieje skrótowy sposób na rozwiązanie takiej łamigłówki logicznej. Piszesz że są "dowody kryptoodporności" - proszę przybliż jak chciałbyś dowodzić nieistnienie takich algorytmów? Podpowiem że jest to bardzo zbliżony problem do dowodzenia że P!=NP. Chyba jedyny prawdziwy dowód bezpieczeństwa o jakim słyszałem to dla "one-time pad": xorujesz z jednorazowym kluczem - cała reszta to raczej zbiór heurez i wiary w autorytety ... jasne (znanych!) "szkolnych błędów" pewnie nie ma, ale skąd mamy wiedzieć że np. nie jest tak że jeden z autorytetów już znalazł bardzo subtelne obejście i właśnie dlatego tak forsuje? W żadnym razie nie chodzi mi o to żeby snuć teorie spiskowe, tylko zwrócić uwagę że jednak istnieją nawet bardziej nieprzewidywalne-bezpieczne podstawowe bloczki których moglibyśmy użyć niż nawet wspaniały pojedynczy "bitand" ... Wspomniałeś składanie w korekcji błędów - rzeczywiście w początkach telekomunikacji konkatenacji używało się dla dużych szumów ( http://en.wikipedia....orrection_codes ), ale podczas gdy jednym kodem bardzo trudno podejść do granicy Shannona, po złożeniu dwóch odlatujesz od niej w kosmos ... konkatenacja szybko odeszła do lamusa gdy tylko pojawiły się porządne "jednofazowe" metody: Turbo Codes, Low Density Parity Check (a teraz właśnie dołącza do nich Correction Trees: http://arxiv.org/pdf/1204.5317 ). -
Ogłoszono nową funkcję skrótu SHA-3
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
peceed, "Intuicja podpowiada..." - brawo, świetnie scharakteryzowałeś "dowody" bezpieczeństwa: nawrzucać tyle XORów i permutacji żeby "intuicja podpowiadała" że już wygląda bezpiecznie ... ;D A co jeśli jednak jest ukryta luka, np. pozwalająca wygenerować zmieniony plik o takiej samej wartości funkcji hashującej ... ? I ktoś sobie po cichu podmienia pliki a ludzie myślą że oryginalne bo zgadzają się z posiadaną przez nich sumą kontrolną ... A może zamiast dodawać kolejne XORy i permutacje żeby "intuicja jeszcze silniej podpowiadała", użyć czegoś tak nieprzewidywalnego żeby po prostu nie dało się obejść ... Na przykład wspomniane asymetryczne systemy liczbowe jako podstawowy bloczek - krok dla przetworzenia bajtu to użycie niewielkiej tablicy, a potem ściągnięcie (zmiennej!) ilości bitów tak żeby stan automatu wrócił do założonego przedziału (I), przy okazji wypluwając skumulowane bity. Użycie tablicy zwiększa logarytm z wartości stanu o mniej więcej (dyfuzyjność) lg(1/q_s) - zwykle niewymierną liczbę (ergodyczność) i to q_s (prawdopodobieństwo symbolu) zmienia się (asymetria) dosłownie pseudolosowo od punktu do punktu, jak poniżej (z http://dl.dropbox.co...5967/ANSang.pdf ). Wszystko jest zapisane w tej tablicy, która np. została na początku pseudolosowo wygenerowana (generujemy rozkład symboli o zadanym rozkładzie prawdopodobieństwa) - pomijając trzy własności poniżej, samo to powoduje że po prostu nie da się śledzić, szukać skrótów etc. dla pracy automatu ... Oprócz/zamiast XORa i permutacji, tak nieprzewidywalnych podstawowych bloczków powinno się szukać dla kryptografii! wilku, do sum kontrolnych ta gąbka rzeczywiście jest ok, ale dla uwierzytelniania to jest prosty xor z permutacji - trzeba sporo obudować żeby można było temu zaufać ... -
Ogłoszono nową funkcję skrótu SHA-3
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
peceed, kluczowe tutaj są szybkość, prostota, złożoność pamięciowa ... zarówno dla softwarowych jak i hardwarowych implementacji - żeby np. taki węzeł przez który przechodzą setki GB/s był w stanie sprawdzać w czasie rzeczywistym sumy kontrolne ... Kolejną sprawą jest że składanie metod wcale nie musi prowadzić do czegoś bezpieczniejszego - składanie permutacji czy XORów z wzorcem jest (nową ale) dalej permutacją czy XORem z wzorcem ... dla dłuższej kombinacji tych operacji pewnie tak łatwo tego nie widać, ale to nie znaczy że się nie da - w każdym razie jak chcemy zbudować coś bezpiecznego, trzeba zacząć od bezpiecznych cegiełek, czyli dla kryptografii: nieprzewidywalnych, chaotycznych, nieliniowych. -
Ogłoszono nową funkcję skrótu SHA-3
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
Przyglądnąłem się właśnie tej "funkcji gąbki": http://sponge.noekeon.org/ Bierzemy w miarę duży stan (r+c bitów), dzielimy wiadomość na fragmenty stałej długości (r bitów) - w każdym kroku XORujemy kolejny fragment z częścią stanu oraz używamy ustalonej permutacji (f) na wszystkich bitach stanu. Brzmi prosto, elegancko ... ale z perspektywy kryptograficznej składając te permutacje dostajemy znowu permutację - każdy bit wiadomości wpływa tylko na pojedynczy bit stanu końcowego i to łatwo prześledzić który !?! Czyli kompletny brak nawet podstawowej własności wymaganej od systemów kryptograficznych: mieszania - zmiana pojedynczego bitu wiadomości powinna zmieniać nie jeden bit stanu, tylko średnio połowę wszystkich - powinna powodować że stan jest zupełnie niezwiązany z poprzednim. Ogólnie wiara w bezpieczeństwo kryptografii zbudowanej tylko na permutacjach i XORach (jak nawet AES) to jest taka heureza że tak skomplikowana łamigłówka no to już chyba nie powinna być łatwo rozwiązywalna ... Zupełnie nie rozumiem dlaczego nie wychodzi się w mniej przewidywalne nielinowe funkcje ... np. Asymetryczne Systemy Liczbowe - szybkie i proste w użyciu, a niesłychanie nieliniowe i konkretną funkcję możemy sobie pseudolosowo wybrać ... stan automatu zawiera niecałkowitą ilość bitów, wypluwając całe bity gdy się skumuluje: http://demonstrations.wolfram.com/DataCompressionUsingAsymmetricNumeralSystems/ -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Z modelowaniem matematycznym należy bardzo uważać żeby nie narzucać na siłę jego cech na modelowaną rzeczywistość - przy szukaniu bardziej fundamentalnych teorii sztuką jest właśnie oskrobanie z wszystkiego co narzucone przez model. To z czego chyba już dalej nie da się oskrobać (zachowując propagację fal) to są teorie pola - jedyne co potrzebne w modelach solitonowych i jak najbardziej dalej matematyczne, czyli pewnie są tylko matematycznym opisem jakiejś głębszej fizyki... -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Co do matematyzacji, to właśnie mówię o jej maksymalnej redukcji - wejściu w konkrety za matematycznymi abstraktami. "Coś" jednak potrzebujemy - do propagacji fal niezbędne jest pole ... i dla modeli solitonowych na tym założenia się kończą - cząstki to nie są jakieś dodatkowe abstrakcyjne byty (jednak wpływające na to pole), tylko po prostu specjalne zlokalizowane konfiguracje (solitony) tego jedynego pola (wszystkich oddziaływań), np. typu osobliwości pola elektrycznego dla ładunku. To pole jest tu jedynym podstawowym bytem - cała reszta to jego konsekwencje. Na przykład pole wektorowe w EM - "strzałka" w każdym punkcie (np. reprezentująca wychylenie atomu sieci krystalicznej), czy tensorowe w OTW - np. reprezentujący tensor naprężeń kryształu. Dokładnie takie pole dla kryształu anizotropowego to jest całość założeń w modelu który rozważam (trzy wyróżnione prostopadłe kierunki w każdym punkcie) - z czego już powstaje cała menażeria cząstek z zachowaniem jak oczekujemy... Czyli jak nie podoba Ci się matematyczność tego jedynego co pozostało: pola, ono wcale nie musi być fundamentalne - może być efektywną reprezentacją jakiejś bardziej fundamentalne fizyki, np. reprezentować tensor naprężeń jakiegoś fizycznego "ciągłego czterowymiarowego kryształu" pod spodem (dzięki ciągłości nie ma sensu o mówieniu o prędkości względem ośrodka) ... -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Fala elektromagnetyczna jest trochę bardziej skomplikowana od dźwiękowej, co jest mocno związane z tym że ta pierwsza jest poprzeczna, a druga podłużna. Dźwiękowa jest skalarna jak małe fale na wodzie - istotna jest wartość liczbowa w każdym punkcie (pole skalarne): ciśnienie (/wysokość dla fali na wodzie) - której zaburzenia od równowagi się propagują. Natomiast fale elektromagnetyczne są wektorowe - istotne dla nich jest pole wektorowe: kierunek w każdym punkcie (np. pola elektrycznego). Co do pytania z czego jest zrobione - tego nie wiem, ale dla propagacji fal (elektromagnetycznych, grawitacyjnych) po prostu niezbędne jest jakieś medium - w którym wychylenie z równowagi w jednym punkcie, powoduje wychylenie w bliskich punktach - i fala może się propagować. Ogólna teoria względności sugeruje że czasoprzestrzeń jest czymś w rodzaju czterowymiarowego kryształu (z infinitezymalną stałą stałą sieci) - w którym naprężenia w jednym kierunku czasoprzestrzennym, kompensowane są naprężeniami w innych (aż do np. wygięć w kierunku dalszych wymiarów w czarnej dziurze). Też coś takiego mówi ogólna mechanika Lagranżowska - pole przyjmuje taką czterowymiarową konfigurację żeby zminimalizować działanie - czyli jakby wewnętrzne naprężenia czterowymiarowego kryształu.