
Jarek Duda
Użytkownicy-
Liczba zawartości
1663 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
87
Zawartość dodana przez Jarek Duda
-
Indukcyjne ładowanie transportu miejskiego
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Myślałem że takie ładowanie ma dość niską efektywność, ale ponoć dochodzi do 90% http://en.wikipedia....uctive_charging http://batteryuniver...g_without_wires jednak mam wrażenie że powszechne przesyłanie dużych mocy w ten sposób nie wpłynie pozytywnie na już niemały i dalej rosnący poziom szumu elektromagnetycznego - utrudni komunikację wewnątrz miast, ale i może mieć inne trudne do wytropienia efekty uboczne, na przykład podejrzewa się go jako jeden z powodów wymierania pszczół ... http://en.wikipedia.org/wiki/Colony_collapse_disorder#Electromagnetic_radiation -
Pierwsze prawdziwe obliczenia kwantowe
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Whow, to może już za parę lat uda się obliczyć że 15 to 3 razy 5 także nawet nie wiedząc tego -
No tak, skoro roboty zastępują ludzi w różnych dziedzinach życia, mogą też zastąpić biedne dzieci żeby już nie musiały się męczyć na lekcjach
-
"Niemożliwy" silnik osiąga coraz lepsze wyniki?
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Tutaj akurat nie ma problemu - fotony, czyli nośniki pola elektromagnetycznego, jak najbardziej niosą też pęd. Stąd też na przykład pomysł żagli słonecznych, w których odbijające się fotony ze słońca nadają statkowi pęd ... albo można by bezpośrednio napędzać statek laserem ("fotonowy silnik odrzutowy") ... problem w tym że raczej sensownej efektywności tak nie osiągniemy ... Fale radiowe też niosą pewien pęd: http://en.wikipedia....iation_pressure Pytanie czy ilościowo to tym razem może mieć sens ...? -
Chodzi o zwykłą inwersję obsadzeń - że z jakichś powodów np. któryś stan wzbudzony jest bardziej obsadzony niż podstawowy, czyli w tej definicji w każdym laserze mamy "ujemną temperaturę". Ciekawe jest że tym razem dzieje się to z powodów entropijnych. http://en.wikipedia.org/wiki/Negative_temperature
-
Licencja na zabijanie (się)
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Zdrowie i uroda
Miałem podobny pomysł z licencją na zabijanie (się) ze 3 lata temu - żeby koszty przerzucić na dłuższe okresy, dzięki czemu łatwiej powinno być rzucić, trudniej zacząć, dzięki licencjom byłaby lepsza kontrola i opieka zdrowotna z akcyzy ... http://www.racjonalista.pl/forum.php/s,208181 Potem zostały zaostrzone przepisy ... ale mam wrażenie że parę miesięcy później już przestały być przestrzegane - od wielu knajp należy trzymać się z daleka dla swojego zdrowia. -
160MHz i 8MB rzeczywiście brzmi ograniczająco dla solidnej korekcji trudnych kanałów: BSC (czy AWGN - z dodatkową "soft information") ... ale dla Erasure do radzenia sobie ze zgubionymi pakietami jest zdecydowanie wystarczające. Dodatkowo może używać zasobów sprzętu którego jest częścią - wysyłać mu trudniejsze przypadki, tak że o przepustowości decyduje też główny procesor i wybrany przez użytkownika poziom jego wykorzystania. Nie mówię że jest proste, tylko że jednak może być bardziej optymalnie - że płacimy za zaniedbywanie podstawowej dziedziny dzisiejszego światu informacji: (niekwantowej!) teorii informacji. Na przykład: jakie są ograniczenia dla hashowania? Podczas gdy używa się przynajmniej kilkanaście bitów na element, kilka miesięcy temu okazało się że do rozróżniania elementów wystarczy ok. 2.33 bita/element (slajdy i źródła: http://dl.dropbox.com/u/12405967/hashsem.pdf ).
-
Przemek, masz dużo racji - rzeczywiście porządna korekcja jest dość kosztowna - dopiero w WiMaxie włączają współczesne metody: Turbo Codes i Low Density Parity Check (w dość oszczędnych wersjach) ... jednak gdy mówimy o utracie pakietów to jest najprostszy możliwy scenariusz do korekcji: Erasure z regularnie rozmieszczonymi uszkodzeniami - do tego od dawna istnieją szybkie prawie optymalne metody jak LT Codes ( http://en.wikipedia...._transform_code ) ... ... a jak chcielibyśmy nie wyrzucać uszkodzonych pakietów tylko wycisnąć z nich ile się da, trzeba jednak solidną korekcję - myślę że tutaj lepiej niż TC i LDPC pasują Correction Trees (podobne do splotowych, ale po kilku istotnych ulepszeniach) - dla małych szumów korekcja jest pełna i praktycznie darmo (a dla dużych, obciążając procesor można wyciągnąć więcej niż z pozostałych: https://dl.dropbox.c.../comaprison.jpg ). Kolejną sprawą jest nie wysyłanie ponownie całych pakietów, tylko w razie potrzeby dodatkowych bloków "bitów parzystości" - wstępnie przesyłasz wiadomość (np. 10 bloków) plus powiedzmy jeden taki blok dodatkowej redundancji ... a jeśli w danym czasie nie dostaniesz potwierdzenia rekonstrukcji, przesyłasz dodatkowy (inny) itd...
-
@Skotos, Piszesz o rozwoju sprzętu (kanału informacyjnego), natomiast tutaj twierdzą że już samą wymianą protokołu (obsługi danego kanału) poprawiają transmisję o rzędy wielkości - nie ma problemu zrobić blisko optimum, co oznacza że poprzednie rozwiązania były koszmarnym marnotrawstwem z perspektywy teorii informacji ... co zdążyło przestać mnie dziwić.
-
@jotunn, Wymiana na IPv6 to trochę bardziej skomplikowana konsekwencja kilku dekad rozwoju, wzrostu rozmiarów sieci ... natomiast Wi-Fi jest czymś w miarę świeżym - przynajmniej od strony protokołu można by zrobić raz a porządnie, tyle że - telekomunikacją zajmują się głównie inżynierzy - z względnie przeciętnym podłożem matematycznym ... zrobi rzetelnie żeby działało, ale optymalność jest zwykle dość odległym kryterium, - teoria informacji jest strasznie zaniedbaną dziedziną, - istotne może być też że jak w "spisku żarówkowym", opłaca się robić a nie zrobić - producenci my na tych wymianach sprzętu niemało zarabiają ...
-
Dla mnie to jest raczej kolejna nauczka jak kiepskie są podstawowe używane algorytmy, szczególnie w teorii informacji - nakazywanie ponownego przesyłania zagubionych pakietów jest żałośnie prymitywnym rozwiązaniem. Zamiast tego można praktycznie darmo dołożyć korekcję błędów, która i tak tam powinna być tam włączona - zgubienie pakietu jest dosłownie najprostszym możliwym scenariuszem uszkodzenia: w przeciwieństwie do standardowego Binary Symmetric Channel w którym nie znamy pozycji uszkodzeń, tym razem wiemy które bity należy odtworzyć (Erasure Channel) i do tego są one równomiernie rozłożone - w tym scenariuszu bardzo łatwo podejść dowolnie blisko granicy Shannona, czyli w naszym przypadku: używamy praktycznie wszystkich nieuszkodzonych bitów. Jeśli wiemy że 5% pakietów jest średnio uszkodzonych, przesyłanie powiedzmy 1.06 bitów/oryginalny bit spokojnie wystarczy żeby odtwarzać oryginalną wiadomość z tych które dotrą. Na przykład dzielimy wiadomość na bloki n bitowe i wysyłamy w n pakietach, z których k-ty jest zbudowany z k-tych bitów oraz dodatkowy (lub kilka) pakiet tej samej długości - zawierający po 1 bicie kontrolnym na blok. Po utracie ostatniego pakietu nic się nie dzieje, natomiast gdy jest to jeden z wcześniejszych, przeglądając drzewo możliwości prawie na pewno uda nam się odtworzyć oryginalną wiadomość: http://arxiv.org/pdf/1204.5317 Ale największym marnotrawstwem jest tutaj używanie sumy kontrolnej na cały pakiet, czyli mimo że po uszkodzeniu pojedynczego bitu pakiet dalej zawiera prawie całą informację, w tym podejściu idzie on śmietnik - wrzucenie korekcji błędów zamiast pojedynczej weryfikacji, jak rozsmarowanie sumy kontrolnej jednorodnie na cały pakiet, powoduje że z uszkodzonego odzyskujemy prawie całą informację. Z kwantowej teorii informacji - która prawdopodobnie nigdy nie znajdzie prawdziwego zastosowania, mamy w Polsce dziesiątki światowej sławy specjalistów ... natomiast z tej praktycznej: klasycznej, która jest podstawą całego przesyłania/zapisywania informacji, pomimo szkół/wydziałów telekomunikacji, na przykład gdy szukałem recenzentów do pierwszego doktoratu (z asymetrycznych systemów liczbowych - prostszej alternatywy kodowania arytmetycznego), okazało się że straszna bida ... Ta sytuacja jest dla mnie jednym z symboli kryzysu w nauce - zamiast pracy nad tym co ważne, nauka stała się jakimś ślepym pędem za publikacjami z tego co modne ... rezultat: zajmuję się klasyczną teorią informacji od kilku lat i gdzie nie spojrzę to widzę podstawowe braki koncepcyjne ... tyle że nikogo to nie interesuje.
-
Ogłoszono nową funkcję skrótu SHA-3
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
Rzeczywiście gąbka w Keccaku zawiera nieliniowość: http://keccak.noekeo...cs_summary.html A[x,y] = B[x,y] xor ((not B[x+1,y]) and B[x+2,y]), forall (x,y) in (0…4,0…4) jednego "and"a - cała reszta to xory i permutacje. Nie mówię że wiem jak to zrobić, tylko że nie jestem przekonany że tym razem już nie istnieje skrótowy sposób na rozwiązanie takiej łamigłówki logicznej. Piszesz że są "dowody kryptoodporności" - proszę przybliż jak chciałbyś dowodzić nieistnienie takich algorytmów? Podpowiem że jest to bardzo zbliżony problem do dowodzenia że P!=NP. Chyba jedyny prawdziwy dowód bezpieczeństwa o jakim słyszałem to dla "one-time pad": xorujesz z jednorazowym kluczem - cała reszta to raczej zbiór heurez i wiary w autorytety ... jasne (znanych!) "szkolnych błędów" pewnie nie ma, ale skąd mamy wiedzieć że np. nie jest tak że jeden z autorytetów już znalazł bardzo subtelne obejście i właśnie dlatego tak forsuje? W żadnym razie nie chodzi mi o to żeby snuć teorie spiskowe, tylko zwrócić uwagę że jednak istnieją nawet bardziej nieprzewidywalne-bezpieczne podstawowe bloczki których moglibyśmy użyć niż nawet wspaniały pojedynczy "bitand" ... Wspomniałeś składanie w korekcji błędów - rzeczywiście w początkach telekomunikacji konkatenacji używało się dla dużych szumów ( http://en.wikipedia....orrection_codes ), ale podczas gdy jednym kodem bardzo trudno podejść do granicy Shannona, po złożeniu dwóch odlatujesz od niej w kosmos ... konkatenacja szybko odeszła do lamusa gdy tylko pojawiły się porządne "jednofazowe" metody: Turbo Codes, Low Density Parity Check (a teraz właśnie dołącza do nich Correction Trees: http://arxiv.org/pdf/1204.5317 ). -
Ogłoszono nową funkcję skrótu SHA-3
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
peceed, "Intuicja podpowiada..." - brawo, świetnie scharakteryzowałeś "dowody" bezpieczeństwa: nawrzucać tyle XORów i permutacji żeby "intuicja podpowiadała" że już wygląda bezpiecznie ... ;D A co jeśli jednak jest ukryta luka, np. pozwalająca wygenerować zmieniony plik o takiej samej wartości funkcji hashującej ... ? I ktoś sobie po cichu podmienia pliki a ludzie myślą że oryginalne bo zgadzają się z posiadaną przez nich sumą kontrolną ... A może zamiast dodawać kolejne XORy i permutacje żeby "intuicja jeszcze silniej podpowiadała", użyć czegoś tak nieprzewidywalnego żeby po prostu nie dało się obejść ... Na przykład wspomniane asymetryczne systemy liczbowe jako podstawowy bloczek - krok dla przetworzenia bajtu to użycie niewielkiej tablicy, a potem ściągnięcie (zmiennej!) ilości bitów tak żeby stan automatu wrócił do założonego przedziału (I), przy okazji wypluwając skumulowane bity. Użycie tablicy zwiększa logarytm z wartości stanu o mniej więcej (dyfuzyjność) lg(1/q_s) - zwykle niewymierną liczbę (ergodyczność) i to q_s (prawdopodobieństwo symbolu) zmienia się (asymetria) dosłownie pseudolosowo od punktu do punktu, jak poniżej (z http://dl.dropbox.co...5967/ANSang.pdf ). Wszystko jest zapisane w tej tablicy, która np. została na początku pseudolosowo wygenerowana (generujemy rozkład symboli o zadanym rozkładzie prawdopodobieństwa) - pomijając trzy własności poniżej, samo to powoduje że po prostu nie da się śledzić, szukać skrótów etc. dla pracy automatu ... Oprócz/zamiast XORa i permutacji, tak nieprzewidywalnych podstawowych bloczków powinno się szukać dla kryptografii! wilku, do sum kontrolnych ta gąbka rzeczywiście jest ok, ale dla uwierzytelniania to jest prosty xor z permutacji - trzeba sporo obudować żeby można było temu zaufać ... -
Ogłoszono nową funkcję skrótu SHA-3
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
peceed, kluczowe tutaj są szybkość, prostota, złożoność pamięciowa ... zarówno dla softwarowych jak i hardwarowych implementacji - żeby np. taki węzeł przez który przechodzą setki GB/s był w stanie sprawdzać w czasie rzeczywistym sumy kontrolne ... Kolejną sprawą jest że składanie metod wcale nie musi prowadzić do czegoś bezpieczniejszego - składanie permutacji czy XORów z wzorcem jest (nową ale) dalej permutacją czy XORem z wzorcem ... dla dłuższej kombinacji tych operacji pewnie tak łatwo tego nie widać, ale to nie znaczy że się nie da - w każdym razie jak chcemy zbudować coś bezpiecznego, trzeba zacząć od bezpiecznych cegiełek, czyli dla kryptografii: nieprzewidywalnych, chaotycznych, nieliniowych. -
Ogłoszono nową funkcję skrótu SHA-3
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Bezpieczeństwo IT
Przyglądnąłem się właśnie tej "funkcji gąbki": http://sponge.noekeon.org/ Bierzemy w miarę duży stan (r+c bitów), dzielimy wiadomość na fragmenty stałej długości (r bitów) - w każdym kroku XORujemy kolejny fragment z częścią stanu oraz używamy ustalonej permutacji (f) na wszystkich bitach stanu. Brzmi prosto, elegancko ... ale z perspektywy kryptograficznej składając te permutacje dostajemy znowu permutację - każdy bit wiadomości wpływa tylko na pojedynczy bit stanu końcowego i to łatwo prześledzić który !?! Czyli kompletny brak nawet podstawowej własności wymaganej od systemów kryptograficznych: mieszania - zmiana pojedynczego bitu wiadomości powinna zmieniać nie jeden bit stanu, tylko średnio połowę wszystkich - powinna powodować że stan jest zupełnie niezwiązany z poprzednim. Ogólnie wiara w bezpieczeństwo kryptografii zbudowanej tylko na permutacjach i XORach (jak nawet AES) to jest taka heureza że tak skomplikowana łamigłówka no to już chyba nie powinna być łatwo rozwiązywalna ... Zupełnie nie rozumiem dlaczego nie wychodzi się w mniej przewidywalne nielinowe funkcje ... np. Asymetryczne Systemy Liczbowe - szybkie i proste w użyciu, a niesłychanie nieliniowe i konkretną funkcję możemy sobie pseudolosowo wybrać ... stan automatu zawiera niecałkowitą ilość bitów, wypluwając całe bity gdy się skumuluje: http://demonstrations.wolfram.com/DataCompressionUsingAsymmetricNumeralSystems/ -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Z modelowaniem matematycznym należy bardzo uważać żeby nie narzucać na siłę jego cech na modelowaną rzeczywistość - przy szukaniu bardziej fundamentalnych teorii sztuką jest właśnie oskrobanie z wszystkiego co narzucone przez model. To z czego chyba już dalej nie da się oskrobać (zachowując propagację fal) to są teorie pola - jedyne co potrzebne w modelach solitonowych i jak najbardziej dalej matematyczne, czyli pewnie są tylko matematycznym opisem jakiejś głębszej fizyki... -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Co do matematyzacji, to właśnie mówię o jej maksymalnej redukcji - wejściu w konkrety za matematycznymi abstraktami. "Coś" jednak potrzebujemy - do propagacji fal niezbędne jest pole ... i dla modeli solitonowych na tym założenia się kończą - cząstki to nie są jakieś dodatkowe abstrakcyjne byty (jednak wpływające na to pole), tylko po prostu specjalne zlokalizowane konfiguracje (solitony) tego jedynego pola (wszystkich oddziaływań), np. typu osobliwości pola elektrycznego dla ładunku. To pole jest tu jedynym podstawowym bytem - cała reszta to jego konsekwencje. Na przykład pole wektorowe w EM - "strzałka" w każdym punkcie (np. reprezentująca wychylenie atomu sieci krystalicznej), czy tensorowe w OTW - np. reprezentujący tensor naprężeń kryształu. Dokładnie takie pole dla kryształu anizotropowego to jest całość założeń w modelu który rozważam (trzy wyróżnione prostopadłe kierunki w każdym punkcie) - z czego już powstaje cała menażeria cząstek z zachowaniem jak oczekujemy... Czyli jak nie podoba Ci się matematyczność tego jedynego co pozostało: pola, ono wcale nie musi być fundamentalne - może być efektywną reprezentacją jakiejś bardziej fundamentalne fizyki, np. reprezentować tensor naprężeń jakiegoś fizycznego "ciągłego czterowymiarowego kryształu" pod spodem (dzięki ciągłości nie ma sensu o mówieniu o prędkości względem ośrodka) ... -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Fala elektromagnetyczna jest trochę bardziej skomplikowana od dźwiękowej, co jest mocno związane z tym że ta pierwsza jest poprzeczna, a druga podłużna. Dźwiękowa jest skalarna jak małe fale na wodzie - istotna jest wartość liczbowa w każdym punkcie (pole skalarne): ciśnienie (/wysokość dla fali na wodzie) - której zaburzenia od równowagi się propagują. Natomiast fale elektromagnetyczne są wektorowe - istotne dla nich jest pole wektorowe: kierunek w każdym punkcie (np. pola elektrycznego). Co do pytania z czego jest zrobione - tego nie wiem, ale dla propagacji fal (elektromagnetycznych, grawitacyjnych) po prostu niezbędne jest jakieś medium - w którym wychylenie z równowagi w jednym punkcie, powoduje wychylenie w bliskich punktach - i fala może się propagować. Ogólna teoria względności sugeruje że czasoprzestrzeń jest czymś w rodzaju czterowymiarowego kryształu (z infinitezymalną stałą stałą sieci) - w którym naprężenia w jednym kierunku czasoprzestrzennym, kompensowane są naprężeniami w innych (aż do np. wygięć w kierunku dalszych wymiarów w czarnej dziurze). Też coś takiego mówi ogólna mechanika Lagranżowska - pole przyjmuje taką czterowymiarową konfigurację żeby zminimalizować działanie - czyli jakby wewnętrzne naprężenia czterowymiarowego kryształu. -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Jak to nie ma ośrodka??? A pola oddziaływań - np. elektromagnetyczne? Naturalnie w równaniach Maxwella dostajesz w nim fale ... dalej biorąc zamkniętą powierzchnię, samo pole na niej mówi o ładunku wewnątrz (prawo Gaussa) - dowolnie zmniejszając powierzchnię dookoła elektronu, samo pole na niej dalej mówi że w jej środku jest ładunek elementarny - z perspektywy pola elektromagnetycznego, elektron jest niesłychanie korpuskluarny - jest jego osobliwością: pole dąży w centrum do nieskończoności i to we wszystkich kierunkach (od naprawienia tej kwestii, przy okazji tłumacząc kwantowanie, zaczynają modele solitonowe cząstek). Elektron jest elementarny w sensie: nie zbudowany z mniejszych cząstek (zlokalizowanych struktur), a nie że nie ma z nim związanej konfiguracji pola - bycie monopolem elektrycznym i dipolem magnetycznym niesłychanie dużo mówi o tej konfiguracji. Te pola można sobie wyobrazić jako infinitezymalną granicę sieci sprzężonych oscylatorów - które chcą drgać/falować ... jednak czasem dozwalają w nich też na zlokalizowane struktury - nie rozpływające się, nie zmieniające kształtu - korpuskuły formalnie zwane solitonami. Dla fotonów optycznych natura korpuskularna jest bardziej subtelna, jednak nie ma co do niej wątpliwości - wzbudzony atom uwalnia całą różnicę energii w postaci pojedynczego fotonu - porcji energii która leci sobie polem elektromagnetycznym aż (w całości!) zostanie zaabsorbowana np. przez inny atom - nie rozpływa się w przestrzeni jak zwykłe fale (nie dysypuje), tylko trzyma się w kupie - formalnie jest solitonem pola elektromagnetycznego. Równocześnie ma też falową naturę - falę związaną z tą korpuskułą. Wracając do pytania o istnienie ośrodka - ja bym się raczej zapytał odwrotnie: czy istnieje coś więcej niż te pola oddziaływań wypełniające całą czasoprzestrzeń? Cząstki są bardzo nietrywialnymi ich konfiguracjami (np. jako ładunek), co opisuje ich oddziaływania - czy cząstki są jeszcze czymś więcej? Czym niby? -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Ależ abstrakty Modelu Standardowego mają fizyczną interpretację i są pojmowalne - narysuj wszystkie możliwe scenariusze (diagramy Feynmana), scałkuj po wszystkich pędach występujących tam obiektów i podstaw parametry modelu opisujące własności tych obiektów. Podobnie jak arytmetyka na jabłkach, jest to taka ogólna metodologia do której wiele można by dopasować - problem w tym że pomija pytanie czym są te jabłka/cząstki: jak wyglądają z perspektywy pól oddziaływań na których budujemy fizykę, np. jak pole elektromagnetyczne skleja się w centrum elektronu? jak wygląda dynamika produkcji fotonu optycznego niosącego moment pędu? Co to falowej natury - owszem foton jest "do bólu korpuskularny", jest też "do bólu" falowy - dualizm korpuskularno-falowy oznacza że jest po prostu i tym i tym: jest korpuskułą ze sprzężoną falą (wytworzoną przez jakiś wewnętrzny proces periodyczny: tzw. zegar de Brogliea). Wystarczy np. pokazać filmik z eksperymentów Coudera ( ) i zamiast magii, cudów jakich filozofom się nie śniło ... dostajemy proste naturalne intuicje które dziecko może zrozumieć ... i motywację do szukania konkretów z których dopiero wyłania się abstrakcyjny opis mechaniki kwantowej. -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Dzięki za wspaniałą poradę ... tyle że to nie jest takie proste dla pojedynczej osoby która na razie miała możliwość zajmować się tym tylko hobbistycznie i to od niedawna ... Jakościowo myślę że mam w miarę dobrze poukładane (w pracce którą zlinkowałem). Jedna istotna niezgodność i aktualnie rozważane podejście idzie do kosza ... zamiast tego jak tylko zadam mu uznawane za trudne pytanie, jakościowo dostaję zwykle prostą intuicyjną odpowiedź. Natomiast dobrze dobrać ilościowo jest bardzo trudną i pracochłonną kwestią - szczególnie że symulacja już prostych solitonów jest problematyczna numerycznie ... a cząstki prostymi nie są. Osobiście szukam w miarę możliwości, także np. prof. Faber czy inni ludzie z niedawnej konferencji z emergentnej mechaniki kwantowej (jest i noblista http://www.univie.ac...ss/EmerQuM.html ) ... Darwinowie fizyki Czyli mi proponować nie musisz, ale jest wielu takich którym mógłbyś ... zresztą możesz zacząć od siebie -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Po Newtonie pojawiła się jeszcze teoria pola - czyli nie że masywne obiekty są połączone jakąś intelektualnie nieosiągalną przyciągającą więzią, tylko że za tym abstraktem jest ukryta konkretna konfiguracja/ewolucja pola - przestrzenna struktura rządzona lokalnymi zasadami mechaniki Lagranżowskiej (równaniami Eulera-Lagrangea) - tak samo dla Ogólnej Teorii Względności i elektromagnetyzmu. O to właśnie się pytam - o konkretną konfigurację pól oddziaływań za abstraktami Modelu Standardowego - ich przestrzenną budowę i dynamikę, jak za ładunkiem elektronu (czego naturalną już konsekwencją jest oddziaływanie Kulombowskie) czy za zlokalizowaną falą typu foton optyczny (niosącą moment pędu). ps. Nie mówię o żadnej nowej teorii, tylko o poukładaniu tego co jest - po pierwsze poprawienie równań Maxwella żeby nie pozwalały na dowolne ładunki, tylko zgodnie z tym co wiemy z przyrody: całkowite wielokrotności ładunku elementarnego - takie przeformułowanie r. Maxwella możesz znaleźć np. u prof. Fabera ( http://iopscience.iop.org/1742-6596/361/1/012022 ). Powstają tam tylko czyste ładunki jednego rodzaju, więc trzeba znaleźć odpowiednie rozszerzenie - tutaj jest szkic mojego podejścia, za który chciałbym się porządnie zabrać jak tylko będę miał więcej czasu: http://www.fqxi.org/community/forum/topic/essay-download/1416/__details/Duda_elfld_1.pdf -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Kreacjonizm nie jest zoologią, tylko przekonaniem niemożliwości osiągnięcia głębszego zrozumienia - nie wiem ile razy mam powtarzać że w żadnym razie nie chodzi mi o to że Model Standardowy jest zły (odpowiada zoologii w tej analogii), tylko że powinniśmy dalej szukać konkretów za jego abstraktami: np. za fotonem jako efektem działania abstrakcyjnego operatora kreacji z Modelu Standardowego (QED), szukać konkretnej konfiguracji pola elektromagnetycznego i dynamiki powstania (z momentem pędu którego kompletnie nie widać w MS - w którym foton jest raczej falą płaską). Model Standardowy "Wyczerpująco wyjaśnia co z czego i jak powstaje oraz przewiduje" ... owszem - po włożeniu połowy z tego w jego założenia i dopasowaniu kilkudziesięciu parametrów ... to jest taka uniwersalna maszynka która dobrze zaprogramowana i wyregulowana potrafi wypluwać matematyczne konsekwencje tych założeń - skutecznie operować na abstraktach, zupełnie nie wchodząc w ich istotę: konkretne struktury przestrzenne czy dynamikę pojedynczych reakcji. Jak arytmetyka słusznie mówiąca że "jabłko plus dwa jabłka = trzy jabłka", nie wchodzi w pytanie czym jest jabłko. -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
thikim, ale ja nie mówię o jakichś wyszukanych pytaniach, tylko o podstawowych ale pomijanych, np. - zrozumieć konfigurację pola elektromagnetycznego za (niosącym moment pędu) fotonem optycznym, dynamikę jego produkcji, - jak pole elektromagnetyczne skleja się w centrum elektronu?, - dlaczego ładunek musi być całkowitą wielokrotnością ładunku elementarnego? ... ... o to co się konkretnie dzieje pod abstrakcyjnym opisem QFT modelu standardowego: w którym cząstka to po prostu wynik działania operatora kreacji. Chodzi o wypełnienie braków w naszym zrozumieniu - struktury i dynamiki obiektów skutecznie modelowanych przez MS - żeby oprócz dopasowania do eksperymentów, mogliśmy zrozumieć jego założenia, wyprowadzić parametry. Piotrze, zoolog kreacjonista potrafi przewidywać zachowania zwierząt, ich interakcje ... ewolucjonista dodatkowo szuka zrozumienia konkretnej ewolucji skąd to się wszystko wzięło, dlaczego ta menażeria zwierząt jest jaka jest ... -
Kłopotliwy nadmiar cząstek
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Piotrze, różnica między wychodzeniem z założenia że po prostu nie da się zrozumieć co się dzieje za abstraktami na którymi potrafimy operować, a jednak szukaniem odpowiedzi na fundamentalne pytania, jest dokładnie jak różnica między kreacjonizmem a ewolucjonizmem - kreacjonista dalej bardzo skutecznie może zajmować się zwierzętami, w pełni zadowalając się abstrakcyjnym stwierdzeniem że zostały one stworzone ... natomiast ewolucjonista jednak szuka konkretnej dynamiki za tym abstrakcyjnym "aktem kreacji"... Model standardowy jest uniwersalną metodologią operowania na abstraktach zmiennej ilości cząstek - wierzę że dodając kolejne założenia będziemy w stanie dopasowywać go w nieskończoność do rzeczywistości ... (kreacjonizm nie zaprzecza rozwijaniu weterynarii) ... Natomiast z poznawczego punktu widzenia, może zdrowo jest zamiast w pełni zadowalać się np. stwierdzeniem że "foton to rezultat działania operatora kreacji", jednak dalej szukać konkretnej konfiguracji i dynamiki za tą falą elektromagnetyczną - nie wychodzić z "paraliżu poznawczego": założenia że po prostu niemożliwe jest głębsze zrozumienie jak kreacjoniści, tylko robić to co doprowadziło ludzkość do obecnego poziomu wiedzy: szukać.