
Jarek Duda
Użytkownicy-
Liczba zawartości
1663 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
87
Zawartość dodana przez Jarek Duda
-
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Ogólnie nie-gładkości w fizyce oznaczają nieskończoną energię. Wizja pojedynczego elektronu jest tylko po to żeby zrozumieć jak jego pola (zewnętrznie np. E~1/r^2) sklejają się w środku bez nieskończoności. W tym celu potrzebujemy coś w stylu: E~ c( r ) / r ^ 2 gdzie c( r ) jest stałe daleko od elektronu, natomiast maleje do zera w jego centrum ... co obserwujemy m.in. w running coupling. QED nie odpowiada na takie pytania tylko je zakłada/unika ... samo prowadząc do wielu kolejnych nieskończoności. Apropo, ciekawa jest nieskończoność w sercu stringów: 1+2+3+4+ ... = -1/12 (nie żartuję) http://math.stackexchange.com/questions/816250/sum-of-all-the-positive-integers-problem Pozdrawiam -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Nawet nieciągła czasoprzestrzeń powinna być rozmaitością dla GRT - można ją lokalnie wyprostować do R^4 ... i oczekiwać konkretnych pól EM w każdej pozycji. Co do bardziej skomplikowanego Wszechświata, szkoda że nie słyszałeś o tzw. redukcjonizmie - skoro chcesz całość na raz zrozumieć to nie dziwię się że poddałeś się na starcie -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Oj niegładka czasoprzestrzeń oznaczałaby nieskończoną krzywiznę - jak sobie radzisz z GRT w takiej sytuacji? QED jest potrzebne dla zmiennej ilości cząstek - możemy zacząć od zrozumienia sytuacji z pojedynczym elektronem we wszechświecie ... -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Astro, podstawowa fizyka to dla mnie np. pole EM: że w każdym punkcie czasoprzestrzeni jest zdefiniowana wartość obu tych pól ... łącznie z centrum elektronu. Rozumiem że EM jest dla Ciebie jakimś zabobonem? thinkim, oczywiście granty eksperymentalne (np. LHC) są o rzędy wielkości większe niż teoretyczne (np. zeszyt+ołówek ... + kosz, chyba że jesteś filozofem lub strunowcem) ... czyli porównanie które podałeś jest jakby stonka się tłumaczyła że przecież nie je więcej od biedronki skoro słoń obok zjada prawie wszystko ... prawdziwy problem to że dominujące w grantach teoretycznych jest zatrudnienie ludzi - czyli skazywanie młodych zdolnych fizyków na tą ślepą uliczkę. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Wpisałem w G: https://www.google.pl/search?q=string+theory+maxwell+equation No więc są prace pokazujące że odpowiednio długo machając rękami, z wielowymiarowego Maxwella można wyciągnąć coś w stringach No dobrze, ale kluczowe jest coś innego: czy ze stringów można wyciągnąć Maxwella? Czyli jedną z najbardziej podstawowych własności natury. Takich prac już nie widzę (?) I zamiast tworzyć ekscytujące nowe byty jak dodatkowe wymiary, zgodnie z Okhamem, może skupmy się jednak na konkretnym podstawowym pytaniu: jak skleić pola (głównie EM) w centrum elektronu? Można się bronić krucyfiksem niewiary jak Astro - zwątpieniem w istnienie pól w centrum elektronu, wyparciem się podstawowej fizyki. Ale może jednak jest coś nie tak w takie analogii "modelu słońca z wyciętym jądrem" ... Od zrozumienia tego naturalnego pytania (sklejenia pól) zaczynają się modele solitonowe typu Fabera - czy słyszeliście może o choć odrobinę obiecującym innym podejściu? ps. Granty na elektron od lat próbuje zdobyć prof. Faber (oficjalnie zajmuje się QCD), ale sory - elektron to punkt i basta. Ja nawet nie zamierzam próbować. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Struny to jest dużo ekscytujących obrazków, bajek, matematyki ... ale czy potrafią cokolwiek znanego sensownego odtworzyć? Absolutne minimum żeby fundamentalną teorię cząstek uznać za choć trochę obiecującą to skwantowane ładunki (o skończonej energii) z dynamiką opisywaną Maxwellem - od tego wychodzą modele solitonowe ... czy struny potrafią chociaż tutaj dojść po tych milionach godzin prac? -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Ok, kontynuujmy te religijne analogie W biologii odpowiednikiem ortodoksyjnej mechaniki kwantowej jest kreacjonizm: "QM/organizmy zostały zesłane przez Stwórcę, jesteśmy szczęśliwi z tym zrozumieniem, nie ma sensu pytać o jakieś ukryte mechanizmy/zmienne prowadzące do tego przenajświętszego objawienia ... fuj". Natomiast ewolucjonizm jednak pyta się o te ukryte mechanizmy/zmienne - nie poddaje się tylko drąży temat aż do pełnego zrozumienie ... mimo że nie mamy wehikułu czasu żeby bezpośrednio sprawdzić jak to tam było ... i że niewykluczone że nigdy do końca nie zrozumiemy np. powstania pierwszej prakomórki ... No wiem że przecież kreacjoniści mają tyle wspaniałych kontrybucji do nauki, jak metody wyskakiwania z Etny czy transportu wodnego zwierząt ... znajoma bodajże zielonoświątkowa wspomniała mi o ich "odkryciu" że małpy wzięły się z ludzi uprawiających kazirodztwo ;D Problem w tym że gdy u podstaw masz mistyczne święte wewnętrznie sprzeczne zasady ... to możesz wszystko wywnioskować - i to się stało z QM: nikt nic z definicji nie rozumie ("shut up and calculate") więc naukowcy mogli popuścić wodze fantazji ... czas wrócić na ziemię do podstawowych pytań żeby to wszystko w końcu spójnie poukładać. Modeli słońca też można zbudować dużo różnych - szczególnie że nie da się zajrzeć do jego centrum. Dla świata kwantowego wystarczy znaleźć ten jeden model - którego efektywne przewidywania zgadzają się z eksperymentami - jak model standardowy ... ale który dodatkowo nie ignoruje podstawowych pytań, jak sklejenie pól EM w centrum elektronu ... czyli jakby budować model słońca z wyciętym jądrem ... -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Dokładnie: chcemy "wniknąć" pod kwantowe chmury prawdopodobieństwa. Z jednej strony zbliżamy się do tej rozdzielczości pomiarowej - np. w pracy z 2009 ( http://journals.aps.org/prb/abstract/10.1103/PhysRevB.80.165404 ) już dosłownie robią zdjęcia orbitali atomowych: wybijają pojedyncze elektrony z atomu węgla na końcu igły, dzięki odpowiedniemu ukształtowaniu pola EM dostają soczewkę pozwalającą z ostatecznej pozycji wywnioskować w którym miejscu ten elektron wyskoczył z orbitalu - uśredniając dostają kwantowe chmury prawdopodobieństwa: Z drugiej strony nie potrzebujemy np. mierzyć warunków w centrum słońca żeby modelować co tam się dzieje. Zamiast tego buduje się model - weryfikowany na podstawie zgodności jego efektywnych przewidywań z obserwacjami. Analogicznie w fizyce mikroskopowej - zasada Heisenberga to jest ograniczenie na pomiar (analogiczne do wysłania sondy w centrum słońca) - nie oznacza ona że obiektywnie coś tam się nie dzieje (że centrum słońca nie ma temperatury). Możemy ominąć zasadę Heisenberga przez budowę modeli - porównując ich efektywne przewidywania z eksperymentem - i dokładnie tak był budowany model standardowy. Ale nie pyta on o strukturę pól (głównie EM) za cząstkami - naprawiają to modele solitonowe ... których efektywny opis też wymaga zespołu po scenariuszach (diagramy Feynmana) - to jest alternatywny do QFT opis sytuacji o zmiennej ilości cząstek. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Uśrednianie się do czegoś znanego na poziome statystycznym, jak do rozkładu Gaussa czy Levy, jest czymś matematycznie uniwersalnym: prawo wielkich liczb, zasada maksymalizacji niewiedzy, wynikły rozkład Boltzmanna ... wynikły MERW który mówi że zaburzając termodynamicznie trajektorie powinny się one uśrednić dokładnie do kwantowych gęstości prawdopodobieństwa ... Przykładowo zasadę maksymalizacji niewiedzy tłumaczę na przykładzie ciągów zerojedynkowych - długości n jest ich 2^n. Natomiast skupiając się na ciągach o procentowo p jedynek, ich ilość to dwumian Newtona, asymptotycznie (wzór Stirlinga) zachowujący się jak binomial(n,pn) ~ 2^(n*h(p)). Czyli entropia to jest wykładnik wzrostu liczebności populacji o zadanych parametrach statystycznych (tutaj: p) - przedstawiciele parametrów maksymalizujących entropię (tutaj p=1/2) kompletnie kombinatorycznie zdominują przedstawicieli innych parametrów dla n->infinity. Dostajemy zasadę maksymalizacji niewiedzy: dopóki nie ma powodów żeby zakładać inaczej, najbezpieczniejsze założenie dla parametrów statystycznych to takie które maksymalizuje entropię. Dla błądzeń losowych dostajemy stąd MERWa i jego kwantowe chmury prawdopodobieństwa - slajdy: https://dl.dropboxusercontent.com/u/12405967/MERWsem_UJ.pdf To są matematyczne twierdzenia zupełnie abstrahujące od tego co się dzieje pod spodem - w żadnym razie nie wyznaczające granicy poznania. Wręcz przeciwnie - wypada zapytać co konkretnie opisują te uśrednienia i statystyki. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Muszę przyznać że nie rozumiem - są setki eksperymentów potwierdzających kwantowanie, ograniczających wielkość ładunku elementarnego przez 10^-15m i znacznie mniej ... Czy w takim razie znasz jakikolwiek eksperyment sugerujący występowanie sytuacji z brakiem kwantowania ładunku? Jego fundamentalne rozmycie? Statystyczne to jest poziom efektywny - uśrednienia, opisu. Pytanie o poziom fundamentalny - równań bezpośrednio rządzących naturą. QFT twierdzi że te równania powinny być CPT-symetryczne ... że przeszłość i przyszłość są dość podobne. Nie zgadza się z tym efektywny opis termodynamiczny - wyróżniający kierunek wzrostu entropii. Ale nie ma tutaj sprzeczności - symetryczne fundamentalne równania jak najbardziej mogą mieć rozwiązania łamiące te symetrie, jak fale na powierzchni wody. Możemy przejść z deterministycznych pozycji cząstek do entropii - dostać gęstość z uśrednienia (np. splot z gaussem), z której liczymy entropię. Pytanie dlaczego rozwiązanie w którym żyjemy (historia wszechświata) wyróżnia konkretny kierunek wzrostu entropii? Odpowiedź wydaje się banalna: w BB wszystko było razem czyli entropia była minimalna - tworząc obserwowany gradient entropii. Strasznie miksujesz. To że nikt nie pyta nie znaczy że obiektywnie nie ma ... "czy padające drzewo wydaje odgłos gdy nikt nie słyszy" - oczywiście że tak. Owszem fizyka po prostu jest - zbiór równań i konkretne rozwiązanie w którym żyjemy. Natomiast to czym liczymy to jest formalizm Lagranżowski - jest kilka równoważnych sformułowań: - ustalasz wartość i pochodną czasową (np. pola) i równaniami Eulera-Lagrangea dostajesz deterministyczną ewolucję w przód w czasie (można też wstecz), - ustalasz wartości w dwóch punktach czasowych (np. naszym BB w przeszłości i ewentualnym wielkim kolapsie w przyszłości) i rozwiązanie to jest ekstremum działania na przestrzeni wszystkich możliwości. Dosłownie jak 4D galareta w której przekrój minimalizuje naprężenia między przeszłością i przyszłością: tzw. https://en.wikipedia.org/wiki/Block_universe. Statystyczny to jest efektywny opis - po uśrednieniu, skorzystania z prawa dużych liczb, zasady maksymalizacji niewiedzy (jak MERW) ... efektywny opis czego bardziej fundamentalnego. Zwykle teraźniejszość to jest płaszczyzna T=0 ... tyle że jest ona obracana podczas boostu w STW ... w OTW dodatkowo powyginana ... O sytuacji MERW z zależnością od czasu (defektów/potencjału) jest 5 rozdział mojego dr z fizy: http://www.fais.uj.edu.pl/documents/41628/d63bc0b7-cb71-4eba-8a5a-d974256fd065 Jest dużo bardziej skomplikowana - normalnie bierzemy wektor własny dający rozkład na końcu nieskończonych trajektorii w stronę przeszłości/przyszłości ... natomiast jeśli potencjał zależy od czasu, formalnie należałoby zamiast tego wziąć propagator z którejś nieskończoności ... choć zwykle można zrobić przybliżenie adiabatyczne. Ze stałymi defektami, tutaj jest rozbudowany symulator: http://demonstrations.wolfram.com/ElectronConductanceModelsUsingMaximalEntropyRandomWalks/ -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Czyli nie wierzysz że ładunek/elektrony są fundamentalnie skwantowane? Masz może jakiś argument eksperymentalny za tym rozmyciem ładunku elementarnego? Przypomina mi to dysputy teologów ortodoksji wymagających świadomego obserwatora (mającego duszę? może będącego wyznawcą tej samej interpretacji? ) ... podczas gdy z naukowego punktu widzenia, świadomy obserwator (człowiek) to jakaś niewyobrażanie mała część historii i przestrzeni wszechświata - zbiór atomów rządzony tymi samymi prawami. Dalej teolodzy ortodoksji desperacko bronią "wolnej woli" tego naszego zbioru atomów ... łapiąc się za głowę gdyby ktoś chciał im ją odebrać przez determinizm fizyki Ja tam nie widzę problemu połączenia obu: deterministyczna fizyka "wie" jaka będzie przyszłość - na podstawie naszych wolnych wyborów. Dopóki nie znamy przyszłości, to są nasze decyzje i jesteśmy za nie odpowiedzialni. Natomiast "niedeterministyczna fizyka" brzmi jak oksymoron - że natura jest rządzona przez niekompletny zbiór reguł?? wymagający jakiegoś ponadnaturalnego bytu żeby odpowiedzieć na brakujące pytania - to jest znowu temat dla teologa a nie fizyka. Niedeterminizm mówi że teraźniejszość nie determinuje przyszłości ... no dobrze, ale o której teraźniejszości mówimy? STW mówi że boostem możemy zmienić (obrócić) teraźniejszość ... o ile x^2 > t^2 to daną przyszłość można uczynić teraźniejszością. Czyli nie-determinizm jest sprzeczny z STW. A w OTW już bezpośrednio szukamy kształtu 4D czasoprzestrzeni - w tej mechanice Lagrażowskiej gdzie, podobnie jak w innych jak QFT, teraźniejszość to jest minimalizująca działania równowaga między przeszłością a przyszłością - jak w 4D galarecie. Mechaniki Lagranżowsiej skutecznie używamy we wszystkich skalach: od QFT do GRT/OTW - to jest bezpieczne podejście na którym należy się skupić ... i nie ma w nim miejsca na niedetermizm. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Sam do ok. 2008 byłem grzecznym bezkrytycznym adeptem mainstreamu po nastu kursach z QM, zachwytu bajkami o kosmicznych filharmoniach Kaku i podobnych, wyszkolonym w intelektualnej akrobatyce unikania i ignorowania wewnętrznych sprzeczności ... Wyrosłem z tego przez Maximal Entropy Random Walk: okazuje się że standardowe modele dyfuzyjne zawierają subtelne przybliżenie, jak policzymy to porządnie (maksymalizacja niewiedzy Jaynes'a) ... w przeciwieństwie do standardowej, taka dyfuzja okazuje się już być zgodna z termodynamicznymi przewidywaniami QM - zbiegamy dokładnie do jej chmur prawdopodobieństw (te same wzory) - czyli dokładnie jak powinno być, jedno hokus-pokus znikło. Zacząłem pytać o strukturę pól cząstek - swoje modele solitonowe w 2009, w ciągu kolejnych 2 lat usłyszałem o modelu Gryzyzińskiego, kropelkach Coudera, nawiązałem kontakt z Faberem ... Solitony są bezpośrednią konsekwencją zadania zakazanego pytania o sklejenie pola EM wewnątrz elektronu - stwierdzenie że jest punktowy prowadzi do bzdury (nieskończonej energii). Pytasz o konfigurację pola utrzymującą kształt - czyli formalnie będącego solitonem. Ma mieć skwantowany ładunek - nie jest to obce dla matematyki: jako ładunek/soliton topologiczny. Najprostszy model: wektorów preferujących stałą długość dzięki potencjałowi typu Higgsa ... daje prawie wszytko (Faber): skwantowanie i zachowanie ładunku, masę spoczynkową: zarówno inercyjną (w F=am) jak i uwalnianą podczas anihilacji, praktycznie całe STW ... oddziaływania daleko-zasięgowe typu Coulomba ... + STW -> równania Maxwella ... też szum stopni oddziaływania słabego/silnego dla ciemnej energii/materii ... Proszę sprecyzuj miejsce/problem w powyższym rozumowaniu? -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Przecież podałem - 2 listopada 2016 - Veritasium - jest 1.4 miliona odwiedzin i szybko rośnie: 30 listopad - PBS - 350k odwiedzin: Wracamy do pytania o trajektorie cząstek (też elektronów) ... więc może też ich strukturę (jak pola EM się sklejają w centrum). Jak ktoś chce się pobawić w Mathematice, tutaj w ODEs na dole jest swobonego spadku, w PDEs jest sine-Gordon: https://www.dropbox.com/sh/qjhpvsxtvvk4lan/AADkPQTUairrvbIoPYqpA_9Ra?dl=0 Dowiedziałem się o Couderze bodajże w 2010 z książki którą dostałem od grupy z Lisbony ... pod koniec tamtego roku odwiedziłem prof. Fabera w Wiedniu, na chwilę wpadł Gerhard Grossing (główny organizator EmQM) - powiedziałem mu o Couderze ... i w 2011 na pierwszym EmQM Couder miał wykład otwierający konferencję. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Nie ta konferencja - aula była pełna praktycznie od pierwszego do ostatniego wykładu. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Szukają ... ale to bardziej jest kwantowa filozofia niż fizyka - byłem na dwóch konferencjach EmergentQM - można sobie posłuchać referatów: http://www.emqm13.org/abstracts/ http://www.emqm15.org/presentations/speaker-presentations/ Zdarza się pytanie o trajektorię cząstki w double-slit od strony dBB ... ale analogiczne dużo ważniejsze: o ukrytą dynamikę elektronu za kwantową chmurą prawdopodobieństwa powiedzmy wodoru ... praktycznie cisza - chyba jedynie kwantyzacja trajektorii dla kropelek Coudera. Drugie podstawowe brakujące: o sklejenie pól EM wewnątrz elektronu - praktycznie tylko prof. Faber z solitonami topologicznym rządzonymi przez równania Maxwella. Nie widzę powodu żeby się poddawać - są konkretne koncepcje, przybliżenia pozwalające ruszyć te sprzeczności, zakazane pytania ... jest rozwój technik dochodzący do rozdzielczości subatomowych oraz tzw. "słabych pomiarów" ... w końcu rośnie ruch społeczny powrotu do tych pytań, szukania zrozumienia, np. dzięki kropelkom Coudera z milionami odwiedzin ... rewolucja jest kwestią czasu. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
To nie jest kwestia że się nie starają czy nie wierzą w to co robią ... problem w tym że są zafiksowani przez system - w inercji mainstreamu ... bardzo trudno się przestawić w fizyce, szczególnie gdy już mają rodziny do wykarmienia z owych grantów. Co do wyboru podejść, mam jakąś ogólną podstawową wizję ale w żadnym razie nie mam pewności do konkretnych modeli, szczególnie będących przybliżeniami jak te które wymieniłeś - tylko mówię że należy przestać ignorować wewnętrzne sprzeczności, zakazane podstawowe pytania jak o sklejenie pól EM w centrum elektronu, satysfakcję z "shut up and caluclate" i "jeśli myślisz że rozumiesz QM to znaczy że nie rozumiesz QM" ... żeby się nie poddawać tylko dalej szukać. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
To nie jest kwestia inteligencji tylko przymusu i inercji - chcesz zostać w nauce, najpierw zatrudniasz się u kogoś kto ma grant i robisz co ci każe, przy okazji uczysz się pisać podobne publikacje i granty - oceniane przez recenzentów którzy pochodzą z tego samego samo-stabilizującego się środowiska ... którzy chcą żeby ich prace były cytowane, ich dziedzina rosła w siłę - jest im na rękę utrzymanie statusu quo, rewolucja może oznaczać przesunięcie reflektorów z ich działki. Przykładowo, środowisko teorii informacji jest w dużej mierze zbudowana na pokoleniu z dziesiątkami prac o kodach prefiksowych, kodowaniu Huffmana ... ANS obecnie je wypiera u praktyków jak Apple, Facebook, Google ... natomiast ludziom z akademii bardziej jest na rękę udawać że temat nie istnieje - że ich prace nie odchodzą do lamusa. Publikacja nieobserwacji to jest akurat coś pozytywnego - dużym problemem w naukach przyrodniczych jest bias publikacyjny: dużo łatwiej opublikować i nagłośnić badania w których wyszło że np. dany lek działa ... https://en.wikipedia.org/wiki/Publication_bias -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Ok, może nie jesteśmy w stanie dojść do ostatecznych równań fizyki ... ale czy to znaczy że mamy się w tym momencie poddać - rozłożyć na leżaczkach usatysfakcjonowani "zrozumieniem" jak kreacjoniści? Jest wiele podstawowych pytań, sprzeczności które mainstream po prostu ignoruje - jak to sklejenie pól EM w centrum elektronu. Dopóki są takie wyraźne kierunki dalszego działania, wierzę że należy szukać - w sercu jestem też fizykiem i czuję się odpowiedzialny za pomoc w wyciągnięciu jej z obecnego bagna wewnętrznych sprzeczności i ignorancji, bycia usatysfakcjonowanym "shut up and calculate". Kończyłem m.in. doktorat na fizyce UJ, znam dobrze to środowisko, dalej mam z nim styczność: ludzie którzy całe życie walczą o granty, które żeby dostać muszą się ładnie wpasować w aktualną modę w mainstreamie. Zwykle całe życie propagują wąską działkę w której się wyspecjalizowali podczas np. doktoratu. W związku z tym wiem że nie mógłbym oficjalnie pracować jako fizyk, ale jako uznany informatyk (m.in. cały świat zaczyna zapisywać informację moim kodowaniem: https://en.wikipedia.org/wiki/Asymmetric_Numeral_Systems ), mogę sobie pozwolić na poświęcenie wolnego czasu fizyce. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Może jest pewien rozwój matematyki ... do której nikt nie zajrzy poza teoriostrunowcami. Najgorsze jest jednak to że wykupują tymi grantami młodych zdolnych fizyków, którzy mogliby robić coś bardziej wartościowego. Ładunek elementarny jest bardzo zlokalizowany, ale jednak nie idealnie punktowy - inaczej miałby nieskończona energię. Elektron jako cząstka ma dodatkowo też falową naturę - falę "pilotującą" sprzężoną z tą centralną korpuskułą, wytworzoną przez jakiś jej wewnętrzny proces periodyczny (tzw. zegar de Broglie, zitterbewegung - przykładowe potwierdzenie eksperymentalne: http://link.springer.com/article/10.1007/s10701-008-9225-1 ) - ta sprzężona fala prowadzi m.in. do interferencji czy kwantyzacji orbit, analogicznie do kropelek Coudera: -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Teoria strun jest świetnym przykładem jak w praktyce działa nauka - nie ważne że nie ma sensu, do niczego nie prowadzi (czy cokolwiek odtwarza jak chociaż EM?) i wymaga niewyobrażanie kontrowersyjnych dodatkowych wymiarów ... ważne że można z tego wyprodukować tysiące publikacji, doktoratów, karier ... sprzedawać publice ekscytujące bajki o kosmicznej filharmonii ... i dostawać za to miliardy w grantach. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Bardzo dużo wiemy o kluczowych polach: EM. Równania Maxwella wynikłe z tej mechaniki Lagranżowskiej mają jednak pewne słabości: dają punktowy ładunek z nieskończoną energią i pozwalają na dowolny rzeczywisty ładunek, a powinien być całkowitą wielokrotnością elementarnego (lub e/3). Kwestia rozszerzenia tych pól żeby naprawić te słabości: dokładnie tędy idą solitonowe modele cząstek - kwantyzacja wychodzi z użycia ładunku topologicznego który jest matematycznie skwantowany, uniknięcie nieskończoności z użycia potencjału typu Higgsa (jak (||v||^2-1)^2), który jest aktywowany w pobliżu cząstki (słabe/silne oddziaływania) w celu uniknięcia nieciągłości. Polecam zacząć od 1+1D modelu sine-Gordona: niezwykle prosty (sprzężone wahadła, psi_tt = psi_xx - sin(psi)) ... a już ma kwantowanie ładunku, uwięzienie energii w masie spoczynkowej, transformowanej jak w STW, uwalnianej podczas anihilacji, jest też skrócenie Lorenza i dylatacja czasu ... no i naturalny kandydat na ciemną energię/materię (drobne termiczne fluktuacje). Brakuje oddziaływań dalekozasięgowych, które dostajemy w 2D: np. dla przeciwnych ładunków topologicznych, czym są dalej tym większe naprężenie pola (obrazek): dostając siłę 1/r w 2D i Coulomba 1/r^2 w 3D. https://dl.dropboxusercontent.com/u/12405967/soliton.pdf Niestety punktowość cząstek, podobnie jak inne abstrakcje i przybliżenia fizyki, w praktyce jest traktowana jako fundamentalna własność natury i nawet nie podyskutujesz o tym z mainstreamowym fizykiem. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Przecież właśnie podałem Ci przykład - przy wysokoenergetycznych zderzeniach stała sprzężenie EM maleje (w stronę hipotetycznej unifikacji) - innymi słowy efektywny ładunek maleje. Jeśli chcemy skończonej energii dla ładunku (z eksperymentu mamy górne ograniczenie energetyczne ładunku na 511keV), efektywny musi maleć do zera w jego centrum - co naturalnie wychodzi w modelach solitonowych (razem z kwantyzacją ładunku). W ukochanym fizykom perturbacyjnym (przybliżeniu) QFT, matematycznie potrafimy operować tylko na punktowych bytach - jak zwykle mainstream bezkrytycznie przenosi ten artefakt efektywnego modelu (przybliżenia) na fundamentalną własność natury (i nie ma dyskusji!) ... podczas gdy sam QFT wymaga m.in. cutoff w ultrafiolecie żeby dać coś sensownego (skończonego) - co oznacza górne ograniczenie na częstotliwość czyli dolne ograniczenie na odległość (promień cząstek). Dodatkowo, szeregi QFT nie są zbieżne: po 4-5 rzędzie wszystko zaczyna się rozsypywać - czyli że nie wolno wpakować zbyt wiele zdarzeń do jednego scenariusza (diagramu Feynmana) ... podczas gdy idealne punkty nie miałyby takiego ograniczenia (ani rozbieżności u ultrafiolecie). "Najśmieszniejsze" jest jednak to, że podczas gdy mainstream bezkrytycznie upiera się przy idealnie punktowym elektronie ... gdy ten punktowy niepodzielny ładunek elementarny zbliży się do protonu ... nagle puuuuchnie do gigantycznej kwantowej chmury prawdopodobieństwa np. wodoru ... i znowu twierdzą że to jest fundamentalna własność natury - znowu bezkrytycznie przenosząc własność efektywnego modelu (..prawdopodobieństwa..) Mainstream zawiera tyle koszmarnych wewnętrznych sprzeczności, ignorowania problemów, "shut up and calculate" ... tutaj nie chodzi o jakąś konkretną "fajną teorię nr 173", tylko o to żeby w końcu powrócić do zakazanych podstawowych pytań jak konfiguracja pól (głównie EM) za elektronem ... zacząć naprawiać bagno współczesnej fizyki. Elektron jest m.in. ładunkiem elektrycznym i dipolem magnetycznym - daje to bardzo nietrywialną konfigurację pola elektrycznego (~1/r^2) i magnetycznego (~1/r^3) ... pytanie jak one dokładnie się sklejają w r = 0 żeby uniknąć nieskończonej energii? Bezmasowe fluktuacje pól (jak w sine-Gordonie) odpowiedzialnych za pozostałe oddziaływania (słabe,silne, graw) powinny być stermalizowane z 2.7K szumem EM i idealnie pasują do tego co interpretują jako ciemna energią/materia. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
To może chociaż masz jakiś konkretny argument przeciwko pytaniu o konfigurację pól (głównie EM) za elektronem? Ta konfiguracja pola/pól powinna utrzymywać kształt czyli formalnie być solitonem. Z moich doświadczeń, też rozmów z prof. Faberem, jedyny kontrargument mainstreamu to że elektron jest punktowy i basta ... nieważne że to nie ma sensu (nieskończona energia). Inny argument przeciwko idealnie punktowemu ładunkowi elektronu to running coupling: stała sprzężenia EM maleje z 1/137 przy wysokoenergetycznych zderzeniach - innymi słowy: bardzo zbliżając dwa ładunki elementarne, ich efektywny ładunek maleje. -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Modny to był model Skyrmego, który wprowadzał specjalne pole np. mezonowe żeby modelować mezony ... Długo mogę mówić dlaczego to było złe podejście ... ogólnie tutaj tylko pytamy się o strukturę pól głównie EM za cząstkami - absolutnie podstawowe pytanie ... a jednak zabronione w obecnym mainstreamie. Bardzo będę Ci wdzięczny jeśli znajdziesz lukę w modelu Fabera lub moim (praca i slajdy powyżej). -
Nowe badania podważają dotychczasową wiedzę o ciemnej materii
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Problem w tym że nie tylko odpowiadają "nie wiem", ale że usatysfakcjonowani ze swojej niewiedzy ... mainstream nawet nie próbuje naprawiać np. nieskończonej energii punktowego ładunku, fizyk nie ma szans na uzyskanie grantu o tym problemie ... od razu rozwiązywanym w modelach solitonowych.