Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1707
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    87

Zawartość dodana przez Jarek Duda

  1. Niestety Nauka to nie jest tylko idealistyczne szukanie prawdy, ale jednak niezwykle skomplikowane zjawisko społeczne ... No i na przykład ciemną energię uparcie próbują wepchać w 'największą pomyłkę Einsteina' - czyli stałą kosmologiczną: coś jakby oczekiwaną krzywiznę czasoprzestrzeni ... Podczas gdy to nie może być ostateczna odpowiedź - OTW jest teorią makroskopową: uśrednia - jest teorią efektywną ... czyli jeśli chcielibyśmy ją kiedyś połączyć z mikroskopową, musimy też znaleźć tam konkretny odpowiednik dla tej stałej kosmologicznej ... A co do 'ciemnej materii' ... mamy kolejne próby poszukiwań nowych cząstek MONDów itd które nic nie znajdują ... może coś podobnego powinno powstawać w zderzaczach ... poza tym jednak powinna mieć niezerową lepkość (zapadać się grawitacyjnie), oddziaływać/akumulować się w centrach gwiazd ... ... więc może to jednak nie cząstki, tylko coś naturalnego dla każdego rodzaju pól - szum ... tyle że jest to wbrew standardowemu paradygmatowi ...
  2. Kreacja par nie odpowiada na takie pytanie - jest całkowicie naturalna np. w używanych powszechnie modelach solitonowych, jak na animacji anihilacji pary: http://en.wikipedia.org/wiki/Topological_defect którą jeśli puścimy od końca dostaniemy animację kreacji pary cząstek z energii. Są inne, dużo głębsze problemy z tym pytaniem - to że mamy więcej materii niż antymaterii. Czyli jeśli świat powstał z niczego, liczba barionowa wszechświata wzrosła - czyli nie jest zachowana - czyli musimy dopuścić np. rozpad protonu (co wiąże się z tym że np. zanim gwiazda neutronowa zapadłaby do nieskończonej gęstości, powinna zacząć spalać swoje bariony ... ) Jeśli już pozwolimy na to, kolejnym ponoć bardzo trudnym pytaniem jest: skąd ta asymetria? Jak dla mnie odpowiedź jest bardzo prosta: po prostu stacjonarny stan symetryczny był niestabilny - odpychający ... np. wystarczy dowolnie mały efekt typu że w pobliżu protonu bariogeneza tworzy odrobinę więcej protonów niż antyprotonów - no i z symetrii którą łamiemy (CPT), analogicznie w pobliżu anty-protonów powstaje odrobinę więcej anty-protonów niż protonów ... czyli gdy równowaga lekko (lokalnie?) przechyliła się w jedną: losowo wybraną stronę, dalej dzięki anihilacji już z górki było do pełnej dominacji tego typu materii ... Czyli coś jak: dlaczego mimo symetrii nasze życie używana L-aminokwasów? Po prostu stan równowagi jest niestabilny: czym więcej organizmów jednego typu, tym więcej ten typ organizmów ma materiału do budowy i balans się jeszcze bardziej przechyla ...
  3. Ja tam nie widzę problemu z tą odpychającą 'ciemną energią' ... Widzimy termiczny gaz fotonów: które zderzając się z obiektami przekazują im swój pęd, czyli powodują odpychanie ... mianowicie promieniowanie mikrofalowe tła (CMB) - 'malutkie fale' elektromagnetycznego szumu termicznego - dzięki zasadzie ekwipartycji energii, stopnie swobody pola EM wyrównują temperaturę, czyli średnią zawartą w nich energię - do 2.725K - co wg. wikipedii sumuje się do 6*10^-5 oczekiwanej energii wszechświata ... Mało? No ale mamy przecież więcej oddziaływań i odpowiadających im pól - grawitacyjne, słabe, silne - które jest dużo trudniej bezpośrednio obserwować ... ale w pewien bardzo słaby sposób te pola oddziaływają jednak między sobą, czyli przez okres życia wszechświata część ich stopni swobody też powinno wyrównać temperaturę, np. do tych 2.725K - może dając wymaganą 'ciemną energię'... Niektóre stopnie swobody mogą wymagać aktywnych regionów do stermalizowania, tak że dzieje się to tylko w pobliżu galaktyk - zwiększając ich masę w postaci halo np. dla soczewkowania grawitacyjnego - czyli zachowując się dokładnie jak to czego oczekują od 'ciemnej materii' ... Szukają jakichś egzotycznych wyjaśnień, cząstek .. a zupełnie nie widziałem żeby chociaż próbowali rozważać proste i wręcz oczekiwane wyjaśnienie - że te wszystkie 'ciemne byty' to po prostu szum termiczny ...
  4. A mi tam pomysł się podoba - jak już zgromadził energię w postaci ciśnienia gazu, to kontrolując kilka dysz może łatwo jej użyć do precyzyjnego odbicia, lotu, jak i miękkiego lądowania w precyzyjnie wybranym punkcie - jest to dość krótkie zdarzenie, więc chyba można to robić tak żeby praktycznie pominąć np. niekorzystne zjawiska atmosferyczne ... Dzięki temu ma dużo większą mobilność - po prostu wybiera punkt docelowy zamiast męczyć się z trudnym terenem, poza tym jeśli chodzi o awaryjność też wydaje się lepszym rozwiązaniem - części mechanicznych jest mniej i są dużo lepiej ukryte ...
  5. Z sieciami neuronowymi ma to bardzo niewielki związek, ale mimo wszystko większy niż z chaosem - w którym interesuje nas zachowanie podczas ewolucji: przy wielu iteracjach ... podczas gdy tutaj korzystamy z jednej iteracji odwzorowania logistycznego - tylko z tego że np. wartości 4x(1-x) pokrywają w sposób nieliniowy cały przedział (można by chyba też użyć np. linowego (2x modulo 1) ... http://en.wikipedia.org/wiki/Chaos_computing Czyli że możemy robić takie FPGA nie tylko sterowane w standardowy: zerojedynkowo linowy sposób, ale także w ładniej marketingowo brzmiący: wykorzystujący nieliniowość - bardziej skomplikowaną operację i dużo większe wejścia sterujące (żeby to miało choć odrobinę sensu, pewnie jednak robione analogowo). Nieliniowości rzeczywiście może poprawić bezpieczeństwo, w sensie że umożliwia lepszą kryptografię niż opartą na linowych operacjach - ale od tej lokalnej: na poziomie bramek, dużo lepsza powinna być makroskopowa (... jak w asymetrycznych systemach liczbowych) ... a na prawdziwy skok w FPGA to musimy poczekać do memrystorów ... ps. W artykule z wikipedii wszystkie bramki muszą być symetryczne, ale chyba można to obejść dla np. implikacji poprzez przypisanie różnych wag wejściom.
  6. Oj z nazywaniem czegoś czarną dziurą należy bardzo uważać, szczególnie że np. ostatnio potwierdzono gwiazdę neutronową o masie 2 mas słońca - czyli znacznie powyżej granicy Chandrasekhara (1.43) od której wg standardowych teorii powinna się zapaść do czarnej dziury ... http://physicsworld.com/cws/article/news/44209 SN 1979C została tak zaklasyfikowana na podstawie obserwacji promieniowania X, podczas gdy tak na prawdę standardowe teorie nie bardzo sobie radzą z wytłumaczeniem gamma burstów ... Tak silne źródło energii można też wytłumaczyć na przykład uwzględniając rozpad protonów (a więc i neutronów): - ta hipotetyczna reakcja jest niezbędna w wielu teoriach cząstek (np. supersymetrycznych), - takie łamanie zachowania liczby barionowej jest raczej konieczne żeby w wielkim wybuchu mogło powstać więcej materii niż antymaterii, - w teoriach czarnych dziur rozważa się promieniowanie Hawkinga, które ponoć musi być w postaci cząstek bezmasowych - czyli znowu zachowanie liczby barionowej raczej musi być łamane. Uwzględniając taką reakcję - 'bezpiecznik' natury przed tworzeniem nieskończonej gęstości, neutrony/protony mogłyby być niszczone nie już po utworzeniu osobliwości (jak dla promieniowania Hawkinga), ale raczej tuż przed osiągnięciem nieskończonej gęstości masy/enegii - właśnie żeby mu zapobiec ... produkując olbrzymie ilości energii - np. dla gamma burstów czy promieniowania kosmicznego powyżej granicy GZK ...
  7. Bardzo ważna wiadomość - pewnie jest przesadzona (goście zapewnili sobie sławę rosnącą z nieuniknionym rozwojem przemysłu kosmicznego), lobbyści nazwą takie zagrożenie paranoją ... ale jest to też bardzo ważny powód żeby np. rozwijać silniki na ciekły wodór jak SABRE ... http://en.wikipedia.org/wiki/Reaction_Engines_SABRE Fajnie gdyby na ciekłym wodorze oparto też zwykłe silniki turboodrzutowe(i inne), ale może to być uważane za zbyt niebezpieczne do tak powszechnych zastosowań cywilnych...
  8. Niewątpliwie skoro zgadnięte równanie Diraca nie pozwala uwzględnić masy, należy w tym celu wprowadzić dodatkowe wymiary ... i dostajemy kolejny scenariusz do startreka ... podczas gdy solitony są naturalnymi konstrukcjami które mają masę (energię spoczynkową), rozważa się tego modele mezonów, barionów (skyrmiony), widzimy je w optyce, na fluxonach (kwantach pola magnetycznego) w nadprzewodnikach planuje się robić komputery kwantowe - zachowują się jak cząstki 'kwantowe', zachodzi dla nich interferencja ( http://www.rle.mit.edu/media/pr150/44.pdf ) ... Tu jest fajna animacja jak anihiluje najprostszy soliton z antysolitonem i zgromadzona w nich energia spoczynkowa (masa) uwalniana jest w postaci nietopologicznych wzbudzeń (tzw. fotonów): http://en.wikipedia.org/wiki/Topological_defect Niestety takie rozważania są zbyt mało ekscytujące dla rządnych wrażeń mistyków kwantowych ...
  9. Coś słyszałem o tym Długim Marszu 3B ... ano właśnie "(...) On February 14, 1996, a similar failure during the launch of Intelsat 708 a top the Long March 3B rocket resulted in an estimated 500 casualties. The rocket veered severely off course right after clearing the launch tower and landed in a rural village (...)" http://en.wikipedia.org/wiki/Long_March_%28rocket_family%29 Gdzieś czytałem że żeby zrobić tam miejsce na Expo, ot tak przeniosion m.in. ze 270 fabryk ... podsumowując - nie wątpię że dolecą ...
  10. Przepraszam za znowu skrót myślowy - testy pierwszości są podstawą RSA w sensie generacji kluczy. AKS w najlepszej implementacji ma ponoć złożoność 'długość liczby'^6, co przy kluczach 1024 bitowych staje się całkiem sporo. Natomiast elementy tej słynnej rodziny problemów NP-zupełnych już same są powiązane transformacją wielomianową - czyli rozwiązywanie 3SAT w czasie wielomianowym, oznaczałoby że dla rozwiązywania jakichś praktycznych problemów mamy algorytm o złożoności będącej wielomianem znacznie wyższego stopnia. W praktyce zwykle nie potrzebujemy takiego superoptymalnego rozwiązania (np. TSP) i algorytmy zachłanne czy probabilistyczne są zdecydowanie wystarczające. 'Cudownym' zastosowaniem o którym się mówi, to np. generacja dowodów twierdzeń - "znajdź ciąg implikacji, który prowadzi z aksjomatów do twierdzenia" - ale tu złożoność dalej będzie kosmiczna ... podobnie zresztą z łamaniem symetrycznych kryptosystemów - "znajdź klucz, którym dekodując, wynik ma korelacje" ... jeszcze rzeczywiście jest faktoryzacja, ale to trochę jednak inny, wydaje się że prostszy (np. Shor) problem - dlatego ogólnie uważam że używanie wszędzie RSA to kompletna nieodpowiedzialność, szczególnie że mamy dużo bardziej nieprzewidywalne - oparte na krzywych eliptycznych ... Poza tym jest jeszcze wiele nieprzebadanych podejść w jakie można zaprzęgnąć fizykę (nie tylko QC i DNAcomp) i wcale bym się nie zdziwił, gdyby się okazało że pozwala ona nie tylko na wielomianowe, ale nawet praktyczne rozwiązywanie trudnych problemów ...
  11. Przepraszam, nie zauważyłem odpowiedzi ... Owszem - transformacja którą proponuję (z tego co szukałem, wcześniejsze wymagały dodatkowo olbrzymiej ilości więzów http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.122.726&rep=rep1&type=pdf ), dalej jest algorytmem. Dlatego pisałem 'klasa algorytmów' - bo mam wrażenie że dla większości informatyków tego typu problemy można atakować tylko kombinatorycznie - rozważając przestrzeń konkretnych zerojedynkowych wartościowań zmiennych - i tak wyglądały chyba wszelkie ataki na P!=NP jakie widziałem. Transformacja na problem ciągły powoduje że zaczynamy pracować dosłownie pomiędzy tymi wartościowaniami - jasne, w praktyce mamy dostęp 'tylko' do przeliczalnej ilości z nich, jednak próby panowania na pokryciu tego zbioru pod atak na P!=NP wydają się być jakościowo znacznie trudniejsze niż przy dyskretnym obrazie (może nie są?) ... poza tym w porównaniu z dyskretnym, dochodzi przede wszystkim wyglądające bardzo potężne narzędzie jakim jest gradient ... A co do "Gdyby P=NP, to niby co przewróciłoby się do góry nogami?" to na przykład mamy AKS od jakichś 8 lat ... a (mimo że test pierwszości jest podstawą RSA) z tego co wiem dalej nie opłaca się go używać ... Szczerze to chyba jedyne co taki ewentualny dowód by zmienił to zawalenie systematyki informatyków ... Natomiast z rozwiązywaniem niezwykle złożonych problemów doskonale radzi sobie fizyka ... i może pozwala na jeszcze inne 'nietypowe' sposoby jej wykorzystania niż komputery kwantowe, np. http://www.electro-tech-online.com/electronic-projects-design-ideas-reviews/86973-continious-time-loop-computer.html
  12. Odnośnie 'identycznych fotonów' - żeby zobaczyć że sytuacja nie jest prosta, warto się przyglądnąć http://en.wikipedia.org/wiki/Hanbury_Brown_and_Twiss_effect
  13. Jak najbardziej chodzi o koszty ... a kształty są jakie są nie żeby wyglądało, tylko ze względu na efektywność - rakiety lecą praktycznie pionowo w górę, podczas gdy ten Skylon nabiera wysokości podobnie jak myśliwiec ... Rzeczywiście te nowe silniki hybrydowe wyglądają bardzo obiecująco: http://en.wikipedia.org/wiki/Reaction_Engines_SABRE ... ale ta 2-3 stopniowość w konwencjonalnych podejściach była też po to żeby zwiększyć 'payload fraction' ( http://en.wikipedia.org/wiki/Payload_fraction ) ... jak widzę w planach sprzed 6 lat ( http://www.reactionengines.co.uk/downloads/JBIS_v57_22-32.pdf ), Skylon ma zabierać 12 ton ważąc 275 - przez tą jednostopniowość nie wygląda już tak rewelacyjnie ... ale możnaby to poprawić nadając mu początkową prędkość ... czas pokaże ...
  14. taaa ... powinni więc wzorować się na starwarsach, w których myśliwiec ot tak wylatuje sobie z planety ... ;P Wydaje się prosta sprawa - żeby wynieść kilogram z pola grawitacyjnego Ziemi niby wystarczy kilkanaście kWh energii ... podczas gdy w praktyce kosztuje to dziesiątki tysięcy dolarów ... Główny problem w tym że rakieta musi też wynosić swoje paliwo - dlatego właściwy ładunek to tylko pewien drobny procent jej masy ... czyli możliwość zapłacenia za pierwsze kilka kWh zwykłym prądem jaką daje taka szyna, dodatkowo poprawia proporcje wagi - szczególnie że zbliża też do minimalne prędkości potrzebnej dla scramjetów, które są znacznie bardziej wydajne niż napęd rakietowy (wyrzuca cząstki paliwa z większą prędkością). Za ostateczne rozwinięcie tej koncepcji można uznać windę kosmiczną - kosmiczna ilość 'ograniczeń i kosztownych zabiegów techniczno-kontrolnych' ... ale za to za wynoszenie możemy płacić praktycznie tylko tanim prądem.
  15. Na pierwszy rzut oka wydaje się że zysk jest niewielki: energia kinetyczna przy 1 Machu jest 100 razy mniejsza niż przy 10 ... Dlatego warto wspomnieć o pewnym istotnym problemie z silnikami typu ramjet/scramjet - ze względu na aerodynamikę, takie silniki zaczynają mieć rację bytu dopiero przy prędkościach rzędu 4-6 Machów: http://en.wikipedia.org/wiki/File:Specific-impulse-kk-20090105.png ... czyli dalej taki pojazd raczej wciąż potrzebuje napędu rakietowego, który dostarczy zdecydowaną większość energii ... ale ogólnie fajny pomysł z wyniesieniem działa elektromagnetycznego na powierzchnię - dzięki temu można sobie pozwolić na większą długość, a więc i bardziej znośne przyspieszenia ... a może z czasem umieścić w rurze próżniowej na stoku góry dla osiągnięcia większej startowej energii grawitacyjnej i kinetycznej ...
  16. Chciałem sprostować i się rozpisałem, bo z jednej strony co chwilę jest o solitonach nius, a z drugiej takie 'klasyczne' obiekty topologiczne to jest temat dalej dość egzotyczny ... sory Artykuł mówi o prostych osobliwościach, a skyrmiony w normalnej nomenklaturze to obiekty dość skomplikowane: http://en.wikipedia.org/wiki/Skyrmion
  17. Straszne zamieszanie z tymi nazwami, ale skyrmion to raczej osobliwość punktowa - typu ładunku - wszystkie strzałki skierowane w punkt w 3D. Osobliwość z obrazka z physorg jest 2D: typu spinu, jak kwanty pola magnetycznego w nadprzewodnikach ('fluxony' ) - w stylu tornada: na każdej płaszczyźnie prostopadłej do krzywej, robiąc pętlę dookoła osobliwości, pole robi pewną całkowitą/ułamkową ilość 'obrotów': http://demonstrations.wolfram.com/SeparationOfTopologicalSingularities/ Ogólnie w fizyce tego typu struktury nazywamy solitonami - zlokalizowane, mające pewną energię spoczynkową (masę), którą mogą uwolnić anihilując z odpowiednim antysolitonem. W matematyce tego typu zachowanie pola nazywamy osobliwością topologiczną i naturalnie na poziomie topologii dostajemy różne prawa zachowania: jak ilość obrotów pola wzdłuż zamkniętej krzywej odpowiada ilości osobliwości wewnątrz (linii pola magnetycznego), ilość pola wychodzącego z zamkniętej powierzchni odpowiada ilość punktowych osobliwości wewnątrz (prawo Gaussa) ... Podobieństw z cząstkami jest znacznie więcej - wracając do skyrmionów, modelują one dobrze pojedyncze cząstki, więc może należy próbować solitonami modelować wszystkie? ... niestety z pewnych socjalnych powodów taka filozofia zlokalizowanych cząstek jest sprzeczna z ogólnie obowiązującym ortodoksyjnym spojrzeniem na mechanikę kwantową, które wręcz zakazuje wyobrażanie sobie jakiejś dynamiki za funkcją falową i kolapsem ... podczas gdy na takich makroskopowych fluxonach w nadprzewodniku już planuje się komputery kwantowe: http://www.rle.mit.edu/media/pr150/44.pdf
  18. Różnego rodzaju procesy fizyczne jak absorpcje na poziomie fizyki atomowej a więc i pewnie jądrowej, wymagają pewnego rezonansu - czyli nie czym większa energia tym lepiej, tylko czym energia bliżej pewnego zbioru wartości (częstotliwości rezonansowych) tym lepiej. Poza tym tych innych neutrin jest jednak trochę mniej ... Jeśli ktoś jest zainteresowany tematem, to tutaj jest kilkaset postów na ten temat: http://wattsupwiththat.com/2010/08/23/teleconnected-solar-flares-to-earthly-radioactive-decay/ Na przykład dowiedziałem się że ze 2 lata temu to było w niusach: np. http://physicsworld.com/cws/article/news/36108 , http://www.astroengine.com/?p=1189 Potem była krytyczna odpowiedź: http://donuts.berkeley.edu/papers/EarthSun.pdf Do której odnosi się ta nowa praca wyglądających poważnie 9 autorów ( http://arxiv.org/abs/1006.4848 ): "Norman et al. [7] have reexamined data from several studies of nuclear decay rates and found no evidence for a correlation with Sun-Earth distance. However, our collaboration has recently re-analyzed Norman’s data, which Norman and his collaborators generously provided, and we have detected an annual periodicity with a small amplitude but the same phase as that found in the BNL and PTB datasets.", która ponoć już została zaakceptowana przez redaktorów Astroparticle Physics (34 (2010) 121-127).
  19. Webby, sytuacja jest bardzo skomplikowana: przekrój czynny dla neutrin jest kosmicznie mały, to znaczy że muszą idealnie wstrzelić się ze swoimi parametrami: zarówno uderzyć w dobry punkt pod odpowiednim kątem ... ale i pewnie mieć energię w pewnym wąskim przedziale charakterystycznym dla danego rozpadu. Dalej wewnętrzna dynamika słońca jest strasznie skomplikowana i neutrina o różnym (statystycznym) widmie energii mogą powstawać w różnych obszarach ... a powierzchnia pokazuje sytuację dość opóźnioną z bardzo skomplikowaną zależnością od tego co się dzieje w środku... Więc ogólnie myślę że różne izotopy mogą preferować różne energie neutrin, a więc i ich zależność od obserwowanej aktywności słońca może być bardzo różna ... podobnie z innych źródeł - fajnie żeby w końcu ruszyły na poważnie tego typu systematyczne badania, co może bardzo pomóc zrozumieć zarówno dynamikę gwiazd jak i fizykę jądrową... Co do śmiesznej hipotezy - generalnie jak najbardziej się zgadzam że intuicyjny dla nas kierunek ciągów przyczynowo->skutkowych jest tylko rezultatem tego że 'w tym kierunku powstaliśmy': poprzez wielki wybuch, powstanie Ziemi, ewolucję, embriogenezę, życie ... natomiast fizyka działa trochę inaczej: zachowuje symetrię CPT, pewnie jest rządzona przez jakąś deterministyczną mechanikę Lagrangianowską - żyjemy w czasoprzestrzeni, w której każdy punkt jest w równowadze ze swoim czterowymiarowym otoczeniem - nie ma powodu zakładać że związki przyczynowo-skutkowe zachodzą tylko w jednym kierunku czasowym, co dosłownie widzimy w doświadczeniu Wheelera ... ... czyli neutrina wyprodukowane przez słońce są połączone trajektorią w czasoprzestrzeni z ewentualnym celem - mamy czterowymiarową równowagę, którą rzeczywiście brak/zmiana ośrodka mógłby może jakoś zmodyfikować ... to by było niezłe: obserwować przyszłą kosmologię w zachowaniu słońca
  20. Podstawowe modele jądrowe to: - model kroplowy: traktujemy jądro jako kulkę/elipsoidę z pewną termodynamiką do której dodajemy kilka heurystycznych członów dofitowanych eksperymentalnie, - model powłokowy, w którym w analogii do fizyki atomowej szukamy pewnego kształtu studni potencjału, tak aby 'liczby magiczne' odpowiadały pełnym powłokom ... dobrze pokazuje on czym jest mechanika kwantowa: modelem w którym szukamy prostej reprezentacji dynamicznego stanu stacjonarnego, upraszczając pełną strukturę i dynamikę. W każdym razie w tych modelach nawet nie próbujemy szukać konkretnej struktury jądra, tylko zadowalamy się rozmytym termodynamicznym obrazem jak w teoriach macierzy losowych.
  21. @kretyn: Rozpad jest przejściem ze stanu wyżej energetycznego do niżej - czyli z perspektywy mechaniki kwantowej: kolapsem funkcji falowej, prawda? Ona mówi że jest to przejście z jednej gęstości prawdopodobieństwa do wybranej losowo jednej z nowych - natychmiastowy proces bez wewnętrznej dynamiki ... więc jak z tej perspektywy chcemy opisywać rozpad? A może jednak nie jest ona fundamentalna jak próbuje się nam wmawiać, a tylko praktyczną idealizacją - za kolapsem jednak jest pewna konkretna dynamika, która trwa pewien czas (zobacz http://kopalniawiedzy.pl/forum/index.php/topic,16057.msg66064.html ) Jak więc szukać takiej dynamiki? Zasada Heisenberga mówi że trudno ją bezpośrednio mierzyć, ale nie zakazuje próbować ją modelować - wyobrazić sobie co się dzieje za kurtyną, prawda? Żeby ją zobaczyć nie powinniśmy zaczynać od rozmytej mechaniki kwantowej, tylko jednak spróbować z drugiej strony: od klasycznych modeli solitonowych, a dopiero potem (ewentualnie) martwić się o kwantowanie - dobrze działają tego typu modele skyrmionowe pojedynczych mezonów, barionów ... W tym obrazie mamy coś jak fałdowanie białka - konkretny krajobraz energetyczny i jądro zwykle jest w jednym z głębszych lokalnych minimów. Jak się z niego wydostać? Skąd bierze tą energię do wyskoczenia z dołka? Powiesz tunelowanie - jasne używając probabilistycznych idealizacji jak mechanika kwantowa, możemy wzniośle powiedzieć że z cząstek wirtualnych z próżni (co prowadzi do nieskończonej jej tam gęstości etc...) .. jeśli jednak rzeczywiście chcemy zrozumieć tą dynamikę, nie możemy po prostu wypchać się w ten sposób, tylko jednak przydałoby się próbować zlokalizować jej źródło. Jedno to lokalne interakcje elektromagnetyczne, czyli po prostu chemia - i tu wchodzi rozkład Boltzmanna: mówi że bardzo rzadko udaje się spontanicznie zlokalizować dowolnie duże energie - o ile ta kolejna idealizacja dalej dobrze się zachowuje w jakościowo zupełnie różnej jądrowej skali energii, czasem udaje się w ten sposób stochastycznie 'rozbujać' jądro i wybić z tego minimum. Idealnym źródłem koniecznej energii są działające prawie jednorodnie na całą objętość Ziemi neutrina - oddziaływają bardzo rzadko, ale jest ich bardzo dużo, więc możemy zastosować twierdzenie Poissona dostając statystycznie znowu wykładniczy zanik niestabilnych jąder.
  22. Tak to bywa z praktycznymi idealizacjami powstałymi z braku pełnego obrazu ... które bezmyślnie propagowane są jako fundamentalna wiedza ... Tu jest kilka linków: http://www.symmetrymagazine.org/breaking/2010/08/23/the-strange-case-of-solar-flares-and-radioactive-elements/
  23. Owszem - wspomniałem też ten 'problem' ale jest chyba dość niewielki i dotyczy na prawdę starych próbek - trzeba po prostu przyglądnąć się dobrze modelom ewolucji słońca ... i może zastanowić się też nad wpływem promieniowania kosmicznego, szczególnie neutrin ... ale chyba jest zaniedbywany? Chociaż pewnie gdy Ziemia miała słabiej rozwiniętą atmosferę, jego wpływ mógł być większy ... narzuca się badanie przekroju składu izotopowego głębokich odwiertów ... Bardzo ważne pytanie - jak ta zależność 'słoneczna' wygląda dla różnych izotopów - ich minimum energetyczne wygląda pewnie trochę inaczej, ma różną głębokość, szerokość - takie porównanie może niedługo stać się wręcz podstawowym narzędziem fizyki jądrowej ...
  24. Niedawno się przypadkiem dowiedziałem o tych modelach swobodnego spadku - rzeczywiście niesłychanie ciekawa sprawa: z jednej strony są to podparte olbrzymią ilością publikacji w najlepszych czasopismach http://en.wikipedia.org/wiki/Free-fall_atomic_model przemyślane na nowo bezpośrednie konsekwencje po prostu prawa Coulomba i Lorentza, czyli coś wydawałoby się dużo bezpieczniejszego niż kontrowersyjna mechanika kwantowa której każdy ma inne rozumienie i po prawie stu latach ciągle powstają nowe interpretacje ... A tu dalej wszyscy dobrze znają model Bohra, nawet próbuje się go dostrzec w eksperymentach, często używa się promienia Bohra ... a o tych w końcu współczesnych, podpartych numeryką modelach, dla których w wielu zrecenzowanych pracach pokazane jest że działają dużo lepiej ... praktycznie nikt nawet nie słyszał, nie jestem w stanie znaleźć praktycznie żadnych konkretnych komentarzy ... ???? Mechanika kwantowa widzi elektrony w atomach jako ich rozmyte chmury prawdopodobieństwa - wydaje się że żeby ją w końcu zrozumieć dobrą drogą jest z jednej strony doprowadzenie do granic możliwości niekontrowersyjnego: klasycznego obrazu ... z drugiej może próbować wyostrzyć ten obraz - np. szukając konkretnych trajektorii których jest rezultatem ... i nie zadowalać się abstrakcyjnym obrazem kolapsu funkcji falowej tylko jednak spróbować szukać dynamiki która jest za nim, mimo że powszechne rozumienie mechaniki kwantowej na siłę próbuje negować w ogóle jej istnienie ... oj dziwne są dzieje fizyki współczesnej ???? http://kopalniawiedzy.pl/forum/index.php/topic,16057.msg66064.html Wracając do jądra - takie modele sugerowałyby trochę bardziej uporządkowaną przez synchronizację ale jednak dynamikę jądra ... pytanie czy poza niewielkimi fluktuacjami termodynamicznymi ona w ogóle musi istnieć? A może lepszą analogią jest jednak np. fałdowanie białek - mamy skomplikowany krajobraz energetyczny i jądro/białko przyjmuje prawie nieruchomą strukturę/kształt w jednym z niższych (lokalnych?) minimów energetycznych ... ?
  25. Drugi dzisiaj bardzo ważny nius z fizyki jądrowej i nie tylko! Jeśli jądra nie są rozmytymi, fluktuującymi bytami do czego chce wszystko sprowadzić mechanika kwantowa, tylko konkretnymi strukturami (jak sugeruje sąsiedni artykuł http://kopalniawiedzy.pl/jadro-atomowe-platyna-rezonans-elektrownia-atomowa-Paul-Koehler-Oak-Ridge-National-Laboratory-11198.html ) - strukturami w pewnym (lokalnym?) minimum energetycznym - żeby wybić z tego dołka np. w celu rozpadu promieniotwórczego, potrzebne jest całkiem sporo energii - kilka rzędów wielkości więcej niż normalnie występuje na poziomie chemii. Skąd ta energia? Niby rozkład Boltzmanna mówi że rzadko, ale czasem jednak z tej chemii może się spontanicznie skumulować dowolnie duża energia ... ale jest to jednak pewna idealizacja - tak na prawdę nie możemy chyba być pewni że ten rozkład dalej dobrze się zachowuje dla energii kilka rzędów wielkości wyższej niż średnia. Więc przydałoby się szukać innych źródeł takich energii... Kiedyś myślałem o po prostu promieniowaniu tła ( http://www.scienceforums.net/topic/40163-can-we-be-sure-that-decay-times-are-constant/ ) - niby mniejsze energie, ale jednak wydaje się mieć większą zdolność do fluktuacji niż chemia ... innym pomysłem to to że może coś pozostało z kaskad z wysokoenergetycznego promieniowania kosmicznego ... ale rzeczywiście wytłumaczenie używające neutrin (głównie) słonecznych wydaje się najsensowniejsze i przy okazji możliwe do zweryfikowania eksperymentalnie ... Jakie są dalsze konsekwencje? (oprócz konieczności przemyślenia np. wyników datowań, ale i modelów planetarnych ... kosmologicznych) Na przykład przypatrzmy się hipotetycznemu rozpadowi protonu - z jednej strony jest wymagany przez wiele współczesnych teorii cząstek (jak supersymetrie), z drugiej wydaje się konieczny żeby wytłumaczyć niezerową liczbę barionową naszego wszechświata ... a tu nie możemy go zaobserwować nawet w gigantycznych zbiornikach ... A może właśnie problemem jest to że tak gigantyczna energia potrzebna do wyrwania struktury protonu z bardzo głębokiej studni potencjału po prostu nie może spontanicznie powstać na poziomie chemii ani być dostarczona w neutrinach słonecznych ... Gdzie w takim razie go szukać? Może tylko w rzeczywiście ekstremalnych temperaturach jak jądro zapadającej się gwiazdy neutronowej ... taki rozpad wydawałby się być 'bezpiecznikiem natury' zapobiegającym dążeniu do nieskończonej gęstości materii - po prostu wcześniej zamieniłaby się w energię ... co też mogłoby pomóc w wytłumaczeniu obserwowanego promieniowania kosmicznego o energiach daleko poza skalą której mechanizm potrafimy obecnie wytłumaczyć ...
×
×
  • Dodaj nową pozycję...