Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Napisano (edytowane)

To nie moje pomysły, tylko centralne wymogi działających modeli fizyki: ogólnej teorii względności i QM/QFT np. w Modelu Standardowym.

Owszem dla większości osób są nieintuicyjne więc nie akceptują, stąd cała ta magia kwantowosci, shut up and calculate ... ale gdy zaakceptować działającą matematykę, znika magia i problemy - czas dla fizyki to dosłownie czwarty wymiar, niewiele się różniący od pozostałych trzech (znakiem w sygnaturze).

8XijSks.png

Edytowane przez Jarek Duda

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Jarek Duda napisał:

To nie moje pomysły, tylko centralne wymogi działających modeli fizyki: ogólnej teorii względności i QM/QFT np. w Modelu Standardowym.

Nie jestem pewien czy kolega dobrze rozumie moje zastrzeżenia - otóż różne sformułowania mechaniki kwantowej są równoważne.
Nie jest tak, że jeden opis jest bardziej fundamentalny i prawdziwy od drugiego, i to on jest tymi trybikami tożsamymi z ontologicznym istnieniem wszechświata, a do tego sprowadza się fiksacja kolegi na całkach po trajektoriach.
Matematyka służy nam jedynie do opisywania wszechświata, ale nie wyjaśni jego natury.
Zadaniem teorii fizycznej jest tworzenie matematycznych modeli predykcyjnych dla fizyków=obserwatorów=związanych stanów materii.

3 godziny temu, Jarek Duda napisał:

Owszem dla większości osób są nieintuicyjne więc nie akceptują, stąd cała ta magia kwantowosci, shut up and calculate

Jest dokładnie odwrotnie, to kolega nie akceptuje natury mechaniki kwantowej i stąd to dziwne poszukiwanie "głębszego zrozumienia", w stylu lupy umożliwiającej oglądanie klasycznego pola. Tymczasem teorie fizyczne nie opisują natury wszechświata, a jedynie jego refleksywne własności, czyli co wszechświat może wiedzieć o sobie samym.

To matematyczny model wiedzy wszechświata o sobie samym.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na poziomie QM są różne ludzkie filozofie/interpretacje ... ale to jest tylko przybliżenie bardziej fundamentalnego QFT np. Modelu Standardowego - w którym naturę opisuje czysta matematyka: Lagranżowska teoria pola, zespoły Feynmanowskie po ich 4D konfiguracjach (z ewolucją), w konkretnych scenariuszach dla przybliżenia perturbacyjnego.

Fundamentalnie CPT symetryczna: z bardzo podobnymi przeszłością i przyszłością - jest to łamane w drugiej zasadzie termodynamiki, ale jest ona własnością efektywną: rozwiązania a nie równań, jak fundamentalnie symetryczna powierzchnia jeziora, co jest łamane w rozwiązaniu np. wrzucając kamień.

Jeśli ktoś chce dojść dalej niż celebrowanie misterium shutupancalculate, pierwszy krok to zaakceptowanie tego co działa jak QFT.

OQw8AnW.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
46 minut temu, Jarek Duda napisał:

Na poziomie QM są różne ludzkie filozofie/interpretacje

To o czym mówię nie jest nawet "filozofią mechaniki kwantowej", ale filozofią każdej teorii fizycznej.
Teoria fizyczna to formalizm matematyczny oraz interpretacja fizyczna tego formalizmu, czyli połączenie formalizmu z wynikami pomiarów.

"Interpretacja kopenhaska mechaniki kwantowej" to wyjątkowo nieszczęśliwe sformułowanie za które już przepraszał jego twórca - Werner Heisenberg, gdyż przewidział że pojawią się niepełnosprytni próbujący wymyślać inne "interpretacje mechaniki kwantowej".

Jej esencją jest stwierdzenie, że kwadrat amplitudy to prawdopodobieństwo uzyskania określonego wyniku pomiaru.

59 minut temu, Jarek Duda napisał:

ale to jest tylko przybliżenie bardziej fundamentalnego QFT np. Modelu Standardowego - w którym naturę opisuje czysta matematyka

Najwyraźniej ma kolega złudzenie, że w formaliźmie Lagranżowskim jest jakaś prawdziwa wyidealizowana rzeczywistość, a to wciąż są amplitudy zdarzeń z dokładnie identyczną interpretacją fizyczną.

 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jest ogólne przekonanie społeczeństwa fizyków że do pełnego zrozumienia brakuje tylko unifikacji Modelu Standardowego z ogólną teorią względności - obie to Lagranżowskie teorie pola.

W QFT modelu standardowego nikt się nie pyta o interpretacje mechaniki kwantowej, tylko używa zespołów Feynmanowskich - 4D konfiguracji z ewolucją, ważonych exp(iS/hbar), gdzie S to działania: całka Lagrangianu po takiej konfiguracji.

W przeciwieństwie do filozoficznej QM, głębsza prawdziwa fizyka to QFT - czysta matematyka, nie ma interpretacji, tylko trzeba zaakceptować m.in. centralną symetrię CPT, co niestety dla wielu okazuje się zbyt trudne.

Potwierdzanie MS to głównie porównywanie eksperymentów np. w LHC z obliczeniami z macierzy rozpraszania: ustawiamy warunki brzegowe w przeszłości i przyszłości, na ich podstawie próbujemy zrekonstruować co się tam działo: https://en.wikipedia.org/wiki/S-matrix#Interaction_picture 

763b55ad68960d76971f4139d2d54163ff3122de

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, Jarek Duda napisał:

W QFT modelu standardowego nikt się nie pyta o interpretacje mechaniki kwantowej, tylko używa zespołów Feynmanowskich - 4D konfiguracji z ewolucją, ważonych exp(iS/hbar), gdzie S to działania: całka Lagrangianu po takiej konfiguracji.

Czyli "shutupandcalculate" na pełnej krzywej :P

7 godzin temu, Jarek Duda napisał:

W przeciwieństwie do filozoficznej QM, głębsza prawdziwa fizyka to QFT - czysta matematyka, nie ma interpretacji

Ma dokładnie analogiczną interpretację formalizmu, z kluczowym traktowaniem amplitud jako opisu prawdopodobieństw zdarzeń/procesów - w końcu to teoria kwantowa.
Formalizm który traci kontakt z rzeczywistością (aparaturą pomiarową) byłby bezużyteczny.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

W przeciwieństwie do QM, w QFT nie ma problematycznego pomiaru/kolapsu funkcji falowej - który wychodzi poza unitarną ewolucję QM, zamiast tego dogmatycznie postulując natychmiastowy magiczny błysk po którym wszystko się zmienia (prowadząc do problemów o których filozofom się nie śniło) ... a tu eksperyment mówi np. że jednak nie jest natychmiastowy, jak ~20as opóźnienie fotoemisji: https://www.science.org/doi/10.1126/science.1189401

W QFT nie ma magicznych błysków, jest tylko czysta matematyka - wszystko możemy zdekomponować na Feynmanowskie zespoły konfiguracji pól z ewolucją ... kwestia zaakceptowania że taka CPT symetryczna matematyka rządzi naturą dookoła i znika potrzeba magii ... jak dla ewolucjonisty tracącego potrzebę magicznej kreacji, zamiast tego poszukując ukrytej ewolucji.

QM też można tak naprawić - problematyczny pomiar/kolaps jest wynikiem oddziaływania z otoczeniem - wystarczy je uwzględnić np. przechodząc do funkcji falowej wszechświata i wracamy do unitarnej ewolucji - CPT symetrycznej: nie rozróżniającej przeszłości od przyszłości ... co z pychy robią ludzcy filozofowie - próbując narzucić fizyce swoje ludzkie intuicje, co doprowadziło do pomieszania nauki z celebrowaniem misterium.

Edytowane przez Jarek Duda

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 minut temu, Jarek Duda napisał:

W przeciwieństwie do QM, w QFT nie ma problematycznego pomiaru/kolapsu funkcji falowej - który wychodzi poza unitarną ewolucję QM

W mechanice kwantowej też go nie ma - na dwóch poziomach.
Po pierwsze skoki funkcji falowej nie są żadnym koncepcyjnym problemem, gdyż funkcja falowa nie jest rzeczywistością a jej subiektywnym opisem (jednym z nieskończoności możliwych).
Powtarzam kolejny raz, ale kolega nie chce zrozumieć, że jest to idealny odpowiednik probabilistycznego modelu danych który ulega zmianie po odczytaniu kolejnej porcji (niekoniecznie bitu - przyroda nie ma takich dyskretnych ograniczeń, choć dla spinów to de facto może być akurat bit) informacji.

Natomiast bawienie się w pomiary jest całkowicie opcjonalne - nikt koledze nie każe robić pomiarów.
Jeśli wydaje się koledze że ma cały kompletny układ fizyczny w głowie, to może sobie przeprowadzać unitarną ewolucję na funkcjach falowych aż do końca świata .
Unitarna ewolucja jest unitarna z powodów czysto logicznych - musi zachowywać informację.
W przypadku KFT nie modeluje kolega pomiarów.

17 godzin temu, Jarek Duda napisał:

ale jest ona własnością efektywną: rozwiązania a nie równań

Dokładnie tak samo jak specyficzne funkcje falowe dla konkretnych sytuacji fizycznych. Te rozwiązania są wiedzą opisującą świat.
Wciąż myli sobie kolega rzeczywistość fizyczną z jej opisem tego, co na jej temat wiemy.
Dlatego tak kolegę bolą skoki funkcji falowych, bo utożsamia je ze zmianami fizycznych obiektów.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
22 minutes ago, peceed said:

funkcja falowa nie jest rzeczywistością a jej subiektywnym opisem

Owszem praktyczna funkcja falowa to bardzo subiektywny nasz opis, zwykle pojedynczych elektronów - w ten sposób efektywnie uśredniając całą resztę wszechświata, co prowadzi do problematycznych magicznych błysków - kolapsów funkcji falowej ...

Pełne zrozumienie wymaga poszukiwania co tam się obiektywnie dzieje - jasne nie mamy wystarczająco pomiarów, więc pozostaje szukać spójnych modeli których dopiero konsekwencje zgadzają się z eksperymentami ... podobnie jak np. przy modelowaniu gwiazd.

I eksperymentalnie działa MS+OTW, szlifowane dokładnie w ten sposób: porównując przewidziane konsekwencje np. z wynikami zderzeń, sugerując bardziej fundamentalny i obiektywny opis - pozostaje je dogłębnie zrozumieć, zaakceptować ... i zadawać pytania tam gdzie jeszcze są luki, jak o szczegóły konfiguracji pól za diagramami Feynmana - np.:

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 minuty temu, Jarek Duda napisał:

opis, zwykle pojedynczych elektronów

Nie ma ograniczeń.

4 minuty temu, Jarek Duda napisał:

w ten sposób efektywnie uśredniając całą resztę wszechświata

To kolejny aspekt którego kolega nie rozumie. Każdy fizyczny obserwator ma skończoną wiedzę. Do kolapsów prowadzi zmiana tej wiedzy na skutek oddziaływania obserwatora z układem który modeluje swoją funkcją falową, a nie żadna "reszta wszechświata". Obserwator nie modeluje siebie, a kolapsy wynikają po prostu z... obserwacji.
 

11 minut temu, Jarek Duda napisał:

Pełne zrozumienie wymaga poszukiwania co tam się obiektywnie dzieje

No cóż, jedyny sposób do badania świata jaki mamy do dyspozycji to pomiary i nie jesteśmy w stanie zejść poniżej ograniczeń mechaniki kwantowej. Nie ma żadnej procedury która pozwoliłaby na to - bo nie zaobserwowano odstępstw od mechaniki kwantowej. Możemy jedynie tworzyć doskonalsze modele do reprezentacji wiedzy które odtwarzałyby obserwowane własności a nie naturę. Możemy szukać struktur matematycznych które nie "walczą" z mechaniką kwantową, a badają jej konsekwencje.
I w ten sposób działa teoria strun. Struna ma stałe naprężenie, i jedynym "powodem" dla którego nie zwija się do punktu i znika jest mechanika kwantowa i konsekwencje zasady nieoznaczoności: zwinięta do punktu struna robi się zdelokalizowana w przestrzeni pędów i jej energia wzrosłaby do nieskończoności. Dokładnie tak samo istnieje stan podstawowy w atomach. Nikt nie szuka na siłę kolejnych trybików dlaczego tak jest, tylko bada konsekwencje fundamentalnych zasad które odkryliśmy.

Haczyk leży w tym, że zawsze trzeba przyjąć pewne założenia i aksjomatykę których nie da się wytłumaczyć, a postulaty mechaniki kwantowej są ekstremalnie proste.
Kolejnym zjawiskiem o które rozbiją się próby kolegi w szukaniu podstawowych i jedynych słusznych struktur matematycznych jest uniwersalność.
Mamy klasę uniwersalnych maszyn obliczeniowych które są zupełnie równowa i ich detale nie mają znaczenia. Gorzej, żaden działający na nich program komputerowy nie jest w stanie stwierdzić, na jakiej maszynie tak naprawdę działa. Program może działać na emulatorze i nigdy tego nie odkryje (co do zasady).
Fizyka jest właśnie taką klasą równoważności. Mechanikę kwantową można zaksjomatyzować na różne sposoby i wciąż tak samo dobrze opisuje świat.

Problem z "pozbyciem się" teorii strun polega na tym, że bardzo ciężko wprowadzić coś jeszcze prostszego od strun.

Zastrzeżenia wobec teorii strun są dokładnie analogiczne do tego, jakby informatyk upierał się że nie da się zbudować "komputera z bitów", i chce wprowadzić znacznie bardziej skomplikowany model, a tak w ogóle to ta teoria nie tłumaczy dlaczego wciąż wyskakuje mu niebieski ekran i dlaczego komunikat na nim ma akurat taką postać jaką ma.

 

 

  • Lubię to (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podstawowym ograniczeniem QM jest stała ilość cząstek np. elektronów - QFT dodaje możliwość zmiennej ilości: przechodząc z zespołów Feynmanowskich po trajektoriach, na po scenariuszach: diagramach Feynmana.

Zespoły to praktycznie jedyny dla QFT i  najbezpieczniejszy sposób dla QM: jak w macierzy rozpraszania, teraźniejszość jako wynik zespołów trajektorii przymocowanych w przeszłości i przyszłości, fundamentalnie symetryczny obraz jak unitarna ewolucja.

Używając zamiast tego równanie Schrodingera, to jest lokalna realistyczna teoria pola - tw. Bella mówi że nie może łamać takich nierówności, a natura może ... żeby to naprawić trzeba przejść do symetrycznych sformułowań, jak minimalizacja działania czy zespoły Feynmanowskie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
W dniu 21.07.2024 o 16:36, Jarek Duda napisał:

To nie moje pomysły, tylko centralne wymogi działających modeli fizyki: ogólnej teorii względności i QM/QFT np. w Modelu Standardowym.

Owszem dla większości osób są nieintuicyjne więc nie akceptują, stąd cała ta magia kwantowosci, shut up and calculate ... ale gdy zaakceptować działającą matematykę, znika magia i problemy - czas dla fizyki to dosłownie czwarty wymiar, niewiele się różniący od pozostałych trzech (znakiem w sygnaturze).

8XijSks.png

Czwarty wymiar liniowy. 

 A jeszcze pamiętaj o rzucie trzywymiarowej przestrzeni na czterowymiarową przestrzeń, czyli taką rolę może grać np. wyobraźna. 

 Oczywiście ktoś powie: zwariowałem. Jednak czemu św. Augustyn lub Platon pisząc na temat czasu nie mieliby się odwoływać np. do mnie. 

 Św. Augustyn pisał na temat czasu lub złej woli. Pisał w języku opisowym. Platon za śladem Heraklita, opisał w Timajosie "treścią psyche jest ciągle rozszerzający się logos", a więc zrównał nasze rozumienie świadomości z czasem. Treścią duszy jest czas, dlatego jej treść rośnie w sposób nieskończony jako "apeiron" ale w rozumieniu "niepoliczalny" a nie "in abstracto". 

W innym fragmencie napisał Heraklit, oddzielając bios i psyche, "granic duszy nie zbadasz, tak głęboki jest jej logos". Zachowało się około 150 fragmentów po Heraklicie z Efezu, który był astronomem i właściwie którego studiował nauki Platon. Platon bowiem swoje teorie czerpał po odbyciu nauki w szkole Kratylosa, który był uczniem Heraklita a Kratylos twierdził "że nawet raz nie można wejść do tej samej rzeki". 

 Panta rhei. Czas jest zmienny skoro ulega takim wpływom z przyszłości. 

Edytowane przez czernm20

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.07.2024 o 16:02, Jarek Duda napisał:

I eksperymentalnie działa MS+OTW, szlifowane dokładnie w ten sposób: porównując przewidziane konsekwencje np. z wynikami zderzeń, sugerując bardziej fundamentalny i obiektywny opis

Ale przecież Model Standardowy można przedstawić w ramach innych formalizmów, na przykład wektorów stanu Heisenberga. W każdym jest jedynie "przestrzeń możliwości", z inaczej ułożonymi ograniczeniami (czyli naszą wiedzą). Subiektywizm w przypadku QTF nie znika, po prostu wylicza się wyłącznie wielkości średnie z powtarzalnych sytuacji.

 

  

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

QFT traktuje się also przybliżeniem perturbacyjnym: zespoły Feynmanowskie po scenariuszach - diagramach Feynmana ... albo nieperturbacyjnie: zespoły Feynmanowskie po konfiguracjach pól, np. lattice QCD m.in. dla zrozumienia struktury protonu ... a ja się pytam o pośrednie szczegóły: konfiguracje pól za poszczególnymi cząstkami w diagramach Feynmana.

https://en.wikipedia.org/wiki/Heisenberg_picture jest tylko jednym z 3 sposobów transformowania Hamiltonianem:

1kIppVI.png

Jak wspomniałem, są setki analogów hydrodynamicznych - też dla QCD, szczególnie plazmy kwarkowo-gluonowej:

https://www.sciencedaily.com/releases/2017/08/170802134720.htm : "'Perfect liquid' quark-gluon plasma is the most vortical fluid"

W każdym razie nikt się tutaj nie pyta o interpretacje mechaniki kwantowej - czysta matematyka, próba zrozumienia konfiguracji i ewolucji pól - co proponuję rozszerzyć do wszystkich cząstek.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak dla mnie mechanika kwantowa jest jak obserwacja pomiaru odległości i prędkości do samolotu przez pojazd, który nie wie, że porusza się po pagórkowatym terenie. Z nieznanych powodów, ten samolot skacze góra-dół i prawo-lewo, a przy okazji z równie nieznanych powodów raz przyśpiesza, a raz zwalnia. Ale bardzo chcemy obliczyć jego położenie i prędkość więc nakładamy na niego więzy niepewności, które raczej niewiele mówią o faktycznej prędkości i położeniu samolotu, za to wiele o geometrii terenu po którym porusza się pojazd. A teraz powiedzmy, że ten samolot to inny pojazd poruszający się po równie ciekawym terenie, a co gorsza - nośniki informacji pomiędzy pojazdami też się przemieszczają po takim pofałdowanym terenie. I mamy wtedy, że tak naprawdę nie badamy pojazdów, ale stan przestrzeni. po której się poruszają oraz stan przestrzeni pomiędzy nimi. Do tej pory zakładaliśmy, że czasoprzestrzeń jest nieruchomą i niezmienną areną, na której działają cząstki. Od momentu wykrycia fal grawitacyjnych jednak wiemy, że czasoprzestrzeń jest bardzo dynamicznym zjawiskiem, a w zasadzie cała QFT to opisanie tej czasoprzestrzennej dynamiki na bardzo różne sposoby. Myk jednak, że nie potrafimy przejść między QFT i OTW w inny sposób niż przez dziedzinę klasycznej mechaniki newtonowskiej, gdzie jedne cechy znikają, a dochodzą inne.

  • Negatyw (-1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 hours ago, GROSZ-ek said:

Od momentu wykrycia fal grawitacyjnych jednak wiemy, że czasoprzestrzeń jest bardzo dynamicznym zjawiskiem,

Fale elektromagnetyczne nie potrzebują dynamiki czasoprzestrzeni ... i np. Gravity Probe B bezpośrednio potwierdził grawitomagnetyzm ( https://en.wikipedia.org/wiki/Gravitoelectromagnetism ) - po prostu drugi zestaw równań Maxwella jak EM, analogicznie dający fale, sam w sobie nie wymagający dynamiki czasoprzestrzeni - założenie której prowadzi do problemów nierenormalizowalności.

Unifikacja EM i GEM jest względnie trywialna, np. z symetrii SO(1,3) grupy Lorentza w https://community.wolfram.com/groups/-/m/t/2856493 - dynamika obrotów przestrzennych prowadzi do EM z wbudowaną kwantyzacją ładunku elektrycznego jako topologiczny ... a dynamika boostów do drugiego zestawu równań Maxwella: GEM.

xhlaOHJ.png

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ten GROSZEk to nikt ważny. Dziwne jednak jest stwierdzenie, które napisałeś, że ładunek elektryczny jest topologiczny. Jednak pamiętam, że wcześniej wspominałem o przestrzeni trójwymiarowej w kontekście pól cząsteczek. 

 Nie potrafię jednak zintepretować tych równań, nie wiem np. co oznacza "psi", ale domyślam się że mała delta to różnica; odchylenie grawitacyjne. Jest też na schemacie widoczna przestrzeń czterowymiarowa. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 hours ago, czernm20 said:

ładunek elektryczny jest topologiczny

To jest pytanie o kwantyzację ładunku - standardowe prawo Gaussa pozwala na ładunek będący dowolną liczbą rzeczywistą np. "pół-elektonu" ... a natura mówi że musi być skwantowany.

Jedyny sposób dla wbudowania kwantyzacji jaki znam to topologia - analogicznie np. do kwantyzacji pola magnetycznego w nadprzewodniku.

Konkretnie, interpretując krzywiznę głębszego pola np. wektorów jednostkowych jako pole elektryczne, prawo Gaussa zwraca jego ładunek topologiczne - który jest skwantowany.

Eksperymentalnie dostają je np. w ciekłych kryształach - z oddziaływaniami długozsięgowymi np. typu Coulomba dla takich skwantowanych ładunków: https://www.nature.com/articles/s41598-017-16200-z

BeOee01.png

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
W dniu 26.07.2024 o 04:58, Jarek Duda napisał:

Jak wspomniałem, są setki analogów hydrodynamicznych

To nie są żadne analogi bo nie liczą probabilistycznej amplitudy i układ jest całkowicie klasyczny.

19 godzin temu, czernm20 napisał:

Nie potrafię jednak zintepretować tych równań, nie wiem np. co oznacza "psi", ale domyślam się że mała delta to różnica; odchylenie grawitacyjne.

Bo widzisz, formalizm matematyczny jest językiem, ale on opisuje świat którego nie znasz więc nie da się przełożyć na twój język potoczny. Osiągnięcie biegłości w posługiwaniu się nim zajmuje lata ciężkiej pracy i tego nie przeskoczysz. Jeśli próbujesz sobie "tłumaczyć na swoje" a potem "wyobrażać o co chodzi",  to po prostu nie dasz rady - możesz traktować to jako barierę kulturową przy nauce nowego języka.

6 godzin temu, Jarek Duda napisał:

To jest pytanie o kwantyzację ładunku - standardowe prawo Gaussa pozwala na ładunek będący dowolną liczbą rzeczywistą np. "pół-elektonu" ... a natura mówi że musi być skwantowany.(...) Eksperymentalnie dostają je np. w ciekłych kryształach - z oddziaływaniami długozsięgowymi np. typu Coulomba dla takich skwantowanych ładunków

Z czystej ciekawości - wychodzą koledze kwarki o ładunkach +-1/3, 2/3?

Edytowane przez peceed
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
14 minut temu, peceed napisał:

Z czystej ciekawości - wychodzą koledze kwarki o ładunkach +-1/3, 2/3?

Oj tam. Skoro był "Piąty element", to i na trzy da się podzielić... ;)
Mnie osobiście najbardziej ciekawi ten "topologiczny" ładunek (wiem oczywiście, że słowo "topologiczny" robi spory "impact", bo statystyki cytowań są powszechnie dostępne). Myślę, że większość z forumowiczów potrafi wygooglować i mniej więcej wie czym jest topologia. Wychodzi mi, że trochę jak z zaćmieniami Słońca przewidywanymi przez starożytnych, ale to tylko moje skromne zdanie, więc proszę potencjalnych "minusowaczy" o wyrozumiałość.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, peceed said:

To nie są żadne analogi bo nie liczą probabilistycznej amplitudy i układ jest całkowicie klasyczny.

Różnica między klasyczną i kwantową teorią pola to: jedna konfiguracja pola minimalizująca działanie vs ich zespół Feynmanowski - inne traktowanie tego samego Lagrangianu, bardzo podobnie jak: w przybliżeniu układ termodynamicznie jest w stanie minimum energii, ale bardziej dokładnie jest w ich zespole Boltzmannowskim.

Rozważając rozpraszanie solitonów czy skaczących kropelek, nie znając idealnie parametrów też pola, potrzebujesz rozważyć zespoły możlwiości, scenariuszy (diagramów Feynmana) - w praktyce dostając prawdopodobieństwa. Przykładowe scenariusze dla kropelek z https://vrs.amsi.org.au/wp-content/uploads/sites/78/2015/03/Rahil-Valani.pdf :

CcJvKAF.png

1 hour ago, peceed said:

Z czystej ciekawości - wychodzą koledze kwarki o ładunkach +-1/3, 2/3?

Oczywiście - przyjmuje się że między kwarkiem i antykwarkiem jest tzw. quark string/color flux tube, często modelowany jako wir Abrikosova (np. https://www.sciencedirect.com/science/article/abs/pii/S0370269399012083 ) - pytanie o wzbudzenia o ułamkowym ładunku takiego wiru.

Gdyby pole wzdłuż takiego wiru obróciło się inward/outward o pi, dostalibyśmy elementarny ładunek elektryczny jako topologiczny (np. konfigurację typu jeż) - dla ułamkowych musi wykonać analogiczny obrót o ułamek pi, np. jak poniżej.

Taki ułamkowy obrót powoduje konflikt między kwarkiem i antykwarkiem, w QCD o energii ok. 1GeV/fm, nie pozwalając im się za bardzo oddalić dla confinement.

Żeby zrozumieć dlaczego pole wykonuje taki kosztowny energetycznie obrót, jest wiele sugestii że najprostszy węzeł poniżej zgadza się z barionami - widzimy że wir dookoła wymusza dokładnie takie ułamkowe ładunki w wirze w środku.

Tłumaczy to np. dlaczego proton jest lżejszy od neutronu - ponieważ oba mają wymuszony ładunek +2/3e, proton może go zamknąć do pełnego jeża +e, a neutron musi skompensować ten ładunek - co zwiększa rozmiar i energię jako masę.

HvJ2FSA.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 minut temu, Jarek Duda napisał:

Różnica między klasyczną i kwantową teorią pola to: jedna konfiguracja pola minimalizująca działanie vs ich zespół Feynmanowski - inne traktowanie tego samego Lagrangianu, bardzo podobnie jak: w przybliżeniu układ termodynamicznie jest w stanie minimum energii, ale bardziej dokładnie jest w ich zespole Boltzmannowskim.

Nie wiem czy dobrze zrozumiałem to "klasyczne" zdanie, ale chyba jest odwrotnie. Poza tym różnica jest dużo prostsza, bo kwantowe teorie pola nie są podróbą klocków Lego i nie trzeba ich wbijać młotkiem oraz traktować klejem dla trwałości konstrukcji. Pewnie każdy forumowicz słyszał o fermionach i bozonach, ale raczej nie o "bolcmanionach"...

  • Lubię to (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

W klasycznej teorii pola mamy jedną konfigurację minimalizującą działanie, w kwantowej ich zespół Feynmanowski - jak napisałem ... ten sam Lagrangian, np. - F_munu F^munu elektromagnetyzmu, który możemy traktować klasycznie, albo kwantowo - równoważnie używając drugiej kwantyzacji.

Naiwnie układ termodynamiczny powinien osiągnąć stan minimum energii, bardziej dokładnie - jest w ich zestawie Boltzmannowskim ... z Feynmanowskim są matematycznie bardzo podobne, różnią tzw. obrotem Wicka, często używanym dla uproszczenia kwantowych obliczeń.

Diagramy Feynmana to przybliżenie perturbacyjne - dokładnie powinno się szukać nieperturbacyjnego: konfiguracji pól, co robi się dla np. protonów w lattice QCD ... dlaczego nie dla pozostałych cząstek/diagramów?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
27 minut temu, Jarek Duda napisał:

Różnica między klasyczną i kwantową teorią pola to: jedna konfiguracja pola minimalizująca działanie vs ich zespół Feynmanowski - inne traktowanie tego samego Lagrangianu, bardzo podobnie jak: w przybliżeniu układ termodynamicznie jest w stanie minimum energii, ale bardziej dokładnie jest w ich zespole Boltzmannowskim.

Różnica polega na tym, że mają zupełnie inną interpretację fizyczną, w sensie interpretacji pomiarów.

31 minut temu, Jarek Duda napisał:

Rozważając rozpraszanie solitonów czy skaczących kropelek, nie znając idealnie parametrów też pola

No i tutaj się to wszystko wywala. Bo mechanika kwantowa nie zależy od "nieznanych detali deterministycznych", ona może zależeć od nieznanych detali kwantowych.

Kolega w "teoriach-protezach" musi odtworzyć sobie numerycznie rozkład prawdopodobieństwa bo nie ma teorii która jasno mówi jakie równania spełnia ta "średnia" z której samplujemy, a w mechanice kwantowej to ona spełnia równania ruchu.

38 minut temu, Jarek Duda napisał:

Oczywiście - przyjmuje się że między kwarkiem i antykwarkiem jest tzw. quark string/color flux tube, często modelowany jako wir Abrikosova

Wychodzi to chociaż konsystentnie w ramach jednego systemu czy jest to zlepek z obserwacji różnych?
I jedziemy dalej:
Obserwuje się gluony w tym wirze?
Swobodę asymptotyczną?

Jakieś wyjaśnienie na ilość generacji kwarków?

 

 

  • Dzięki! (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pomiary to filozoficzne QM, głębiej jest QFT - używane głównie zespołami Feynmanowskimi, czysta matematyka zero filozofii.

Opis QM na przykład atomu skupia się zwykle na jednym elektronie - czyli resztę wszechświata musi traktować w sposób statystyczny, deekscytacja wymaga oddziaływania z otoczeniem ... ale dołączając to otoczenie do opisywanego układu, przechodząc do Funkcji Falowej Wszechświata, zostaje czysto unitarna, odwracalna, deterministyczna ewolucja - jak w zespołach Feynmanowskich.

Co do kwarków, to jest dodanie brakujących wzbudzeń z ułamkowym ładunkiem do wirów Abrikosova które wierzą że są między kwarkiem i antykwarkiem. Energia ~1GeV/fm między nimi w niskich energiach daje confinement, a w wysokich traci istotność w asymptotic freedom. Wszystko wychodzi automatycznie z analizy superfluid liquid crystal - w przeciwieństwie do teorii strun, ten model jest bardzo silnie constrained, no i uproszczenia są eksperymentalnie obserwowane np. w ciekłych kryształach. Tak jest odpowiednik gluonów - wyrazów Lagrangianu z Yang-Mills.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W Argentynie niektórzy miłośnicy piwa wsypują do kufla fistaszki. Te najpierw toną, później zaś unoszą się na powierzchnię, a następnie znowu toną i znowu się wynurzają. Fizyka fistaszków tańczących w piwie to tytuł artykułu naukowego, w którym akademicy z Niemiec, Francji i Wielkiej Brytanii opisują i wyjaśniają ten fenomen z punktu widzenia fizyki. Dzięki przeprowadzonej przez nich serii eksperymentów  możemy poznać tajemnicę interakcji orzeszków z piwem i przy najbliższej okazji pochwalić się znajomym, że wiemy, na czym ona polega.
      Orzeszki są cięższe od piwa, więc w nim toną. Jednak na dnie stają się miejscami nukleacji (zarodkowania), gromadzenia się bąbelków dwutlenku węgla obecnych w piwie. A gdy bąbelków zgromadzi się wystarczająco dużo, orzeszek zyskuje pływalność i podąża do góry. Gdy dociera na powierzchnię, przyczepione do niego bąbelki ulatniają się, a proces ten ułatwia obracanie się orzeszka. Fistaszek traci pływalność i znowu tonie. Proces powtarza się dopóty, dopóki napój jest na tyle nasycony gazem, by dochodziło do zarodkowania.
      Badający to zjawisko naukowcy zauważyli, że przyczepiające się do orzeszka bąbelki nie są tymi samymi, które samoistnie unoszą się w górę w piwie. Powierzchnia orzeszka powoduje tworzenie się bąbelków, które rosną, gromadzą się i w końcu nadają mu pływalność.
      W rozważanym przypadku do nukleacji gazu, czyli pojawienia się bąbelków, może dojść w samym piwie, na szkle naczynia oraz na orzeszku. Zajmujący się tym poważnym problemem międzynarodowy zespół wyliczył, że z energetycznego punktu widzenia najbardziej korzystna jest nukleacja gazu na orzeszku, a najmniej korzystne jest tworzenie się bąbelków w samym piwie. Dlatego też tak łatwo bąbelki gromadzą się wokół fistaszka i go wypychają. Uczeni wyliczyli nawet, że idealny promień bąbelka przyczepionego do orzeszka wynosi mniej niż 1,3 milimetra.
      Można się oczywiście zżymać, że naukowcy tracą pieniądze podatników na niepoważne badania. Nic jednak bardziej mylnego. Tańczące w piwie fistaszki pozwalają lepiej zrozumieć działanie zarówno przyrody, jak i niektóre procesy przemysłowe. To, co dzieje się w orzeszkiem w piwie jest bardzo podobne do zjawisk zachodzących w czasie procesu flotacji, wykorzystywanego na przykład podczas oddzielania rud minerałów, recyklingu makulatury czy oczyszczania ścieków.
      Badacze zapowiadają, że nie powiedzieli jeszcze ostatniego słowa. Mają bowiem zamiar kontynuować swoje prace, używając przy tym różnych orzeszków i różnych piw.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizyka zajmuje się zróżnicowanym zakresem badań, od bardzo przyziemnych, po niezwykle abstrakcyjne. Koreańsko-niemiecki zespół badawczy, na którego czele stał Wenjing Lyu postanowił przeprowadzić jak najbardziej przyziemne badania, a wynikiem jego pracy jest artykuł pt. „Eksperymentalne i numeryczne badania piany na piwie”.
      Naukowcy zajęli się odpowiedzią na wiele złożonych pytań dotyczących dynamiki tworzenia się piany na piwie, co z kolei może prowadzić do udoskonalenia metod warzenia piwa czy nowej architektury dysz, przez które piwo jest nalewane do szkła. Tworzenie się pianki na piwie to skomplikowana gra pomiędzy składem samego piwa, naczynia z którego jest lane a naczyniem, do którego jest nalewane. Naukowcy, browarnicy i miłośnicy piwa poświęcili tym zagadnieniom wiele uwagi. Autorzy najnowszych badań skupili się zaś na opracowaniu metody, która pozwoli najtrafniej przewidzieć jak pianka się utworzy i jakie będą jej właściwości.
      Piana na piwie powstaje w wyniku oddziaływania gazu, głównie dwutlenku węgla, wznoszącego się ku górze. Tworzącymi ją składnikami chemicznymi są białka brzeczki, drożdże i drobinki chmielu. Pianka powstaje w wyniku olbrzymiej liczby interakcji chemicznych i fizycznych. Jest on cechą charakterystyczną piwa. Konsumenci definiują ją ze względu na jej stabilność, jakość, trzymanie się szkła, kolor, strukturę i trwałość. Opracowanie dokładnego modelu formowania się i zanikania pianki jest trudnym zadaniem, gdyż wymaga wykorzystania złożonych modeli numerycznych opisujących nieliniowe zjawiska zachodzące w pianie, czytamy w artykule opisującym badania.
      Naukowcy wspominają, że wykorzystali w swojej pracy równania Reynoldsa jako zmodyfikowane równania Naviera-Stokesa (RANS), w których uwzględnili różne fazy oraz przepływy masy i transport ciepła pomiędzy tymi masami. Liu i jego zespół wykazali na łamach pisma Physics of Fluids, że ich model trafnie opisuje wysokość pianki, jej stabilność, stosunek ciekłego piwa do pianki oraz objętość poszczególnych frakcji pianki.
      Badania prowadzono we współpracy ze startupem Einstein 1, który opracowuje nowy system nalewania piwa. Magnetyczna końcówka jest w nim wprowadzana na dno naczynia i dopiero wówczas rozpoczyna się nalewanie piwa, a w miarę, jak płynu przybywa, końcówka wycofuje się. Naukowcy zauważyli, że w systemie tym pianka powstaje tylko na początku nalewania piwa, a wyższa temperatura i ciśnienie zapewniają więcej piany. Po fazie wstępnej tworzy się już sam płyn. Tempo opadania piany zależy od wielkości bąbelków. Znika ona mniej więcej po upływie 25-krotnie dłuższego czasu, niż czas potrzebny do jej formowania się.
      W następnym etapie badań naukowcy będą chcieli przyjrzeć się wpływowi końcówki do nalewania na proces formowania się piany i jej stabilność.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Trzmiel nie powinien latać, ale o tym nie wie, i lata, Lot trzmiela przeczy prawom fizyki. Setki tysięcy trafień w wyszukiwarkach, rozpaleni komentatorzy i teorie spiskowe, posiłkujące się tym mitem pokazują, jak bardzo trwałe potrafią być niektóre fałszywe przekonania. Bo przecież niemal każdy z nas słyszał, że zgodnie z prawami fizyki trzmiel latać nie powinien i każdy z nas widział, że jednak lata. Naukowcy najwyraźniej coś przed nami ukrywają lub coś nie tak jest z fizyką. A może coś nie tak jest z przekonaniem o niemożności lotu trzmiela?
      Obecnie trudno dociec, skąd wziął się ten mit. Jednak z pewnością możemy stwierdzić, że swój udział w jego powstaniu miał francuski entomolog Antoine Magnan. We wstępie do swojej książki La Locomotion chez les animaux. I : le Vol des insectes z 1934 roku napisał: zachęcony tym, co robione jest w lotnictwie, zastosowałem prawa dotyczące oporu powietrza do owadów i, wspólnie z panem Sainte-Lague, doszliśmy do wniosku, że lot owadów jest niemożliwością. Wspomniany tutaj André Sainte-Laguë był matematykiem i wykonywał obliczenia dla Magnana. Warto tutaj zauważyć, że Magnan pisze o niemożności lotu wszystkich owadów. W jaki sposób w popularnym micie zrezygnowano z owadów i pozostawiono tylko trzmiele?
      Według niektórych źródeł opowieść o trzmielu, który przeczy prawom fizyki krążyła w latach 30. ubiegłego wieku wśród studentów niemieckich uczelni technicznych, w tym w kręgu uczniów Ludwiga Prandtla, fizyka niezwykle zasłużonego w badaniach nad fizyką cieczy i aerodynamiką. Wspomina się też o „winie” Jakoba Ackereta, szwajcarskiego inżyniera lotnictwa, jednego z najwybitniejszych XX-wiecznych ekspertów od awiacji. Jednym ze studentów Ackerta był zresztą słynny Wernher von Braun.
      Niezależnie od tego, w jaki sposób mit się rozwijał, przyznać trzeba, że Magnan miałby rację, gdyby trzmiel był samolotem. Jednak trzmiel samolotem nie jest, lata, a jego lot nie przeczy żadnym prawom fizyki. Na usprawiedliwienie wybitnych uczonych można dodać, że niemal 100 lat temu posługiwali się bardzo uproszczonymi modelami skrzydła owadów i jego pracy. Konwencjonalne prawa aerodynamiki, używane do samolotów o nieruchomych skrzydłach, rzeczywiście nie są wystarczające, by wyjaśnić lot owadów. Tym bardziej, że Sainte-Laguë przyjął uproszczony model owadziego skrzydła. Tymczasem ich skrzydła nie są ani płaskie, ani gładkie, ani nie mają kształtu profilu lotniczego. Nasza wiedza o locie owadów znacząco się zwiększyła w ciągu ostatnich 50 lat, a to głównie za sprawą rozwoju superszybkiej fotografii oraz technik obliczeniowych. Szczegóły lotu trzmieli poznaliśmy zaś w ostatnich dekadach, co jednak nie świadczy o tym, że już wcześniej nie wiedziano, że trzmiel lata zgodnie z prawami fizyki.
      Z opublikowanej w 2005 roku pracy Short-amplitude high-frequency wing strokes determine the aerodynamics of honeybee flight autorstwa naukowców z Kalifornijskiego Instytut Technologicznego (Caltech) oraz University of Nevada, dowiadujemy się, że większość owadów lata prawdopodobnie dzięki temu, iż na krawędzi natarcia ich skrzydeł tworzą się wiry. Pozostają one „uczepione” do skrzydeł, generując siłę nośną niezbędną do lotu. U tych gatunków, których lot udało się zbadać, amplituda uderzeń skrzydłami była duża, a większość siły nośnej było generowanej w połowie uderzenia.
      Natomiast w przypadku pszczół, a trzmiele są pszczołami, wygląda to nieco inaczej. Autorzy badań wykazali, że pszczoła miodna charakteryzuje się dość niewielką amplitudą, ale dużą częstotliwością uderzeń skrzydłami. W ciągu sekundy jest tych uderzeń aż 230. Dodatkowo, pszczoła nie uderza skrzydłami w górę i w dół. Jej skrzydła poruszają się tak, jakby ich końcówki rysowały symbol nieskończoności. Te szybkie obroty skrzydeł generują dodatkową siłę nośną, a to kompensuje pszczołom mniejszą amplitudę ruchu skrzydłami.
      Obrany przez pszczoły sposób latania nie wydaje się zbyt efektywny. Muszą one bowiem uderzać skrzydłami z dużą częstotliwością w porównaniu do rozmiarów ich ciała. Jeśli przyjrzymy się ptakom, zauważymy, że generalnie, rzecz biorąc, mniejsze ptaki uderzają skrzydłami częściej, niż większe. Tymczasem pszczoły, ze swoją częstotliwością 230 uderzeń na sekundę muszą namachać się więcej, niż znacznie mniejsza muszka owocówka, uderzająca skrzydłami „zaledwie” 200 razy na sekundę. Jednak amplituda ruchu skrzydeł owocówki jest znacznie większa, niż u pszczoły. Więc musi się ona mniej napracować, by latać.
      Pszczoły najwyraźniej „wiedzą” o korzyściach wynikających z dużej amplitudy ruchu skrzydeł. Kiedy bowiem naukowcy zastąpili standardowe powietrze (ok. 20% tlenu, ok. 80% azotu) rzadszą mieszaniną ok. 20% tlenu i ok. 80% helu, w której do latania potrzebna jest większa siła nośna, pszczoły utrzymały częstotliwość ruchu skrzydeł, ale znacznie zwiększyły amplitudę.
      Naukowcy z Caltechu i University of Nevada przyznają, że nie wiedzą, jakie jest ekologiczne, fizjologiczne i ekologiczne znaczenie pojawienia się u pszczół ruchu skrzydeł o małej amplitudzie. Przypuszczają, że może mieć to coś wspólnego ze specjalizacją w kierunku lotu z dużym obciążeniem – pamiętajmy, że pszczoły potrafią nosić bardzo dużo pyłku – lub też z fizjologicznymi ograniczeniami w budowie ich mięśni. W świecie naukowym pojawiają się też głosy mówiące o poświęceniu efektywności lotu na rzecz manewrowości i precyzji.
      Niezależnie jednak od tego, czego jeszcze nie wiemy, wiemy na pewno, że pszczoły – w tym trzmiele – latają zgodnie z prawami fizyki, a mit o ich rzekomym łamaniu pochodzi sprzed około 100 lat i czas najwyższy odłożyć go do lamusa.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Królewska Szwedzka Akademia Nauk ogłosiła, że tegoroczna Nagroda Nobla z fizyki została przyznana za wkład w zrozumienie złożonych systemów fizycznych. Połową nagrody podzielą się Syukuro Manabe i Klaus Hasselmann za fizyczne modelowanie klimatu Ziemi, obliczenie jego zmienności i wiarygodne przewidzenie procesu ocieplania się. Druga połowa trafi do Giorgio Parisiego za odkrycie współzależności nieuporządkowania i fluktuacji w systemach fizycznych, od skali atomowej po planetarną.
      Wszyscy trzej laureaci specjalizują się badaniu chaotycznych i pozornie przypadkowych wydarzeń. Manabe i Hasselmann położyli wielkie zasługi dla lepszego zrozumienia klimatu naszej planety i wpływu nań człowieka. Z kolei Parisi zrewolucjonizował naszą wiedzę o materiałach nieuporządkowanych i procesach losowych.
      Syukuro Manabe wykazał, w jaki sposób zwiększona koncentracja dwutlenku węgla w atmosferze prowadzi do zwiększenia temperatury na powierzchni Ziemi. Już w latach 60. ubiegłego wieku pracował nad rozwojem fizycznych modeli ziemskiego klimatu. Był pierwszym naukowcem, który badał związek pomiędzy bilansem radiacyjnym Ziemi a pionowym ruchem mas powietrza wywołanym konwekcją.
      Żeby poradzić sobie z tak skomplikowanym zadaniem obliczeniowym, stworzył uproszczony model, który opisywał pionową kolumnę powietrza o wysokości 40 kilometrów i za jego pomocą testował różny skład atmosfery. Po setkach godzin obliczeń i symulacji wykazał, że poziom tlenu i azotu mają pomijalny wpływ, a o temperaturze decyduje dwutlenek węgla. Uczony wykazał, że przy dwukrotnym wzroście stężenia CO2, temperatura na powierzchni rośnie o ponad 2 stopnie Celsjusza. Jego model potwierdził, że wzrost temperatury na powierzchni Ziemi rzeczywiście jest zależny od koncentracji CO2, gdyż przewidywał wzrost temperatury przy powierzchni i jednoczesne ochładzanie się wyższych partii atmosfery. Gdyby za wzrost temperatury odpowiadały zmiany w promieniowaniu słonecznym, to cała atmosfera powinna się ogrzewać w tym samym czasie.
      Swój uproszczony, dwuwymiarowy model, zapoczątkowany w latach 60., rozbudował, gdy wzrosły możliwości obliczeniowe komputerów i mógł do niego dodawać kolejne elementy. W roku 1975 Manabe przedstawił trójwymiarowy model klimatyczny. Był on kolejnym krokiem milowym ku lepszemu zrozumieniu klimatu. Prace Manabe stanowią fundament dla współczesnych modeli.
      Około 10 lat po przełomowych pracach Manabe Klaus Hasselmann stworzył model fizyczny, w którym połączył pogodę i klimat. Odpowiedział w ten sposób na niezwykle ważne pytanie, dlaczego modele klimatyczne mogą być wiarygodne, pomimo tego, że sama pogoda jest zmienna i chaotyczna. Hasselmann stworzył też metody pozwalające na zidentyfikowanie sygnałów, świadczących o wpływie na klimat zarówno procesów naturalnych, jak i działalności człowieka. To dzięki nim jesteśmy w stanie udowodnić, że zwiększone temperatury na powierzchni Ziemi są spowodowane antropogeniczną emisją dwutlenku węgla.
      W latach 50. Hasselmann był doktorantem fizyki w Hamburgu, gdzie zajmował się dynamiką płynów i rozwijał modele opisujące fale i prądy oceaniczne. Przeprowadził się do Kalifornii i nadal zajmował się oceanografią. Poznał tam m.in. słynnego Charlesa Keelinga, autora najdłuższej serii pomiarów stężenia CO2 w atmosferze. Jednak wówczas nie przypuszczał jeszcze, że w swoich badaniach będzie regularnie wykorzystywał krzywą Keelinga.
      Hasselmann wiedział, że stworzenie modelu klimatycznego z chaotycznych danych pogodowych będzie niezwykle trudne. A zadania nie ułatwia fakt, że zjawiska wpływające na klimat są niezwykle zmienne w czasie. Mogą być to zjawiska gwałtowne i szybko się zmieniające, jak siła wiatru i temperatura powietrza, ale również bardzo powolne, jak topnienie lodowców czy ogrzewanie się oceanów. Wystarczy wziąć pod uwagę fakt, że równomierne zwiększenie temperatury o 1 stopień Celsjusza może trwać w przypadku atmosfery kilka tygodni, ale w przypadku oceanów mogą minąć setki lat. Prawdziwym wyzwaniem było uwzględnienie tych szybkich chaotycznych zmian pogodowych w obliczeniach dotyczących klimatu i wykazaniu, w jaki sposób wpływają one na klimat. Hasselmann stworzył stochastyczny model klimatyczny, do którego zainspirowały go prace Einsteina nad ruchami Browna.
      A gdy już ukończył model zmienności klimatu i wpływu nań pogody, stworzył modele opisujące wpływ człowieka na cały system. Pozwalają one odróżnić np. wpływ zmian promieniowania słonecznego od wpływu gazów emitowanych przez wulkany, a te od wpływu gazów emitowanych przez człowieka.
      Około 1980 roku Giorgio Parisi, ostatni z tegorocznych laureatów, znalazł ukryte wzorce w nieuporządkowanych złożonych materiałach. To jedno z najważniejszych osiągnięć teorii złożonych systemów. Dzięki niemu jesteśmy w stanie lepiej rozumieć i badać wiele pozornie losowych zjawisk i nieuporządkowanych materiałów. Odkrycie to ma znaczenie nie tylko fizyce. Ma olbrzymie znaczenie dla matematyki, biologii, neurologii czy maszynowego uczenia się.
      Parisi rozpoczął swoje przełomowe prace od badań szkła spinowego. To materiał magnetyczny, który wykazuje lokalne uporządkowanie spinów, czyli momentów magnetycznych, ale nie posiadający wypadkowego momentu magnetycznego. Szkło spinowe to stop metalu, w którym mamy np. atomy żelaza są losowo rozmieszczone wśród atomów miedzi. Jednak mimo że w stopie znajduje się niewiele atomów żelaza, to radykalnie zmieniają one właściwości magnetyczne całego materiału. Zachowują się jak małe magnesy, na które wpływają sąsiadujące atomy. W standardowym magnesie wszystkie spiny mają ten sam kierunek.
      Jenak w szkle spinowym niektóre pary usiłują wskazywać w jednym kierunku, a inne w innym. Parisi chciał dowiedzieć się, jak wybierają one optymalną orientację. Problemem tym zajmowało się wielu wybitnych uczonych, w tym laureaci Nagrody Nobla. Jednym ze sposobów na znalezienie odpowiedzi było wykorzystanie tzw. replica trick, matematycznej metody, w której wiele kopii tego samego systemu było przetwarzanych jednocześnie. Jednak w fizyce się to nie sprawdzało.
      W 1979 roku Parisi dokonał przełomowego odkrycia na tym polu. Wykazał, że w kopiach istnieją ukryte struktury i opisał je matematycznie. Minęło wiele lat, zanim udowodniono, że rozwiązanie Parisiego jest prawidłowe. Od tamtej jednak pory jego metoda jest używana do badania systemów nieuporządkowanych.
      Syukuro Manabe urodził się w Japonii w 1931 roku. Jest pionierem w wykorzystaniu komputerów do symulowania klimatu. Pracę doktorską obronił na Uniwersytecie Tokijskim w 1958 roku, następnie wyjechał do USA, gdzie pracował w US Weather Bureau, NOAA (Narodowa Administracja Oceaniczna i Atmosferyczna) i Princeton University. Jest obecnie starszym meteorologiem na Princeton University. Jest również członkiem Akademii Nauk USA, zagranicznym członkiem Akademii Japońskiej, Academia Europaea i Royal Society of Canada, laureatem licznych nagród naukowych.
      Klaus Hasselmann, urodzony w Hamburgu w 1931 roku, to czołowy niemiecki oceanograf i specjalista od modelowania klimatu. Jest twórcą modelu zmienności klimatycznej nazwanego modelem Hasselmanna. Życie zawodowe związał głównie z Uniwersytetem w Hamburgu, pracował też na Uniwersytecie w Getyndzie i w Instytucie Dynamiki Cieczy im. Maxa Plancka. Był dyrektorem-założycielem Instytutu Meteorologii im. Maxa Plancka oraz dyrektorem naukowym w Niemieckim Centrum Obliczeń Klimatycznych. Obecnie zaś jest wiceprzewodniczącym Europejskiego forum Klimatycznego, które założył w 2001 roku wraz z prof. Carlo Jaegerem. Za swoją pracę naukową otrzymał m.in. nagrodę od Europejskiego Towarzystwa Geofizycznego i amerykańskich oraz brytyjskich towarzystw Meteorologicznych.
      Giorgio Parisi urodził się w 1948 roku. Jest fizykiem teoretycznym, a jego zainteresowania koncentrują się na mechanice statystycznej, kwantowej teorii pola i systemach złożonych. Pracował w Laboratori Nazionali di Frascati, na Columbia University, Institut des Hautes Études Scientifiques oraz École normale supérieure i Uniwersytecie Rzymskim Tor Vergata. Jest też prezydentem jednej z najstarszych i najbardziej prestiżowych europejskich instytucji naukowych Accademia dei Lincei oraz członkiem Francuskiej Akademii Nauk, amerykańskiej Akademii Nauk czy Amerykańskiego Towarzystwa Filozoficznego. Parisi to laureat wielu nagród w tym Nagrody Enrico Fermiego czy Medalu Maxa Plancka.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Fermi National Accelerator Laboratory (Fermi Lab), jednej z najbardziej zasłużonych instytucji dla rozwoju fizyki cząstek, trwa właśnie budowa ostatniego z wielkich detektorów, który ma badać neutrino i szukać dowodów na istnienie fizyki poza Modelem Standardowym. Zespół detektorów powstaje w ramach Short-Baselina Neutrino Program.
      Projekt składa się ze źródła neutrin i trzech detektorów ustawionych w linii prostej. Short-Baseline Near Detector (SBND), którego budowa właśnie się rozpoczęła, znajdzie się 110 metrów za obszarem, w którym strumień protonów będzie uderzał w cel, generując strumień neutrin mionowych. W odległości 360 metrów za SBND znajduje się MicroBooNE. Urządzenie to rozpoczęło pracę już w 2015 roku. Za MicroBooNE, w odległości 130 metrów, stoi zaś ICARUS, który rozpocznie pracę jeszcze tej jesieni.
      Podróżujące przez przestrzeń neutrino podlega oscylacjom, zmienia się pomiędzy trzema różnymi rodzajami: neutrinem mionowym, taonowym i elektronowym. I właśnie te oscylacje mają badać SBND, MicroBooNE i ICARUS. Jeśli okazałoby się, że istnieje czwarty rodzaj neutrin lub też badane neutrina zachowywałyby się w inny sposób, niż obecnie się przewiduje, detektory powinny to wykryć i być może fizyka wyjdzie poza Model Standardowy.
      Czujniki detektora SBND będą zawieszone w zbiorniku z płynnym argonem. Gdy neutrino trafi do zbiornika i zderzy się z atomem argonu, powstaną liczne cząstki oraz światło. Zostaną one zarejestrowane przez czujniki, a analizy sygnałów pozwolą fizykom na precyzyjne odtworzenie trajektorii wszystkich cząstek powstałych w wyniku kolizji. Zobaczymy obraz, który pokaże nam olbrzymią liczbę szczegółów w bardzo małej kali. W porównaniu z wcześniejszymi eksperymentami otworzy nam się naprawdę nowe spektrum możliwości, mówi Anne Schukraft, koordynatorka techniczna projektu.
      Wewnątrz SBND znajdą się trzy wielkie elektrody. Dwie anody i katoda. Każda z nich będzie mierzyła 5x4 metry. Natężenie pola elektrycznego pomiędzy katodą a każdą z anod wyniesie 500 V/cm. Anody zostaną umieszczone na przeciwnych ścianach pomieszczenia w kształcie sześcianu. Będą one przechwytywały elektrony, a znajdujące się za nimi czujniki będą rejestrowały fotony. W środku detektora umieszczona zostanie folia spełniająca rolę katody. Zamontowano ją pod koniec lipca, a w najbliższych dniach ma zostać ukończony montaż pierwszej anody.
      Całość, gdy zostanie ukończona, będzie ważył ponad 100 ton i zostanie wypełniona argonem o temperaturze -190 stopni Celsjusza. Komora będzie znajdowała się w stalowym kriostacie o izolowanych ścianach, którego zadaniem będzie utrzymanie niskiej temperatury wewnątrz. Skomplikowany system rur będzie ciągle filtrował argon, by utrzymać go w czystości.
      SBND to przedsięwzięcie międzynarodowe. Poszczególne elementy systemy powstają w wielu krajach, przede wszystkim w USA, Wielkiej Brytanii, Brazylii i Szwajcarii. Schukraft przewiduje, że nowy detektor ruszy na początku 2023 roku.
      Gdy prace nad SBND się zakończą, detektor będzie pracował razem z MicroBooNE i ICARUSEM. Naukowcy chcą przede wszystkim poszukać dowodów na istnienie neutrina sterylnego, cząstki, która nie wchodzi w interakcje z oddziaływaniami słabymi. Już wcześniej, podczas eksperymentów prowadzonych w Liquid Scintillator Neutrino Detector w Los Alamos National Lab i MiniBooNE w Fermilab odkryto sygnały, które mogą wskazywać na istnienie takiej cząstki.
      Pomysł polega na tym, by umieścić detektor naprawdę blisko źródła neutrin, w nadziei, że uda się złapać ten typ neutrina. Następnie jest kolejny detektor, a dalej jeszcze jeden. Mamy nadzieję, że zobaczymy oscylacje sterylnego neutrina, wyjaśnia Rober Acciarri, współdyrektor prac nad budową detektorów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...