Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Fizycy z Uniwersytetu Warszawskiego uzyskali półskyrmiony

Recommended Posts

2 godziny temu, Qion napisał:

Nie zmienia to faktu, że neutrin/antyneutrin jest zbyt mało aby wytworzyć ZPE z jaką mamy do czynienia w fizyce. Dolna i górna granica masy (energii) spoczynkowej neutrino została oszacowana i wynosi od 0,04 do 200 eV. W ciągu najbliższych kilku lat górna granica może zostać jeszcze bardziej zmniejszona w wyniku kolejnych eksperymentów.

Neutrino ma masę, a jest cała grupa cząsteczek bez masowych, które są opisane za pomocą zachowania granulatów w ramach EWT. Energia próżni reprezentowana jest jako gęstość, czyli ilość granulatów w pewnym obszarze - gęstość wynika ze stałej Plancka. Te inne zachowania granulatów nie będące neutrinami współtworzą oscylację eteru (wraz z innymi elementami), czyli energię ZPE + "coś tam, potocznie nazywane fluktuacje kwantowe w MK". Jeżeli gdzieś we wszechświecie stała placka ma inną wartość, energia próżni też jest inna. Czyli inna wartość stałej p:

Fundamental Energy equation

   

Wave Types and Energy and Forces

https://energywavetheory.com/introduction/energy/
https://energywavetheory.com/introduction/wave-terminology/  

 

Edited by l_smolinski

Share this post


Link to post
Share on other sites

Oczywiście, nie wiadomo czy  geneza energii (gęstości) próżni jest poprawna. Zakładam, że początkowo p jako współczynnik bezwymiarowy był potrzebny, aby modele zgadzały się ze znanymi wynikami eksperymentów. Następnie w ramach modelu wskazano genezę dla tego współczynnika, jaką jest stała plancka. Tu jest identyczna sytuacja, jak np. u Lorentza gdzie z pośród wielu transformacji wybrał taką, która wpasowywała się w znane wyniki eksperymentów i była najbardziej naturalna dla  aktualnego stanu wiedzy o fizyce.

Edited by l_smolinski

Share this post


Link to post
Share on other sites
W dniu 28.03.2021 o 20:03, l_smolinski napisał:

Energia próżni reprezentowana jest jako gęstość, czyli ilość granulatów w pewnym obszarze - gęstość wynika ze stałej Plancka.

Tutaj jest artykuł wyliczający tę wartość p na 3 sposoby w ramach EWT:

https://vixra.org/abs/2002.0166

Edited by l_smolinski

Share this post


Link to post
Share on other sites

W końcu dopracowałem podstawowy framework matematyczny dla tych modeli cząstek jako wzbudzenia topologiczne układów typu nematyk dwuosiowy - żeby odtworzyć elektromagnetyzm uogólniając model Fabera z pól wektorowych na tensorowe (dochodzi zależność od kształtu): tak żeby prawo Gaussa dawało ładunek topologiczny: https://arxiv.org/pdf/2108.07896

intr.png

  • Like (+1) 1

Share this post


Link to post
Share on other sites
W dniu 31.08.2021 o 04:51, Jarek Duda napisał:

W końcu dopracowałem podstawowy framework matematyczny dla tych modeli cząstek jako wzbudzenia topologiczne układów typu nematyk dwuosiowy - żeby odtworzyć elektromagnetyzm uogólniając model Fabera z pól wektorowych na tensorowe (dochodzi zależność od kształtu): tak żeby prawo Gaussa dawało ładunek topologiczny: https://arxiv.org/pdf/2108.07896

Po co? Tworzenie teorii klasycznej która odtwarza pewne obserwowane zjawiska i którą da się "skwantować" nie odtwarza teorii kwantowej w sposób unikalny.
Rozumiem że jest to świetna zabawa intelektualna, tylko nie przybywa od tego "zrozumienia". Topologiczne wyjaśnienie natury ładunku elektrycznego nie jest niczym nowym:
https://physics.stackexchange.com/questions/5665/electric-charge-in-string-theory

 

Share this post


Link to post
Share on other sites

Kwantowe teorie pola są budowanie na klasycznych, np. jako ich zespoły Feynmanowskie ... tyle że już na poziomie klasycznych są istotne problemy - np. brak kwantyzacji ładunku w prawie Gaussa, czy nieskończona energia pola elektrycznego ładunku.

Tutaj zaczynamy od naprawienia tych dwóch problemów od strony klasycznej teorii pola - żeby docelowo je skwantować z lepszym zrozumieniem, szczególnie nieskończoności z którymi jest duży problem w QFT,  jak rozbieżność ~10^120 razy energii próżni, czy otwarty od pół wieku problem nieskończoności przy kwantowaniu grawitacji.

Czy żeby w końcu być w stanie odpowiadać na podstawowe pytania jak: jaka jest średnia gęstość energii w danej odległości od elektronu? Ogólnie jaka jest struktura pól cząstek - np. elektronu będącego ładunkiem i dipolem magnetycznym ... to jak konkretnie pola EM tam wyglądają?

Tutaj po prostu przyglądając się ciekłym kryształom, dla których np. eksperymentalnie udaje się uzyskiwać oddziaływanie dalekozasięgowe też typu Coulomba (np. https://www.nature.com/articles/s41598-017-16200-z ), okazuje się że przestrzeń wzbudzeń topologicznych takich nematyków dwuosiowych wydaje się nieźle zgadzać z menażerią cząstek, np. sugerując dlaczego proton jest lżejszy od neutronu ...

part.jpg

 

Share this post


Link to post
Share on other sites
Godzinę temu, Jarek Duda napisał:

Kwantowe teorie pola są budowanie na klasycznych, np. jako ich zespoły Feynmanowskie

Mogą być, ale nie muszą. I żeby było jasne - nieskończona suma cegiełek potrafi mieć całkowicie odmienny charakter od tych cegiełek (już proste szeregi różnych typów to pokazują).
Przy czym zespoły Feynmanowskie wciaż muszą być przetłumaczone na efektywną probabilistyczną teorie fizyczną, tego teorie klasyczne po prostu nie są w stanie zapewnić. Kwantowość musi być wprowadzona jako postulaty.

Godzinę temu, Jarek Duda napisał:

tyle że już na poziomie klasycznych są istotne problemy - np. brak kwantyzacji ładunku w prawie Gaussa

To nie jest żaden problem dla teorii klasycznej. Opisuje inne spektrum możliwości niż rzeczywistość.

Godzinę temu, Jarek Duda napisał:

czy nieskończona energia pola elektrycznego ładunku

I to nie jest problemem. Energia całkowita nie ma fizycznego znaczenia, ważne są jedynie różnice potencjałów. Wystarczy dodać odpowiednią nieskończoność tak aby wyszło zero i wszystko gra. Dyskretne ładunki można zapostulować, i wówczas każdy większy ładunek można modelować jako związaną kupkę mniejszych ładunków.

Godzinę temu, Jarek Duda napisał:

Tutaj zaczynamy od naprawienia tych dwóch problemów od strony klasycznej teorii pola - żeby docelowo je skwantować z lepszym zrozumieniem

Różnych teorii kwantowych dających określoną teorię klasyczną jest nieskończenie wiele, procedura kanonicznego kwantowania jeśli jest możliwa (a zazwyczaj nie działa) odtwarza jedną z nich.

Godzinę temu, Jarek Duda napisał:

szczególnie nieskończoności z którymi jest duży problem w QFT

Coś się popsuło z teorią renormalizacji?

Godzinę temu, Jarek Duda napisał:

jak rozbieżność ~10^120 razy energii próżni

To nie jest rozbieżność inna niż obliczenia teorii przybliżonej w porównaniu z dokładną.  

Godzinę temu, Jarek Duda napisał:

czy otwarty od pół wieku problem nieskończoności przy kwantowaniu grawitacji.

Problem kwantowania grawitacji jest od pół wieku rozwiązany, a od ćwierć wieku wiemy że "rozwiązania" są równoważne w ramach M-teorii.

Godzinę temu, Jarek Duda napisał:

jaka jest średnia gęstość energii w danej odległości od elektronu?

Niestety nie ma czegoś takiego jak średnia odległość od elektronu, przynajmniej bez bardzo dokładnego zdefiniowania znaczenia słów "średnia odległość" w języku MK.
Czegoś takiego jak średnia gęstość energii również nie musi być, to są pytania niefizyczne i bardzo mało ważne (no dobra, przesadzam), świadczące o klasycznym rozumieniu świata (ładuję w ten bęben tylko dlatego, że wciąż pięknie gra). W pewnym momencie trzeba się przestawić na myślenie kwantowe i traktować mechanikę klasyczną jak zabawkę.

Godzinę temu, Jarek Duda napisał:

Ogólnie jaka jest struktura pól cząstek - np. elektronu będącego ładunkiem i dipolem magnetycznym ... to jak konkretnie pola EM tam wyglądają?

Pola klasyczne EM nie wyglądają. Dokładniej, różnie doświadczenia będą dawać wyniki nie pozwalające zrekonstruować konsystentnego klasycznego pola EM.
Dla przykładu teorii wiązań atomowych nie da się wyjaśnić polami klasycznymi. Radziłbym się początkowo pochylić nad czymś tak banalnym zamiast wnikać w budowę cząsteczek elementarnych które zawierają więcej oddziaływań niż wyłącznie elektryczne. Albo wyjaśnić przesunięcie Lamba.
BTW. Ma kolega w tej swojej teorii coś takiego jak stała struktury subtelnej?

Godzinę temu, Jarek Duda napisał:

np. sugerując dlaczego proton jest lżejszy od neutronu ...

I tu mamy problem, bo możliwe są wszechświaty w których proton jest cięższy od neutronu, tylko w nich nie żyjemy. Inne kombinacje stałych fizycznych mogą dać takie rezultaty. A teoria kolegi wciąż będzie wyjaśniać "dlaczego" proton jest lżejszy od neutronu i jako teoria abstrakcyjna będzie również "obowiązująca" w tych światach co ją dyskwalifikuje. To bardzo poważny zarzut.

Edited by peceed

Share this post


Link to post
Share on other sites

Nieskończona suma pól o nieskończonej energii ... ma dalej nieskończoną energię - ten fundamentalny problem (regularyzacji) trzeba i można naprawić przed sumowaniem, kwantyzacją.

Tutaj mówimy o energii związanej z cząstką, czyli masie spoczynkowej - tą energię można uwolnić w anihilacji: elektron + pozytron -> 2x511keV fotony ... więc nie może być nieskończona.

W naturze prawo Gaussa pozwala tylko na ładunki będące całkowitą wielokrotnością 'e', a w zwykłej EM na dowolny rzeczywisty ładunek - fundametalna niezgodność, którą matematycznie nie problem naprawić (co obserwujemy np. w ciekłych kryształach): interpretując krzywiznę pola jako pole elektryczne, prawo Gauss zwraca ładunek topologiczny - który jest skwantowany.

Co do problemu energii próżni, chodziło mi o https://en.wikipedia.org/wiki/Cosmological_constant_problem

A co do renormalizacji, może zacytuję Diraca i Feynmana z https://www.researchgate.net/publication/338980602_Something_is_rotten_in_the_state_of_QED

Quote

Dirac: “I must say that I am very dissatisfied with the situation because this so-called
’good theory’ does involve neglecting infinities which appear in its equations, ignoring them in an arbitrary way.
This is just not sensible mathematics. Sensible mathematics involves disregarding a quantity when it is small – not ne-
glecting it just because it is infinitely great and you do not want it!.” [33]


This technique of ignoring infinities is called renormalization. Feynman also recognized that this technique was
not mathematically legitimate: “The shell game that we play is technically called ’renormalization’. But no matter how
clever the word, it is still what I would call a dippy process! Having to resort to such hocus-pocus has prevented us from
proving that the theory of quantum electrodynamics is mathematically self-consistent. It’s surprising that the
theory still hasn’t been proved self-consistent one way or the other by now; I suspect that renormalization is not
mathe
matically legitimate.” [1]

Gęstość energii to Hamiltonian, czyli pytanie: jaka jest wartość oczekiwaną Hamiltonianu w danej odległości od elektronu? Asymptotycznie ~1/r^4 ... ale to się całkuje do nieskończoności w r=0, trzeba naprawić: zregularyzować.

Co do "są wszechświaty w których proton jest cięższy od neutronu, tylko w nich nie żyjemy" przypomina mi się piosenka o wyspach Bergamutach ;)

ps. A co stałej struktury subtelnej, jak najbardziej trzeba ją dopasować dla zgodności siły Coulomba ... co więcej, jest też tzw. running coupling: jest ona modyfikowana przy bardzo małych odległościach - co nie byłoby potrzebne dla idealnie punktowych ładunków, czyli znowu mamy pytanie o regularyzację - i np. Faber dostaje taką deformację: Fig. 4 w https://inspirehep.net/files/f7508c521cb8020c10f84ca4fdf0ff68

Edited by Jarek Duda

Share this post


Link to post
Share on other sites
33 minuty temu, Jarek Duda napisał:

W naturze prawo Gaussa pozwala tylko na ładunki będące całkowitą wielokrotnością 'e', a zwykłej EM dowolny rzeczywisty - duża rozbieżność, którą matematycznie nie problem naprawić (co obesrwujemy np. w ciekłych kryształach): interpretując krzywiznę pola jako pole elektryczne, prawo Gauss zwraca ładunek topologiczny - który jest skwantowany.

Mam wrażenie że i tak wychodzi bzdura, jak tylko zaczniemy bawić się w odpowiednie manipulację powierzchnią według której liczymy prawo Gaussa i odpowiednie zmniejszanie tej powierzchni - bo ładunek nie jest punktem.

43 minuty temu, Jarek Duda napisał:

Co do problemu energii próżni, chodziło mi o https://en.wikipedia.org/wiki/Cosmological_constant_problem

Supersymetria to rozwiązuje. Tzn. kasuje do zera, a niewielka pozostałość to wynik spontanicznego jej łamania. Ale są też inne sposoby.

Godzinę temu, Jarek Duda napisał:

A co do renormalizacji, może zacytuję Diraca i Feynmana

Panowie nie żyją a od tej pory teoria renormalizacji jest już bardzo dobrze zrozumiana:https://en.wikipedia.org/wiki/Renormalization_group
Kolejna rzecz do której po prostu trzeba przywyknąć uprawiając fizykę. Niestety nie ma tak, że ogon kręci psem: to fizyka była i będzie źródłem istotnych matematycznie idei, a o "prawdziwości" decyduje eksperyment.

1 godzinę temu, Jarek Duda napisał:

Co do "są wszechświaty w których proton jest cięższy od neutronu, tylko w nich nie żyjemy" przypomina mi się piosenka o wyspach Bergamutach ;)

Nie rozumie kolega argumentu. Tworząc teorię która jest "ślepa" na cześć fizyki "potwierdza" własności zależące w rzeczywistości od parametrów tej ignorowanej części. Wystarczają inne wartości mas kwarków aby stworzyć neutron lżejszy od protonu (takie barionowe nautralino na które rozpada się cała materia).

1 godzinę temu, Jarek Duda napisał:

czyli pytanie: jaka jest wartość oczekiwaną Hamiltonianu w danej odległości od elektronu? Asymptotycznie ~1/r^4 ... ale to się całkuje do nieskończoności w r=0

W sytuacji gdy rozpatrujemy precyzyjne "klasyczne" pole o potencjale 1/r już zgodnie z mechaniką kwantową musimy mieć do czynienia z cząsteczką o nieskończonej masie, bo to pole nie posiada w swojej strukturze nieoznaczoności położenia źródła.

Ponieważ jednak elementarna cząsteczka w KTP musi zachowywać się jak struna, nieskończoność energii znika.  Naładowana jednowymiarowa pętelka nie jest w stanie osiągnąć nieskończonej energii dokładnie z tego samego powodu dla której atom wodoru jest stabilny - chroni ją zasada nieoznaczoności, ściśnięcie jej do punktu jest matematycznie niemożliwe. Punkt to za cienki Bolek aby być podstawową cegiełką materii ;)

 

Share this post


Link to post
Share on other sites

Co do topologicznego analogu prawa Gaussa, w 2D jest np. https://en.wikipedia.org/wiki/Winding_number , czy podobny https://en.wikipedia.org/wiki/Argument_principle - całkując zmianę kąta po dowolnej zamkniętej krzywej, dostajemy całkowitą wielokrotność 2pi jako sumę ładunków w środku ... zawężając krzywą do dookoła takiego jednego 2pi, możemy zlokalizować taki vortex - np. jako fluxon: kwant pola magnetycznego w nadprzewodniku: https://en.wikipedia.org/wiki/Macroscopic_quantum_phenomena

700px-Vortex_lines_in_rotating_helium01.

Można to przenieść do ładunku typu punkt w 3D (np. konfiguracja typu jeż) - pole wektorów jednostkowych tzw. "director field" zawężamy do zamkniętej powierzchni, dostając odwzorowanie z niej do sfery. Całkując po tej powierzchni Jakobian takiego odwzorowania, który okazuje się być krzywizną pola, dostajemy ilość nawinięć na tą sferę - ładunek topologiczny. Dla takich ładunków topologicznych dostają oddziaływanie np. typu Coulomba ( https://www.nature.com/articles/s41598-017-16200-z ), interpretując tą krzywiznę jako pole elektryczne dostajemy prawo Gaussa z wbudowaną kwantyzacją ładunku - bardziej matematycznie opisuję to w https://arxiv.org/pdf/2108.12359

Proszę o jakieś źródło dla stwierdzenia że supersymetria (praktycznie uważana za obaloną) naprawia https://en.wikipedia.org/wiki/Cosmological_constant_problem

Co do Diraca i Feynmana, oni budowali te teorie, mówiąc wprost o problemach ... obecnie zmiecionych pod dywan. Nie dla wszystkich 1+2+3+4+... = -1/12.

Co do gęstości energii, dookoła ładunku jest pole elektryczne E~1/r^2, gęstość energii to rho~|E^2|~1/r^4 ... tyle że całkuje się to do nieskończoności - trzeba naprawić w zerze ... co sugeruje też running coupling - deformacja dla bardzo małych odległości.

Co do teorii umożliwiających np 10^1000 różnych wszechświatów, jednak widzimy jeden i nie ma żadnych prawdziwych przesłanek dla istnienia kolejnych. Poprawny model powinien mieć jak najmniejszą ilość niezależnych stałych ... zamiast swobodę fitowania kolejnych poprawek, powinien sam być w stanie je przewidywać - w przeciwnym dostajemy ciąg setek poprawek jak SM : https://www.symmetrymagazine.org/article/the-deconstructed-standard-model-equation

sml.png

A może jednak to jest np. szereg Taylora jakiejś względnie prostej niskoparametrycznej teorii opisującej tylko nasz wszechświat?

Edited by Jarek Duda

Share this post


Link to post
Share on other sites
5 godzin temu, Jarek Duda napisał:

Nie dla wszystkich 1+2+3+4+... = -1/12

Owszem. Ale mam nadzieje że kolega rozumie, że konwencja że nieskończona suma musi być granicą sum częściowych nie musi obowiązywać przyrody. Przede wszystkim przyroda sumuje wszystkie składniki na raz, bez określonego porządku, ewentualnie przyjmując pewien porządek częściowy na składnikach sumy wynikły z przyczynowości.
To że regularyzacje działają to fakt eksperymentalny.

5 godzin temu, Jarek Duda napisał:

Co do gęstości energii, dookoła ładunku jest pole elektryczne E~1/r^2, gęstość energii to rho~|E^2|~1/r^4 ... tyle że całkuje się to do nieskończoności - trzeba naprawić w zerze

Ale to jest problem obalonej teorii klasycznej. Niczego nie musimy naprawiać! Mamy KTP.

5 godzin temu, Jarek Duda napisał:

Co do teorii umożliwiających np 10^1000 różnych wszechświatów, jednak widzimy jeden i nie ma żadnych prawdziwych przesłanek dla istnienia kolejnych.

Najwyraźniej kolega nie rozumie, że teorie kwantowe pola albo klasyczne umożliwiają istnienie nieskończonej liczby wszechświatów. Z nieskończonością klasy C.
Nawet przyjmując parametry stałych z dokładnością do FP64 mamy 10^400 teorii Modelu Standardowego do wyboru i nikt nie narzeka z tego powodu.

Oczywiście widzimy "jeden wszechświat". Tak jak doprecyzowujemy kolejne bity opisujące numeryczne wartości stałych, tak samo możemy co do zasady liczyć fizyki efektywne dla każdej ze strunowych kandydatek.

Trzeba być naiwnym by sądzić że jakikowiek framework matematyczny nie będzie miał wewnętrznej swobody którą trzeba ograniczyć obserwacjami. To w czym słabsze umysły się gubią to dyskretny charakter zbioru kandydatów teorii strunowych i niezgodność z naiwnym oczekiwaniem że proces wyboru musi być prosty algorytmicznie. Tymczasem dowiedziono że wyliczenie teorii strunowych jest NP-trudne. Przyrodę to bigbanguje. Aczkolwiek nie jest wykluczone że świat jest łaskawy i żyjemy w wyjątkowo prostej kompaktyfikacji. Niechęć do teorii strun ma wyłącznie charakter psychologiczny: tak naprawdę jest to mem rozpropagowany przez upadający intelektualnie przemysł pop-sci.

5 godzin temu, Jarek Duda napisał:

Poprawny model powinien mieć jak najmniejszą ilość niezależnych stałych

No proszę. Nie da się chyba pod tym względem zrobić lepiej niż Teoria Strun.

5 godzin temu, Jarek Duda napisał:

Proszę o jakieś źródło dla stwierdzenia że supersymetria (praktycznie uważana za obaloną)

No to jest jakaś bzdura do ^2. Aby obalić supersymetrię trzeba by przeorać akceleratorami energie aż do Plancka, ze względu na zjawisko spontanicznego łamania symetrii. To prawda formalna.
Obraca się kolega najwyraźniej w dziwnym środowisku które niewiele ma wspólnego z HEP, skoro pozwala ono sobie uważać supersymetrię za praktycznie obaloną. Mam tylko nadzieję że to nie jest marka jakiegoś nowego wina owocowego :P
Zacznijmy od tego że supersymetria jest symetrią matematyczną, dokładnie tak samo jak inne symetrie występujące w fizyce. Jej elegancka fizyczna interpretacja odwrócenia ról fermionów z bozonami (czyli unifikacja koncepcji oddziaływań z materią!) nie pozwala mieć wielkiej nadziei na jej nieistotność.
Została odkryta w kontekście fizycznym umykając matematykom. Ale gdyby było inaczej, i najpierw odkryto by supersymetrię w matematyce i potem zrozumiano fizyczne implikacje, to nikt wtedy nie miałby wątpliwości że nie może być to przypadkiem: przyroda nie może ignorować sobie istnienia takiej symetrii!
Jeśli jeszcze uświadomimy sobie, że zależą od niej wszystkie udane formalne unifikacje GR z KTP (supergrawitacja + teorie strun, wszystkie są obecnie częścią M-teorii) to szanse na nieistotność supersymetrii wynoszą praktyczne zero, bo jest ona zarówno sposobnością (unifikacja koncepcji materii i oddziaływań) jak i praktyczną koniecznością (kwantowa grawitacja).
Jeśli jeszcze dodamy ciemną materię która jest w pewnym sensie predykcją supersymetrii (dark sector) dalej dostajemy praktyczne zero :P

5 godzin temu, Jarek Duda napisał:

zawężając krzywą do dookoła takiego jednego 2pi, możemy zlokalizować taki vortex - np. jako fluxon: kwant pola magnetycznego w nadprzewodniku: https://en.wikipedia.org/wiki/Macroscopic_quantum_phenomena

Akurat tutaj mamy różnicę pomiędzy ideałem matematycznym a realnym rozciągłym bytem fizycznym. Dla modeli kwantowych nie ma to żadnego znaczenia, ale dla modeli klasycznych które chcą "z zasady pozbyć się problemów" jest to problem. Chyba że źle to rozumiem i wszystkie defekty topologiczne mają punkty osobliwe: z rysunków ciężko to odczytać.

5 godzin temu, Jarek Duda napisał:

Co do topologicznego analogu prawa Gaussa, w 2D jest np. https://en.wikipedia.org/wiki/Winding_number

Nie wiem czy kolega zdaje sobie sprawę że to standard w Teorii Strun. Co ważne - ładunek elektryczny ma wiele topologicznych modeli i wszystkie są równoważne.

Zasadniczo to naukowa działalność kolegi sprowadza się to poszukiwania teorii ostatecznej która miałaby maksymalną ilość cech wspólnych z Teorią Strun ale nią nie była, a opór wobec niej ma charakter religijnej (sekciarskiej) indoktrynacji - kilka niewłaściwych książek przeczytanych w niewłaściwym stanie psychicznym. Woit, Smolin...
Jakby co to podrzucę koledze jeszcze kilka "nazwisk" do listy autorytetów: Fritz, Wersow, Hossenfelder :P.

Gdyby mi nominalnie płacono za uprawianie fizyki to poświęciłbym te dwa lata na nauczenie się tej teorii, tym bardziej że jej aparat matematyczny zaczyna być użyteczny daleko poza oryginalnym kontekstem w którym go wprowadzono, na przykład w fizyce ciała stałego (tylko jak to pogodzić z przymusem publikacji).

Podejście kolegi jest takie, że wyzwania stojące przed fizyką traktuje jako pretekst aby się jej nie uczyć :P
Bardzo wygodnie jest zatrzymać się w rozwoju gdzieś w roku 1930 (albo i 1925) i próbować tworzyć "alternatywną fizykę" licząc na fuksa, bo w naszej rzeczywistości gdzieś dalej pojawiły się "trudne momenty w materiale" (podejście jak u hazardzisty który się wkręcił bo wygrał za pierwszym razem).
Ale w tej dyscyplinie "łatwe punkty" się skończyły.

19 godzin temu, Jarek Duda napisał:

Diraca i Feynmana

Charakterystyczne w postawie tych dwóch panów było to, że nawet w sytuacji gdy fizyka wydawała im się psychologicznie niesatysfakcjonująca, nigdy się nie oszukiwali i podążali właściwą ścieżką (prawdy). Z zastrzeżeniem że Dirac mógł przewidzieć pozytony ale tego nie zrobił z powodu oporów psychologicznych (to dopiero cenna lekcja na całe życie, na szczęście Noblika i tak przytulił).

5 godzin temu, Jarek Duda napisał:

Proszę o jakieś źródło dla stwierdzenia że supersymetria (praktycznie uważana za obaloną) naprawia https://en.wikipedia.org/wiki/Cosmological_constant_problem

... To jest trywialny elementarny wynik. Niezłamana supersymetria daje dokładnie zero bo wkłady od pola dowolnej cząstki i jej supersymetrycznego partnera do zero point energy dokładnie się znoszą. To jest punkt wyjścia. Złamanie supersymetrii może zmienić ten wynik ale nie musi. Zatem już na wstępie problem niezgodnosci z teorią ulega zmniejszeniu 10^120 razy.
Prosta miara według której modele supersymetryczne są 10^120 raza lepsze od niesupersymetrycznych.

 

Edited by peceed

Share this post


Link to post
Share on other sites

To dodając 1 jednostkę np. energii + 2 + 3 + ... w ten sposób dostajemy -1/12 jednostki np. energii?

Co do gęstości energii, jeszcze raz: pytam się o jakąkolwiek np. oczekiwana gęstość Hamiltonianu też w QFT - w danej odległości od elektronu.

To że teoria przewiduje możliwość istnienia innych wszechświatów czy np. istot nadprzyrodzonych, nie znaczy że istnieją. Brak dowodu nieistnienia, nie jest dowodem istnienia. Proszę o dowód istnienia innych wszechświatów.

Ja znam tylko dowody na istnienie naszego jednego wszechświata - dobra teoria to pozwalająca poprawnie w nim przewidywać, a nie tylko umożliwiająca dodawanie i fitowanie kolejnych poprawek gdy się nie zgadza.

Co do supersymetrii, np. https://www.scientificamerican.com/article/supersymmetry-fails-test-forcing-physics-seek-new-idea/

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites
26 minut temu, Jarek Duda napisał:

To dodając 1 jednostkę np. energii + 2 + 3 + ... w ten sposób dostajemy -1/12 jednostki np. energii?

Jeśli będziesz odpowiednio sumował.  A podobno dodawanie jest przemienne. Używanie sumy Ramanujana w fizyce zawsze wydaje mi się szemrane.

Share this post


Link to post
Share on other sites
Godzinę temu, Jarek Duda napisał:

To dodając 1 jednostkę np. energii + 2 + 3 + ... w ten sposób dostajemy -1/12 jednostki np. energii?

Tak. Czy to jakiś problem? Świat nie jest klasyczny i nie składa się z klasycznych klocków, te energetyczne wkłady są wirtualne. Zadaniem teorii fizycznej jest dostarczać skończonych wyników opisujących poprawnie wyniki obserwacji i nic więcej!
Jak należy to rozumieć? - najlepiej jako "artefakty parametryzacji". Ogólnie "realną rzeczywistość" trzeba traktować jako coś w rodzaju rozmaitości a opisy fizyczne jako mapy. Fakt że w pewnych "mapach" pojawiają się nieskończoności formalne nie wynika, że sama rozmaitość/rzeczywistość wariuje, ona zawsze jest skończona. Do pewnego momentu proste mapy można czytać w trywialny sposób (odpowiedzi na pytania o rzeczywistość to suma szeregu mającego granicę sum częściowych).    Potem okazuje się, że aby mapa dłużej dostarczała poprawnych wyników trzeba ją czytać inaczej (regularyzacje). Przy czym od początku można ją było czytać inaczej, bo regularyzacja nie zmienia sumy szeregu zbieżnego, tylko że nie zdawaliśmy sobie z tego sprawy. Można się dziwić dlaczego tak jest, ale "fundamentalne" pytania "dlaczego" zazwyczaj pozostają bez odpowiedzi, bo rozbijają się o aksjomaty rzeczywistości które odkrywamy operacyjnie.
Fizyka to odkrycie, że rzeczywistość ma modele matematyczne/algorytmiczne.
Doszliśmy do algorytmów które dają prawidłową odpowiedź w sposób który jest dla nas mniej oczywisty (renormalizacje,regularyzacje), ale nie jest to w ogóle fundamentalnie mniej dziwne niż działanie prostych modeli/algorytmów klasycznych - te są bardziej intuicyjne bo mamy w mózgach masę okablowania będącego "sprzętową akceleracją" odkrytą przez dobór naturalny, dzięki któremu pewne rzeczy są dla nas "oczywiste" (bo zgodne z wynikami dostarczanymi przez wewnętrzne działanie tych akceleratorów). A tu nagle trzeba wyjść z bezpiecznej "klasycznej=neuronowo łatwej" rzeczywistości"... Tak, robi się coraz dziwniej.

Godzinę temu, Jarek Duda napisał:

To że teoria przewiduje możliwość istnienia innych wszechświatów czy np. istot nadprzyrodzonych, nie znaczy że istnieją.

Teoria Strun również nie przewiduje że istnieją w inny sposób niż potencjalne domeny w naszej przestrzeni o różnych efektywnych prawach fizyki. Pisałem wyraźnie: to taka sama potencjalność jak istnienie różnych KTP. Nie ma żadnych dowodów że istnieje wszechświat gdzie h jest dwa razy mniejsze.

Godzinę temu, Jarek Duda napisał:

dobra teoria to pozwalająca poprawnie w nim przewidywać, a nie tylko umożliwiająca dodawanie i fitowanie kolejnych poprawek gdy się nie zgadza.

Teoria Strun dostarcza wyników bez fitowania. "Wystarczy" znaleźć kompaktyfikację i znamy całą fizykę z wszystkimi procesami z nieskończoną dokładnością.

Godzinę temu, Jarek Duda napisał:

Czasopismo zeszło na psy, stosując metody znane z tabloidów. Nie wiem czy kolega sobie zdaje sprawę że Woit to mr. Nobody co łatwo odkryć po liście publikacji i cytowań.
Ci ludzie nie rozumieją nawet że "negatywne" wyniki badań dostarczają dokładnie takiej samej wiedzy jak pozytywne. Tzn. gdy po przeszukaniu jakiegoś rejonu energii wiadomo, że pewnych cząsteczek nie ma, jest równie istotnie jakby je odkryto - na tym polega wiedza eksperymentalna. Przy czym dzięki detektorom na Antarktydzie już wiadomo, że nowe cząsteczki gdzieś tam są, tzn. morze wyrzuciło kanoe z Indianinem na brzeg w Europie. Nie wiadomo tylko jak dokładnie daleko ta Ameryka się znajduje.
Tacy ludzie mają tę samą mentalność naukową jak ludzie którzy stawiają ultimatum "albo znajdziemy jakieś zaginione ogniwo, albo teoria ewolucji jest fałszywa", nie rozumiejąc że status teorii ewolucji kompletnie nie zależy od wyników jednego konkretnego wykopaliska lub kompletności zapisów kopalnych drzewa filogenetycznego określonego gatunku.
Nie rozumieją jak drobny obszar w przestrzeni możliwych parametrów cząsteczek został przebadany i wykluczony.
 

Edited by peceed

Share this post


Link to post
Share on other sites
W dniu 3.09.2021 o 14:26, Jarek Duda napisał:

To dodając 1 jednostkę np. energii + 2 + 3 + ... w ten sposób dostajemy -1/12 jednostki np. energii?

Jeszcze jedna bardzo ważna uwaga. Nasza intuicja jak działa dodawanie została zbudowana na dodawanych "kamykach", "ciężarkach", "butelkach".
Tymczasem wkłady energetyczne w sumach w obliczeniach kwantowych nie są obserwablami, dokładnie to oznacza wirtualność.
Nie można bezkrytycznie używać klasycznej intuicji, bo ta zawodzi.

Mogę się z ciekawości spytać jak kolega radził sobie psychologicznie z ujemnym prawdopodobieństwem które pojawia się w rachunkach?
To chyba podobna sprawa. Zresztą jeszcze dawniej tak samo było z liczbami urojonymi. Dopuszczaliśmy urojone wielkości jak długo nie miały oznaczać obserwowanej "ilości czegoś".
Przynajmniej do teorii obwodów ;)

 

W dniu 3.09.2021 o 14:55, Jajcenty napisał:

Używanie sumy Ramanujana w fizyce zawsze wydaje mi się szemrane.

To samo co powyżej :)
Fizyka w stosunku do matematyki ma tę przewagę, że pewne rzeczy można sprawdzić eksperymentalnie. Jeśli coś działa to działa.
1+2+3=-1/12 działa.
Z matematycznego punktu widzenia też działa. Czyli przyroda korzysta z nie tego dodawania co nam się wcześniej wydawało że korzysta.
 

Share this post


Link to post
Share on other sites
W dniu 5.09.2021 o 01:40, peceed napisał:

Z matematycznego punktu widzenia też działa.

Matematycznie też mnie to nie przekonuje. Praktycznie sprowadza się to do policzenia lewostronnej granicy sumy. Szemrane. W dodatku, kiedy nam wygodnie przyjmujemy -1/12 a jak nie to przewrócona ósemka ;) Dwa dowody z różnymi wynikami to paradoks. Ale nie czuj się zobowiązany wyjaśniać, mój klasyczny mózg i tak tego nie kupi. Jedne co do mnie jako tako przemówiło to dowód z dzety Riemanna, ale nie zmieniło mnie to w wyznawcę :unsure:

 

Edited by Jajcenty

Share this post


Link to post
Share on other sites
W dniu 2.09.2021 o 20:44, peceed napisał:

Ponieważ jednak elementarna cząsteczka w KTP musi zachowywać się jak struna, nieskończoność energii znika.  Naładowana jednowymiarowa pętelka nie jest w stanie osiągnąć nieskończonej energii dokładnie z tego samego powodu dla której atom wodoru jest stabilny - chroni ją zasada nieoznaczoności, ściśnięcie jej do punktu jest matematycznie niemożliwe. Punkt to za cienki Bolek aby być podstawową cegiełką materii

Ha ha, ale czarne dziury to już są możliwe matematycznie? To da się ścisnąć ten atom czy nie ha ha ha (matematycznie oczywiście)?

 

W dniu 10.09.2021 o 12:48, l_smolinski napisał:
W dniu 2.09.2021 o 20:44, peceed napisał:

Ponieważ jednak elementarna cząsteczka w KTP musi zachowywać się jak struna, nieskończoność energii znika.  Naładowana jednowymiarowa pętelka nie jest w stanie osiągnąć nieskończonej energii dokładnie z tego samego powodu dla której atom wodoru jest stabilny - chroni ją zasada nieoznaczoności, ściśnięcie jej do punktu jest matematycznie niemożliwe. Punkt to za cienki Bolek aby być podstawową cegiełką materii

Ha ha, ale czarne dziury to już są możliwe matematycznie? To da się ścisnąć ten atom czy nie ha ha ha (matematycznie oczywiście)?


Hehe ale wysłałeś smsy do wszystkich atomów wodoru, z informacją, że ludzkość zapisała sobie zasadę nieoznaczoności i ich ściskanie jest nie możliwe i jak by ktoś je ściskał, to  żeby się te atomy wodoru do nas zgłosili a my zrobimy reasumpcję?    

Edited by l_smolinski

Share this post


Link to post
Share on other sites

Widziałem wczoraj, struktury topologiczne są wszędzie ... więc dlaczego nie sprawdzić hipotezy że cząstki są ich przykładami?

Takie "cząstki" działają np. kwantując pole magnetyczne w nadprzewodnikach, ładunek z siłą np. typu Coulomba w ciekłych kryształach ... w prawdziwych cząstkach odpowiadając np. na pytanie o kwantyzacją ładunku: dlaczego prawo Gaussa zwraca tylko e*Z - co łatwo wytłumaczyć interpretując że liczy ładunek topologiczny:

obraz.png

Rozbudowane slajdy - dostaję Kleina-Gordona dla fazy takiego elektronu na 15: https://www.dropbox.com/s/9dl2g9lypzqu5hp/liquid crystal particles.pdf

Share this post


Link to post
Share on other sites

Kule są dość popularnym przybliżeniem/idealizacją - od cząstek szczególnie nukleonów, przez atomy jak wodór, aż po np. gwiazdy czy kształt wszechświata.

Natomiast tutaj podstawowe pytanie to: dlaczego prawo Gaussa w naturze zwraca tylko całkowitą wielokrotność e?

Zwykle się to wkłada rękami, ale może jest lepsze wytłumaczenie, jak że prawo Gaussa liczy ładunek topologiczny ... czy są jakieś inne próby wytłumaczenia?

 

Na topologiczną kwantyzację już pozwala faza kwantowa np. fluxonów - jej obrót po dowolnej pętli musi być całkowitą wielokrotnością 2pi.

Analogiczny mechanizm może dać kwantyzację ładunku, np. unifikując fazę kwantową z elektromagnetyzmem jak poniżej, oba mają falową dynamiką: Maxwell i np. Klein-Gordon.

Żyjemy w 3D - faza mówi o kącie obiektu 3D (psi poniżej), ale ten obiekt 3D ma więcej możliwości obrotu (SO(3)) - dających wyżej energetyczny elektromagnetyzm, z prawem Gaussa liczącym ładunek topologiczny takiego pola kierunków ("director field" w ciekłych kryształach).

W ten sposób w operatorze pędu: P = -i hbar nabla - qA, cztero-potencjał A też zawiera gradient takiej rozszerzonej fazy:

obraz.png

Share this post


Link to post
Share on other sites
2 godziny temu, Jarek Duda napisał:

dlaczego prawo Gaussa w naturze zwraca tylko całkowitą wielokrotność e

Bo istnieją monopole magnetyczne!

Share this post


Link to post
Share on other sites

Eksperymentalnie monopole magnetyczne są raczej solidnie wykluczone: https://en.wikipedia.org/wiki/Magnetic_monopole#Searches_for_magnetic_monopoles

Trick Fabera który używamy to przejście na dualne sformułowanie EM ( https://en.wikipedia.org/wiki/Duality_(electricity_and_magnetism) ) - które zamienia te ładunki topologiczne jako monopole magnetyczne, na monopole elektryczne czyli ładunki elektryczne - zgodnie z tym że tylko te drugie obserwujemy.

Edited by Jarek Duda

Share this post


Link to post
Share on other sites
43 minuty temu, Jarek Duda napisał:

Takie podejście nie zadziała. Ta dualność nie jest opisem dualnym takiej samej sytuacji fizycznej! W szczególności mogą istnieć fizyczne konfiguracje które zawierają zarówno monopole magnetyczne jak i ładunki elektryczne jednocześnie, tutaj reinterpretacja nie pomoże.

58 minut temu, Jarek Duda napisał:

Eksperymentalnie monopole magnetyczne są raczej solidnie wykluczone

Nie da się wykluczyć monopoli eksperymentalnie, bo nie mamy o nich żadnej eksperymentalnej wiedzy. Natomiast pojawiają się we wszystkich sensownych teoriach cząsteczek,
a inflacja rozwiązuje problem ich rzadkości. W pewnym sensie ich istnienie skrajnie uprawdopodabnia obserwacja monopoli w układach fazy skondensowanej, jest to eksperymentalne potwierdzenie koncepcji: przyroda realizuje formalizmy.

 

 

 

Share this post


Link to post
Share on other sites

Świat jaki znamy znamy raczej zawiera tylko fundamentalne monopole elektryczne (nie oszukane ciałostałowe), np. ze wspomnianej Wikipedii:

Quote

There have been many searches for preexisting magnetic monopoles. Although there has been one tantalizing event recorded, by Blas Cabrera Navarro on the night of February 14, 1982 (thus, sometimes referred to as the "Valentine's Day Monopole"[36]), there has never been reproducible evidence for the existence of magnetic monopoles.[13] The lack of such events places an upper limit on the number of monopoles of about one monopole per 1029nucleons.

Matematycznie tensor F_munu definiujemy jako krzywizna ukrytego pola np. "director field" w ciekłych kryształach, dla niego używamy standardowego EM Lagrangianu F_munu F^munu ... tylko że w ten sposób dostalibyśmy (skwantowane) monopole magnetyczne ... więc zamiast tego używamy dualnego F^*_munu: z wymienionym E i B, dostając tylko skwantowane monopole elektryczne - ładunki ( https://inspirehep.net/files/f7508c521cb8020c10f84ca4fdf0ff68 )

Czyli ładunek to np. "jeż" takiego pola - z krzywizną przestrzenną 1/r^2, jak pole elektryczne dookoła ładunku - interpretujemy tą krzywiznę jako pole elektryczne (zamiast magnetycznego w monopolach):

obraz.png

Share this post


Link to post
Share on other sites

Drobny update: interaktywna demonstracja pozwalająca pobawić się takimi defektami topologicznymi w nematyku dwuosiowym - 3 typy jak leptony, z dodatkowym dipolem magnetycznym z tw. o zaczesywaniu sfery ( https://en.wikipedia.org/wiki/Hairy_ball_theorem ), z ewolucją "fazy kwantowej": https://demonstrations.wolfram.com/TopologicalChargesInBiaxialNematicLiquidCrystal/

Oraz wyprowadzenie równania typu Klein-Gordon dla tej fazy (slajd 15  https://www.dropbox.com/s/9dl2g9lypzqu5hp/liquid crystal particles.pdf ) :

obraz.png

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Amerykańska firma Biometryks LLC podpisała umowę licencyjną na patent należący do Uniwersytetu Warszawskiego (UW). Patent obejmuje nowatorską technologię produkcji matrycy grafenowej. Wynalazek może być wykorzystany w konstrukcji biosensora, który w nieinwazyjny sposób prowadzi analizy próbek potu, moczu lub krwi, monitorując lub diagnozując choroby nabyte i przewlekłe.
      Matryca grafenowa ma być kluczowym elementem sensora. Jego nowa generacja ma pozwolić na analizę na bieżąco próbek potu, moczu i krwi.
      W pierwszym etapie projektu Biometryks opracuje nieinwazyjną technologię do oznaczania i analizy biomarkerów w pocie. Po przyklejeniu do skóry sensor będzie mógł działać przez kilka tygodni.
      Jak podkreślono w komunikacie prasowym UW, dane z pomiarów zostaną przeanalizowane w chmurze w czasie rzeczywistym przez algorytm sztucznej inteligencji. Pacjent będzie mógł zobaczyć wyniki analizy w aplikacji na smartfonie. Tam znajdzie on również personalizowane (dostosowane do aktualnego stanu zdrowia) zalecenia związane ze zdrowym stylem życia. W oddzielnej aplikacji wgląd do danych będzie miał lekarz; pozwoli mu to na wczesne podjęcie decyzji o ewentualnym pogłębieniu diagnostyki czy wdrożeniu leczenia.
      Współpraca środowiska naukowego i biznesowego zaowocuje powstaniem sensora, który dokona rewolucji we wczesnej diagnostyce oraz monitorowaniu pacjentów z chorobami przewlekłymi. Takiej technologii nie ma jeszcze nikt. Dzięki innowacyjnemu rozwiązaniu Biometryks poprawi jakość życia pacjentów na całym świecie – zaznacza dr n. med. Kris Siemionow, prezes zarządu Biometryksu LLC.
      Matryca grafenowa została opracowana przez naukowców z Wydziału Chemii UW, którzy pracowali pod kierownictwem dr Barbary Kowalewskiej. Należy podkreślić, że to pierwsza na świecie matryca, która wykazuje na tyle wysoką stabilność, by dało się ją wykorzystać w rozwiązaniach medycznych. Zastosowanie grafenu pozwoliło uzyskać bezkonkurencyjne parametry transmisji danych pozyskiwanych przez projektowane biosensory.
      Dzięki umowie licencyjnej będzie można kontynuować prace badawcze nad innowacyjną i nieinwazyjną technologią diagnostyczną. Amerykańskie urządzenie jest roboczo nazywane Biometryksem B1.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Ruszyła największa w Europie sieć koordynująca badania astronomiczne - OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego. Projekt o wartości 15 mln euro jest finansowany z programu Komisji Europejskiej Horyzont 2020.
      Połączenie dwóch sieci
      Dotąd w Europie działały 2 główne sieci, które koordynowały współpracę instrumentów naziemnych. OPTICON był związany z obserwacjami w zakresie widzialnym, zaś RadioNet w zakresie radiowym. Powstała w wyniku ich połączenia ORP zapewni europejskim naukowcom dostęp do szerokiej gamy teleskopów oraz, co ważne, wesprze rozwój naukowy młodych astronomów.
      Jak podkreślono w komunikacie na stronie Uniwersytetu Mikołaja Kopernika, projekt ORP ma na celu rozwój tzw. astronomii wieloaspektowej, obejmującej nie tylko badania w szerokim zakresie promieniowania elektromagnetycznego, ale także fale grawitacyjne, promieniowanie kosmiczne i neutrina. Dlatego duży nacisk kładzie się na ujednolicenie metod i narzędzi obserwacyjnych oraz rozszerzenie dostępu do wielu różnych instrumentów astronomicznych.
      OPTICON-RadioNet Pilot
      Projektem kierują Centre National de la Recherche Scientifique (CNRS), Uniwersytet w Cambridge oraz Instytut Radioastronomii im. Maxa Plancka w Bonn. Współpraca obejmuje 37 instytucji z 15 krajów europejskich, Australii i RPA.
      W ramach opisywanego przedsięwzięcia zaplanowano opracowanie standardów obserwacji nieba i analizy danych dla teleskopów optycznych i radioteleskopów. Projekt ma też ułatwić europejskim astronomom dostęp do najlepszych teleskopów na świecie, np. 100-metrowego radioteleskopu z Bonn.
      Zadania zespołów z Torunia i Warszawy
      Badania naukowe w ramach ORP na Uniwersytecie Mikołaja Kopernika będą prowadzone zarówno w zakresie radiowym, jak i widzialnym przy użyciu instrumentów znajdujących się w Obserwatorium Astronomicznym UMK w Piwnicach pod Toruniem. Całość prac naukowych na UMK będzie koordynowana przez dr hab. Agnieszkę Słowikowską [...]. W zakresie radiowym użyty zostanie największy polski radioteleskop o średnicy 32 metrów, który w 2020 r. przeszedł gruntowną renowację. Natomiast do pomiarów w zakresie widzialnym wykorzystany zostanie największy w Polsce teleskop optyczny (zwierciadło główne o średnicy 90 cm). Dr Słowikowska została wybrana na przewodniczącą zespołu koordynującego ORP (w jego skład wchodzi 37 reprezentantów wszystkich zaangażowanych instytucji).
      Zespół z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego, którym kieruje prof. Łukasz Wyrzykowski, będzie z kolei odpowiadać za koordynację działania rozproszonych po całym świecie małych i średnich teleskopów naziemnych; jego celem będzie monitorowanie zmienności czasowej interesujących obiektów. Sieć składa się z ok. 100 teleskopów, w tym 50 robotycznych. Jednym z jej elementów jest 60-centymetrowy teleskop, znajdujący się w Północnej Stacji Obserwacyjnej UW w Ostrowiku pod Warszawą - wyjaśniono w relacji prasowej UW.
      Od 2013 r. zespół prof. Wyrzykowskiego brał udział w pracach sieci OPTICON. Opierając się na zdobytym doświadczeniu, opracowano system internetowy do obsługi licznych teleskopów i wysyłania zamówień na systematyczne obserwacje tych samych obiektów (w ten sposób można badać ich zmienności). Takie narzędzie ułatwia naukowcom prowadzenie badań obiektów tymczasowych i zmiennych w czasie, np. supernowych czy zjawisk soczewkowania grawitacyjnego wywołanych przez czarne dziury. Tego typu obserwacje niejednokrotnie muszą być prowadzone przez wiele miesięcy, a nawet lat. Sieć wielu małych teleskopów rozmieszczonych na całym świecie zapewnia możliwość obserwacji obu półkul nieba przez całą dobę - tłumaczą astronomowie z Warszawy.
      Zespół, który z ramienia Obserwatorium Astronomicznego UW bierze w projekcie ORP, tworzą: dr Mariusz Gromadzki, mgr Krzysztof Rybicki, mgr Monika Sitek i prof. dr hab. Łukasz Wyrzykowski.
      Należy podkreślić, że astronomowie z UW od wielu lat zajmują się systematycznym monitorowaniem zmienności obiektów. To tu w latach 60. zeszłego stulecia Bohdan Paczyński prowadził badania nad obserwacyjnymi aspektami fal grawitacyjnych w układach podwójnych gwiazd. Od 1996 r. astronomowie prowadzą zaś pod przewodnictwem prof. Andrzeja Udalskiego długotrwałe obserwacje nieba za pomocą Teleskopu Warszawskiego w Chile (odkrywają planety i gwiazdy zmienne).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Osiemsetletni Pontyfikał Płocki doczekał się pierwszego naukowego opracowania. Projekt zrealizowali naukowcy z Uniwersytetu Kardynała Stefana Wyszyńskiego (UKSW), Akademii Sztuk Pięknych w Warszawie, Uniwersytetu Warszawskiego i Muzeum Azji i Pacyfiku. W efekcie ich pracy powstała niezwykła [3-tomowa] monografia Pontyfikału, obejmująca krytyczną edycję tekstu łacińskiego, jego przekład na język polski oraz facsimile.
      Od XII/XIII w. Pontyfikał był dumą biskupstwa płockiego. W 1940 r. został wywieziony przez Niemców z Biblioteki Seminarium Duchownego w Płocku; wraz z innymi manuskryptami zdeponowano go w Państwowej i Uniwersyteckiej Bibliotece w Królewcu. Podczas ewakuacji Królewca kodeks został skradziony. Następnie trafił do sowieckiej strefy okupacyjnej, a potem do NRD - w Centralnym Antykwariacie w Lipsku Pontyfikał był strzeżony przez STASI. W 1973 r. trafił na aukcję do zachodnich Niemiec (dom aukcyjny Hartung & Karl). Za 6200 DM jako "rytuał z pontyfikałem pochodzenia niemieckiego z XIV wieku" kupiła go Bawarska Biblioteka Państwowa. Tam odkrył go prof. Julian Lewański i zaalarmował płockich biskupów. Sprawa toczyła się 30 lat, aż wreszcie w 2015 roku Pontyfikał Płocki wrócił na swoje miejsce.
      Jak podkreślono w wykładzie "Pontyfikał płocki z XII wieku - apologia świętego średniowiecza" UKSW, od czasu rozpoznania Pontyfikału przez prof. Lewańskiego Kuria Biskupia w Płocku wiele razy [...] zwracała się bezskutecznie o jego oddanie. Zwrotu dzieła dokonano dopiero w kwietniu 2015 r., po tym jak na początku 2015 roku biskup Piotr Libera skierował się wprost do dyrektora Biblioteki Państwowej w Monachium.
      Dr Monika Kuhnke, historyk sztuki, która od lat 90. angażuje się w rewindykację do Polski zabytków wywiezionych w czasie II wojny światowej, tłumaczyła przed laty (Cenne, bezcenne, utracone), że przez stulecia pontyfikały były ważnymi księgami liturgicznymi. Często były one bogato zdobione i zawierały uwagi, a także uzupełnienia kolejnych właścicieli/użytkowników, które ułatwiały ustalenie pochodzenia księgi. Specjalistka podkreślała, że choć szczęśliwie zasadniczy tekst Pontyfikału zachował się w całości, brakowało znaków własnościowych wskazujących na płockie pochodzenie księgi (na kartach 86 i 196 widoczne są ślady po usuniętych pieczęciach) oraz trzech kart początkowych, zwanych ochronnymi. Karta 1. prawdopodobnie była czysta, na karcie 2. wypisano tytuł "Agenda", a na karcie 3v. znajdowała się notatka przypominająca zarządzenie biskupa poznańskiego Andrzeja z 1302 r. Przypuszczalnie znaki usunięto przed planowaną sprzedażą księgi w monachijskim domu aukcyjnym Hartung & Karl w roku 1973.
      Jak można się domyślić, odzyskany zabytek szybko wzbudził zainteresowanie naukowców. Ks. prof. dr hab. Henryk Seweryniak, kierownik Katedry Teologii Fundamentalnej i Prakseologii Apologijnej na Wydziale Teologicznym UKSW, który pochodzi z diecezji płockiej, dostał na przekład, edycję krytyczną i analizę treści Pontyfikału grant z Narodowego Programu Rozwoju Humanistyki.
      W naukowym opracowaniu zabytku wzięło udział 3 naukowców z UKSW (kierownik projektu, a także ks. prof. dr hab. Leszek Misiarczyk i prof. dr hab. Czesław Grajewski). Współpracowali z nimi dr hab. Weronika Liszewska z Akademii Sztuk Pięknych w Warszawie, prof. dr hab. Jerzy Wojtczak-Szyszkowski z Uniwersytetu Warszawskiego oraz dr Jacek Tomaszewski z Muzeum Azji i Pacyfiku.
      Jak już wspominaliśmy, monografia Pontyfikału (Studia nad Pontificale Plocense I, XII-XIII w.) obejmuje krytyczną edycję tekstu łacińskiego, przekład na język polski i faksymile. W komunikacie prasowym UKSW podkreślono, że w trzytomowym dziele mieści się, oczywiście, obszerne studium teoretyczne z interpretacją treści: teologicznych, kanonicznoprawnych, polityczno-społecznych oraz zapisów muzykologicznych. Przeprowadzono również dogłębną analizę kodykologiczną, paleograficzną i technologiczną z użyciem nowoczesnych metod analizy atramentów i pigmentów, a także samego podłoża pergaminowego, na którym napisano kodeks. W badaniach porównawczych składu atramentów zastosowano tzw. metodę "odcisku palca", udowadniając różnice i podobieństwa pomiędzy poszczególnymi fragmentami tekstu.
      Badania wykazały, że Pontyfikał powstał najprawdopodobniej w latach 1180-1215. Autorów było wielu. Na podstawie stylu pisarskiego stwierdzono, że pierwszy pisarz wywodził się z opactwa św. Wawrzyńca w Liѐge. Jednak brak szerszego materiału porównawczego uniemożliwia jednoznaczne przypisanie Pontyfikału konkretnemu skryptorium w Polsce.
      Pontyfikał składa się z 211 kart pergaminowych o wymiarach 270x185 mm. Zawiera opisy i normy 85 obrzędów. W 233 miejscach tekstowi liturgicznemu towarzyszy zapis melodii. Prof. Lewański, znawca teatru średniowiecznego, zapisaną w Pontyfikale Płockim wymianę trzech kwestii aktorskich w obrzędzie Visitatio - Quem queritis in sepulchro? - Hiesum Nazarenum Crucifixum – Non est hic, surrexit sicut predicaret... - uznaje za moment narodzin nowożytnego teatru europejskiego.
      Krytyczna edycja Pontyfikału Płockiego jest ważnym wkładem w europejskie i polskie badania mediewistyczne. Poza tym zapewnia cenne wnioski dla zrozumienia powiązań średniowiecznego Mazowsza z kulturą łacińskiego Zachodu. Edycji trzytomowego dzieła podjęło się pelplińskie Wydawnictwo Bernardinum, specjalizujące się w publikacji znakomitej jakości facsimile.
      Z okazji odzyskania po 75 latach Pontyfikału Płockiego Mennica Polska upamiętniła go na srebrnej monecie. W 2015 r. ukazała się ona w serii "Utracone dzieła sztuki". Trzynastego października 2015 r. w Płocku zorganizowano konferencję prasową poświęconą zabytkowi. Jej owocem jest publikacja pt. "Pontyfikał - odzyskana perła średniowiecza"; zawiera ona artykuły prezentujące różne aspekty związane z kodeksem, w tym aspekty prawne odzyskania zabytku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dr Bartosz Kiersztyn z Uniwersytetu Warszawskiego zajmuje się badaniem biofilmów bakteryjnych powstających na różnych powierzchniach w środowisku wodnym. Naukowiec zwrócił uwagę na fakt, że choć [...] w naturalnym środowisku wodnym tworzą się [one] bardzo szybko, to nie powstają wydajnie na powierzchni żywych glonów jednokomórkowych. Eksperymenty wykazały, że jedną z przyczyn tego zjawiska jest substancja wydzielana przez glony podczas fotooddychania. To bardzo istotne odkrycie, gdyż w biofilmach często występują patogenne bakterie, a wiele ich gatunków wytwarza i uwalnia toksyny.
      O ile w wodzie bakterie są w stanie szybko zasiedlić praktycznie każdą powierzchnię, na glonach jednokomórkowych kolonizacja prawie nie występuje. Bakterie niejako powstrzymują się przed kolonizacją żywych mikroskopijnych glonów – nie osadzają się na nich intensywnie i nie namnażają na ich powierzchniach. Obserwacje mikroskopowe oraz biochemiczne i molekularne jednoznacznie na to wskazują.
      Badania pokazały, że gradient mikrostężeń tej substancji wystarczy, by w środowisku wodnym bakterie nie osadzały się intensywnie na danej powierzchni.
      W pewnym momencie pojawił się pomysł, by opracować preparat, który zabezpieczy powierzchnie, w tym odzież i akcesoria wchodzące w kontakt z wodą (np. do uprawiania sportów wodnych), przed powstawaniem biofilmów.
      Takie rozwiązanie ma kilka plusów. Po pierwsze, wytwarzana przez glony naturalna substancja jest tania w produkcji przemysłowej. Możliwość zastosowania jej w mikrostężeniach dodatkowo sprawia, że sam preparat byłby tani w produkcji. Po drugie, naukowcy wskazują, że działanie preparatu wiązałoby się z "odstraszaniem" bakterii, a nie z ich eliminowaniem (eliminowanie groziłoby uwalnianiem z nich toksyn).
      Prowadzone dotychczas eksperymenty na materiałach, z których produkowane są m.in. pianki nurkowe i obuwie do uprawiania sportów wodnych, jednoznacznie potwierdzają, że na odzieży sportowej spryskanej roztworem z odkrytą substancją bakterie wodne osadzają się w minimalnym stopniu. Eksperymenty prowadzono m.in. w naturalnym środowisku w jeziorze Śniardwy, w specjalnie wyselekcjonowanym miejscu obfitującym w wiele szczepów bakteryjnych.
      Marta Majewska, brokerka technologii z Uniwersyteckiego Ośrodka Transferu Technologii przy Uniwersytecie Warszawskim, podkreśla, że odkrycie zostało już objęte ochroną patentową na terenie Polski. Obecnie trwają poszukiwania inwestora/partnera branżowego, który skomercjalizowałby preparat pod własną marką.
      W krajach południowych, gdzie przez większą część roku występują słoneczne i upalne dni, problemy związane z suszeniem oraz konserwacją odzieży i akcesoriów wykorzystywanych w sportach wodnych są znikome. Inaczej jest w naszych szerokościach geograficznych, gdzie nawet latem bywają pochmurne, chłodne i deszczowe dni. Powszechnym wyzwaniem związanym z mokrymi materiałami jest ich higiena oraz impregnacja – bakterie wodne, często posiadające potencjał patogenny, przyczepiają się do materiału, tworząc grube, trudne do usunięcia biofilmy. Odkryty na UW wynalazek pozwala ograniczyć to zjawisko i zabezpieczyć tkaniny.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Cztery średniowieczne bełty do kuszy wraz z fragmentami drewnianych promieni odkryli warszawscy archeolodzy w czasie badań jeziora Hammersø - największego naturalnego zbiornika na Bornholmie. W jego centralnej części spoczywała też zatopiona... wanna. Do znaleziska doszło we wrześniu w okolicy zamku Hammershus, który położony jest w północno-zachodniej części wyspy.
      Naukowcy liczyli, że odkryją na dnie fragmenty dawnej broni. Ludy mieszkające w Skandynawii 1500-2500 lat temu praktykowały rytualne niszczenie broni zdobytej na najeźdźcach. Uzbrojenie było następnie wrzucane w czasie ceremonii do jezior - opowiada PAP prof. Bartosz Kontny z Wydziału Archeologii UW, który kierował badaniami.
      Przeprowadzone we wrześniu tego roku kilkudniowe badania dna jeziora zaskoczyły jednak naukowców. Nie było tam bowiem rytualnie zniszczonej broni, a dość duża liczba śmieci; odkryto butelki, puszki, monety, kluczyk czy żelazne pręty - ekwipunek związany z eksploatacją skał nad jeziorem i w pobliskim kamieniołomie. A na środku jeziora spoczywała... współczesna wanna z tyczką w miejscu jej odpływu! Ciekawych z punktu widzenia archeologów przedmiotów było natomiast kilka i pochodziły ze znacznie późniejszego okresu, niż przewidywali naukowcy.
      Blisko linii brzegowej w północnej części zbiornika, na przestrzeni około 20 m, znaleźliśmy cztery średniowieczne bełty do kuszy z XIII lub XIV w. Ciekawostką jest fakt, że w każdym z nich zachowały się drewniane promienie w tulejkach. To prawdziwa rzadkość. Bełty wykonano w różnych typach - zarówno mocowane za pomocą tulejki, jak i trzpienia wbijanego w drewno - powiedział PAP prof. Bartosz Kontny. Teraz drewno będzie poddane szczegółowym analizom.
      Naukowcy szacują, że przebadali zaledwie kilka procent powierzchni dna jeziora. Zbiornik ma ok. 700 m długości i 160 m szerokości. Archeolodzy używali do swojej pracy detektorów metalu, przy czym przejrzystość wody jest bardzo dobra. Przed nurkowaniem wykonali pomiary całego dna za pomocą sonaru. Wówczas dostrzegli w centralnej części jeziora wannę. Początkowo sądziliśmy, że jest to dłubanka, czyli łódź zrobiona z jednego pnia. Liczyliśmy zatem na ciekawe znaleziska sprzed co najmniej kilkuset lat - wspomina archeolog.
      Naukowcom udało się namierzyć na dnie Hammersø też dwa nowożytne wraki. Przypuszczalnie są to XIX-wieczne żaglówki.
      To nie pierwsze badania podwodne polskich archeologów w jeziorze Hammersø. W ubiegłym roku natrafili na późnośredniowieczny, masywny grot broni drzewcowej (ma ok. 64 cm i waży ponad 1 kg), zaopatrzony w tzw. skrzydełka i wąsy. Naukowcy określają jego stan zachowania jako bardzo dobry.
      Dr hab. Kontny mówi, że jeziora na terenie Danii (do niej należy również Bornholm) są terra incognita dla archeologów. Prawie nikt w nich nie nurkuje, nie prowadzi się w nich również badań archeologicznych. W ostatnich latach zajęliśmy się tym zagadnieniem tylko my - dodaje.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...