Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Fizycy z Uniwersytetu Warszawskiego uzyskali półskyrmiony

Recommended Posts

3 hours ago, l_smolinski said:

Nie. Przecież na atom też ta częstotliwość działa, w efekcie elektrony spadają na jądro, tak naprawdę są wymieszane, tam wszystko jest prawie tym samym stanem, elementy nachodzą na siebie - przenikają się, elektrony z innych atomów oddziaływają ze sobą jak i z innymi atomami, rozmiary atomów są po prostu znacznie większe, tak naprawdę to tam już nie ma atomów:

Ja nie wiem co ty mi tu chcesz powiedzieć. Nie przeskoczysz tego, że to nie są już elektrony i jądra atomowe tylko zupełnie inny stan materii. 
To jest taka oczywistość, że nie chce mi się nawet tego drążyć bardziej. 

Sprowadzasz całą czasoprzestrzeń do postaci kondensatu Bosego-Einsteina, a to jest jakieś uproszczenie i partactwo. KBE to szczególny stan materii w naturze praktycznie nie spotykany.;)

Share this post


Link to post
Share on other sites
11 godzin temu, Qion napisał:

Sprowadzasz całą czasoprzestrzeń do postaci kondensatu Bosego-Einsteina, a to jest jakieś uproszczenie i partactwo. KBE to szczególny stan materii w naturze praktycznie nie spotykany.;)

Rozmawiamy, w kontekście anihilacji i tego, że nie potrzebne jest zderzanie cząstek z masą aby ten proces funkcjonował. KBE to jedna z postaci czasoprzestrzeni. Przejście do KBE inicjalizuje proces anihilacji, a przejście do KBE nie korzysta, ze zderzania cząstek z masą.
  
Nie może być tak, że taka czy inna definicja ma zastosowanie tylko w jakimś tam ograniczonym kontekście. Jeżeli jakaś definicja jest zbyt wąska należy ją zmodyfikować. To naturalny proces refactoringu, który ma miejsce w fizyce. Przykładem jest reorganizacja co 2-3 lata jednostek SI. Refaktoring dla mechaniki kwantowej jako takiej jest konieczny. Zauważ, że zmiany poziomów orbit elektronów w atomach przy przechodzeniu do KBE nie podlegają kwantyzacji. Zmieniają się odziaływania jądro <==> elektrony bez udziału typowych procesów kwantowych w sensie wymagalności porcji energii i zmian skokowych. Zamknij na chwilę oczy i wyobraź sobie, że np. pierwsze zostało odkryte neutrino elektronowe lub KBE, zanim zbadano atomy. Oczywistym jest, że MK nie miała by wtedy takiej postaci.    

Share this post


Link to post
Share on other sites
Posted (edited)
46 minutes ago, l_smolinski said:

Rozmawiamy, w kontekście anihilacji i tego, że nie potrzebne jest zderzanie cząstek z masą aby ten proces funkcjonował. KBE to jedna z postaci czasoprzestrzeni. Przejście do KBE inicjalizuje proces anihilacji, a przejście do KBE nie korzysta, ze zderzania cząstek z masą.
  
 Zamknij na chwilę oczy i wyobraź sobie, że np. pierwsze zostało odkryte neutrino elektronowe lub KBE, zanim zbadano atomy. Oczywistym jest, że MK nie miała by wtedy takiej postaci.    

Używasz pojęcia KBE w odniesieniu do Energy Wave Theory (EWT), która jak na razie jest bardziej hipotezą niż teorią. Na stronie projektu EWT można przeczytać, że został on podzielony na 5 części i jak na razie opracowano matematyczny model podstawowej cząstki jaką rzekomo miałoby być neutrino. Pozostałe części (fazy) projektu EWT to tylko pobożne życzenia jego twórcy nie mające prawdopodobnie wiele wspólnego z rzeczywistością:

https://energywavetheory.com/project/

Edited by Qion

Share this post


Link to post
Share on other sites
Posted (edited)
6 godzin temu, Qion napisał:

Używasz pojęcia KBE w odniesieniu do Energy Wave Theory (EWT), która jak na razie jest bardziej hipotezą niż teorią. Na stronie projektu EWT można przeczytać, że został on podzielony na 5 części i jak na razie opracowano matematyczny model podstawowej cząstki jaką rzekomo miałoby być neutrino. Pozostałe części (fazy) projektu EWT to tylko pobożne życzenia jego twórcy nie mające prawdopodobnie wiele wspólnego z rzeczywistością:

https://energywavetheory.com/project/

Nie EWT nie ma tu nic do rzeczy, analizuję istniejące eksperymenty w kontekście anihilacji i prawidłowości jej definicji, w tym przez aspekt KBE. EWT to tylko jedne z wielu modeli próbujących opisać te same zjawiska co inne modele. Nie wiem czy w EWT poświęcano jakoś sporo czasu na KBE.  

Nie. Źle zrozumiałeś. Modele w ramach EWT opracowano wszystkie. Nie zaimplementowano tych modeli jeszcze tylko  do postaci programu symulatora matematyczno / graficznego. To na co wskazałeś to są fazy dotyczące implementacji symulatora. Modele już są:

https://energywavetheory.com/introduction/wave-theory-of-everything/  

Aczkolwiek skoro faza 1 jest zakończona to myślę, że dało by się już tym symulować KBE. Bo z tego co się znam, to aby zasymulować model neutrino to w pierwszej kolejności było trzeba przygotować model granulatów czyli model zachowania eteru,  z których te neutrina są zrobione, a z których w ramach tej teorii zabudowana jest cała czasoprzestrzeń.  No i jakiś tam ten model widać jest tego eteru zaimplementowany:

EWT-Project-Qscope-Widget-1.jpg

Edited by l_smolinski

Share this post


Link to post
Share on other sites
1 hour ago, l_smolinski said:

Nie. Źle zrozumiałeś. Modele w ramach EWT opracowano wszystkie. Nie zaimplementowano tych modeli jeszcze tylko  do postaci programu symulatora matematyczno / graficznego. To na co wskazałeś to są fazy dotyczące implementacji symulatora. Modele już są:

https://energywavetheory.com/introduction/wave-theory-of-everything/  
 

Z EWT jest więcej problemów. Neutrino jest zbyt małe aby mogło generować siłę Casimira. EWT nie tłumaczy także powstania całego szeregu potwierdzonych eksperymentalnie cząstek Modelu Standardowego, które dokładnie przewiduje QM

Quora - What do physicists think about the energy wave theory

 

 

 

 

Share this post


Link to post
Share on other sites
Posted (edited)
Godzinę temu, Qion napisał:

Z EWT jest więcej problemów. Neutrino jest zbyt małe aby mogło generować siłę Casimira. EWT nie tłumaczy także powstania całego szeregu potwierdzonych eksperymentalnie cząstek Modelu Standardowego, które dokładnie przewiduje QM

Quora - What do physicists think about the energy wave theory

 

 

 

 

1 tak ale kilka już nie. 

W linku pan coś tam sobie bełkocze nie popiera tego, żadną argumentacją, zwykłe lanie wody bez konkretów. Niby których cząstek nie wyjaśnia !!!  Wszystkie wyjaśnia i  tłumaczy absolutnie wszystkie nawet przewiduje ich dokładne energie, tych co jeszcze nie odkryto:

https://vixra.org/abs/1804.0271


Zaraz gnojkowi odpiszę :)  



 

Edited by l_smolinski

Share this post


Link to post
Share on other sites
15 hours ago, l_smolinski said:

1 tak ale kilka już nie. 

Pierwotnie brano pod uwagę także możliwość występowania barionowej ciemnej materii, którą miałyby być neutrina. Jednakże dokładne wyliczenia wskazują, że neutrina mogłyby odpowiadać za około 3% całej CM. Biorąc pod uwagę, że ciemna materia stanowi tylko 26,8%, a ciemna energia 68,3% budulca wszechświata, to tym bardziej ilość neutrin jest nie wystarczająca do wytworzenia eteru postulowanego w EWT.

http://www.deltami.edu.pl/temat/fizyka/struktura_materii/2019/07/29/Ciemnosc_widze_widze_ciemnosc/

Quote

Ciemną materią nie okazały się też kosmiczne neutrina. Mimo że cząstki te mają wszystkie pożądane cechy kandydata na ciemną materię, ich masa spoczynkowa jest za mała, by odpowiadać za więcej niż zaledwie 3% całej CM. 

 

Share this post


Link to post
Share on other sites
Posted (edited)
4 godziny temu, Qion napisał:

Pierwotnie brano pod uwagę także możliwość występowania barionowej ciemnej materii, którą miałyby być neutrina. Jednakże dokładne wyliczenia wskazują, że neutrina mogłyby odpowiadać za około 3% całej CM. Biorąc pod uwagę, że ciemna materia stanowi tylko 26,8%, a ciemna energia 68,3% budulca wszechświata, to tym bardziej ilość neutrin jest nie wystarczająca do wytworzenia eteru postulowanego w EWT.


W EWT zdefiniowana jest granulacja eteru o rozmiarze, długości Plancka. Związku z tym pojedynczy granulat przechowuje znaczeni mnie energii niż neutrino. Neutrino to zagęszczenie granulatów tworzone przez pojedyncze centrum falowe. To nie jest tak, że w tym modelu neutrina tworzą eter. To granulaty eteru tworzą neutrino. Neutrino jest tam cząsteczką bazową na której się pracuje. Takie podejście wynika z faktu, że obecnie nie jesteśmy w stanie zejść z obserwacjami głębiej niż rozmiar neutrino. No i modelowanie na tych granulatach to był by jakiś koszmar obliczeniowy.         

https://vixra.org/abs/1408.0224

https://energywavetheory.com/explanations/aether/

https://energywavetheory.com/physics-constants/planck-mass/

https://energywavetheory.com/spacetime/geometry/

"
Długość separacji między granulkami w komórce elementarnej to średnica granulki (2 l P ) pomnożona przez liczbę Eulera (e), która jest podstawą logarytmu naturalnego. Dlaczego ta separacja? Ponieważ w promieniu wodoru znajduje się dokładnie taka ilość komórek liczby Avogadro"

https://energywavetheory.com/physics-constants/avogadros-constant/
 

Edited by l_smolinski

Share this post


Link to post
Share on other sites
30 minutes ago, l_smolinski said:

W EWT zdefiniowana jest granulacja eteru o rozmiarze, długości Plancka. Związku z tym pojedynczy granulat przechowuje znaczeni mnie energii niż neutrino. Neutrino to zagęszczenie granulatów tworzone przez pojedyncze centrum falowe. To nie jest tak, że w tym modelu neutrina tworzą eter. To granulaty eteru tworzą neutrino. Neutrino jest tam cząsteczką bazową na której się pracuje. Takie podejście wynika z faktu, że obecnie nie jesteśmy w stanie zejść z obserwacjami głębiej niż rozmiar neutrino. No i modelowanie na tych granulatach to był by jakiś koszmar obliczeniowy.         
 

Nie zmienia to faktu, że neutrin/antyneutrin jest zbyt mało aby wytworzyć ZPE z jaką mamy do czynienia w fizyce. Dolna i górna granica masy (energii) spoczynkowej neutrino została oszacowana i wynosi od 0,04 do 200 eV. W ciągu najbliższych kilku lat górna granica może zostać jeszcze bardziej zmniejszona w wyniku kolejnych eksperymentów.

Share this post


Link to post
Share on other sites
Posted (edited)
2 godziny temu, Qion napisał:

Nie zmienia to faktu, że neutrin/antyneutrin jest zbyt mało aby wytworzyć ZPE z jaką mamy do czynienia w fizyce. Dolna i górna granica masy (energii) spoczynkowej neutrino została oszacowana i wynosi od 0,04 do 200 eV. W ciągu najbliższych kilku lat górna granica może zostać jeszcze bardziej zmniejszona w wyniku kolejnych eksperymentów.

Neutrino ma masę, a jest cała grupa cząsteczek bez masowych, które są opisane za pomocą zachowania granulatów w ramach EWT. Energia próżni reprezentowana jest jako gęstość, czyli ilość granulatów w pewnym obszarze - gęstość wynika ze stałej Plancka. Te inne zachowania granulatów nie będące neutrinami współtworzą oscylację eteru (wraz z innymi elementami), czyli energię ZPE + "coś tam, potocznie nazywane fluktuacje kwantowe w MK". Jeżeli gdzieś we wszechświecie stała placka ma inną wartość, energia próżni też jest inna. Czyli inna wartość stałej p:

Fundamental Energy equation

   

Wave Types and Energy and Forces

https://energywavetheory.com/introduction/energy/
https://energywavetheory.com/introduction/wave-terminology/  

 

Edited by l_smolinski

Share this post


Link to post
Share on other sites
Posted (edited)

Oczywiście, nie wiadomo czy  geneza energii (gęstości) próżni jest poprawna. Zakładam, że początkowo p jako współczynnik bezwymiarowy był potrzebny, aby modele zgadzały się ze znanymi wynikami eksperymentów. Następnie w ramach modelu wskazano genezę dla tego współczynnika, jaką jest stała plancka. Tu jest identyczna sytuacja, jak np. u Lorentza gdzie z pośród wielu transformacji wybrał taką, która wpasowywała się w znane wyniki eksperymentów i była najbardziej naturalna dla  aktualnego stanu wiedzy o fizyce.

Edited by l_smolinski

Share this post


Link to post
Share on other sites
Posted (edited)
W dniu 28.03.2021 o 20:03, l_smolinski napisał:

Energia próżni reprezentowana jest jako gęstość, czyli ilość granulatów w pewnym obszarze - gęstość wynika ze stałej Plancka.

Tutaj jest artykuł wyliczający tę wartość p na 3 sposoby w ramach EWT:

https://vixra.org/abs/2002.0166

Edited by l_smolinski

Share this post


Link to post
Share on other sites

W końcu dopracowałem podstawowy framework matematyczny dla tych modeli cząstek jako wzbudzenia topologiczne układów typu nematyk dwuosiowy - żeby odtworzyć elektromagnetyzm uogólniając model Fabera z pól wektorowych na tensorowe (dochodzi zależność od kształtu): tak żeby prawo Gaussa dawało ładunek topologiczny: https://arxiv.org/pdf/2108.07896

intr.png

  • Like (+1) 1

Share this post


Link to post
Share on other sites
W dniu 31.08.2021 o 04:51, Jarek Duda napisał:

W końcu dopracowałem podstawowy framework matematyczny dla tych modeli cząstek jako wzbudzenia topologiczne układów typu nematyk dwuosiowy - żeby odtworzyć elektromagnetyzm uogólniając model Fabera z pól wektorowych na tensorowe (dochodzi zależność od kształtu): tak żeby prawo Gaussa dawało ładunek topologiczny: https://arxiv.org/pdf/2108.07896

Po co? Tworzenie teorii klasycznej która odtwarza pewne obserwowane zjawiska i którą da się "skwantować" nie odtwarza teorii kwantowej w sposób unikalny.
Rozumiem że jest to świetna zabawa intelektualna, tylko nie przybywa od tego "zrozumienia". Topologiczne wyjaśnienie natury ładunku elektrycznego nie jest niczym nowym:
https://physics.stackexchange.com/questions/5665/electric-charge-in-string-theory

 

Share this post


Link to post
Share on other sites

Kwantowe teorie pola są budowanie na klasycznych, np. jako ich zespoły Feynmanowskie ... tyle że już na poziomie klasycznych są istotne problemy - np. brak kwantyzacji ładunku w prawie Gaussa, czy nieskończona energia pola elektrycznego ładunku.

Tutaj zaczynamy od naprawienia tych dwóch problemów od strony klasycznej teorii pola - żeby docelowo je skwantować z lepszym zrozumieniem, szczególnie nieskończoności z którymi jest duży problem w QFT,  jak rozbieżność ~10^120 razy energii próżni, czy otwarty od pół wieku problem nieskończoności przy kwantowaniu grawitacji.

Czy żeby w końcu być w stanie odpowiadać na podstawowe pytania jak: jaka jest średnia gęstość energii w danej odległości od elektronu? Ogólnie jaka jest struktura pól cząstek - np. elektronu będącego ładunkiem i dipolem magnetycznym ... to jak konkretnie pola EM tam wyglądają?

Tutaj po prostu przyglądając się ciekłym kryształom, dla których np. eksperymentalnie udaje się uzyskiwać oddziaływanie dalekozasięgowe też typu Coulomba (np. https://www.nature.com/articles/s41598-017-16200-z ), okazuje się że przestrzeń wzbudzeń topologicznych takich nematyków dwuosiowych wydaje się nieźle zgadzać z menażerią cząstek, np. sugerując dlaczego proton jest lżejszy od neutronu ...

part.jpg

 

Share this post


Link to post
Share on other sites
Godzinę temu, Jarek Duda napisał:

Kwantowe teorie pola są budowanie na klasycznych, np. jako ich zespoły Feynmanowskie

Mogą być, ale nie muszą. I żeby było jasne - nieskończona suma cegiełek potrafi mieć całkowicie odmienny charakter od tych cegiełek (już proste szeregi różnych typów to pokazują).
Przy czym zespoły Feynmanowskie wciaż muszą być przetłumaczone na efektywną probabilistyczną teorie fizyczną, tego teorie klasyczne po prostu nie są w stanie zapewnić. Kwantowość musi być wprowadzona jako postulaty.

Godzinę temu, Jarek Duda napisał:

tyle że już na poziomie klasycznych są istotne problemy - np. brak kwantyzacji ładunku w prawie Gaussa

To nie jest żaden problem dla teorii klasycznej. Opisuje inne spektrum możliwości niż rzeczywistość.

Godzinę temu, Jarek Duda napisał:

czy nieskończona energia pola elektrycznego ładunku

I to nie jest problemem. Energia całkowita nie ma fizycznego znaczenia, ważne są jedynie różnice potencjałów. Wystarczy dodać odpowiednią nieskończoność tak aby wyszło zero i wszystko gra. Dyskretne ładunki można zapostulować, i wówczas każdy większy ładunek można modelować jako związaną kupkę mniejszych ładunków.

Godzinę temu, Jarek Duda napisał:

Tutaj zaczynamy od naprawienia tych dwóch problemów od strony klasycznej teorii pola - żeby docelowo je skwantować z lepszym zrozumieniem

Różnych teorii kwantowych dających określoną teorię klasyczną jest nieskończenie wiele, procedura kanonicznego kwantowania jeśli jest możliwa (a zazwyczaj nie działa) odtwarza jedną z nich.

Godzinę temu, Jarek Duda napisał:

szczególnie nieskończoności z którymi jest duży problem w QFT

Coś się popsuło z teorią renormalizacji?

Godzinę temu, Jarek Duda napisał:

jak rozbieżność ~10^120 razy energii próżni

To nie jest rozbieżność inna niż obliczenia teorii przybliżonej w porównaniu z dokładną.  

Godzinę temu, Jarek Duda napisał:

czy otwarty od pół wieku problem nieskończoności przy kwantowaniu grawitacji.

Problem kwantowania grawitacji jest od pół wieku rozwiązany, a od ćwierć wieku wiemy że "rozwiązania" są równoważne w ramach M-teorii.

Godzinę temu, Jarek Duda napisał:

jaka jest średnia gęstość energii w danej odległości od elektronu?

Niestety nie ma czegoś takiego jak średnia odległość od elektronu, przynajmniej bez bardzo dokładnego zdefiniowania znaczenia słów "średnia odległość" w języku MK.
Czegoś takiego jak średnia gęstość energii również nie musi być, to są pytania niefizyczne i bardzo mało ważne (no dobra, przesadzam), świadczące o klasycznym rozumieniu świata (ładuję w ten bęben tylko dlatego, że wciąż pięknie gra). W pewnym momencie trzeba się przestawić na myślenie kwantowe i traktować mechanikę klasyczną jak zabawkę.

Godzinę temu, Jarek Duda napisał:

Ogólnie jaka jest struktura pól cząstek - np. elektronu będącego ładunkiem i dipolem magnetycznym ... to jak konkretnie pola EM tam wyglądają?

Pola klasyczne EM nie wyglądają. Dokładniej, różnie doświadczenia będą dawać wyniki nie pozwalające zrekonstruować konsystentnego klasycznego pola EM.
Dla przykładu teorii wiązań atomowych nie da się wyjaśnić polami klasycznymi. Radziłbym się początkowo pochylić nad czymś tak banalnym zamiast wnikać w budowę cząsteczek elementarnych które zawierają więcej oddziaływań niż wyłącznie elektryczne. Albo wyjaśnić przesunięcie Lamba.
BTW. Ma kolega w tej swojej teorii coś takiego jak stała struktury subtelnej?

Godzinę temu, Jarek Duda napisał:

np. sugerując dlaczego proton jest lżejszy od neutronu ...

I tu mamy problem, bo możliwe są wszechświaty w których proton jest cięższy od neutronu, tylko w nich nie żyjemy. Inne kombinacje stałych fizycznych mogą dać takie rezultaty. A teoria kolegi wciąż będzie wyjaśniać "dlaczego" proton jest lżejszy od neutronu i jako teoria abstrakcyjna będzie również "obowiązująca" w tych światach co ją dyskwalifikuje. To bardzo poważny zarzut.

Edited by peceed

Share this post


Link to post
Share on other sites

Nieskończona suma pól o nieskończonej energii ... ma dalej nieskończoną energię - ten fundamentalny problem (regularyzacji) trzeba i można naprawić przed sumowaniem, kwantyzacją.

Tutaj mówimy o energii związanej z cząstką, czyli masie spoczynkowej - tą energię można uwolnić w anihilacji: elektron + pozytron -> 2x511keV fotony ... więc nie może być nieskończona.

W naturze prawo Gaussa pozwala tylko na ładunki będące całkowitą wielokrotnością 'e', a w zwykłej EM na dowolny rzeczywisty ładunek - fundametalna niezgodność, którą matematycznie nie problem naprawić (co obserwujemy np. w ciekłych kryształach): interpretując krzywiznę pola jako pole elektryczne, prawo Gauss zwraca ładunek topologiczny - który jest skwantowany.

Co do problemu energii próżni, chodziło mi o https://en.wikipedia.org/wiki/Cosmological_constant_problem

A co do renormalizacji, może zacytuję Diraca i Feynmana z https://www.researchgate.net/publication/338980602_Something_is_rotten_in_the_state_of_QED

Quote

Dirac: “I must say that I am very dissatisfied with the situation because this so-called
’good theory’ does involve neglecting infinities which appear in its equations, ignoring them in an arbitrary way.
This is just not sensible mathematics. Sensible mathematics involves disregarding a quantity when it is small – not ne-
glecting it just because it is infinitely great and you do not want it!.” [33]


This technique of ignoring infinities is called renormalization. Feynman also recognized that this technique was
not mathematically legitimate: “The shell game that we play is technically called ’renormalization’. But no matter how
clever the word, it is still what I would call a dippy process! Having to resort to such hocus-pocus has prevented us from
proving that the theory of quantum electrodynamics is mathematically self-consistent. It’s surprising that the
theory still hasn’t been proved self-consistent one way or the other by now; I suspect that renormalization is not
mathe
matically legitimate.” [1]

Gęstość energii to Hamiltonian, czyli pytanie: jaka jest wartość oczekiwaną Hamiltonianu w danej odległości od elektronu? Asymptotycznie ~1/r^4 ... ale to się całkuje do nieskończoności w r=0, trzeba naprawić: zregularyzować.

Co do "są wszechświaty w których proton jest cięższy od neutronu, tylko w nich nie żyjemy" przypomina mi się piosenka o wyspach Bergamutach ;)

ps. A co stałej struktury subtelnej, jak najbardziej trzeba ją dopasować dla zgodności siły Coulomba ... co więcej, jest też tzw. running coupling: jest ona modyfikowana przy bardzo małych odległościach - co nie byłoby potrzebne dla idealnie punktowych ładunków, czyli znowu mamy pytanie o regularyzację - i np. Faber dostaje taką deformację: Fig. 4 w https://inspirehep.net/files/f7508c521cb8020c10f84ca4fdf0ff68

Edited by Jarek Duda

Share this post


Link to post
Share on other sites
33 minuty temu, Jarek Duda napisał:

W naturze prawo Gaussa pozwala tylko na ładunki będące całkowitą wielokrotnością 'e', a zwykłej EM dowolny rzeczywisty - duża rozbieżność, którą matematycznie nie problem naprawić (co obesrwujemy np. w ciekłych kryształach): interpretując krzywiznę pola jako pole elektryczne, prawo Gauss zwraca ładunek topologiczny - który jest skwantowany.

Mam wrażenie że i tak wychodzi bzdura, jak tylko zaczniemy bawić się w odpowiednie manipulację powierzchnią według której liczymy prawo Gaussa i odpowiednie zmniejszanie tej powierzchni - bo ładunek nie jest punktem.

43 minuty temu, Jarek Duda napisał:

Co do problemu energii próżni, chodziło mi o https://en.wikipedia.org/wiki/Cosmological_constant_problem

Supersymetria to rozwiązuje. Tzn. kasuje do zera, a niewielka pozostałość to wynik spontanicznego jej łamania. Ale są też inne sposoby.

Godzinę temu, Jarek Duda napisał:

A co do renormalizacji, może zacytuję Diraca i Feynmana

Panowie nie żyją a od tej pory teoria renormalizacji jest już bardzo dobrze zrozumiana:https://en.wikipedia.org/wiki/Renormalization_group
Kolejna rzecz do której po prostu trzeba przywyknąć uprawiając fizykę. Niestety nie ma tak, że ogon kręci psem: to fizyka była i będzie źródłem istotnych matematycznie idei, a o "prawdziwości" decyduje eksperyment.

1 godzinę temu, Jarek Duda napisał:

Co do "są wszechświaty w których proton jest cięższy od neutronu, tylko w nich nie żyjemy" przypomina mi się piosenka o wyspach Bergamutach ;)

Nie rozumie kolega argumentu. Tworząc teorię która jest "ślepa" na cześć fizyki "potwierdza" własności zależące w rzeczywistości od parametrów tej ignorowanej części. Wystarczają inne wartości mas kwarków aby stworzyć neutron lżejszy od protonu (takie barionowe nautralino na które rozpada się cała materia).

1 godzinę temu, Jarek Duda napisał:

czyli pytanie: jaka jest wartość oczekiwaną Hamiltonianu w danej odległości od elektronu? Asymptotycznie ~1/r^4 ... ale to się całkuje do nieskończoności w r=0

W sytuacji gdy rozpatrujemy precyzyjne "klasyczne" pole o potencjale 1/r już zgodnie z mechaniką kwantową musimy mieć do czynienia z cząsteczką o nieskończonej masie, bo to pole nie posiada w swojej strukturze nieoznaczoności położenia źródła.

Ponieważ jednak elementarna cząsteczka w KTP musi zachowywać się jak struna, nieskończoność energii znika.  Naładowana jednowymiarowa pętelka nie jest w stanie osiągnąć nieskończonej energii dokładnie z tego samego powodu dla której atom wodoru jest stabilny - chroni ją zasada nieoznaczoności, ściśnięcie jej do punktu jest matematycznie niemożliwe. Punkt to za cienki Bolek aby być podstawową cegiełką materii ;)

 

Share this post


Link to post
Share on other sites

Co do topologicznego analogu prawa Gaussa, w 2D jest np. https://en.wikipedia.org/wiki/Winding_number , czy podobny https://en.wikipedia.org/wiki/Argument_principle - całkując zmianę kąta po dowolnej zamkniętej krzywej, dostajemy całkowitą wielokrotność 2pi jako sumę ładunków w środku ... zawężając krzywą do dookoła takiego jednego 2pi, możemy zlokalizować taki vortex - np. jako fluxon: kwant pola magnetycznego w nadprzewodniku: https://en.wikipedia.org/wiki/Macroscopic_quantum_phenomena

700px-Vortex_lines_in_rotating_helium01.

Można to przenieść do ładunku typu punkt w 3D (np. konfiguracja typu jeż) - pole wektorów jednostkowych tzw. "director field" zawężamy do zamkniętej powierzchni, dostając odwzorowanie z niej do sfery. Całkując po tej powierzchni Jakobian takiego odwzorowania, który okazuje się być krzywizną pola, dostajemy ilość nawinięć na tą sferę - ładunek topologiczny. Dla takich ładunków topologicznych dostają oddziaływanie np. typu Coulomba ( https://www.nature.com/articles/s41598-017-16200-z ), interpretując tą krzywiznę jako pole elektryczne dostajemy prawo Gaussa z wbudowaną kwantyzacją ładunku - bardziej matematycznie opisuję to w https://arxiv.org/pdf/2108.12359

Proszę o jakieś źródło dla stwierdzenia że supersymetria (praktycznie uważana za obaloną) naprawia https://en.wikipedia.org/wiki/Cosmological_constant_problem

Co do Diraca i Feynmana, oni budowali te teorie, mówiąc wprost o problemach ... obecnie zmiecionych pod dywan. Nie dla wszystkich 1+2+3+4+... = -1/12.

Co do gęstości energii, dookoła ładunku jest pole elektryczne E~1/r^2, gęstość energii to rho~|E^2|~1/r^4 ... tyle że całkuje się to do nieskończoności - trzeba naprawić w zerze ... co sugeruje też running coupling - deformacja dla bardzo małych odległości.

Co do teorii umożliwiających np 10^1000 różnych wszechświatów, jednak widzimy jeden i nie ma żadnych prawdziwych przesłanek dla istnienia kolejnych. Poprawny model powinien mieć jak najmniejszą ilość niezależnych stałych ... zamiast swobodę fitowania kolejnych poprawek, powinien sam być w stanie je przewidywać - w przeciwnym dostajemy ciąg setek poprawek jak SM : https://www.symmetrymagazine.org/article/the-deconstructed-standard-model-equation

sml.png

A może jednak to jest np. szereg Taylora jakiejś względnie prostej niskoparametrycznej teorii opisującej tylko nasz wszechświat?

Edited by Jarek Duda

Share this post


Link to post
Share on other sites
5 godzin temu, Jarek Duda napisał:

Nie dla wszystkich 1+2+3+4+... = -1/12

Owszem. Ale mam nadzieje że kolega rozumie, że konwencja że nieskończona suma musi być granicą sum częściowych nie musi obowiązywać przyrody. Przede wszystkim przyroda sumuje wszystkie składniki na raz, bez określonego porządku, ewentualnie przyjmując pewien porządek częściowy na składnikach sumy wynikły z przyczynowości.
To że regularyzacje działają to fakt eksperymentalny.

5 godzin temu, Jarek Duda napisał:

Co do gęstości energii, dookoła ładunku jest pole elektryczne E~1/r^2, gęstość energii to rho~|E^2|~1/r^4 ... tyle że całkuje się to do nieskończoności - trzeba naprawić w zerze

Ale to jest problem obalonej teorii klasycznej. Niczego nie musimy naprawiać! Mamy KTP.

5 godzin temu, Jarek Duda napisał:

Co do teorii umożliwiających np 10^1000 różnych wszechświatów, jednak widzimy jeden i nie ma żadnych prawdziwych przesłanek dla istnienia kolejnych.

Najwyraźniej kolega nie rozumie, że teorie kwantowe pola albo klasyczne umożliwiają istnienie nieskończonej liczby wszechświatów. Z nieskończonością klasy C.
Nawet przyjmując parametry stałych z dokładnością do FP64 mamy 10^400 teorii Modelu Standardowego do wyboru i nikt nie narzeka z tego powodu.

Oczywiście widzimy "jeden wszechświat". Tak jak doprecyzowujemy kolejne bity opisujące numeryczne wartości stałych, tak samo możemy co do zasady liczyć fizyki efektywne dla każdej ze strunowych kandydatek.

Trzeba być naiwnym by sądzić że jakikowiek framework matematyczny nie będzie miał wewnętrznej swobody którą trzeba ograniczyć obserwacjami. To w czym słabsze umysły się gubią to dyskretny charakter zbioru kandydatów teorii strunowych i niezgodność z naiwnym oczekiwaniem że proces wyboru musi być prosty algorytmicznie. Tymczasem dowiedziono że wyliczenie teorii strunowych jest NP-trudne. Przyrodę to bigbanguje. Aczkolwiek nie jest wykluczone że świat jest łaskawy i żyjemy w wyjątkowo prostej kompaktyfikacji. Niechęć do teorii strun ma wyłącznie charakter psychologiczny: tak naprawdę jest to mem rozpropagowany przez upadający intelektualnie przemysł pop-sci.

5 godzin temu, Jarek Duda napisał:

Poprawny model powinien mieć jak najmniejszą ilość niezależnych stałych

No proszę. Nie da się chyba pod tym względem zrobić lepiej niż Teoria Strun.

5 godzin temu, Jarek Duda napisał:

Proszę o jakieś źródło dla stwierdzenia że supersymetria (praktycznie uważana za obaloną)

No to jest jakaś bzdura do ^2. Aby obalić supersymetrię trzeba by przeorać akceleratorami energie aż do Plancka, ze względu na zjawisko spontanicznego łamania symetrii. To prawda formalna.
Obraca się kolega najwyraźniej w dziwnym środowisku które niewiele ma wspólnego z HEP, skoro pozwala ono sobie uważać supersymetrię za praktycznie obaloną. Mam tylko nadzieję że to nie jest marka jakiegoś nowego wina owocowego :P
Zacznijmy od tego że supersymetria jest symetrią matematyczną, dokładnie tak samo jak inne symetrie występujące w fizyce. Jej elegancka fizyczna interpretacja odwrócenia ról fermionów z bozonami (czyli unifikacja koncepcji oddziaływań z materią!) nie pozwala mieć wielkiej nadziei na jej nieistotność.
Została odkryta w kontekście fizycznym umykając matematykom. Ale gdyby było inaczej, i najpierw odkryto by supersymetrię w matematyce i potem zrozumiano fizyczne implikacje, to nikt wtedy nie miałby wątpliwości że nie może być to przypadkiem: przyroda nie może ignorować sobie istnienia takiej symetrii!
Jeśli jeszcze uświadomimy sobie, że zależą od niej wszystkie udane formalne unifikacje GR z KTP (supergrawitacja + teorie strun, wszystkie są obecnie częścią M-teorii) to szanse na nieistotność supersymetrii wynoszą praktyczne zero, bo jest ona zarówno sposobnością (unifikacja koncepcji materii i oddziaływań) jak i praktyczną koniecznością (kwantowa grawitacja).
Jeśli jeszcze dodamy ciemną materię która jest w pewnym sensie predykcją supersymetrii (dark sector) dalej dostajemy praktyczne zero :P

5 godzin temu, Jarek Duda napisał:

zawężając krzywą do dookoła takiego jednego 2pi, możemy zlokalizować taki vortex - np. jako fluxon: kwant pola magnetycznego w nadprzewodniku: https://en.wikipedia.org/wiki/Macroscopic_quantum_phenomena

Akurat tutaj mamy różnicę pomiędzy ideałem matematycznym a realnym rozciągłym bytem fizycznym. Dla modeli kwantowych nie ma to żadnego znaczenia, ale dla modeli klasycznych które chcą "z zasady pozbyć się problemów" jest to problem. Chyba że źle to rozumiem i wszystkie defekty topologiczne mają punkty osobliwe: z rysunków ciężko to odczytać.

5 godzin temu, Jarek Duda napisał:

Co do topologicznego analogu prawa Gaussa, w 2D jest np. https://en.wikipedia.org/wiki/Winding_number

Nie wiem czy kolega zdaje sobie sprawę że to standard w Teorii Strun. Co ważne - ładunek elektryczny ma wiele topologicznych modeli i wszystkie są równoważne.

Zasadniczo to naukowa działalność kolegi sprowadza się to poszukiwania teorii ostatecznej która miałaby maksymalną ilość cech wspólnych z Teorią Strun ale nią nie była, a opór wobec niej ma charakter religijnej (sekciarskiej) indoktrynacji - kilka niewłaściwych książek przeczytanych w niewłaściwym stanie psychicznym. Woit, Smolin...
Jakby co to podrzucę koledze jeszcze kilka "nazwisk" do listy autorytetów: Fritz, Wersow, Hossenfelder :P.

Gdyby mi nominalnie płacono za uprawianie fizyki to poświęciłbym te dwa lata na nauczenie się tej teorii, tym bardziej że jej aparat matematyczny zaczyna być użyteczny daleko poza oryginalnym kontekstem w którym go wprowadzono, na przykład w fizyce ciała stałego (tylko jak to pogodzić z przymusem publikacji).

Podejście kolegi jest takie, że wyzwania stojące przed fizyką traktuje jako pretekst aby się jej nie uczyć :P
Bardzo wygodnie jest zatrzymać się w rozwoju gdzieś w roku 1930 (albo i 1925) i próbować tworzyć "alternatywną fizykę" licząc na fuksa, bo w naszej rzeczywistości gdzieś dalej pojawiły się "trudne momenty w materiale" (podejście jak u hazardzisty który się wkręcił bo wygrał za pierwszym razem).
Ale w tej dyscyplinie "łatwe punkty" się skończyły.

19 godzin temu, Jarek Duda napisał:

Diraca i Feynmana

Charakterystyczne w postawie tych dwóch panów było to, że nawet w sytuacji gdy fizyka wydawała im się psychologicznie niesatysfakcjonująca, nigdy się nie oszukiwali i podążali właściwą ścieżką (prawdy). Z zastrzeżeniem że Dirac mógł przewidzieć pozytony ale tego nie zrobił z powodu oporów psychologicznych (to dopiero cenna lekcja na całe życie, na szczęście Noblika i tak przytulił).

5 godzin temu, Jarek Duda napisał:

Proszę o jakieś źródło dla stwierdzenia że supersymetria (praktycznie uważana za obaloną) naprawia https://en.wikipedia.org/wiki/Cosmological_constant_problem

... To jest trywialny elementarny wynik. Niezłamana supersymetria daje dokładnie zero bo wkłady od pola dowolnej cząstki i jej supersymetrycznego partnera do zero point energy dokładnie się znoszą. To jest punkt wyjścia. Złamanie supersymetrii może zmienić ten wynik ale nie musi. Zatem już na wstępie problem niezgodnosci z teorią ulega zmniejszeniu 10^120 razy.
Prosta miara według której modele supersymetryczne są 10^120 raza lepsze od niesupersymetrycznych.

 

Edited by peceed

Share this post


Link to post
Share on other sites

To dodając 1 jednostkę np. energii + 2 + 3 + ... w ten sposób dostajemy -1/12 jednostki np. energii?

Co do gęstości energii, jeszcze raz: pytam się o jakąkolwiek np. oczekiwana gęstość Hamiltonianu też w QFT - w danej odległości od elektronu.

To że teoria przewiduje możliwość istnienia innych wszechświatów czy np. istot nadprzyrodzonych, nie znaczy że istnieją. Brak dowodu nieistnienia, nie jest dowodem istnienia. Proszę o dowód istnienia innych wszechświatów.

Ja znam tylko dowody na istnienie naszego jednego wszechświata - dobra teoria to pozwalająca poprawnie w nim przewidywać, a nie tylko umożliwiająca dodawanie i fitowanie kolejnych poprawek gdy się nie zgadza.

Co do supersymetrii, np. https://www.scientificamerican.com/article/supersymmetry-fails-test-forcing-physics-seek-new-idea/

  • Upvote (+1) 2

Share this post


Link to post
Share on other sites
26 minut temu, Jarek Duda napisał:

To dodając 1 jednostkę np. energii + 2 + 3 + ... w ten sposób dostajemy -1/12 jednostki np. energii?

Jeśli będziesz odpowiednio sumował.  A podobno dodawanie jest przemienne. Używanie sumy Ramanujana w fizyce zawsze wydaje mi się szemrane.

Share this post


Link to post
Share on other sites
Godzinę temu, Jarek Duda napisał:

To dodając 1 jednostkę np. energii + 2 + 3 + ... w ten sposób dostajemy -1/12 jednostki np. energii?

Tak. Czy to jakiś problem? Świat nie jest klasyczny i nie składa się z klasycznych klocków, te energetyczne wkłady są wirtualne. Zadaniem teorii fizycznej jest dostarczać skończonych wyników opisujących poprawnie wyniki obserwacji i nic więcej!
Jak należy to rozumieć? - najlepiej jako "artefakty parametryzacji". Ogólnie "realną rzeczywistość" trzeba traktować jako coś w rodzaju rozmaitości a opisy fizyczne jako mapy. Fakt że w pewnych "mapach" pojawiają się nieskończoności formalne nie wynika, że sama rozmaitość/rzeczywistość wariuje, ona zawsze jest skończona. Do pewnego momentu proste mapy można czytać w trywialny sposób (odpowiedzi na pytania o rzeczywistość to suma szeregu mającego granicę sum częściowych).    Potem okazuje się, że aby mapa dłużej dostarczała poprawnych wyników trzeba ją czytać inaczej (regularyzacje). Przy czym od początku można ją było czytać inaczej, bo regularyzacja nie zmienia sumy szeregu zbieżnego, tylko że nie zdawaliśmy sobie z tego sprawy. Można się dziwić dlaczego tak jest, ale "fundamentalne" pytania "dlaczego" zazwyczaj pozostają bez odpowiedzi, bo rozbijają się o aksjomaty rzeczywistości które odkrywamy operacyjnie.
Fizyka to odkrycie, że rzeczywistość ma modele matematyczne/algorytmiczne.
Doszliśmy do algorytmów które dają prawidłową odpowiedź w sposób który jest dla nas mniej oczywisty (renormalizacje,regularyzacje), ale nie jest to w ogóle fundamentalnie mniej dziwne niż działanie prostych modeli/algorytmów klasycznych - te są bardziej intuicyjne bo mamy w mózgach masę okablowania będącego "sprzętową akceleracją" odkrytą przez dobór naturalny, dzięki któremu pewne rzeczy są dla nas "oczywiste" (bo zgodne z wynikami dostarczanymi przez wewnętrzne działanie tych akceleratorów). A tu nagle trzeba wyjść z bezpiecznej "klasycznej=neuronowo łatwej" rzeczywistości"... Tak, robi się coraz dziwniej.

Godzinę temu, Jarek Duda napisał:

To że teoria przewiduje możliwość istnienia innych wszechświatów czy np. istot nadprzyrodzonych, nie znaczy że istnieją.

Teoria Strun również nie przewiduje że istnieją w inny sposób niż potencjalne domeny w naszej przestrzeni o różnych efektywnych prawach fizyki. Pisałem wyraźnie: to taka sama potencjalność jak istnienie różnych KTP. Nie ma żadnych dowodów że istnieje wszechświat gdzie h jest dwa razy mniejsze.

Godzinę temu, Jarek Duda napisał:

dobra teoria to pozwalająca poprawnie w nim przewidywać, a nie tylko umożliwiająca dodawanie i fitowanie kolejnych poprawek gdy się nie zgadza.

Teoria Strun dostarcza wyników bez fitowania. "Wystarczy" znaleźć kompaktyfikację i znamy całą fizykę z wszystkimi procesami z nieskończoną dokładnością.

Godzinę temu, Jarek Duda napisał:

Czasopismo zeszło na psy, stosując metody znane z tabloidów. Nie wiem czy kolega sobie zdaje sprawę że Woit to mr. Nobody co łatwo odkryć po liście publikacji i cytowań.
Ci ludzie nie rozumieją nawet że "negatywne" wyniki badań dostarczają dokładnie takiej samej wiedzy jak pozytywne. Tzn. gdy po przeszukaniu jakiegoś rejonu energii wiadomo, że pewnych cząsteczek nie ma, jest równie istotnie jakby je odkryto - na tym polega wiedza eksperymentalna. Przy czym dzięki detektorom na Antarktydzie już wiadomo, że nowe cząsteczki gdzieś tam są, tzn. morze wyrzuciło kanoe z Indianinem na brzeg w Europie. Nie wiadomo tylko jak dokładnie daleko ta Ameryka się znajduje.
Tacy ludzie mają tę samą mentalność naukową jak ludzie którzy stawiają ultimatum "albo znajdziemy jakieś zaginione ogniwo, albo teoria ewolucji jest fałszywa", nie rozumiejąc że status teorii ewolucji kompletnie nie zależy od wyników jednego konkretnego wykopaliska lub kompletności zapisów kopalnych drzewa filogenetycznego określonego gatunku.
Nie rozumieją jak drobny obszar w przestrzeni możliwych parametrów cząsteczek został przebadany i wykluczony.
 

Edited by peceed

Share this post


Link to post
Share on other sites
W dniu 3.09.2021 o 14:26, Jarek Duda napisał:

To dodając 1 jednostkę np. energii + 2 + 3 + ... w ten sposób dostajemy -1/12 jednostki np. energii?

Jeszcze jedna bardzo ważna uwaga. Nasza intuicja jak działa dodawanie została zbudowana na dodawanych "kamykach", "ciężarkach", "butelkach".
Tymczasem wkłady energetyczne w sumach w obliczeniach kwantowych nie są obserwablami, dokładnie to oznacza wirtualność.
Nie można bezkrytycznie używać klasycznej intuicji, bo ta zawodzi.

Mogę się z ciekawości spytać jak kolega radził sobie psychologicznie z ujemnym prawdopodobieństwem które pojawia się w rachunkach?
To chyba podobna sprawa. Zresztą jeszcze dawniej tak samo było z liczbami urojonymi. Dopuszczaliśmy urojone wielkości jak długo nie miały oznaczać obserwowanej "ilości czegoś".
Przynajmniej do teorii obwodów ;)

 

W dniu 3.09.2021 o 14:55, Jajcenty napisał:

Używanie sumy Ramanujana w fizyce zawsze wydaje mi się szemrane.

To samo co powyżej :)
Fizyka w stosunku do matematyki ma tę przewagę, że pewne rzeczy można sprawdzić eksperymentalnie. Jeśli coś działa to działa.
1+2+3=-1/12 działa.
Z matematycznego punktu widzenia też działa. Czyli przyroda korzysta z nie tego dodawania co nam się wcześniej wydawało że korzysta.
 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Ruszyła największa w Europie sieć koordynująca badania astronomiczne - OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego. Projekt o wartości 15 mln euro jest finansowany z programu Komisji Europejskiej Horyzont 2020.
      Połączenie dwóch sieci
      Dotąd w Europie działały 2 główne sieci, które koordynowały współpracę instrumentów naziemnych. OPTICON był związany z obserwacjami w zakresie widzialnym, zaś RadioNet w zakresie radiowym. Powstała w wyniku ich połączenia ORP zapewni europejskim naukowcom dostęp do szerokiej gamy teleskopów oraz, co ważne, wesprze rozwój naukowy młodych astronomów.
      Jak podkreślono w komunikacie na stronie Uniwersytetu Mikołaja Kopernika, projekt ORP ma na celu rozwój tzw. astronomii wieloaspektowej, obejmującej nie tylko badania w szerokim zakresie promieniowania elektromagnetycznego, ale także fale grawitacyjne, promieniowanie kosmiczne i neutrina. Dlatego duży nacisk kładzie się na ujednolicenie metod i narzędzi obserwacyjnych oraz rozszerzenie dostępu do wielu różnych instrumentów astronomicznych.
      OPTICON-RadioNet Pilot
      Projektem kierują Centre National de la Recherche Scientifique (CNRS), Uniwersytet w Cambridge oraz Instytut Radioastronomii im. Maxa Plancka w Bonn. Współpraca obejmuje 37 instytucji z 15 krajów europejskich, Australii i RPA.
      W ramach opisywanego przedsięwzięcia zaplanowano opracowanie standardów obserwacji nieba i analizy danych dla teleskopów optycznych i radioteleskopów. Projekt ma też ułatwić europejskim astronomom dostęp do najlepszych teleskopów na świecie, np. 100-metrowego radioteleskopu z Bonn.
      Zadania zespołów z Torunia i Warszawy
      Badania naukowe w ramach ORP na Uniwersytecie Mikołaja Kopernika będą prowadzone zarówno w zakresie radiowym, jak i widzialnym przy użyciu instrumentów znajdujących się w Obserwatorium Astronomicznym UMK w Piwnicach pod Toruniem. Całość prac naukowych na UMK będzie koordynowana przez dr hab. Agnieszkę Słowikowską [...]. W zakresie radiowym użyty zostanie największy polski radioteleskop o średnicy 32 metrów, który w 2020 r. przeszedł gruntowną renowację. Natomiast do pomiarów w zakresie widzialnym wykorzystany zostanie największy w Polsce teleskop optyczny (zwierciadło główne o średnicy 90 cm). Dr Słowikowska została wybrana na przewodniczącą zespołu koordynującego ORP (w jego skład wchodzi 37 reprezentantów wszystkich zaangażowanych instytucji).
      Zespół z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego, którym kieruje prof. Łukasz Wyrzykowski, będzie z kolei odpowiadać za koordynację działania rozproszonych po całym świecie małych i średnich teleskopów naziemnych; jego celem będzie monitorowanie zmienności czasowej interesujących obiektów. Sieć składa się z ok. 100 teleskopów, w tym 50 robotycznych. Jednym z jej elementów jest 60-centymetrowy teleskop, znajdujący się w Północnej Stacji Obserwacyjnej UW w Ostrowiku pod Warszawą - wyjaśniono w relacji prasowej UW.
      Od 2013 r. zespół prof. Wyrzykowskiego brał udział w pracach sieci OPTICON. Opierając się na zdobytym doświadczeniu, opracowano system internetowy do obsługi licznych teleskopów i wysyłania zamówień na systematyczne obserwacje tych samych obiektów (w ten sposób można badać ich zmienności). Takie narzędzie ułatwia naukowcom prowadzenie badań obiektów tymczasowych i zmiennych w czasie, np. supernowych czy zjawisk soczewkowania grawitacyjnego wywołanych przez czarne dziury. Tego typu obserwacje niejednokrotnie muszą być prowadzone przez wiele miesięcy, a nawet lat. Sieć wielu małych teleskopów rozmieszczonych na całym świecie zapewnia możliwość obserwacji obu półkul nieba przez całą dobę - tłumaczą astronomowie z Warszawy.
      Zespół, który z ramienia Obserwatorium Astronomicznego UW bierze w projekcie ORP, tworzą: dr Mariusz Gromadzki, mgr Krzysztof Rybicki, mgr Monika Sitek i prof. dr hab. Łukasz Wyrzykowski.
      Należy podkreślić, że astronomowie z UW od wielu lat zajmują się systematycznym monitorowaniem zmienności obiektów. To tu w latach 60. zeszłego stulecia Bohdan Paczyński prowadził badania nad obserwacyjnymi aspektami fal grawitacyjnych w układach podwójnych gwiazd. Od 1996 r. astronomowie prowadzą zaś pod przewodnictwem prof. Andrzeja Udalskiego długotrwałe obserwacje nieba za pomocą Teleskopu Warszawskiego w Chile (odkrywają planety i gwiazdy zmienne).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Osiemsetletni Pontyfikał Płocki doczekał się pierwszego naukowego opracowania. Projekt zrealizowali naukowcy z Uniwersytetu Kardynała Stefana Wyszyńskiego (UKSW), Akademii Sztuk Pięknych w Warszawie, Uniwersytetu Warszawskiego i Muzeum Azji i Pacyfiku. W efekcie ich pracy powstała niezwykła [3-tomowa] monografia Pontyfikału, obejmująca krytyczną edycję tekstu łacińskiego, jego przekład na język polski oraz facsimile.
      Od XII/XIII w. Pontyfikał był dumą biskupstwa płockiego. W 1940 r. został wywieziony przez Niemców z Biblioteki Seminarium Duchownego w Płocku; wraz z innymi manuskryptami zdeponowano go w Państwowej i Uniwersyteckiej Bibliotece w Królewcu. Podczas ewakuacji Królewca kodeks został skradziony. Następnie trafił do sowieckiej strefy okupacyjnej, a potem do NRD - w Centralnym Antykwariacie w Lipsku Pontyfikał był strzeżony przez STASI. W 1973 r. trafił na aukcję do zachodnich Niemiec (dom aukcyjny Hartung & Karl). Za 6200 DM jako "rytuał z pontyfikałem pochodzenia niemieckiego z XIV wieku" kupiła go Bawarska Biblioteka Państwowa. Tam odkrył go prof. Julian Lewański i zaalarmował płockich biskupów. Sprawa toczyła się 30 lat, aż wreszcie w 2015 roku Pontyfikał Płocki wrócił na swoje miejsce.
      Jak podkreślono w wykładzie "Pontyfikał płocki z XII wieku - apologia świętego średniowiecza" UKSW, od czasu rozpoznania Pontyfikału przez prof. Lewańskiego Kuria Biskupia w Płocku wiele razy [...] zwracała się bezskutecznie o jego oddanie. Zwrotu dzieła dokonano dopiero w kwietniu 2015 r., po tym jak na początku 2015 roku biskup Piotr Libera skierował się wprost do dyrektora Biblioteki Państwowej w Monachium.
      Dr Monika Kuhnke, historyk sztuki, która od lat 90. angażuje się w rewindykację do Polski zabytków wywiezionych w czasie II wojny światowej, tłumaczyła przed laty (Cenne, bezcenne, utracone), że przez stulecia pontyfikały były ważnymi księgami liturgicznymi. Często były one bogato zdobione i zawierały uwagi, a także uzupełnienia kolejnych właścicieli/użytkowników, które ułatwiały ustalenie pochodzenia księgi. Specjalistka podkreślała, że choć szczęśliwie zasadniczy tekst Pontyfikału zachował się w całości, brakowało znaków własnościowych wskazujących na płockie pochodzenie księgi (na kartach 86 i 196 widoczne są ślady po usuniętych pieczęciach) oraz trzech kart początkowych, zwanych ochronnymi. Karta 1. prawdopodobnie była czysta, na karcie 2. wypisano tytuł "Agenda", a na karcie 3v. znajdowała się notatka przypominająca zarządzenie biskupa poznańskiego Andrzeja z 1302 r. Przypuszczalnie znaki usunięto przed planowaną sprzedażą księgi w monachijskim domu aukcyjnym Hartung & Karl w roku 1973.
      Jak można się domyślić, odzyskany zabytek szybko wzbudził zainteresowanie naukowców. Ks. prof. dr hab. Henryk Seweryniak, kierownik Katedry Teologii Fundamentalnej i Prakseologii Apologijnej na Wydziale Teologicznym UKSW, który pochodzi z diecezji płockiej, dostał na przekład, edycję krytyczną i analizę treści Pontyfikału grant z Narodowego Programu Rozwoju Humanistyki.
      W naukowym opracowaniu zabytku wzięło udział 3 naukowców z UKSW (kierownik projektu, a także ks. prof. dr hab. Leszek Misiarczyk i prof. dr hab. Czesław Grajewski). Współpracowali z nimi dr hab. Weronika Liszewska z Akademii Sztuk Pięknych w Warszawie, prof. dr hab. Jerzy Wojtczak-Szyszkowski z Uniwersytetu Warszawskiego oraz dr Jacek Tomaszewski z Muzeum Azji i Pacyfiku.
      Jak już wspominaliśmy, monografia Pontyfikału (Studia nad Pontificale Plocense I, XII-XIII w.) obejmuje krytyczną edycję tekstu łacińskiego, przekład na język polski i faksymile. W komunikacie prasowym UKSW podkreślono, że w trzytomowym dziele mieści się, oczywiście, obszerne studium teoretyczne z interpretacją treści: teologicznych, kanonicznoprawnych, polityczno-społecznych oraz zapisów muzykologicznych. Przeprowadzono również dogłębną analizę kodykologiczną, paleograficzną i technologiczną z użyciem nowoczesnych metod analizy atramentów i pigmentów, a także samego podłoża pergaminowego, na którym napisano kodeks. W badaniach porównawczych składu atramentów zastosowano tzw. metodę "odcisku palca", udowadniając różnice i podobieństwa pomiędzy poszczególnymi fragmentami tekstu.
      Badania wykazały, że Pontyfikał powstał najprawdopodobniej w latach 1180-1215. Autorów było wielu. Na podstawie stylu pisarskiego stwierdzono, że pierwszy pisarz wywodził się z opactwa św. Wawrzyńca w Liѐge. Jednak brak szerszego materiału porównawczego uniemożliwia jednoznaczne przypisanie Pontyfikału konkretnemu skryptorium w Polsce.
      Pontyfikał składa się z 211 kart pergaminowych o wymiarach 270x185 mm. Zawiera opisy i normy 85 obrzędów. W 233 miejscach tekstowi liturgicznemu towarzyszy zapis melodii. Prof. Lewański, znawca teatru średniowiecznego, zapisaną w Pontyfikale Płockim wymianę trzech kwestii aktorskich w obrzędzie Visitatio - Quem queritis in sepulchro? - Hiesum Nazarenum Crucifixum – Non est hic, surrexit sicut predicaret... - uznaje za moment narodzin nowożytnego teatru europejskiego.
      Krytyczna edycja Pontyfikału Płockiego jest ważnym wkładem w europejskie i polskie badania mediewistyczne. Poza tym zapewnia cenne wnioski dla zrozumienia powiązań średniowiecznego Mazowsza z kulturą łacińskiego Zachodu. Edycji trzytomowego dzieła podjęło się pelplińskie Wydawnictwo Bernardinum, specjalizujące się w publikacji znakomitej jakości facsimile.
      Z okazji odzyskania po 75 latach Pontyfikału Płockiego Mennica Polska upamiętniła go na srebrnej monecie. W 2015 r. ukazała się ona w serii "Utracone dzieła sztuki". Trzynastego października 2015 r. w Płocku zorganizowano konferencję prasową poświęconą zabytkowi. Jej owocem jest publikacja pt. "Pontyfikał - odzyskana perła średniowiecza"; zawiera ona artykuły prezentujące różne aspekty związane z kodeksem, w tym aspekty prawne odzyskania zabytku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dr Bartosz Kiersztyn z Uniwersytetu Warszawskiego zajmuje się badaniem biofilmów bakteryjnych powstających na różnych powierzchniach w środowisku wodnym. Naukowiec zwrócił uwagę na fakt, że choć [...] w naturalnym środowisku wodnym tworzą się [one] bardzo szybko, to nie powstają wydajnie na powierzchni żywych glonów jednokomórkowych. Eksperymenty wykazały, że jedną z przyczyn tego zjawiska jest substancja wydzielana przez glony podczas fotooddychania. To bardzo istotne odkrycie, gdyż w biofilmach często występują patogenne bakterie, a wiele ich gatunków wytwarza i uwalnia toksyny.
      O ile w wodzie bakterie są w stanie szybko zasiedlić praktycznie każdą powierzchnię, na glonach jednokomórkowych kolonizacja prawie nie występuje. Bakterie niejako powstrzymują się przed kolonizacją żywych mikroskopijnych glonów – nie osadzają się na nich intensywnie i nie namnażają na ich powierzchniach. Obserwacje mikroskopowe oraz biochemiczne i molekularne jednoznacznie na to wskazują.
      Badania pokazały, że gradient mikrostężeń tej substancji wystarczy, by w środowisku wodnym bakterie nie osadzały się intensywnie na danej powierzchni.
      W pewnym momencie pojawił się pomysł, by opracować preparat, który zabezpieczy powierzchnie, w tym odzież i akcesoria wchodzące w kontakt z wodą (np. do uprawiania sportów wodnych), przed powstawaniem biofilmów.
      Takie rozwiązanie ma kilka plusów. Po pierwsze, wytwarzana przez glony naturalna substancja jest tania w produkcji przemysłowej. Możliwość zastosowania jej w mikrostężeniach dodatkowo sprawia, że sam preparat byłby tani w produkcji. Po drugie, naukowcy wskazują, że działanie preparatu wiązałoby się z "odstraszaniem" bakterii, a nie z ich eliminowaniem (eliminowanie groziłoby uwalnianiem z nich toksyn).
      Prowadzone dotychczas eksperymenty na materiałach, z których produkowane są m.in. pianki nurkowe i obuwie do uprawiania sportów wodnych, jednoznacznie potwierdzają, że na odzieży sportowej spryskanej roztworem z odkrytą substancją bakterie wodne osadzają się w minimalnym stopniu. Eksperymenty prowadzono m.in. w naturalnym środowisku w jeziorze Śniardwy, w specjalnie wyselekcjonowanym miejscu obfitującym w wiele szczepów bakteryjnych.
      Marta Majewska, brokerka technologii z Uniwersyteckiego Ośrodka Transferu Technologii przy Uniwersytecie Warszawskim, podkreśla, że odkrycie zostało już objęte ochroną patentową na terenie Polski. Obecnie trwają poszukiwania inwestora/partnera branżowego, który skomercjalizowałby preparat pod własną marką.
      W krajach południowych, gdzie przez większą część roku występują słoneczne i upalne dni, problemy związane z suszeniem oraz konserwacją odzieży i akcesoriów wykorzystywanych w sportach wodnych są znikome. Inaczej jest w naszych szerokościach geograficznych, gdzie nawet latem bywają pochmurne, chłodne i deszczowe dni. Powszechnym wyzwaniem związanym z mokrymi materiałami jest ich higiena oraz impregnacja – bakterie wodne, często posiadające potencjał patogenny, przyczepiają się do materiału, tworząc grube, trudne do usunięcia biofilmy. Odkryty na UW wynalazek pozwala ograniczyć to zjawisko i zabezpieczyć tkaniny.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Cztery średniowieczne bełty do kuszy wraz z fragmentami drewnianych promieni odkryli warszawscy archeolodzy w czasie badań jeziora Hammersø - największego naturalnego zbiornika na Bornholmie. W jego centralnej części spoczywała też zatopiona... wanna. Do znaleziska doszło we wrześniu w okolicy zamku Hammershus, który położony jest w północno-zachodniej części wyspy.
      Naukowcy liczyli, że odkryją na dnie fragmenty dawnej broni. Ludy mieszkające w Skandynawii 1500-2500 lat temu praktykowały rytualne niszczenie broni zdobytej na najeźdźcach. Uzbrojenie było następnie wrzucane w czasie ceremonii do jezior - opowiada PAP prof. Bartosz Kontny z Wydziału Archeologii UW, który kierował badaniami.
      Przeprowadzone we wrześniu tego roku kilkudniowe badania dna jeziora zaskoczyły jednak naukowców. Nie było tam bowiem rytualnie zniszczonej broni, a dość duża liczba śmieci; odkryto butelki, puszki, monety, kluczyk czy żelazne pręty - ekwipunek związany z eksploatacją skał nad jeziorem i w pobliskim kamieniołomie. A na środku jeziora spoczywała... współczesna wanna z tyczką w miejscu jej odpływu! Ciekawych z punktu widzenia archeologów przedmiotów było natomiast kilka i pochodziły ze znacznie późniejszego okresu, niż przewidywali naukowcy.
      Blisko linii brzegowej w północnej części zbiornika, na przestrzeni około 20 m, znaleźliśmy cztery średniowieczne bełty do kuszy z XIII lub XIV w. Ciekawostką jest fakt, że w każdym z nich zachowały się drewniane promienie w tulejkach. To prawdziwa rzadkość. Bełty wykonano w różnych typach - zarówno mocowane za pomocą tulejki, jak i trzpienia wbijanego w drewno - powiedział PAP prof. Bartosz Kontny. Teraz drewno będzie poddane szczegółowym analizom.
      Naukowcy szacują, że przebadali zaledwie kilka procent powierzchni dna jeziora. Zbiornik ma ok. 700 m długości i 160 m szerokości. Archeolodzy używali do swojej pracy detektorów metalu, przy czym przejrzystość wody jest bardzo dobra. Przed nurkowaniem wykonali pomiary całego dna za pomocą sonaru. Wówczas dostrzegli w centralnej części jeziora wannę. Początkowo sądziliśmy, że jest to dłubanka, czyli łódź zrobiona z jednego pnia. Liczyliśmy zatem na ciekawe znaleziska sprzed co najmniej kilkuset lat - wspomina archeolog.
      Naukowcom udało się namierzyć na dnie Hammersø też dwa nowożytne wraki. Przypuszczalnie są to XIX-wieczne żaglówki.
      To nie pierwsze badania podwodne polskich archeologów w jeziorze Hammersø. W ubiegłym roku natrafili na późnośredniowieczny, masywny grot broni drzewcowej (ma ok. 64 cm i waży ponad 1 kg), zaopatrzony w tzw. skrzydełka i wąsy. Naukowcy określają jego stan zachowania jako bardzo dobry.
      Dr hab. Kontny mówi, że jeziora na terenie Danii (do niej należy również Bornholm) są terra incognita dla archeologów. Prawie nikt w nich nie nurkuje, nie prowadzi się w nich również badań archeologicznych. W ostatnich latach zajęliśmy się tym zagadnieniem tylko my - dodaje.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fryderyk Chopin pisał w sposób zróżnicowany. Na kopertach zawsze kaligraficznie, do rodziny zwykle dużo mniej czytelnie, zdecydowanie drobniejszym pismem. Często robił dopiski na marginesach, nie podpisywał się pełnym imieniem i nazwiskiem. Jak zmieniał się charakter pisma kompozytora w czasie jego życia?
      Zakończono kryminalistyczne badania rękopisów Fryderyka Chopina ze zbiorów Muzeum F. Chopina w Warszawie. W projekcie brali udział eksperci Katedry Kryminalistyki Uniwersytetu Warszawskiego (UW), Polskiego Towarzystwa Kryminalistycznego (PTK) oraz samego Muzeum. Naukowcy badali, jak w trakcie życia kompozytora zmieniał się grafizm, czyli charakter jego pisma i jakie czynniki mogły mieć na to wpływ.
      Wzorzec graficzny
      Do tej pory nie prowadzono tak zaawansowanych badań pismoznawczych nad rękopisami kompozytora. Prawdopodobnie jest to największa na świecie kolekcja rękopisów Fryderyka Chopina, które pierwszy raz zostały zbadane w sposób kryminalistyczny. Przebadano wszystkie 143 dokumenty ze zbiorów warszawskiego Muzeum. Łącznie to 349 stron listów, notatek czy zapisków z kalendarzyków. Głównie listy do znajomych i rodziny, dedykacje muzyczne, ale również oficjalna korespondencja.
      Dzięki badaniom ekspertów kryminalistyki z UW, PTK i Muzeum powstały wzorce graficzne pisma ręcznego Fryderyka Chopina. Wcześniej ustalenie autentyczności dokumentów związanych z kompozytorem było trudne, ponieważ nie istniał katalog cech i właściwości graficznych charakterystycznych dla pisma F. Chopina.
      Profilowanie w kryminalistyce polega na opisaniu cech osoby poszukiwanej, np. potencjalnego sprawcy przestępstwa. My też przyjęliśmy takie założenie. Próbowaliśmy stworzyć coś w rodzaju profilu pisma ręcznego Fryderyka Chopina. Dowiedzieć się, czym się ono charakteryzuje. Wykonaliśmy badania dotyczące budowy liter czy sposobu ich wiązania, a także analizę sposobu kreślenia przez kompozytora własnych podpisów – mówi prof. Tadeusz Tomaszewski z Katedry Kryminalistyki UW, kierownik projektu.
      Jak pisał Chopin?
      Na obraz pisma, dynamikę pisania czy też inne właściwości pisma, np. konstrukcję liter, mógł mieć wpływ m.in. wiek, stan psychofizyczny, język, w jakim pisał kompozytor (pisał po polsku i po francusku) albo rodzaj rękopisu (list czy notatka). Istotny był też adresat. Czy Chopin pisał dla siebie, czy była to oficjalna korespondencja albo listy przeznaczone dla osób zaprzyjaźnionych lub rodziny – dodaje prof. Tomaszewski.
      Eksperci sprawdzali obraz pisma i cechy konstrukcyjne poszczególnych liter. Początkowo Chopin pisał tak, jak go nauczono. Korzystał z dostępnych wtedy wzorców kaligraficznych. Z badań kryminalistycznych wynika, że z biegiem lat w piśmie kompozytora następowały uproszczenia konstrukcji liter (choć sama budowa znaków graficznych co do zasady nie ulegała zmianie), w tym szczególnie widoczny jest zanik elementów ozdobnych i tzw. adiustacji początkowych i końcowych w majuskułach. W przypadku podpisów widać odchodzenie od podpisów rozwiniętych i czytelnych oraz częste stosowanie podpisów skróconych czy nawet nieczytelnych paraf – mówi prof. Tadeusz Tomaszewski. Podpis Chopina przybierał różne formy, czasem kompozytor stawiał same inicjały, czasem pisał jedynie nazwisko, a w korespondencji do przyjaciół podpisywał się np. "Twój stary" (w domyśle Twój stary przyjaciel). Ciekawe jest również to, że na żadnym z badanych dokumentów kompozytor nie podpisał się pełnym imieniem i nazwiskiem.
      Podejrzany dokument
      Biegli pismoznawcy posługują się zwykle lupą i mikroskopem, przeprowadzają badania optyczne i fizykooptyczne. Do oceny nietypowych dokumentów lub właściwości związanych z podłożem bądź środkiem kryjącym (tutaj był to inkaust lub ołówek) potrzebują jednak bardziej zaawansowanego sprzętu. Podczas badań technicznych, dzięki którym można było ustalić, czy dokumenty są kopiami, czy zawierają jakieś retusze, oznaki usuwania lub nadpisywania, znaleziono jeden materiał zawierający dziwne ślady.
      Żeby go zbadać, przetransportowaliśmy do Muzeum specjalistyczny sprzęt kryminalistyczny (m.in. najwyższej klasy urządzenie zwane wideospektrokomparatorem), gdyż ze względów bezpieczeństwa i ochrony samych dokumentów nie można było takich badań przeprowadzić w laboratorium. Wspomniany "podejrzany" dokument zawierał cechy dziwne, wyskrobanie pewnych elementów, powielenie linii czy ich retusz. Wskazuje to na wysokie prawdopodobieństwo dokonywania poprawek pierwotnego zapisu i podpisu przez inną osobę niż sam kompozytor – wyjaśnia profesor.
      Być może w przyszłości możliwe będzie kontynuowanie badań nad tym rękopisem za pomocą zaawansowanej aparatury naukowej, która znajduje się w Centrum Nauk Biologiczno-Chemicznych UW. Chcielibyśmy również, przy pomocy Narodowego Instytutu Fryderyka Chopina i za jego zgodą, wydać publikację naukową dotyczącą przeprowadzonych badań – zapowiada kierownik projektu.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...