Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

We Wrocławiu ruszyła Odra 5, pierwszy w Polsce komputer kwantowy z nadprzewodzącymi kubitami

Rekomendowane odpowiedzi

We Wrocławskim Centrum Sieciowo-Superkomputerowym Politechniki Wrocławskiej uruchomiono pierwszy w Polsce i Europie Środkowo-Wschodniej komputer kwantowy, który wykorzystuje kubity nadprzewodzące w niskiej temperaturze. Maszyna Odra 5 została zbudowana przez firmę IQM Quantum Computers. Posłuży do badań w dziedzinie informatyki, dzięki niej powstaną nowe specjalizacje, a docelowo program studiów w dziedzinie informatyki kwantowej.

Odra 5 korzysta z 5 kubitów. Waży 1,5 tony i ma 3 metry wysokości. Zwisający w sufitu metalowy walec otacza kriostat, który utrzymuje temperaturę roboczą procesora wynoszącą 10 milikelwinów (-273,14 stopnia Celsjusza).

Rektor Politechniki Wrocławskiej, profesor Arkadiusz Wójs przypomniał, że sam jest fizykiem kwantowym i zajmował się teoretycznymi obliczeniami na tym polu. Idea, żeby w ten sposób prowadzić obliczenia, nie jest taka stara, bo to lata 80. XX w., a teraz minęło kilka dekad i na Politechnice Wrocławskiej mamy pierwszy komputer kwantowy nie tylko w Polsce, ale też
w tej części Europy. Oby się po latach okazało, że to start nowej ery obliczeń kwantowych, stwierdził rektor podczas uroczystego uruchomienia Odry 5.

Uruchomienie komputera kwantowego to ważna chwila dla Wydziału Informatyki i Telekomunikacji Politechniki Wrocławskiej. Jego dziekan, profesor Andrzej Kucharski, zauważył, że maszyna otwiera nowe możliwości badawcze, a w przyszłości rozważamy również uruchomienie specjalnego kierunku poświęconego informatyce kwantowej. Powstało już nowe koło naukowe związane z kwestią obliczeń kwantowych, a jego utworzenie spotkało się z ogromnym zainteresowaniem ze strony studentów. Mamy niepowtarzalną okazję znalezienia się w awangardzie jeśli chodzi o badania i naukę w tym zakresie i mam nadzieję, że to wykorzystamy.

Odra 5 będzie współpracowała z czołowymi ośrodkami obliczeń kwantowych. Dzięki niej Politechnika Wrocławska zyskała też dostęp do 20- i ponad 50-kubitowych komputerów kwantowych stojących w centrum firmy IQM w Finlandii.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pamięta ktoś, że pierwsza Odra była polska? Elwro na wrocławskim Grabiszynie... :) 

13 godzin temu, KopalniaWiedzy.pl napisał:

Maszyna Odra 5 została zbudowana przez firmę IQM Quantum Computers.

Jeszcze nikt nie wykorzystał w "kampanii"? Niemiec ma pluć nam w twarz? :D 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jest IQM Spark: https://link.springer.com/content/pdf/10.1140/epjqt/s40507-024-00243-z.pdf ... ale coś też wczoraj wspominali o planach kupna drugiego znacznie większego ...

Na 5 qubitach ciężko o jakieś poważne obliczenia, ale jest pełna kontrola nawet nad kształtem impulsów - super do optymalizacji kompilatorów czy badań podstawowych ...

... jak tego proponowanego ulepszenia 2WQC ( https://www.qaif.org/2wqc ) - ze względu na bardzo niską temperaturę ("żyrandol" schładzający do ~20-30mK), wszystko termalizuje się do ~stanu podstawowego - czyli jedna z możliwości preparacji stanu |0> to po prostu poczekać. Ale z perspektywy symetrii CPT: "puszczając film od tyłu", równania fizyki powinny być te same, temperatura jest ta sama, więc czyż też nie powinno być termalizacji? - sugerując że dla wymuszenia końcowego <0| (postparacji) wystarczy nie ruszać wybranych qubitów przez czas termalizacji ... jeśli tak to NP solvery to kwestia czasu (kryptograficznie zupełnie nie jesteśmy przygotowani), jeśli nie to jak uratować symetrię CPT?

tFAuOUQ.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 godzin temu, Jarek Duda napisał:

ale coś też wczoraj wspominali o planach kupna drugiego znacznie większego ...

Mają na to kasę? :) W końcu to politbuda, więc może i mają, ale najważniejsze - muszą wiedzieć że się to zwróci. Nie bardzo sądzę, żeby na liście top 100 był tam 2WQC. Mylę się? :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Byłem przedwczoraj na otwarciu i wspominali że są dalsze plany, ale zupełnie nie znam szczegółów ... dla poważnych obliczeń trzeba ciut więcej qubitów, ale takie 5 z pełną kontrolą do badań podstawowych jest idealne.

Odnośnie 2WQC, z miesiąc temu miałem u nich dłuższy referat - nagranie z dyskusją: 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 23.05.2025 o 09:25, KopalniaWiedzy.pl napisał:

Odra 5 korzysta z 5 kubitów.

Nie podoba mi się ta nazwa, po co wprowadzać konflikt nazw z poprzednimi Odrami?

Wystarczy się trochę postarać aby uzyskać ładną, znaczącą i oryginalną nazwę własną o polskim kolorycie:
Quantum Universal Reasearch V-bit Architecture

22 godziny temu, Jarek Duda napisał:

"puszczając film od tyłu"

Oczywiście da się nakręcić taki film puszczany od tyłu, ale potrzebna jest wykładnicza ilość dubli ;)

1 godzinę temu, Jarek Duda napisał:

Odnośnie 2WQC

Uznany niemiecki naukowiec z dużym wkładem w rozwój tego kierunku badań:

Bundesarchiv_Bild_146-1968-101-20A,_Jose

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli byłyby merytoryczne kontrargumenty to chętnie odpowiem, gadam o tym od 2 lat i nikt nie znalazł, może eksperyment pokaże że jednak CPT jest łamane w makroskali - czyli trzeba przerabiać fizykę ... ale wpuszczanie zakompleksionych frustratów żeby robić szambo z nielicznych miejsc popularnej rozmowy o nauce w Polsce, dziwić się że mało kto poważny tu się odważy ... :/

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Jarek Duda napisał:

gadam o tym od 2 lat i nikt nie znalazł

Drogi Jarku, od 2 lat tłuczemy z @Astro na forum że przy założeniu ich działania łamane są podstawowe zasady fizyki, więc twierdzenie że "nikt nic nie znalazł" to nadużycie.

4 minuty temu, Jarek Duda napisał:

może eksperyment pokaże że jednak CPT jest łamane w makroskali - czyli trzeba przerabiać fizykę

To absolutna brawura naukowo-techniczna. Pozostałe podejścia do tworzenia komputerów kwantowych jednak nie wymagają przerabiania fizyki, i nie sądzę aby taka szczera deklaracja zachęciła jakikolwiek fundusz venture capital do zainteresowania się tematem. Na asertywność instytucji rozdających publiczne pieniądze liczę jednak mniej.

Z punktu widzenia filozofii nauki to przypadek, w którym załamuje się ekstrapolacja pewnych praw poza zakres ich stosowalności, i świetny przykład na to, że nawet u ludzi zajmujących naukami ścisłymi wewnętrza przestrzeń stanów psychicznych reprezentująca znane prawdy naukowe nie musi ich dobrze oddawać, posiadając niedoskonałości - klasyczny przykład "no free lunch theorem".
Niestety Jarek zamiast zajmować się zagadnieniami w których jego umysł jest dobry, zajmuje się zagadnieniami w których bardzo chciałby zostać słynny - i może nawet mu się uda tego dokonać, ale nie tak jak myśli.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To jeszcze raz - w niskiej temperaturze obiekty jak qubity powinny termalizować do prawie na pewno stanu podstawowego (rozkład Boltzmanna), dysypując ewentualną energię do rezerwuaru.

Z perspektywy symetrii CPT: ewoluując wstecz w czasie, fizyka powinna być rządzona takimi samymi równaniami, temperatura tam jest ta sama (średnia energia kinetyczna), więc dlaczego ma nie być termalizacji - dysypacji ewentualnej energii do rezerwuaru?

Może jednak równania się różnią z perspektywy symetrii CPT? Jeśli tak to m.in. waliłaby się Lorentzowska niezmienność ( https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.89.231602 ) - dosłownie trzeba by przerabiać współczesną fizykę ... było pełno testów, ale same w mikroskali np. pojedynczych cząstek ( https://arxiv.org/pdf/0801.0287 ), trzeba w końcu zacząć testować CPT w skali makro, do czego np. IQM Spark jest idealny.

tFAuOUQ.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.05.2025 o 09:58, peceed napisał:

Drogi Jarku, od 2 lat tłuczemy z @Astro na forum że przy założeniu ich działania łamane są podstawowe zasady fizyki, więc twierdzenie że "nikt nic nie znalazł" to nadużycie.

Dzięki Peceed za uznanie mojego mizernego wkładu w tej materii, ale chyba obaj doskonale wiemy, że nieprzebrane zasoby netu po pewnej grzebaninie pokazują równie, że to nadużycie... ;) Częstsze bardziej milczenie to też odpowiedź, a Jarkowi przypomnę, że poświęcanie kupy czasu na rozkminianie "zajawek" zajmuje go więcej niż spłodzenie owych... Drogi więc Jarku - mnie już nie bardzo się chce, ale

W dniu 25.05.2025 o 06:55, peceed napisał:

Uznany niemiecki naukowiec z dużym wkładem w rozwój tego kierunku badań

to bardzo dobra odpowiedź. :P

W dniu 25.05.2025 o 05:38, Jarek Duda napisał:

Odnośnie 2WQC, z miesiąc temu miałem u nich dłuższy referat - nagranie z dyskusją

Fajnie, szkoda tylko, że nie ujęto sali, czy cuś tam... Zdradzisz liczbę dyskutantów? :)

P.S. Wybacz, ale nie bardzo mam 1,5 h by wsłuchiwać się, w końcu jak sam to ująłeś: "od dwóch lat"...

Edytowane przez Astro

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.05.2025 o 10:16, Jarek Duda napisał:

trzeba w końcu zacząć testować CPT w skali makro

Ale my testujemy CPT w skali makro od urodzenia, i entropia wciąż rośnie.

 

W dniu 25.05.2025 o 10:16, Jarek Duda napisał:

więc dlaczego ma nie być termalizacji - dysypacji ewentualnej energii do rezerwuaru?

Ze względu na znane warunki początkowe (po odwróceniu czasu końcowe). Funkcjonujemy w perspektywie, w której przeszłość poznajemy wcześniej niż przyszłość :P

13 godzin temu, Astro napisał:

Częstsze bardziej milczenie to też odpowiedź

No właśnie, @Jarek Duda - jak tam eksperymentatorzy z Indii?
Przestali się odzywać, bo sprawę przejęła armia?

13 godzin temu, Astro napisał:

Zdradzisz liczbę dyskutantów? :)

Bez znaczenia - 1.5h to za krótko aby przegryźć się przez te slajdy za pierwszym razem.
Niestety, reakcja na bzdury jest podobna jak na rzeczy bardzo trudne - "nie rozumiem" i potrzeba czasu i wnikliwej pracy aby prawidłowo rozróżnić. 

W dniu 25.05.2025 o 10:16, Jarek Duda napisał:

dosłownie trzeba by przerabiać współczesną fizykę

Dopuszczanie błędności praw fizyki jest bardzo wygodne, bo pozwala zignorować każde sprzeczne twierdzenie typu no-go, każdy kontrargument umocowany w fizyce. To już nie jest nauka.

 

- powyższy link ma timestamp, byłoby fajnie gdyby osadzanie aktualizowało grafikę startową.
Chyba dalej widzę "chamskie" kopiowanie qbitów w różnych miejscach klauzul.
Jak już kiedyś sobie tłumaczyliśmy, gdyby można było klonować q-bity i wsadzać je w różne miejsca do obliczeń, to może by i dało się robić takie cuda. Ale się nie da :P
Może tam jest luka w obrazie mentalnym kolegi - papier przyjmie (( x1 or x2) and ( ~x1 or x3)), ale układu kwantowego to realizującego się nie zrobi.
A jak będą 4 różne wejścia, to oczywiście nie ma żadnego sposobu aby wymusić żeby zawierały  tylko 3 qbity.

 

Dlatego kiedyś prosiłem o rozpisanie na bramki najprostszego przykładu 3-SAT, jak widać 2 lata to za mało aby się tym zająć...

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, peceed said:

Ale my testujemy CPT w skali makro od urodzenia, i entropia wciąż rośnie.

Po raz setny, nie ma żadnego problemu z łamaniem symetrii równań na poziomie rozwiązania, jak wrzucenie kamienia do symetrycznej w równaniach powierzchni jeziora ... ten kamień dla nas to Wielki Wybuch, miał najniższą entropię też ponieważ wszystko było zlokalizowane - tworząc gradient entropii w rozwiązaniu w którym żyjemy.

Natomiast symetria CPT jest absolutnie kluczowa dla współczesnej fizyki - https://en.wikipedia.org/wiki/CPT_symmetry : "The CPT theorem says that CPT symmetry holds for all physical phenomena, or more precisely, that any Lorentz invariant local quantum field theory with a Hermitian Hamiltonian must have CPT symmetry."

Bez niej wali się już szczególna teoria względności, więc też OTW i Model Standardowy ... natomiast żeby wbrew niej "udowodnić" wzrost entropii stosuje się przybliżenie średniostopowe "Stosszahlansatz" np. w https://en.wikipedia.org/wiki/H-theorem#Boltzmann's_H_theorem ... stosując je po zastosowaniu symetrii można tak samo "udowodnić" wzrost w przeciwnym kierunku, czyli spadek entropii ...

Entropia to jest dosłownie opis statystyk rozwiązania, własność jego efektywnego przybliżonego opisu. Natomiast CPT to jest poziom fundamentalny - własność równań rządzących fizyką.
RgO4VSY.png

Rozumiem że nie było w Kaku ... ale polecam np. Turoka - co chwilę powtarza że CPT jest absolutnie kluczowe ...

Zrobiliśmy proste testy na ciągłym laserze w pracowni studenckiej, ale chyba bez sukcesu ... sukcesy w artykułach były na impulsowych (np. https://www.science.org/doi/full/10.1126/science.1084429 czy Steinberg: https://arxiv.org/pdf/2409.03680 ), ale to jest dużo trudniejsze.

Ale lasery są asymetryczne przez konieczność pompowania - natomiast rzeczywiście symetryczne jest promieniowanie synchrotronowe: po prostu ładunek po okręgu też z perspektywy CPT, referowałem w wielu miejscach, ludzie przytakują, ale jest trudne w realizacji - szukam możliwości testu ... no i kolejna możliwość to ten test czy termalizacja jest zgodna z symetrią CPT możliwy np. na superconducting QC, który w Polsce jest od kilku dni - myślę że kwestia tygodni, może miesięcy.

Natomiast jeśli szczególnie na synchrotronowym nie wyjdzie, będzie znaczyło że jednak CPT nie jest zachowane - czyli trzeba przerabiać fizykę ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 minut temu, Jarek Duda napisał:

Po raz setny, nie ma żadnego problemu z łamaniem symetrii równań na poziomie rozwiązania,

Natomiast ma kolega problemy ze zrozumieniem, że właśnie rozwiązaniami są wszystkie fizyczne obiekty, w tym działające komputery kwantowe, i maszyny.

16 minut temu, Jarek Duda napisał:

natomiast żeby wbrew niej "udowodnić" wzrost entropii

Jako fizycy nie musimy tego udowadniać, wystarcza nam obserwacja. To kolega, jako "matematyk fizyczny", próbuje błędnie stosować swoje matematyczne intuicje do zrozumienia świata, ulegając złudzeniu że przyjęcie eksternalistycznej perspektywy dla świata jako struktury matematycznej daje nam swobodę w jej kształtowaniu. A tak po prostu nie jest.

 

 

17 minut temu, Jarek Duda napisał:

Ale lasery są asymetryczne przez konieczność pompowania - natomiast rzeczywiście symetryczne jest promieniowanie synchrotronowe: po prostu ładunek po okręgu też z perspektywy CPT

Już to przerabialiśmy, idealny to jest schematyczny rysunek sprowadzony do okręgu i kilku kresek ale nie fizyczny układ będący tym laserem, synchrotron jak najbardziej "pompuje" laser i powiększa entropię, ale nie tylko pompowanie powiększa entropię w układzie z laserem ale każde oświetlenie celu.

Problem polega na tym, że zupełnie nie stara się kolega zrozumieć tej argumentacji, tylko natychmiast rzuca slajdami i hasłami z poziomem refleksji na poziomie odruchu kolanowego.

Takie zmatematyzowane podejście jakie reprezentuje kolega jest maksymalnie szkodliwe - tworzy sobie kolega ideały z których składa rzeczywistość ("laser idealny", "lustro idealne", itd) nie rozumiejąc że są to bardzo złożone obiekty/procesy wewnątrz których przyrost entropii galopuje.

To jest ten mentalny fakap który pozwala potem koledze przenosić analogie z prostych układów fizycznych złożonych z kilku cząsteczek o matematycznie gwarantowanych właściwościach na "proste" układy fizyczne stworzone z idealnych diagramów o "gwarantowanych" właściwościach.

"Fizycy go nienawidzą. Poznał jeden prosty trick i..."

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najczystsza sytuacja to promieniowanie synchrotronowe: ładunek poruszający się po okręgu emituje fotony, powodując wzbudzenie celu.

Z perspektywy CPT dalej mamy ładunek poruszający się po okręgu - skoro równania są te same, to czyż nie powinien też emitować fotonów powodujących wzbudzenie celu?

Z naszej perspektywy oznaczałoby to powodowanie deekscytacji celu, czyli stymulowaną emisję (wymaga przygotowania celu jako wzbudzony).

Gdzie tutaj jest problem? Nie ma nic o entropii ... 

Jest inna asymetria na poziomie rozwiązania: że dziś łatwo znaleźć cel do zaabsorbowania fotonu w przyszłości, znacznie trudniej do wyemitowania w przeszłości (ale można przygotować wzbudzaniem). W erze śmierci termicznej obie szanse mogą się wyrównać.

TDlDB6p.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
48 minut temu, Jarek Duda napisał:

Najczystsza sytuacja to promieniowanie synchrotronowe: ładunek poruszający się po okręgu emituje fotony, powodując wzbudzenie celu.

Przy czym emisja promieniowania ma stochastyczny charakter co już samo w sobie powiększa entropię.

48 minut temu, Jarek Duda napisał:

Z perspektywy CPT dalej mamy ładunek poruszający się po okręgu

I z perspektywy CPT mamy otoczenie które w cudowny sposób wystrzeliwuje fotony trafiając cały czas w elektrony w wiązce (co za przypadek!), co pozwala nadprzewodzącym magnesom odbierać energię dostarczać ją do sieci. Innej perspektywy CPT nie ma.
Ma kolega rozwiązanie które jest fizyczne - działający synchrotron, a po jego transformacji dostajemy "Alicję w krainie Oz".

48 minut temu, Jarek Duda napisał:

skoro równania są te same, to czyż nie powinien też emitować fotonów powodujących wzbudzenie celu?

W życiu. Rozwiązanie kolegi po transformacji CPT po prostu jest odwrócone w czasie i przedstawia "Alicję w krainie Oz".

Bo świat nie składa się z równań i ideałów matematycznych. 

48 minut temu, Jarek Duda napisał:

Gdzie tutaj jest problem? Nie ma nic o entropii ... 

No właśnie w tym. Nie będąc fizykiem posługuje się kolega magicznymi strukturami fizycznopodobnymi w których nie ma entropii. 
Przy elementarnych cząsteczkach trick działa, ale dalej zaczynają się schody ( bo chce kolega wjechać do panteonu fizyków na różowym jednorożcu, to fantazja godna Wieniawy).  

48 minut temu, Jarek Duda napisał:

Z naszej perspektywy oznaczałoby to

że dla układu fizycznego wciąż widzimy oryginał, przed pierwszym CPT.

Podsumowując - opisuje sobie kolega świat przy pomocy idealnych klocków uproszczonych do bólu w taki sposób, że nie posiadają entropii, potem puszcza sobie kolega ten uproszczony obraz świata do tyłu, postuluje sobie zachowanie ("gruboziarniste") tych bezentropijnych klocków jako identyczne w przeciwnym kierunku czasowym z powodu symetrii równań (jako uzasadnieniem - na poziomie czysto werbalnym, ale co tam), po czym upiera się że świat musi zachowywać się zgodnie z tym modelem (który po powrocie do naszej perspektywy będzie wykazywał nadzwyczajne zjawiska jak 2WQC).
To esencja problemów kolegi.

Dlatego właśnie nazywam kolegę matematykiem a nie fizykiem. Bo fizyk (prawdziwy, nie nominalny) rozumie, że klocki są jedynie uproszczeniem i że mają entropię
Dlatego nic z tego co postuluje kolega nie będzie działać - bo miał kolega zbyt prosty model mentalny świata i fizyki.

 

Całe to slajdowe poszukiwanie "analogii" "analogów" wpada zawsze w tą pułapkę - zbyt daleko posuniętej abstrakcji która w końcu zaczęła usuwać aspekty i detale istotne. 

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z matematyki mam tylko mgr - raczej czuję się fizykiem i informatykiem. W QFT mamy diagramy Feynmana - scenariusze 4D, np. tutaj sprzężenie fotonem między dwoma elektronami: intuicyjny jest diagram Feynmana że foton jest teraz emitowany, a później absorbowany.

Ale CPT odwrócony diagram Feynmana też jest dozwolony ( https://en.wikipedia.org/wiki/Antiparticle#Feynman–Stückelberg_interpretation ) i dobrze znany dla promieniowania synchrotronowego jako synchrotron self-absorption czy self-amplified spontaneous emission ( https://en.wikipedia.org/wiki/Self-amplified_spontaneous_emission ) kluczowe szczególnie dla free-electron laser ... gdzie spontaniczna emisja zastępowana jest stymulowaną - z ilością fotonów proporcjonalną do kwadratu ilości elektronów.

Foton tutaj to sprzężenie między dwoma elektronami - oba są dozwolone, tylko wymagają tego drugiego elektronu do sprzężenia, o który teraz łatwiej przy emisji ponieważ jest pełno w stanie podstawowym w przyszłości, ale przygotowując wzbudzone w przeszłości dajemy możliwość też dla drugiego sprzężenia.

Q5yKzlS.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, Jarek Duda napisał:

Ale CPT odwrócony diagram Feynmana też jest dozwolony

To wspaniale. I tak samo "Alicja w krainie Oz" też jest dozwolona, tylko że jej prawdopodobieństwo wynosi praktyczne 0. W pewnym momencie ilość (rozmiar układu) przechodzi w jakość (praktyczną nieodwracalność upływu czasu).

32 minuty temu, Jarek Duda napisał:

i dobrze znany dla promieniowania synchrotronowego jako synchrotron self-absorption

Chyba zdaje sobie kolega sprawę, że to zjawisko po odbiciu CPT przechodzi samo w siebie?
Więc coś się koledze pomyliło, rozumiem że miał to być argument na zasadzie "mamy jakieś zjawisko i zasadniczo moja zabawa w analogi CPT prawidłowo przewiduje z niego jakieś inne zjawisko", tylko nie wyszło.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Skoro równania są te same w CPT, przy analogicznych warunkach prawdopodobieństwa też powinny być te same.

Przy źródłach światła są one ilościowo wyrażane parą równań poniżej: absorpcji/stymulowanej emisji - z perspektywy CPT zamienianych miejscami: https://en.wikipedia.org/wiki/Stimulated_emission#Mathematical_model

Czyli przygotowując sytuację o danym rho(nu) gęstości źródła fotonów (równanie absorpcji) z perspektywy CPT, w normalnej perspektywie ta rho(nu) gęstość powinna być w równaniu stymulowanej emisji ... które zależy też od N2 - ilości wzbudzonych atomów, co zwykle jest bliskie zera, trzeba znacznie zwiększyć dla szansy obserwacji efektu - występowania takich odwróconych diagramów Feynmana ... co dzieje się m.in. w free-electron laser między elektronami, sprzęgając je w absorpcji-stymulowanej emisji, w ten sposób znacznie zwiększając ilość fotonów.

pNm1MCy.png

Edytowane przez Jarek Duda

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
49 minut temu, Jarek Duda napisał:

Skoro równania są te same w CPT, przy analogicznych warunkach prawdopodobieństwa też powinny być te same.

Co jest bzdurą oczywistą dla każdej osoby która ma do czynienia z realnym światem:
Szanse na to, że rozbity dzbanek nagle podbije się kawałkami z ziemi i złoży a następnie wskoczy na stolik wynosi praktyczne zero, choć jest to zachowanie dopuszczalne z punktu widzenia praw mikroskopowych.

I to jest obserwowalna własność naszego świata, i do niej musi kolega dostosować swoje myślenie, a nie liczyć, że może świat się dopasuje.

 

Zresztą nie istnieje powód dla którego zdarzenia po zastosowaniu odbicia CPT miałyby być te same - są to inne zdarzenia, odwrotne.
Prawdopodobieństwa są zawsze funkcją subiektywnej wiedzy obserwatora, i nie ma powodu uważać je za niezmiennicze po odbiciu czasu, bo całkowicie inaczej wygląda wtedy wiedza , choćby dlatego że zdarzenia na których opierała się ona w widoku "w drugą stronę" jeszcze nie są dostępne, obserwator też się zmienia po odbiciu.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zauważ że nie mówimy o dzbankach, tylko o absorpcji-stymulowanej emisji, sprzęganiu elektronów - dokładnie jak w free-electron laser dla zwiększania jasności

S4GUSDa.png

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, Jarek Duda napisał:

Zauważ że nie mówimy o dzbankach, tylko o absorpcji-stymulowanej emisji, sprzęganiu elektronów

Mówimy o podstawach fizyki i problemach kolegi.
Jak zwykle zupełnie zapomniał kolega o tym, co napisałem kilka postów wcześniej, więc zacytuję:

10 godzin temu, peceed napisał:

Podsumowując - opisuje sobie kolega świat przy pomocy idealnych klocków uproszczonych do bólu w taki sposób, że nie posiadają entropii, potem puszcza sobie kolega ten uproszczony obraz świata do tyłu, postuluje sobie zachowanie ("gruboziarniste") tych bezentropijnych klocków jako identyczne w przeciwnym kierunku czasowym z powodu symetrii równań ((wycięło: "z postulatem ) jako uzasadnieniem - na poziomie czysto werbalnym, ale co tam), po czym upiera się że świat musi zachowywać się zgodnie z tym modelem (który po powrocie do naszej perspektywy będzie wykazywał nadzwyczajne zjawiska jak 2WQC).
To esencja problemów kolegi.

Oczywiście brak zrozumienia powyższego tekstu jest całkowicie konsystentny z brakiem rozumienia złożonych sytuacji fizycznych...
Więc jeszcze wyjaśnię:

Extremalnie płynnie przechodzi kolega z prostych diagramów zawierających kilka cząsteczek do diagramów złożonych z "kilku cząsteczek i akceleratora" przypisując mu (akceleratorowi) zbytnio uproszczone własności. Całe podejście kolegi do fizyki, całe jej zrozumienie jest obarczone tym felerem, czego efektem jest slajdoza.
Slajdy w rozumieniu kolegi są wyczerpującym i kompletnym wyjaśnieniem idei, bo odnosi kolega wrażenie, że wszyscy podzielają takie uproszczone rozumienie rzeczywistości, do tego następuje korespondencja pomiędzy obiektami na diagramach a abstrakcyjnymi wzorami metematycznymi według bardzo prostych zależności.

Dlatego tak chętnie skacze sobie kolega pomiędzy różnymi sytuacjami fizycznymi nazywając je analogami., tylko dlatego że w ich opisie pojawiają się podobne formuły matematyczne, gdyż w swoim obrazie mentalnym ignoruje kolega istnienie podstawowych fizycznych różnic wynikających z istotnych detali, i dzieje się to w bardzo wielu różnych sytuacjach fizycznych.

Żeby kolega nie uciekł myślami zapominając o pierwszym zdaniu wpisu - nie jest to dyskusja o jakichś zaawansowanych fizycznych ideach, tylko o umyśle kolegi.
Spotkałem się z matematy(cz)kami, które absolutnie nie trawiły prostych zadań fizycznych pomimo umiejętności rozwiązywania problemów matematycznych. Esencja ich problemów skupiała się do tego, że nie posiadały żadnej intuicji fizycznej która by je prowadziła w kierunku prawidłowego wyniku, dysponując jedynie "bezkierunkową" operacją "podstawiania wzorów". (Oczywiście zdolności matematyczne również osiągały sufit, ale to nie o tym).

Problemy kolegi są zupełnie analogiczne - fizyczna intuicja kolegi ma "fizyczne ograniczenia", polegające na gubieniu kluczowych własności fizycznych obiektów przy próbie ich abstrahowania. Nie jest kolega sam - bardzo wielu fizyków teoretycznych wpada w pułapkę  tego, że wzory matematyczne stają się dla nich fizyką samą w sobie, i po wielu latach zapominają sens tego co liczą, popadając (zwłaszcza na starość) w filozoficzne pseudointelektualizmy.

Kolega w swoich uproszczeniach poszedł "o jeden most za daleko" - zapomniał o entropii, która jest inherentą własnością podukładów na diagramach o której nie można zapomnieć, bo zajmuje się zagadnieniem (strzałka czasu) dla którego ma ona kluczowe znaczenie. Uproszczenie obiektów do poziomu gdzie ich entropia przestaje być widoczna, a potem próby odtworzenia entropii z diagramów zawierających te uproszczone obiekty jest skazane na niepowodzenie.

Radzę sobie wziąć to do serca, bo nie sądzę aby kiedykolwiek ktoś poświęcił koledze tyle swojego czasu.
Ludzie poświęcają czas na zrozumienie i przetrawienie idei kolegi, do momentu kiedy orientują się, że marnuje kolega ich (bez)cenny czas, co skutkuje ciszą wynikającą z chęci ograniczania strat -  standardowa procedura, crackpotów w fizyce nie brakuje!

Ma kolega widoczne deficyty w komunikacji werbalnej (widoczne również podczas tych swoich udostępnianych wykładów), dwukierunkowe. Dlatego nie traktuje kolega poważnie wpisów jak ten, najwyraźniej oczekując dopasowania się otoczenia do poziomu komunikacyjnego kolegi za wykorzystaniem slajdów z diagramami i wzorami. Nie poświęca kolega wiele czasu na zrozumienie wypowiedzi innych ludzi, czego charakterystycznym objawem jest całkowity brak do odnoszenia się do poszczególnych zdań czy fragmentów za pomocą cytowania, wskazywania błędów w rozumowaniach innych ludzi.

Być może stara się kolega zrozumieć wypowiedzi jako całość analogicznie jak ma to miejsce w przypadku slajdów, które są takim kolażem idei mających wywołać kompletne wrażenie psychiczne. Staranność w tworzeniu slajdów świadczy o tym, że są one u kolegi limitem kojarzenia asocyjacyjnego, choć mogę się tutaj mylić, może to objaw limitów w komunikacji. Ale i tak, wewnętrze rozumowania mają charakter komunikacji siebie z samym sobą, więc ograniczenia w komunikacji i tak przekładają się na ograniczenia w przeprowadzaniu rozumowań, i nie muszą być one w pełni skompensowane "analogami" (hehe).

Wygląda to tak, jakby dwóch matematyków machało swoimi dowodami na tezy przeciwne, tylko że jeden z nich pokazuje luki dowodowe w rozumowaniu adwersarza, a drugi za każdym razem przynosi kolejne dowody, nie starając się zrozumieć dowodów na tezę przeciwną i wskazać w nich luki/błędy. Na poziomie analogii z fizykami - proponuje kolega coraz to nowe perpetuum mobile, ignorując wszystkie argumenty że takie nie mogą istnieć, w ogóle się do nich nie odnosząc.

Wygląda na to, że znowu kolega wygodnie zignorował kwestię duplikacji q-bitów na wejściu w 3-SAT w swoim przykładzie 2WQC , i nie ma zamiaru się tym zająć ani nawet odnieść.
Jakoś mnie to nie dziwi - Fleichmann i Pons też "zapomnieli" przeprowadzić eksperyment kontrolny z lekką wodą (tak, już zbliżamy się do tego poziomu) .

*
*
*
*
*

CIEKAWOSTKA odnośnie wewnętrznych limitów rozumowania:

Bardzo szybko przeszedłem na poziom wzrokowy w przetwarzaniu informacji, i dopiero bardzo późno w życiu, około 35 roku życia zauważyłem, że bardzo często zajmując się bardzo trudnymi zagadnieniami mogłem godzinami szukać bezskutecznie rozwiązania, pomimo precyzyjnego sformułowania pytania w myślach - dopiero wypowiedzenie tego pytania na głos, z zaangażowaniem słuchu pozwalało na błyskawiczne znalezienie prawidłowej odpowiedzi, na zasadzie wypowiadam na głos pytanie i od razu pojawia się odpowiedź. Co było też pewnie związane z faktem, że byłem lepszym mówcą niż pisarzem.

Tłumaczę to sobie na dwa komplementarne sposoby - brakowało w moim mózgu funkcjonalnych połączeń które pozwalałyby przetransferować sens pytania do ośrodków które potrafią znaleźć tą odpowiedź. Jednocześnie zauważyłem (taki wewnętrzny wgląd w funkcjonowanie umysłu - zaniknął po "udarze"), że przy przetwarzaniu informacji mózg tworzy hierarchiczne kategorie elementarne mające postać drzewiastą (bazową), gdzie we współdzielonych liściach znajdują się poszczególne przypadki użycia, bezpośrednio pamiętane ( i ta bezpośrednia pamięć jest kluczowa dla tworzenia i odtwarzania znaczących bayesowskich statystyk!) Procesowanie pierwotne/sensoryczne jest w stanie potencjalnie aktywować wszystkie kategorie związane z przetwarzaną informacją (poziom percepcyjny), podczas gdy przetwarzanie abstrakcyjne jest w stanie pobudzać jedynie część tych kategorii (poziom koncepcyjny - rekurencyjne połącznia wsteczne sięgają do głębszych warstw, ale nie do płytszych). Dlatego podczas procesowania sensorycznego mózg jest w stanie aktywować większą ilość znaczących kategorii w mózgu, właściwie maksymalną, i stąd pojawia się zdolność do odnajdywania skojarzeń które normalnie unikają a mogą być kluczowe dla rozwiązania problemu. Dlatego w sytuacji "pracy na limicie" warto pytania/zagadnienia konceptualizować w mózgu, a dodatkowo zapisywać na kartce i czytać, a do tego jeszcze głośno wypowiadać.

Może to też tłumaczyć popularność konferencji - gdzie ludzie mają okazję porozmawiać o swojej pracy, i uaktywnić nieco inne obszar mózgu od tych, których używają bezpośrednio na co dzień).

 

9 godzin temu, Jarek Duda napisał:

Z matematyki mam tylko mgr - raczej czuję się fizykiem i informatykiem

Formalne tytuły nie mają żadnego znaczenia,  jest kolega raczej matematykiem i zwłaszcza informatykiem.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Jarek Duda I jeszcze muszę dodać jedno zastrzeżenie, aby kolega nie odbierał tego jako jakiegoś ataku na siebie, bo to absolutnie szczera chęć pomocy i zrozumienia.
Po prostu ta intuicja fizyczna którą wykorzystuje kolega może pełnić jedynie rolę pomocniczej heurystyki.
Zasadniczo wszystkie fizyczne pomysły kolegi całkowicie poległy właśnie z tego powodu - nadmiernych uproszczeń gubiących własności, co w połączeniu z nadmiernymi wymaganiami wobec siebie (albo otoczenia?) całkowicie wypuściło kolegę na manowce.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W ostatnim półwieczu producenci komputerów dokonali olbrzymich postępów pod względem miniaturyzacji i wydajności układów scalonych. Wciąż jednak bazują one na krzemie i w miarę zbliżania się do fizycznych granic wykorzystywania tego materiału, miniaturyzacja staje się coraz trudniejsza. Nad rozwiązaniem tego problemu pracują setki naukowców na całym świecie. Jest wśród nich profesor King Wang z University of Miami, który wraz z kolegami z kilku amerykańskich uczelni ogłosił powstanie obiecującej molekuły, która może stać się podstawą do budowy molekularnego komputera.
      Na łamach Journal of American Chemical Society uczeni zaprezentowali najlepiej przewodzącą prąd cząsteczkę organiczną. Co więcej, składa się ona z węgla, siarki i azotu, a więc powszechnie dostępnych pierwiastków. Dotychczas żadna molekuła nie pozwala na tworzenie elektroniki bez olbrzymich strat. Tutaj mamy pierwszą molekułą, która przewodzi prąd na dystansie dziesiątków nanometrów bez żadnej straty energii, zapewnia Wang. Uczeni są pewni swego. Testy i sprawdzanie molekuły pod wszelkimi możliwymi kątami trwały przez ponad dwa lata.
      Zdolność cząsteczek do przewodzenia elektronów wykładniczo zmniejsza się wraz ze wzrostem rozmiarów molekuły. Tym, co jest unikatowe w naszej molekule, jest fakt, że elektrony mogą przemieszczać się przez nie bez straty energii. Teoretycznie jest to wiec najlepszy materiał do przewodzenia elektronów. Pozwoli on nie tylko zmniejszyć rozmiary elektroniki w przyszłości, ale jego struktura umożliwi stworzenie komputerów funkcjonujących tak, jak nie jest to możliwe w przypadku materiałów opartych na krzemie, dodaje Wang.
      Nowa molekuła może posłużyć do budowy molekularnych komputerów kwantowych. Niezwykle wysokie przewodnictwo naszej cząsteczki to rezultat intrygującej interakcji spinów elektronów na obu końcach molekuły. W przyszłości taki system molekularny może pełnić rolę kubitu, podstawowej jednostki obliczeniowej komputerów kwantowych, cieszy się uczony.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperci z Quantum Internet Alliance (QIA) ogłosili powstanie pierwszego systemu operacyjnego dla sieci kwantowych – QNodeOS. To olbrzymi krok naprzód w kierunku uczynienia z sieci kwantowych praktycznej technologii. W skład QIA wchodzą naukowcy z Uniwersytetu Technologicznego w Delft, Uniwersytetu w Innsbrucku, Instytutu badań nad kwantowym przetwarzaniem i kwantowym internetem (QuTech), Francuskiego Narodowego Instytutu Badawczego Nauk Komputerowych i Automatyzacji (INRIA) oraz Francuskiego Narodowego Centrum Badań Naukowych (CNRS).
      Naszym celem jest zapewnienie wszystkim dostępu do kwantowej technologii sieciowej. Dzięki QNodeOS robimy wielki krok naprzód. Dzięki temu po raz pierwszy stało się możliwe łatwe programowanie i wykonywanie aplikacji działających w sieciach kwantowych, mówi profesor Stephanie Wehner, która stała na czele grupy badawczej. Nasze prace otwierają też całkowicie nowe pola w badaniach nad komputerami kwantowymi, dodaje.
      Tym, co pozwoliło na rozpowszechnienie się klasycznych komputerów była możliwość łatwego tworzenia oprogramowania. I właśnie to umożliwia QNodeOS. System jest podobny do oprogramowania, która mamy w domu. Dzięki niemu nie musimy wiedzieć, jak działa sprzęt, by go używać, dodaje Mariagrazia Iuliano, doktorantka w QuTech.
      QNodeOS pozwala na programowanie aplikacji wysokiego poziomu, podobnie jak programowane są obecnie aplikacje dla Windows czy Androida. W przeciwieństwie do dotychczasowych systemów dla komputerów kwantowych, programista nie musi brać pod uwagę specyfiki sprzętowej czy konfiguracji maszyny, na której ma działać jego program. Uruchamiając swój system na dwóch różnych procesorach badacze wykazali, że QNodeOS może współdziałać z różnymi typami sprzętu. Procesor bazujący na uwięzionych jonach działa zupełnie inaczej od procesorów wykorzystujących centra barwne (defekty krystaliczne) w diamentach. Mimo to wykazaliśmy, że nasz system pracuje na obu tych typach procesorów, cieszy się profesor Tracy Northup z Uniwersytetu w Innsbrucku.
      Teraz twórcy nowego systemu pracują nad zapewnieniem wszystkim chętnym dostępu do odpowiedniego oprogramowania i sprzętu. Naukowcy chcą, między innymi, udostępnić QNodeOS na Quantum Network Explorer, pokazowej sieci kwantowej stworzonej prze QuTech. Dzięki temu chętni będą mogli eksperymentować z nowym systemem i tworzyć nań oprogramowanie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Komputery kwantowe mają rozwiązywać problemy, z którymi nie radzą sobie komputery klasyczne. Maszyny, które udało się zbudować, bazują zwykle na superpozycji stanów elektronicznych, na przykład na dwóch różnych ładunkach. Problem w tym, że kubity elektromagnetyczne szybko ulegają dekoherencji, tracą swój stan kwantowy. Wówczas superpozycja ulega zniszczeniu i nie mamy już do czynienia z kubitem. To obecnie znacząco ogranicza możliwości komputerów kwantowych. Wkrótce jednak może się to zmienić, gdyż naukowcy z Federalnego Instytutu Technologii w Zurychu stworzyli długo działający mechaniczny kubit.
      Szwajcarski kubit to miniaturowa wersja membrany instrumentu perkusyjnego. Zachowuje się ona w sposób podobny do kota Schrödingera – jednocześnie wibruje i nie wibruje. Jest więc w superpozycji. Wykorzystanie mechanicznego kubitu mogłoby doprowadzić do powstania mechanicznych komputerów kwantowych, zdolnych do przeprowadzania długotrwałych, złożonych obliczeń.
      Specjaliści, próbujący stworzyć mechaniczny kubit, mierzyli się z olbrzymim problemem związanym ze stanami energetycznymi. Standardowe kubity elektromagnetyczne zachowują się anharmonicznie, co oznacza, że pomiędzy ich stanami elektronicznymi istnienie nierównowaga energii i to właśnie czyni je użytecznymi kubitami. Z mechanicznymi rezonatorami, takimi jak wspomniana powyżej membrana, problem polega na tym, że są one harmoniczne. Poziomy energii pomiędzy wibracjami są równe, więc wykorzystanie ich jako kubitów jest niemożliwe. Zaproponowano więc rozwiązanie problemu, które miało polegać na połączeniu takiego mechanicznego oscylatora z najlepiej działającym elektromagnetycznym kubitem. Jednak czas działania takiej hybrydy uzależniony był od czasu dekoherencji kubita elektromagnetycznego. Całość nie sprawdzała się dobrze.
      Naukowcy z Zurychu wpadli więc na inny pomysł. Ich kubit składa się z elementu piezoelektrycznego umieszczonego na szafirowej płytce – to część mechaniczna – połączonego z szafirowym anharmonicznym elementem.
      Prototypowy układ osiąga czas koherencji rzędu 200 mikrosekund, działa więc 2-krotnie dłużej niż przeciętny kubit nadprzewodzący. Co prawda obecnie najlepsze kubity osiągają czas koherencji około 1 milisekundy, jest to więc około 5-krotnie dłużej niż mechaniczny kubit z Zurychu, ale mowa tutaj o wyjątkowych kubitach, nad którymi prace trwają od wielu lat.
      Szwajcarscy naukowcy zapewniają, że eksperymentując z różnymi materiałami i architekturami będą w stanie znacząco wydłużyć czas koherencji ich kubitu.
      Twórcy mechanicznego kubitu pracują teraz nad stworzeniem kwantowej bramki logicznej, odpowiednika bramek logicznych w tradycyjnych komputerach, za pomocą których przeprowadzane są obliczenia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na całym świecie rośnie liczba przypadków chorób przenoszonych przez wektory. Najbardziej znane wektory to komary, kleszcze czy pchły. Jedną z przenoszonych przez nie chorób jest denga, której liczba przypadków zwiększyła się w ciągu ostatnich 50 lat aż 30-krotnie czyniąc ją drugą, po malarii, najbardziej rozpowszechnioną chorobą wektorową. Badacze z UK Centre for Ecology & Hydrology, Uniwersytetów w Glasgow i Reading oraz Biomathematics and Statistics Scotland opracowali model, który pozwala przewidzieć rozprzestrzenianie się w Europie komara tygrysiego (Aedes albopictus) i ryzyka lokalnych zachorowań na dengę.
      Komar tygrysi występował naturalnie w Azji Południowo-Wschodniej. Został jednak przez człowieka rozwleczony po całym świecie. Najnowsze dane European Centre for Disease Prevention and Control z maja bieżącego roku wskazują, że komar tygrysi jest już zadomowiony między innymi w znacznej części Hiszpanii, większości Francji, całych Włoszech, środkowych i południowo-zachodnich Niemczech oraz w Berlinie, na Węgrzech i na południu Słowacji. Jego obecność zarejestrowano też w Czechach, Austrii czy na południu Szwecji. W Polsce gatunku tego nie stwierdzono, jednak niewykluczone, że z powodu... braku danych. Zdecydowana większość obszaru naszego kraju jest oznaczona jako tereny, z których nie ma informacji.
      W porównaniu z poprzednim raportem, z października 2023 roku komar tygrysi zadomowił się w kolejnych 6 regionach Francji i 1 regionie Niemiec i został zaobserwowany w nowych regionach w Hiszpanii, Holandii, Portugalii i Słowenii.
      Jeszcze w 2000 roku na świecie odnotowano około 0,5 miliona zachorowań na dengę, w roku 2024 mamy już ponad 12 milionów chorych i ponad 8000 zgonów. Przyczyną jest zarówno zmiana klimatu, jak i zachowanie ludzi, dzięki którym komar łatwiej się rozmnaża i rozprzestrzenia.
      Autorzy nowych badań stworzyli bardziej szczegółowy model niż dotychczas używane, który już prawidłowo przewidział miejscowości, w których w bieżącym roku nastąpią pierwsze zachorowania na dengę. Są wśród nich La Colle-sur-Loup, Baho i Montpellier-Pérols we Francji czy Vila-seca w Hiszpanii. Prognozujemy, że najbardziej narażone na dengę pozostaną południowe regiony Francji oraz północ Włoch. Są tam sprzyjające warunki klimatyczne, stabilna populacja komarów oraz duża liczba osób wracających z krajów tropikalnych, gdzie denga występuje, stwierdził główny autor badań, Dominic Brass. Dotychczas najbardziej na północ wysuniętym miastem, w którym wystąpiła denga, był Paryż. Pierwszego komara tygrysiego zaobserwowano tam w 2015 roku, a w roku ubiegłym zanotowano lokalne zachorowania. Co więcej, w bieżącym roku w Paryżu doszło też do lokalnego zachorowania na chikungunyę, inną tropikalną chorobę przenoszoną przez komary.
      Autorzy badań ostrzegają jednak, że obszar występowania ryzyka zachorowań przesuwa się na północ. Z ich modelu wynika, że lokalnych zachorowań można spodziewać się też w Warszawie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas badań archeologicznych na stanowisku Łysa Góra (Rembielin) w pobliżu miejscowości Chorzele w powiecie przasnyskim dokonano sensacyjnego odkrycia. Eksperci z Państwowego Muzeum Archeologicznego, pracujący pod kierunkiem doktorów Wojciecha Borkowskiego i Bartłomieja Kaczyńskiego, znaleźli celtycki hełm z IV wieku przed naszą erą. To zaledwie drugie tego typu znalezisko na terenie naszego kraju. Pierwszy hełm celtycki znaleziono ponad 50 lat temu w Siemiechowie.
      Łysa Góra to piaszczysta wydma na bagnach w dolinie rzeki Orzyc. Około VI wieku przed Chrystusem osiedlili się tam przedstawiciele kultury kurhanów zachodniobałtyjskich. Osadę odkryto w 1959 roku i od tej pory, z przerwą w latach 1971–1984, jest ona przedmiotem badań archeologicznych. Podczas obecnego sezonu wykopalisk znaleziono między innymi pozostałości umocnień, w tym kamienne licowania i ślady drewnianej palisady. Świadczą one o tym, że osada miała charakter obronny. Umocnienia były zapewne szczególnie przydatne zimą, gdy mokradła zamarzały.
      Najważniejszym jednak ze znalezionych artefaktów jest wspomniany hełm. Ma on łukowaty nakarczek i stożkowatą kalotę (górną część) zakończoną podwójnym guzkiem. Wstępna analiza wykazała, że to hełm z brązu zbliżony do typu Berru, co pozwoliło datować go na IV w. p.n.e. Kompletne przykłady takich hełmów można obejrzeć w Muzeum Celtów w Hallein (Keltenmuseum Hallein). Zabytek jest w złym stanie, trafił do Działu Konserwacji Muzealiów Państwowego Muzeum Archeologicznego. Będzie się nim zajmował Mikołaj Organek, który specjalizuje się w konserwacji przedmiotów z brązu i żelaza. Prace konserwatorskie potrwają kilka miesięcy, po czym hełm trafi na przygotowywaną wystawę stałą.
      Oprócz hełmu i umocnień archeolodzy znaleźli nożyce, siekiery, ciosła, półkoski oraz fibule, naszyjniki i bransolety.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...