Jump to content
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderators
  • Content Count

    37434
  • Joined

  • Last visited

    Never
  • Days Won

    241

Everything posted by KopalniaWiedzy.pl

  1. Góra Jezero Mons, znajdująca się na obrzeżach krateru Jezero, w którym pracuje łazik Perseverance, to prawdopodobnie wulkan, donoszą naukowcy z Georgia Institute of Technology. Góra jest niemal połowy wielkości krateru Jezero, a jej zbadanie mogłoby nam wiele powiedzieć o wulkanizmie na Marsie i zdolności planety do potrzymania życia. Odkrycie dokonane przez naukowców z Georgii pokazuje, jak mało wiemy nawet o jednym z najlepiej zbadanych regionów Marsa. Badanie wulkanizmu Marsa to niezwykle interesujące zagadnienie. Możemy dzięki niemu poznać geologię i historię Czerwonej Planety. Krater Jezero to jedno z najlepiej zbadanych miejsc na Marsie. A jeśli dopiero teraz znaleźliśmy tam wulkan, to wyobraźmy sobie, jak dużo może ich być na Marsie. Być może jest ich więcej, niż kiedykolwiek sobie wyobrażaliśmy, mówi profesor James J. Wray. Wray zauważył górę w 2007 roku, gdy był świeżo upieczonym magistrem. Oglądałem zdjęcia tego regionu wykonane w niskiej rozdzielczości i zauważyłem górę na krawędziach krateru. Dla mnie wyglądała jak wulkan, ale trudno było zdobyć dodatkowe zdjęcia, mówi. Było to niedługo po odkryciu Jezero Crater i był on badany pod kątem obecności w przeszłości wody, wykonywano więc głównie fotografie innego obszaru, znajdującego się kilkadziesiąt kilometrów dalej. Później krater został wybrany celem misji Mars 2020 i wylądował w nim łazik Perseverance, poszukujący śladów dawnego życia na Marsie. Okazało się jednak, że jednymi z pierwszych próbek przeanalizowanych przez łazik, był nie materiał osadowy – jakiego należałoby się spodziewać po działalności wody – a wulkaniczny. Wray podejrzewał, skąd ten materiał mógł się wziąć, jednak najpierw musiał wykazać, że zauważona przed laty góra rzeczywiście jest wulkanem. Uczony wraz z zespołem wykorzystał wcześniejsze badania profesor Briony Horgan, która również sugerowała, że Jezero Mons to wulkan, oraz użył danych z orbiterów Mars Odyssey, Mars Reconnaissance, ExoMars Trace Gas i łazika Perseverance. Nie możemy odwiedzić Marsa i bezsprzecznie udowodnić, że to wulkan, ale możemy wykazać, na ile góra ta ma takie same właściwości jak inne wulkany na Ziemi i Marsie, wyjaśnia Wray. Udało się tego dokonać między innymi dzięki danym zebranym już wcześniej przez wspomniane orbitery. To pokazuje, że dane ze starszych pojazdów kosmicznych mogą być niezwykle cenne nawet długo po zakończeniu ich misji. Te dawne misje wciąż mogą przyczynić się do dokonywania nowych odkryć i pomogą nad udzielić odpowiedzi na trudne pytania, dodaje uczony. Jeśli Jezero Mons jest wulkanem, to jego obecność zaraz przy kraterze Jezero, w którym znajdowała się niegdyś woda, może dostarczyć nam niezwykle istotnych informacji na temat źródła energii na Marsie, w tym na temat potencjalnego istnienia tam zjawisk hydrotermalnych. Perseverance zebrał próbki niezwykłych skał osadowych, które mogą pochodzić z regionu, gdzie w przeszłości mogło istnieć życie, oraz próbki skał magmowych o niezwykle dużej wartości naukowej, wyjaśnia Wray. Jeśli udałoby się te próbki przetransportować na Ziemię, skały magmowe można by niezwykle precyzyjnie datować. To zaś pozwoliłoby na skalibrowanie dat dla krateru Jezero i dałoby naukowcom niezwykły wgląd w przeszłość geologiczną Marsa. Źródło: Evidence for a composite volcano on the rim of Jezero crater on Mars, https://www.nature.com/articles/s43247-025-02329-7 « powrót do artykułu
  2. Naukowcy z SETI Institute oraz Uniwersytetu Kalifornijskiego w Davis są pierwszymi, którzy zarejestrowali wielkie pierścienie powietrza wypuszczane przez humbaki. Zwierzęta tworzyły j podczas przyjaznej interakcji z ludźmi. Trudno oprzeć się wrażeniu, że pierścienie te przypominają kółka wypuszczane przez palaczy papierosów. Naukowcy przypuszczają, że pierścienie to albo próba zabawy, albo komunikacji z ludźmi. Nie od dzisiaj wiemy, że humbaki wykorzystują bańki powietrza do otaczania ławic ryb, na które polują. Ponadto samce głośno wypuszczają powietrze, tworząc widoczne ślady na wodzie, gdy konkurują o samice. Tym razem mamy do czynienia z nieznanym wcześniej zjawiskiem - tworzeniem specyficznych baniek podczas przyjaznej interakcji z ludźmi. Humbaki żyją w złożonych społecznościach, wydają różne dźwięki, posługują się bąblami powietrza jak narzędziami, pomagają innym gatunkom atakowanym przez drapieżniki. Teraz widzimy, że wydmuchują w kierunku ludzi pierścienie z powietrza. To może być sposób na interakcję, obserwowanie naszej reakcji i zaangażowanie nas w zabawę lub komunikację, mówi doktor Fred Sharpe. Humbaki w przyjazny sposób interesują się łodziami i pływającymi ludźmi. Większość spośród obserwowanych przez nas na całym świecie dziesiątek populacji waleni, podpływała do łodzi i ludzi, wypuszczając bąble, dodaje Jodi Frediani. Źródło: Humpback Whales Blow Poloidal Vortex Bubble Rings, https://onlinelibrary.wiley.com/doi/10.1111/mms.70026 « powrót do artykułu
  3. Najpierw na polu w pobliżu wsi Sand na wyspie Senja na północy Norwegii dwóch poszukiwaczy skarbów znalazło za pomocą wykrywacza metalu dwie pięknie zdobione owalne brosze z brązu oraz kości żeber. Brosze trafiły do Muzeum Uniwersytetu Arktycznego, a specjaliści stwierdzili, że pochodzą z lat 900–950, są dziełem wikingów. Niedawno właściciel terenu chciał powiększyć budynek znajdujący się w pobliżu miejsca znalezienia brosz. Zwrócił się o odpowiednie pozwolenie, a urzędnicy stwierdzili, że najpierw trzeba przeprowadzić badania archeologiczne. Przybyli na miejsce naukowcy z Uniwersytetu Arktycznego dokonali interesującego odkrycia. Podczas zakończonych niedawno wykopalisk archeolodzy – ku swojemu zdumieniu – znaleźli pochówek na łodzi. Pochówki takie znane są z lat 600–1000. Na północy Norwegii, w okręgach Nordland i Troms, znaleziono dotychczas kilkanaście tego typu pochówków. Ten jest pierwszy na Senji. Łódź, na której złożono zmarłą kobietę i niewielkiego psa słabo się zachowała. Większość drewna uległa rozkładowi. Jednak wyraźnie widać jej zarysy w glebie. Archeolodzy uważają, że miała około 5,4 metra długości. Prawdopodobnie była to łódź wiosłowa, używana do przybrzeżnego połowu ryb, transportu i podróży. Nie znaleziono żadnych metalowych elementów używanych do jej budowy. Prawdopodobnie budowniczy użył drewnianych kołków, włókien roślinnych i ścięgien zwierząt. Tak zwane „szyte łodzie” były jeszcze do niedawna bardzo rzadko znajdowanego na północy Norwegii. Jednak w ostatnich dekadach w grobach z epoki żelaza znaleziono sporo takich łodzi. Do ich odkrycia przyczynił się postęp w technice używanej w archeologii. Być może szyte łodzie były w wielu regionach północnej Norwegii równie popularne, jak łodzie z poszyciem klinkierowym?, zastanawia się kierująca wykopaliskami Anja Roth Niemi. Niedawno dwie takie łodzie znaleziono w Hillesøy, kilka kilometrów na północ od Sand. W osobnych pochówkach złożono na nich kobietę i mężczyznę. Byli oni kilka pokoleń przed kobietą z Sand, dodaje uczona. W odkrytym właśnie pochówku kobieta została złożona na środku łodzi, z głową zwróconą na północ. Archeolodzy przyjmują, że mamy do czynienia z kobietą, gdyż znalezione wcześniej owalne brosze były typowym wyposażeniem kobiecych grobów. Oprócz brosz znaleziono też żelazny sierp, osełkę, metalowy pierścień, dwa prawdopodobnie bursztynowe koraliki w kształcie dysku, przęślik i wrzeciono z kości walenia. W grobie znajdowało się też kilka niezidentyfikowanych żelaznych przedmiotów. U stóp zmarłej znajdowały się szczątki małego psa. Naukowcy mają zamiar przeprowadzić szczegółowe analizy szkieletu, które pozwolą określić wiek zmarłej, jej dietę, stan zdrowia oraz zdradzą wiele innych informacji, na podstawie których możemy dowiedzieć się, kim była i w jakich żyła warunkach. Zbadany zostanie też szkielet psa. « powrót do artykułu
  4. Konsorcjum OpenWebSearch.eu, do którego należy m.in. CERN – miejsce, w którym powstało WWW – uruchomiło pilotażową infrastrukturę, której celem jest położenie podwalin pod powstanie bardziej uczciwych i przejrzystych wyszukiwarek, w których kwestie komercyjne nie będą decydowały o pozycji w wynikach wyszukiwania. European Open Web Index (OWI) został udostępniony społeczności akademickiej, firmom prywatnym oraz niezależnym badaczom na tej samej licencji, z możliwością rozwoju jego komercyjnej wersji. Inicjatywa OpenWebSearch.eu wystartowała w 2022 roku. Jej twórcami jest 14 czołowych europejskich instytucji badawczych. Celem projektu jest stworzenie internetowego indeksu alternatywnego dla indeksów Google'a, Microsoftu czy Baidu. To właśnie takie indeksy leżą u podstaw wyszukiwarek internetowych. Firmy nimi zarządzające decydują co i według jakich zasad jest wyszukiwane, w jaki sposób przeglądarki traktują poszczególne witryny, jak je umieszczają w wynikach wyszukiwania. Stary Kontynent jest pod względem wyszukiwarek i indeksów uzależniony od dostawców zewnętrznych. Europejskim indeksem ma stać się OWI, który jest projektem interdyscyplinarnym, w którym pod uwagę wzięto kwestie techniczne, prawne, etyczne i społeczne, co ma dawać gwarancję, że od samego początku w system wbudowana będzie uczciwość w podejściu do wyszukiwanych stron oraz prywatność. Za budowę kluczowej części infrastruktury OWI odpowiada CERN. Co godzinę indeksowanych jest około 9 milionów adresów, do odpowiada około 3 terabajtom danych dziennie. Do końca bieżącego roku OWI powinna zaindeksować od 30 do 50% całej zawartości internetu. Obecnie każdy może uzyskać dostęp do OWI zapisując się pod adresem openwebindex.eu/auth/login. Trzeba przy tym pamiętać, że jest to indeks, a nie wyszukiwarka. Tę można dopiero zbudować w oparciu o ten indeks. « powrót do artykułu
  5. Odcisk palca czy DNA to nie jedyne unikatowe cechy, po których można odróżnić ludzi od siebie. Izraelscy naukowcy donoszą właśnie na łamach Current Biology, że badając wzorzec oddychania możemy z 96,8-procentową dokładnością zidentyfikować konkretną osobę. Wzorzec oddychania przez nos daje też wgląd w nasze zdrowie fizyczne i psychiczne. Uczeni z Instytutu Weizmanna i Uniwersytetu w Hajfie dokonali swojego odkrycia podczas badań nad zmysłem węchu. Ssaki czują zapachy podczas wdychania powietrza, a za przetwarzanie informacji o zapachach odpowiedzialny jest mózg. A skoro każdy mózg jest unikatowy, zaczęli zastanawiać się uczeni, czy znajduje to odzwierciedlenie we wzorcu oddychania? Żeby rozstrzygnąć tę kwestię naukowcy stworzyli niewielkie ubieralne urządzenie, które przez 24 godziny rejestrowało wzorzec przepływu powietrza przez nos. Do badań zaangażowano 100 zdrowych młodych dorosłych i poproszono ich, by nosili urządzenie przez całą dobę. Zebrane w ten sposób dane poddano analizie i okazało się, że wzorzec oddychania pozwala na zidentyfikowanie konkretnej osoby z równie duża dokładnością, jak niektóre technologie rozpoznawania głosu. Badania powtarzano wielokrotnie w ciągu dwóch lat i zawsze otrzymywano ten sam wynik. Sądziłam, że bardzo trudno będzie zidentyfikować kogoś po oddechu, gdyż w ciągu dnia wykonujemy różne czynności: ćwiczymy, odpoczywamy, uczymy się, pracujemy. Okazało się jednak, że wzorce oddychania pozostają unikatowego", mówi Timna Soroka z Instytutu Weizmanna. O ile jednak możliwość identyfikowania osób po oddechu jest pewną ciekawostką, to wzorce oddychania mogą mieć bardzo praktyczne zastosowanie. Z badań wynika bowiem, że ten unikatowy „oddechowy odcisk palca” był skorelowany z BMI, cyklem snu i czuwania, poziomem odczuwanego niepokoju i depresji, a nawet z zachowaniami. Na przykład osoby, u których występował wyższy poziom lęku, miały krótszy oddech i większe zróżnicowanie przerw w oddychaniu podczas snu. Takie wyniki sugerują, że długoterminowe badania wzorców oddechu może stać się narzędziem pozwalającym diagnozować dobrostan fizyczny i emocjonalny. Naukowcy pracują obecnie nad łatwiejszymi w obsłudze i noszeniu urządzeniami do monitorowania oddechu. Rozpoczęli też badania, których celem jest sprawdzenie, czy ludzie mogą naśladować wzorzec zdrowego oddychania i poprawić w ten sposób swój stan fizyczny i psychiczny. Źródło: Humans have nasal respiratory fingerprints, https://www.cell.com/current-biology/fulltext/S0960-9822(25)00583-4 « powrót do artykułu
  6. Wyjątkowa złota moneta królewska znaleziona w pobliżu Norwich, łączy ikonografię chrześcijańską i pogańską. To prawdopodobnie pierwowzór złotych szylingów i najstarsza anglosaska moneta znaleziona w Anglii Wschodniej. Adrian Marsden, oficjalny numizmatyk hrabstwa Norfolk, mówi, że bez wątpienia mamy tutaj do czynienia z nieznanym wcześniej typem monety, która została wybita w czasach, gdy w VII wieku pogańskie wierzenia Anglów i Sasów zaczęły ustępować chrześcijaństwu. Znalezisko jest tak znaczące, że to dopiero druga moneta w hrabstwie, którą uznano za skarb. Wczesnośredniowieczne złote szylingi są małe, wielkością przypominają paznokieć małego palca u dłoni. Mają jednak zaskakująco bogatą ikonografię. Na awersie nowo znalezionej monety widzimy mężczyznę z dużą głową, na której widoczny jest diadem. Ma skrzyżowane nogi, jakby tańczył, a w lewej dłoni trzyma krzyż, który znajduje się na wzorem ułożonym z trzech splątanych trójkątów. Wyraźnie chrześcijańskimi elementami ikonografii są krzyż, a także głowa ozdobiona diademem. To typowy sposób przedstawiania chrześcijańskich władców pod koniec istnienia Imperium Romanum. Pogańskie są zaś trzy splecione trójkąty. To valknut, który przez specjalistów łączony jest z Odynem, bogiem zmarłym. Może symbolizować władzę nad życiem i śmiercią. To tajemniczy symbol, którego nauka nie rozumie. Nie wiemy nawet, jak się oryginalnie nazywał. Valknut to współczesna nazwa, oznaczająca „węzeł poległych w bitwie”. Ten sam symbol widoczny jest na obiektach pochodzących z tego samego okresu, w którym wybito monetę. Znajduje się na przykład na dwóch kamieniach ze Szwecji. Również tam użyty jest w ikonografii, w której towarzyszą mu postaci ludzkie. Z kolei na rewersie monety widać obiekt podobny do krzyża, który zamknięty jest w czterolistnym motywie, a całość otoczono podwójnym rzędem kół. Doktor Marsden uważa, że symbol w środku może być albo swastyką, która w tamtych czasach symbolizowała szczęście i nie była symbolem chrześcijańskim, albo też chrześcijańskim krzyżem. Na niewielkiej monecie mamy więc wyraźną symbolikę chrześcijańską i pogańską. Nie powinno to dziwić. Siódmy wiek to okres, w którym chrześcijaństwo zaczyna na dobre zadomawiać się na Wyspach, a kulty pogańskie tracą na znaczeniu. Dość wspomnieć słynny pochówek z Sutton Hoo, w którym również znaleziono elementy chrześcijańskie i pogańskie. Ikonografia monety bardzo przypomina ikonografię szylingów typu Trophy, dlatego Marsden uważa, że istnieje między nimi ścisły związek. Mamy tutaj typowe dla nich elementy – głowę ozdobioną diademem i dłoń trzymającą krzyż na awersie oraz podwójne obramowanie w formie kół i pseudoinskrypcję na rewersie. Szczegółowe analizy wykazały, że zawartość złota w monecie wynosi około 60%. To bardzo dużo. W szylingach Trophy jest to średnio 28%. Około 675 roku złote szylingi zostały zastąpione przez monetę sceatta, bitą początkowo ze srebra o wysokiej czystości. Z czasem i zawartość srebra się zmniejszała. Mamy więc tutaj sekwencję przejścia ze złotych monet do srebrnych. A nowy szyling, z dużą zawartością złota, plasuje się na początku tej sekwencji. Dlatego Marsden uważa, że to najstarsza znana anglosaska moneta z Anglii Wschodniej i datuje ją na lata 640–660. Źródło: A new 7th century shilling from Norfolk, https://www.academia.edu/129631046/A_new_7th_century_shilling_from_Norfolk « powrót do artykułu
  7. Podczas budowy trasy S17 na stanowisku w Łubuniach w województwie lubelskim znaleziono szczątki mamutów. Na miejsce przyjechali eksperci z Instytutu Archeologii i Instytutu Nauk o Ziemi i Środowisku UMCS, którzy wraz z firmą APB THOR i GIODO przeprowadzili badania oraz zabezpieczyli dwie kości. Szczątki wymarłego ssaka zostały następnie przetransportowane na UMCS, gdzie zostaną odpowiednio przygotowane i poddane dalszym analizom i zaawansowanym badaniom acheozoologicznym i geologicznym. Kości zalegały płytko pod powierzchnią ziemi, tuż poniżej współczesnej warstwy ornej. Jak poinformował doktor hab. Marcin Szeliga, zastępca dyrektora Instytutu Archeologii UMCS kości to fragment ciosu oraz kości miednicznej należące najprawdopodobniej do dwóch mamutów. Niestety, obie zachowały się fragmentarycznie, a przy tym w bardzo złym stanie (są obecnie mocno pokruszone), co wymagało ich specjalnego zabezpieczenia w trakcie eksploracji, a następnie bardzo ostrożnego wydobycia w całości (właściwie wycięcia wraz z otaczającym kości osadem). Po wydobyciu kości trafiły na Wydział Nauk o Ziemi i Gospodarki Przestrzennej UMCS, gdzie mogą być przechowywane w odpowiednich warunkach. W dalszej kolejności archeolodzy i geografowie zajmą się ich naukowym opracowaniem. Planowane jest również wykonanie wielu specjalistycznych analiz, m.in. datowań bezwzględnych (zarówno samych szczątków kostnych, jak i osadu, w którym zalegały) oraz analiz archeozoologicznych (w celu jednoznacznej identyfikacji taksonomicznej szczątków). Zdaniem dr. hab. Przemysława Mroczka, fakt, że szczątki występowały blisko siebie może wskazywać, że kości zostały celowo złożone przez człowieka. Ich wtórne przemieszczenie (redepozycja) – wynikające z działania procesów erozyjnych lub rolniczych – nie wyklucza kulturowego kontekstu złożenia. Chronologicznie, są to szczątki plejstoceńskie, podczas gdy udokumentowane na stanowisku osadnictwo pochodzi z okresu średniowiecza. Znalezisko ma charakter unikatowy w skali regionu – odkrycia szczątków plejstoceńskich mamutów na Lubelszczyźnie należą do rzadkości, a ich obecność w strukturach krasowych rozwiniętych w stropie górnokredowych margli nie ma dotąd dobrze udokumentowanych analogii. « powrót do artykułu
  8. Krążący wysoko nad Antarktydą wykrywacz promieniowania kosmicznego, zarejestrował nietypowe sygnały, które wykraczają poza nasze obecne rozumienie fizyki cząstek. ANITA (Antarctic Impulsive Transient Antenna) to zespół wyspecjalizowanych anten, które za pomocą balonu wypuszczane były nad Antarktyką i przez około miesiąc krążyły na wysokości do 40 kilometrów, unoszone przez wiatry obiegające kontynent. Celem eksperymentu jest obserwowanie promieniowania kosmicznego po tym, jak dotarło do Ziemi. W trakcie badań co najmniej 2-krotnie zarejestrowano sygnały, które nie pochodzą od promieniowania odbitego przez lód, a kierunek, z którego napłynęły, nie pozwala wyjaśnić ich pochodzenia na gruncie znanych zjawisk fizycznych. Sygnały radiowe, które odkryliśmy, nadeszły z bardzo ostrego kąta, około 30 stopni spod powierzchni lodu, mówi profesor Stephanie Wissel. Z obliczeń wynika, że taki sygnał musiałby przejść przez tysiące kilometrów skał, z których zbudowana jest Ziemia, ale wówczas byłby niewykrywalny, gdyż zostałby przez Ziemię zaabsorbowany. To interesujący problem, bo obecnie nie potrafimy wyjaśnić, czym jest ten sygnał. Wiemy jednak, że to najprawdopodobniej nie pochodzi z neutrin, dodaje uczona. Neutrina to cząstki bardzo pożądane przez naukowców. Niosą ze sobą ogrom informacji. W każdej sekundzie przez nasze ciała przechodzą biliony neutrin i nie czynią nam szkody. Neutrina niemal nigdy nie wchodzą w interakcje, trudno więc je wykryć. Źródłem neutrin mogą być na przykład wydarzenia, do których doszło miliary lat świetlne od nas. Wykrycie takiego neutrina to dla naukowców okazja, by dowiedzieć się czegoś więcej o wydarzeniu, które było jego źródłem. ANITA ma wykrywać też neutrina. Została umieszczona nad Antarktyką, gdyż tam istnienie najmniejsze ryzyko zakłócenia jej pracy przez inne sygnały. Unoszony przez balon zespół anten skierowany jest w dół i rejestruje wielkie pęki atmosferyczne odbite od lodu. Wielki pęk atmosferyczny, to wywołana pojedynczą cząstką promieniowania atmosferycznego kaskada cząstek powstających w atmosferze Ziemi. ANITA rejestruje takie pęki odbite od lodu, naukowcy są w stanie przeanalizować sam pęk, jak i pęk odbity od lodu i na tej podstawie określić, jaka cząstka wywołała pęk. Na podstawie kąta odbicia sygnału można zaś określić jego źródło. I tutaj pojawia się problem, gdyż zarejestrowano też sygnały, których nie można prześledzić do źródła. Kąt ich odbicia jest bowiem znacznie bardziej ostry, niż przewidują istniejące modele. Naukowcy przeanalizowali dane z wielu przelotów, porównali je z modelami matematycznymi, przeprowadzili liczne symulacje i wykluczyli zakłócenia tła i inne źródła sygnałów. Porównali swoje dane z niezależnie zbieranymi danymi innych instrumentów naukowych, takich jak IceCube Experiment czy Pierre Auger Observatory, by sprawdzić, czy i one odebrały podobne nietypowe sygnały. Okazało się, że nie. Dlatego też Wissel i jej koledzy określają znalezione sygnały jako „nietypowe” i wykluczają, by były one spowodowane przez neutrina. Sygnały nie pasują do standardowych modeli fizyki cząstek. Być może wyjaśnieniem tkwi w mniej popularnych teoriach, z których wynika, że sygnały te mogą pochodzić od ciemnej materii, jednak brak na to dowodów. Obecnie naukowcy budują nowe urządzenie, PUEO. Będzie ono większe i bardziej czułe. Badacze mają nadzieję, że rzuci ono nowe światło na nietypowe sygnały. Sądzę, że przy powierzchni lodu i blisko horyzontu dochodzi do jakichś interesujących zjawisk związanych z rozprzestrzenianiem się sygnałów radiowych. Nie rozumiemy tego. Sprawdzaliśmy różne hipotezy i do niczego nie doszliśmy. To tajemnica. Bardzo się cieszę na myśl o tym, że powstaje bardziej czułe PUEO. Powinniśmy uchwycić więcej takich anomalii, dzięki czemu być może zrozumiemy, z czym mamy do czynienia, dodaje Wissel. Źródło: Search for the Anomalous Events Detected by ANITA Using the Pierre Auger Observatory, https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.134.121003 « powrót do artykułu
  9. Naukowcy, którzy badali jedną z grup koronawirusów – merbekowirusy – ostrzegają, że wystarczy niewielka mutacja, by jedna z ich podgrup była zdolna do zarażania ludzi i miał potencjał wywołania kolejnej pandemii. O zagrożeniu tym, odkrytym przez naukowców z Washington State University (WSU), California Institute of Technology (Caltech) i University of North Carolina, możemy przeczytać na łamach Nature Communications. Uczeni chcieli dowiedzieć się, jak merbekowirusy – słabo zbadany podrodzaj betakoronawirusów, do którego należy MERS – infekują komórki gospodarza. Zauważyli, że o ile większość merbekowirusów nie stanowi zagrożenia dla ludzi, to ich podgrupa zwana HKU5, powinna budzić nasz niepokój. Merbekowirusy, a szczególnie wirusy HKU5 – nie były zbyt szczegółowo badane, a my postanowiliśmy przyjrzeć się, w jaki sposób infekują one komórki. Odkryliśmy też, że wirusy HKU5 może dzielić jeden niewielki krok od zyskania możliwości infekowania ludzi, mówi wirusolog Michael Letko z College of Veterinary Medicine na WSU. W ciągu ostatnich dwóch dekad uzyskano i skatalogowano sekwencje genetyczne tysięcy wirusów występujących u dzikich zwierząt. Niewiele jednak wiadomo o zdolności tych mikroorganizmów to infekowania ludzi. Letko i jego zespół zajmują się identyfikowaniem potencjalnie niebezpiecznych wirusów. Tym razem zajęli się merbekowirusami. Nauka niezbyt się nimi zajmowała z wyjątkiem wirusa MERS-CoV, który w 2012 roku przeszedł z dromaderów na ludzi, powodując poważną chorobę układu oddechowego, której śmiertelność wynosiła aż 34%. Naukowcy wykorzystali białka kolca merbekowirusów, by zbadać w warunkach laboratoryjnych ich zdolność do infekowania komórek. O ile większość merbekowirusów raczej nie stwarza zagrożenia, to inaczej jest w przypadku wirusów z podgrupy HKU5. Okazało się bowiem, że podczas infekcji wykorzystują one receptor ACE2, dokładnie ten sam, który jest używany przez wirusa SARS-CoV-2. Jedna drobna różnica jest taka, że obecnie wirusy HKU5 potrafią wykorzystać receptor ACE2 u nietoperzy, nie radzą sobie natomiast z jego ludzką wersją. HKU5 występują w Azji, Europie i Afryce. Naukowcy użyli wersji z Azji, której naturalnym gospodarzem jest nietoperz Pipistrellus abramus. Wykazali, że po odpowiednich mutacjach wirus ten może być zdolny do łączenia się z receptorem ACE2 wielu gatunków, w tym i ludzi. Wirusy te są tak blisko spokrewnione z MERS, że jeśli kiedykolwiek zarażą człowieka, będziemy mieli powody do obaw. Obecnie nie mamy dowodów, by tak się stało. Ale mają taki potencjał, warto więc im się przyglądać, wyjaśnia Letko. Podczas badań naukowcy wykorzystali zarówno tradycyjne techniki, jak i model obliczeniowy AlphaFold 3, dzięki któremu można sprawdzić na poziomie molekularnym, jak białko kolca HKU5 łączy się z ACE2, jak przeciwciała mogą do tego nie dopuścić i jak wirus może mutować. Zwykle analizy takie zajmują wiele miesięcy pracy i wymagają specjalistycznego sprzętu. Dzięki AlphaFold wyniki uzyskano w ciągu minut i zgadzały się one z wynikami badań prowadzonych tradycyjnymi metodami. Źródło: ACE2 from Pipistrellus abramus bats is a receptor for HKU5 coronaviruses, https://www.nature.com/articles/s41467-025-60286-3.epdf « powrót do artykułu
  10. W kopalni „Bełchatów” znaleziono szczątki krokodyla sprzed 17 milionów lat. Zwierzę, znalezione w osadach jeziornych Pola „Szczerców” jest najdalej na północ wysuniętym okazem krokodyla z ostatnich 23 milionów lat. Krokodyl żył w miocenie. Klimat wczesnego i środkowego miocenu sprzyjał rozwojowi bujnej roślinności i rozprzestrzenianiu się ciepłolubnych gatunków zwierząt. Krokodyl z Bełchatowa został opisany w czesko-polskiej pracy Crocodylian remains from the Miocene of the Fore-Carpathian Basin and its foreland—including the world’s northernmost Neogene crocodylian. W artykule, który ukazał się w „Acta Paleontologica Polonica”, autorzy badań zaprezentowali tam kilka znalezisk z terenów Czech i Polski. Na szczególną uwagę zasługuje jednak znalezisko płytki skórnej (osteoderm) z osadów jeziornych Pola „Szczerców” Kopalni Węgla Brunatnego „Bełchatów”. Jej wiek jest szacowany na około 17 mln lat. Szczegółowa analiza źródeł wykazała, że zarówno w neogenie, jak i w czwartorzędzie nie stwierdzono dotychczas stanowiska krokodyla położonego dalej na północ. Okaz ze Szczercowa stanowi więc światowy rekord, jako najdalej na północ zanotowane stanowisko krokodyla w ciągu ostatnich 23 mln lat, mówi doktor Marcin Górka z Wydziału Geologii Uniwersytetu Warszawskiego. Na podstawie zachowanych szczątków trudno określić przynależność rodzajową opisanych krokodyli, jednak najprawdopodobniej należą one do wymarłego rodzaju Diplocynodon, spokrewnionego ze współczesnymi aligatorami. Źródło: Crocodylian remains from the Miocene of the Fore-Carpathian Basin and its foreland—including the world’s northernmost Neogene crocodylian, https://www.app.pan.pl/archive/published/app70/app011942024.pdf « powrót do artykułu
  11. TOI-6894 to gwiazda jakich wiele, nieduży czerwony karzeł o masie pięciokrotnie mniejszej od masy Słońca. Astronomowie nie spodziewają się, by wokół tak niewielkich gwiazd krążyły duże planety. Podczas ich formowania nie powinno być bowiem warunków do powstania wielkich planet. Jednak uczeni z University College London i University of Warwick dokonali zdumiewającego odkrycia, którego nie potrafią wytłumaczyć. Wokół TOI-6894 krąży bowiem gazowy olbrzym TOI-6894b o średnicy większej od średnicy Saturna. To odkrycie będzie przełomem w zrozumieniu procesu formowania się gazowych olbrzymów, stwierdzają odkrywcy. Planeta TOI-6894b, zauważona dzięki Very Large Telescope, jest gazowym olbrzymem o niewielkiej gęstości. Przy średnicy większej od Saturna jej masa jest o połowę mniejsza niż olbrzyma z Układu Słonecznego. A jej gwiazda macierzysta to najmniej masywna gwiazda przy której zauważono dużą planetę. To interesujące odkrycie. Nie rozumiemy, jak gwiazda o tak niskiej masie doprowadziła do powstania tak masywnej planety. To właśnie jeden z celów poszukiwań egzoplanet. Znajdując układy planetarne różne od Układu Słonecznego, możemy przetestować nasze modele i lepiej zrozumieć, jak powstał nas własny system planetarny, mówi doktor Vincent Van Eylen z UCL. Zgodnie z najszerzej akceptowaną teorią dotyczącą formowania się gazowych olbrzymów, powstają one z dysku akrecyjnego wokół gwiazdy. Znajdujący się tam materiał gromadzi się, tworząc jądro, a gdy staje się ono wystarczająco masywne, zaczyna przyciągać gazy, tworzące atmosferę gazowego olbrzyma. Początkowo proces ten jest powolny, jednak gdy masa atmosfery dorównuje już masie jądra, dochodzi do gwałtownego zasysania gazu z dysku akrecyjnego, a im większa masa, tym proces ten jest szybszy. Wedle tej teorii utworzenie się gazowych olbrzymów wokół gwiazd o niskiej masie jest trudniejsze, gdyż w ich dysku protoplanetarnym nie ma wystarczająco dużo materiału. Odkrycie TOI-6894b wskazuje, że taki model nie jest dokładny i potrzebne są alternatywne teorie. Być może formowanie się planety przebiegało stopniowo, jej jądro nie było nigdy tak masywne, by rozpoczął się proces gwałtownego zasysania gazu. Być może zaś planeta powstała w grawitacyjnie niestabilnym dysku, który rozpadł się na fragmenty i utworzył planetę. Naukowcy rozważyli oba te scenariusze i uznali, że żaden z nich nie wyjaśnia do końca powstania TOI-6894b. Kwestia więc pozostaje otwarta. Innym interesującym aspektem nowo odkrytej planety jest temperatura jej atmosfery. Jest ona bowiem niezwykle chłodna. Większość pozasłonecznych gazowych olbrzymów to gorące Jowisze, których atmosfera ma temperaturę 1000–2000 kelwinów. Tymczasem temperatura TOI-6894b to zaledwie 420 kelwinów. Źródło: A transiting giant planet in orbit around a 0.2-solar-mass host star, https://www.nature.com/articles/s41550-025-02552-4 « powrót do artykułu
  12. Spożywanie diety zawierającej duże ilości kwasu oleinowego, który jest głównym składnikiem oliwy z oliwek, może przyczyniać się do otyłości bardziej, niż inne rodzaje kwasów tłuszczowych. Badania przeprowadzone przez naukowców z University of Oklahoma wskazując, że kwas oleinowy nakłania nasze organizmy do wytwarzania kolejnych komórek tłuszczowych. Kwas ten wzmacnia bowiem proteinę sygnałową AKT2 i osłabia aktywność proteiny LXR, która m.in. reguluje homeostazę kwasów tłuszczowych. Wiemy, że rodzaje tłuszczu spożywanego przez ludzi zmieniały się w czasie epidemii otyłości. Chcieliśmy sprawdzić, czy to otyłość jest spowodowana samym zwiększeniem ilości pożywienia bogatego w tłuszcz, czy też znaczenie ma skład tych tłuszczów, mówi profesor Michael Rudolph. Naukowcy z University of Oklahoma, Yale University i New York University karmili myszy różnymi dietami, zawierającymi różne kwasy tłuszczowe, w tym tłuszcze z oleju kokosowego, oleju orzechowego, mleka, oleju sojowego i smalcu. Zauważyli, że kwas oleinowy powodował, iż komórki prekursorowe komórek tłuszczowych ulegają większej proliferacji niż w przypadku innych kwasów tłuszczowych. Niestety, unikając oliwy z oliwek nie unikniemy kwasu oleinowego, gdyż jest on obecny w wielu produktach roślinnych i zwierzęcych. Naukowcy zauważyli jednak, że ilość kwasu oleinowego jest większa w mało zróżnicowanej diecie, szczególnie zawierającej fast-foody. Najważniejsze jest umiarkowanie i zrównoważona dieta. Niezbyt duża ilość kwasu oleinowego wydaje się korzystna dla zdrowia, jednak jego nadmiar, szczególnie przyjmowany przez dłuższy czas, może zdrowiu szkodzić. Jeśli ktoś ma już podwyższone ryzyko chorób serca, nie powinien spożywać dużo kwasu oleinowego, stwierdza Rudolph. Źródło: Dietary oleic acid drives obesogenic adipogenesis via modulation of LXRα signaling, https://www.cell.com/cell-reports/fulltext/S2211-1247(25)00298-0 « powrót do artykułu
  13. Fizycy z Uniwersytetu Oksfordzkiego pobili światowy rekord w precyzji kontrolowania pojedynczego kubitu. Uzyskali odsetek błędów wynoszący zaledwie 0,000015%, co oznacza, że ich kubit może popełnić błąd raz na 6,7 milionów operacji. O ile wiemy to najbardziej precyzyjne operacje z udziałem kubitów, jakie kiedykolwiek wykonano. To ważny krok w kierunku budowy praktycznego komputera kwantowego, który zmierzy się z prawdziwymi problemami, mówi współautor badań, profesor David Lucas z Wydziału Fizyki Uniwersytetu Oksfordzkiego. Użyteczne obliczenia prowadzone za pomocą komputerów kwantowych będą wymagały prowadzenia milionów operacji przez wiele kubitów. To oznacza, że jeśli odsetek błędów będzie zbyt wysoki, obliczenia staną się nieużyteczne. Oczywiście istnieją metody korekcji błędów, ale ich zastosowanie będzie wymagało zaangażowania kolejnych kubitów. Opracowana w Oksfordzie nowa metoda zmniejsza liczbę błędów, zatem zmniejsza liczbę wymaganych kubitów, a to oznacza, że zmniejsza rozmiary i koszt budowy samego komputera kwantowego. Jeśli zmniejszymy liczbę błędów, możemy zmniejszyć moduł zajmujący się korektą błędów, a to będzie skutkowało mniejszym, tańszym, szybszym i bardziej wydajnym komputerem kwantowym. Ponadto techniki precyzyjnego kontrolowania pojedynczego kubity są przydatne w innych technologiach kwantowych, jak zegary czy czujniki kwantowe. Bezprecedensowy poziom kontroli i precyzji został uzyskany podczas pracy z uwięzionym jonem wapnia. Był on kontrolowany za pomocą mikrofal. Taka metoda zapewnia większą stabilność niż kontrola za pomocą laserów, jest też od nich tańsza, bardziej stabilna i łatwiej można ją zintegrować w układach scalonych. Co więcej, eksperymenty prowadzono w temperaturze pokojowej i bez użycia ochronnego pola magnetycznego, co znakomicie upraszcza wymagania techniczne stawiane przed komputerem wykorzystującym tę metodę. Mimo że osiągnięcie jest znaczące, przed ekspertami pracującymi nad komputerami kwantowymi wciąż stoją poważne wyzwania. Komputery kwantowe wymagają współpracy jedno- i dwukubitowych bramek logicznych. Obecnie odsetek błędów na dwukubitowych bramkach jest bardzo wysoki, wynosi około 1:2000. Zanim powstanie praktyczny komputer kwantowy trzeba będzie dokonać znaczącej redukcji tego odsetka. Źródło: Single-qubit gates with errors at the 10−7 level, https://journals.aps.org/prl/accepted/10.1103/42w2-6ccy « powrót do artykułu
  14. Astronomowie zobrazowali największą znaną chmurę energetycznych cząstek otaczającą gromadę galaktyk. Chmura ma średnicę niemal 20 milionów lat świetlnych, a jej istnienie każe zadać sobie pytanie o mechanizmy, które stoją za nadawanie energii cząstkom. Obowiązujące teorie mówią, że cząstki są napędzane przez pobliskie galaktyki. Tymczasem badania nad niezwykłą chmurą sugerują, że cały region zostaje naenergetyzowany przez gigantyczne fale uderzeniowe i turbulencje gazu otaczającego galaktyki. Po raz pierwszy odkryta w 2011 roku gromada PLCK G287.0+32.9 znajduje się w odległości 5 miliardów lat świetlnych od Ziemi. Wcześniej zauważono tam dwa jasne obszary utworzone przez fale uderzeniowe, które podświetliły krawędzie gromady. Wówczas jednak nie zauważono słabej emisji w paśmie radiowym, która wypełnia przestrzeń pomiędzy rozbłyskami. Nowe obrazy uzyskane za pomocą radioteleskopów pokazały, że cała gromada otoczona jest chmurą cząstek. Spodziewaliśmy się, że zobaczymy dwa reliktowe jasne miejsca na krawędziach gromady. Zgadzało by się to z poprzednimi obserwacjami. Tymczasem okazał się, że cała gromada otoczona jest emisją w paśmie radiowym. Nigdy wcześniej nie obserwowano tak wielkiej chmury wysokoenergetycznych cząstek, mówi doktor Kamlesh Rajpurohit z Center for Astrophysics Harvard & Smithsonian. Dotychczasowy rekordzista, Abell 2255, ma średnicę 16,3 miliona lat świetlnych. Wewnątrz chmury cząstek zidentyfikowano halo radiowe o średnicy 11,4 miliona lat świetlnych. To pierwsze tak wielkie halo w paśmie 2,4 GHz. Badania dostarczyły silnych dowodów na istnienie elektronów pochodzących z promieniowania kosmicznego oraz pól magnetycznych rozciągających się aż na krawędzie gromady. Nie jest jednak jasne, jak elektrony są przyspieszane na tak dużych przestrzeniach. Bardzo duże halo radiowe obserwuje się zwykle w niższych częstotliwościach, gdyż elektrony generujące teki sygnał tracą energię, są stare i ochłodziły się z czasem. Tutaj zaś widzimy gigantyczne halo emisji radiowej wypełniające całą gromadę. To sugeruje, że coś przyspiesza lub ponownie przyspiesza elektrony, ale nie jest to nic, o czym wiemy, że stoi za takim procesem. Sądzimy, że odpowiedzialne mogą być gigantyczne fale uderzeniowe lub turbulencje, ale potrzebujemy więcej modeli teoretycznych, by znaleźć odpowiedź, dodaje Rajpurohit. Źródło: Radial Profiles of Radio Halos in Massive Galaxy Clusters: Diffuse Giants Over 2 Mpc, https://ui.adsabs.harvard.edu/abs/2025arXiv250505415R/abstract « powrót do artykułu
  15. Osłabienie mięśni jest czynnikiem ryzyka wielu chorób. Naukowcy z Uniwersytetu w Szardży w Arabii Saudyjskiej opracowali prosty domowy test tego ryzyka. Zbadali oni bowiem zależność pomiędzy problemem z podniesieniem 5-kilogramowego ciężaru przez osoby w wieku 50 lat i starsze z ryzykiem wystąpienia wielu różnych chorób układu mięśniowo-szkieletowego, układu krążenia, metabolicznego i chorób neurologicznych. Naukowcy przeanalizowali dane z badań, w których wzięło udział ponad 51 000 osób z 15 krajów. Badania prowadzono w latach 2013–2020. Wśród badanych było 10 025 osób (19,5%), które w roku 2013 miały trudności z podniesieniem 5-kilogramowego ciężaru. Po czterech latach okazało się, że u osób tych występowało zwiększone ryzyko wystąpienia niższej jakości życia, depresji, słabszego uchwytu dłoni i osteoporozy. Większe ryzyko występowało u nich również odnośnie rozwoju artretyzmu, cukrzycy, nadciśnienia, udaru, choroby Alzheimera czy złamania biodra. Wszystko to po uwzględnieniu takich czynników jak wiek i płeć badanych. Okazało się też, że mężczyźni, którzy po 50. roku życia mają problemy z podniesieniem 5 kilogramów, mają później większe problemy zdrowotne niż kobiety. Uzyskane przez nas wyniki sugerują, że wykonanie w domu takiego prostego testu siły mięśni może być cennym wczesnym wskaźnikiem ogólnego stanu zdrowia i potencjalnych problemów w przyszłości, stwierdzają autorzy badań. Spostrzeżenie jest tym bardziej cenne, że test taki każdy może wykonać w domu, a do jego przeprowadzenia nie są potrzebne żadne specjalistyczne urządzenia czy wiedza. Obecnie brak jest szczegółowych statystyk wskazujących, ile osób ma osłabione mięśnie. Światowa Organizacja Zdrowia szacuje natomiast, że około 1,7 miliarda osób zmaga się z różnymi problemami układu mięśniowo-szkieletowego, które ograniczają ich mobilność i zręczność. Szacunki mówią też, że w USA na osłabienie mięśni cierpi około 5% osób powyżej 60. roku życia. Źródło: The simple task of lifting five kilograms serves as a predictor of age-related disorders in old adults, https://www.nature.com/articles/s41598-025-03128-y « powrót do artykułu
  16. Teleskop Kosmiczny Nancy Grace Roman przeszedł niezwykle ważny test wibracyjny. Symulowano podczas niego warunki, jakie będą panowały podczas wystrzeliwania teleskopu w przestrzeń kosmiczną, by upewnić się, że urządzenie przetrzyma podróż. Taki test jest jak dość silne trzęsienie ziemi, jednak z pewnymi różnicami. W przeciwieństwie do trzęsienia ziemi, poszczególnie częstotliwości wstrząsów są aplikowane jedna po drugiej. Rozpoczynamy od wstrząsów o niskiej amplitudzie i przechodzimy do coraz wyższych, a po drodze wszystko sprawdzamy. To bardzo skomplikowany proces, mówi Cory Powell, analityk NASA odpowiedzialny za integralność strukturalną teleskopu. Podczas testu symulowano siły o 25% większe, niż te, które będą oddziaływały na teleskop w czasie startu. Po teście teleskop został przewieziony do clean roomu, gdzie zostanie szczegółowo zbadany. Badania mają potwierdzić, że wyszedł z testu bez szwanku i można montować na nim antenę nadawczo-odbiorczą. Kolejnym ważnym testem będzie sprawdzenie całej elektroniki, następnie urządzenie zostanie poddane testom termicznym w warunkach obniżonego ciśnienia. Sprawdzą one, czy urządzenia przetrwają warunki panujące w kosmosie. Jeśli wszystko pójdzie zgodnie z planem, w listopadzie rozpocznie się proces składania całego teleskopu. Przed końcem roku ma on przejść ostateczne testy. Jego wystrzelenie planowane jest na maj 2027, ale pracujący przy nim zespół chce, by urządzenie było gotowe do startu już jesienią przyszłego roku. Grace Nancy Roman Space Telescope to urządzenie pracujące w podczerwieni. Powstał dzięki niezwykłemu prezentowi od Narodowego Biura Rozpoznania, które przed laty przekazało NASA... dwa nieużywane teleskopy kosmiczne klasy Hubble'a. Teleskop Roman dostarczy równie wyraźnych obrazów co Hubble, jednak jego pole widzenia jest 100-razy większe. Dzięki temu praca, którą Hubble wykonuje w 650 godzin, Teleskop Roman wykona w 3 godziny. Celem jego misji naukowej będzie badanie ciemnej materii – ma to robić za pomocą trzech niezależnych technik: badania barionowych oscylacji akustycznych, odległych supernowych oraz słabego soczewkowania grawitacyjnego – poszukiwanie planet pozasłonecznych, bezpośrednie obrazowanie planet pozasłonecznych i wykrywanie pierwotnych czarnych dziur. Podstawowa misja naukowa teleskopu planowana jest na 5 lat. Można jednak przypuszczać, że – podobnie jak w przypadku wielu innych misji – teleskop będzie w na tyle dobrym stanie, że zostanie ona przedłużona. « powrót do artykułu
  17. Wielkie wirusy mają istotne znaczenie dla ekosystemu mórz i oceanów poprzez ich oddziaływanie z glonami czy amebami, które znajdują się na dole morskiego łańcucha pokarmowego. Naukowcy z University of Miami odkryli 230 nowych, nieznanych dotychczas wielkich wirusów żyjących w morzach i oceanach. Odkrycia dokonali zaś za pomocą wysoko wydajnych metod obliczeniowych za pomocą których przeanalizowali publicznie dostępne bazy danych zawierających informacje o genach zidentyfikowanych w wodach na całym świecie. Wśród przeanalizowanych genomów naukowcy scharakteryzowali 530 nowych białek funkcyjnych, w tym 9 zaangażowanych w fotosyntezę. To wskazuje, że posiadające je wirusy są zdolne do manipulowania swoim gospodarzem i jego procesem fotosyntezy. Poprzez lepsze zrozumienie różnorodności i roli wielkich wirusów w oceanach, ich interakcji z glonami i innymi mikroorganizmami, możemy przewidywać szkodliwe zakwity glonów, które są zagrożeniem dla zdrowia ludzi na całym świecie, mówi współautor badań, profesor Mohammad Moniruzzaman. Wielkie wirusy są często główną przyczyną śmierci fitoplanktonu znajdującego się na dole łańcucha pokarmowego wspierającego systemy oceaniczne i źródła pożywienia. Nowo odkryte wirusy mogą mieć też potencjał biotechnologiczny, gdyż mogą wytwarzać nowe enzymy, dodaje uczony. Odkrycia dokonano dzięki nowatorskiemu narzędziu BEREN (Bioinformatic tool for Eukaryotic virus Recovery from Environmental metageNomes), zaprojektowanemu specjalnie pod kątem wykrywania wielkich wirusów w rozległych publicznych bazach danych. Naukowcy użyli przy pracy superkomputera Pegasus. Źródło: Expansion of the genomic and functional diversity of global ocean giant viruses « powrót do artykułu
  18. Fizycy z Loughborough University wykorzystali swój nowy system litograficzny do stworzenia najmniejszego w historii rysunku skrzypiec. Skrzypce tak małe, że zmieściłyby się na ludzkim włosie. Wykonane z platyny mają 35 mikrometrów długości i 13 mikrometrów szerokości. Dla porównania, średnica ludzkich włosów waha się od 17 do 180 mikrometrów. A jedne z najbardziej popularnych niewielkich zwierząt, niesporczaki, mają od 50 do 1200 mikrometrów. Stworzenie najmniejszych skrzypiec na świecie może być postrzegane jako zabawa, jednak dla nas była to okazja do nauczenia się nowych rzeczy, które będą stanowiły podstawę badań, które właśnie rozpoczynamy, mówi profesor Kelly Morrison, dziekan Wydziału Fizyki na Loughborough University, specjalistka w dziedzinie fizyki eksperymentalnej. Nasz system nanolitograficzny pozwala na badanie materiałów na wiele różnych sposobów, z użyciem światła, pola magnetycznego i elektrycznego, i badania ich reakcji. Gdy zrozumiemy, jak materiały się zachowują, możemy zacząć wykorzystywać tę wiedzę do opracowywania nowych technologii, niezależnie od tego, czy będą to technologie poprawiające wydajność komputerów, czy nowe sposoby pozyskiwania energii, dodaje uczona. Sercem nowego systemu nanolitograficznego jest NanoFrazor. To supernowoczesna maszyna, która wykorzystuje termiczną litografię sondą skanującą. W technice tej wykorzystuje się rozgrzaną końcówkę sondy mikroskopu sił atomowych do bardzo precyzyjnego nanoszenia wzoru. Żeby wykonać platynowe skrzypce profesor Morrison i jej zespół najpierw pokryli podłoże dwoma warstwami specjalnego żelu. Następnie sonda wypaliła w żelu odpowiedni kształt. Pozostały żel został zmyty, co odsłoniło kształt skrzypiec. Na podłoże nałożono cienką warstwę platyny, a później zmyto jej nadmiar, dzięki czemu pozostał jedynie platynowy rysunek skrzypiec. Wszystko to trwało trzy godziny, jednak zanim w ogóle można było przystąpić do wykonywania skrzypiec, naukowcy przez kilkanaście miesięcy uczyli się obsługi urządzenia i testowali różne techniki uzyskania tego, co planują. Uczeni już wykorzystują swój nowy system do prowadzenia dwóch projektów badawczych. W ramach jednego z nich poszukują alternatyw dla magnetycznego przechowywania danych, w ramach drugiego, badają, w jaki sposób można wykorzystać ciepło do bardziej efektywnego przechowywania i przetwarzania danych. « powrót do artykułu
  19. W Wielkim Zderzaczu Hadronów wykonano pierwsze dedykowane pomiary masy bozonu Z. Naukowcy wykorzystali przy tym dane ze zderzeń protonów, które były przeprowadzane w eksperymencie LHCb podczas drugiej kampanii naukowej w 2016 roku. Przeprowadzone w CERN-ie badania to jednocześnie duży postęp w precyzji pomiarów LHC. Pokazuje bowiem, że z tak złożonego środowiska, jakie pojawia się w wyniku zderzeń wysokoenergetycznych protonów, można wyłowić niezwykle precyzyjne dane dotyczące poszczególnych cząstek. Bozon Z to masywna elektrycznie obojętna cząstka, która pośredniczy w oddziaływaniach słabych, jednych z czterech podstawowych oddziaływań natury. Została ona odkryta w CERN-ie ponad 40 lat temu i odegrała ważną rolę w potwierdzeniu prawdziwości Modelu Standardowego. Jej precyzyjne pomiary, podobnie jak dokładne dane na temat wszystkich cząstek elementarnych, pozwalają nam lepiej poznać fizykę oraz poszukać zjawisk, które mogą wykraczać poza obowiązujące modele. Na podstawie rozpadów 174 000 bozonów Z zarejestrowanych w LHCb stwierdzono obecnie, że masa spoczynkowa tej cząstki wynosi 91 184,2 megaelektronowoltów (MeV), a precyzja pomiaru wynosi ± 9,5 MeV. Takie wyniki są zgodne z pomiarami wykonanymi w poprzedniku LHC, zderzaczu LEP – gdzie przeprowadzano zderzenia elektronów i pozytonów – oraz w nieczynnym już amerykańskim Tevatronie, który zderzał protony i antyprotony. Co więcej, precyzja obecnego pomiaru jest zgodna z precyzją Modelu Standardowego, wynoszącą 8,8 MeV. Dotychczas najdokładniejszy wynik – 91 187,6 ± 2,1 MeV – dały pomiary w LEP. Najnowsze osiągnięcie otwiera drogę do jeszcze bardziej precyzyjnych pomiarów, jakich będzie można dokonać za pomocą przyszłego High-Luminosity LHC oraz do pomiarów za pomocą eksperymentów CMS i Atlas. Wyniki pomiarów z różnych eksperymentów wykonywanych w LHC są od siebie niezależne, co oznacza, że ich średnia wartość będzie obarczona jeszcze mniejszym marginesem niepewności. High-Luminosity LHC może potencjalnie dokonać jeszcze bardziej dokładnych pomiarów bozonu Z niż LEP. Na początku pracy LHC wydawało się to niemożliwe, mówi rzecznik prasowy LHCb Vincenzo Vagnoni. Źródło: Measurement of the Z-boson mass, https://arxiv.org/abs/2505.15582 « powrót do artykułu
  20. Mars jest planetą szczególną. Od tysiącleci fascynuje ludzkość, setki lat temu pojawiły się przypuszczenia o istnieniu tam cywilizacji, a od bez mała stu lat ludzie chcą się tam wybrać. I o tym jest ta książka. O fascynacji i planach. Andrew May opisuje, co takiego jest w Marsie, że przykuwa uwagę kolejnych pokoleń, kultur i cywilizacji. Ale przede wszystkim mówi o tym, jak na Marsa się dostać. Jak można to zrobić w prosty sposób i dlaczego jest to tak trudne. Jak to się stało, że przez 60 lat od lądowania na Księżycu ludzka stopa wciąż nie stanęła na Marsie, kto się chce tam wybrać i po co. Osobiście jestem sceptykiem, nie widzę sensu misji załogowej na Marsa, nie mówiąc już o osadnictwie na Czerwonej Planecie. May jednak podaje rzeczowe argumenty, w prosty sposób wyjaśnia piętrzące się trudności i opisuje korzyści. Przekonać do wysłania tam ludzi mnie nie przekonał, jednak z pewnością pozwolił mi poszerzyć horyzonty i lepiej dojrzeć szanse – oraz problemy – kryjące się nie tylko za misjami marsjańskimi, ale misjami poza orbitą Księżyca. Załogowa wyprawa na Marsa będzie największą przygodą ludzkości od czasu wielkich odkryć geograficznych. Czy zmieni ona historię tak bardzo, jak wyprawy XV- i XVI-wiecznych żeglarzy? Wątpię. A czy jest sens w przygodę tę się angażować? Przeczytajcie sami i sami wyróbcie sobie opinię. "Mars: Nowa Ziemia. Historia eksploracji i plany podboju Czerwonej Planety” Andrew Maya to kolejny wydawniczy strzał w dziesiątkę Helionu. Mamy zaszczyt być patronem medialnym tej książki. I z tej okazji już jutro rozpoczniemy konkurs, w którym będziecie mogli wygrać jeden z jej 2 egzemplarzy.
  21. Zaraźliwe ziewanie obserwuje się przede wszystkim u ssaków oraz u niektórych ryb. Niewiele wiemy o tym zjawisku. Same ewolucyjne początki ziewania stanowią dla nas tajemnicę, nie wiemy też, dlaczego można zarazić się ziewaniem. I to nawet od innego gatunku. Naukowcy z City St George's University of London i Universitat de Girona wykorzystali głowę androida do zbadania, czy szympansy mogą zarazić się ziewaniem od maszyny. W ten sposób jako pierwsi dowiedli, że ziewanie może być zaraźliwe nie tylko międzygatunkowo, ale również między bytem sztucznym a biologicznym. Badania wykazały, że szympansy nie tylko ziewają w odpowiedzi na ziewanie androida, ale również układają się do snu. To sugeruje, że ziewanie może być niewerbalnym zachęceniem do odpoczynku, a nie tylko zjawiskiem wyzwalającym automatyczną odpowiedź w postaci ziewnięcia. W eksperymentach wzięło udział 14 dorosłych szympansów w wieku 10–33 lat, które mieszkają w Sanktuarium Naczelnych prowadzonym przez Fundació Mona w Hiszpanii. Zwierzęta miały do czynienia z androidem, który albo ziewał z szeroko otwartymi ustami, albo wpatrywał się z półotwartymi ustami, albo miał neutralny wyraz twarzy. Każda z ekspresji trwała 10 sekund. Naukowcy zauważyli, że reakcja małp jest stopniowana. Szympansy najsilniej ziewały w reakcji na najszerzej otwarte usta androida, mniej intensywnie ziewały widząc androida z półotwartymi ustami, a usta zamknięte nie wywoływały żadnej reakcji. Co więcej, jedynie gdy android szeroko ziewał, zwierzęta zbierały materiał, na którym się układały do snu. Nasze badania pokazały, że szympansy zarażają się ziewaniem pod wpływem sztucznego bytu, androida. Pomimo tego, że wciąż nie wiemy, czemu służy ziewanie – nie mówiąc już o zjawisku zaraźliwego ziewania – może spełniać ono ewolucyjnie starą rolę komunikacji niewerbalnej. A zarażanie się nim może pozwolić nam na zbadanie, w jaki sposób ludzie i zwierzęta rozwijały zdolności komunikacyjne i interakcje społeczne, mówi główny autor badań, doktor Ramiro Joly-Mascheroni. Źródło: Chimpanzees yawn when observing an android yawn « powrót do artykułu
  22. Połączenie tradycyjnych technik i sztucznej inteligencji może przynieść nowe, niezwykle ważne informacje na temat przyszłości. Niektóre ze zwojów znad Morza Martwego mogą być nawet o wiek starsze, niż sądzono, a część z nich może być kopiami, które powstały jeszcze za życia oryginalnych autorów. Do takich wniosków doszedł międzynarodowy zespół badawczy kierowany przez Mladena Popovicia z Uniwersytetu w Groningen. Naukowcy wykorzystali datowanie radiowęglowe, paleografię oraz model sztucznej inteligencji Enoch – to imię jednego z biblijnych proroków – do datowania zwojów. Od czasu odkrycia zwoje znad Morza Martwego wpłynęły na postrzegania początków chrześcijaństwa, historii Żydów i rozwoju religii. Generalnie zwoje datowane są na od III wieku przed Chrystusem, po II wiek naszej ery. Jednak daty powstania poszczególnych z nich są bardzo niepewne. Większość datowana jest na podstawie badań paleograficznych, czyli badań stylu pisma. Jednak paleografia dla tak starych zapisków opiera się na słabych podstawach, a badania utrudnia fakt, że większość zwojów nie jest datowana i brak jest innych datowanych dokumentów z tego okresu, które mogłyby posłużyć za materiał porównawczy. Dysponujemy niewieloma datowanymi manuskryptami aramejskimi i hebrajskimi z V i IV wieku przed naszą erą oraz datowanymi manuskryptami z początku II wieku n.e. Jak więc widać, luka, dla której nie mamy materiału porównawczego, pokrywa się z najbardziej prawdopodobnym okresem powstania zwojów. Naukowcy z Uniwersytetów w Groningen, Danii Południowej, w Pizie oraz Uniwersytetu Katolickiego w Lowanium, pracujący w ramach projektu The Hands That Wrote the Bible połączyli datowanie radiowęglowe 24 zwojów z analizą paleograficzną wykonaną przez model sztucznej inteligencji. Datowane zwoje posłużyły jako wiarygodny punkt wyjścia dla określenia wieku manuskryptów metodą paleograficzną. Model Enoch wykorzystywał sieć neuronową wyspecjalizowaną w wykrywaniu wzorców i różnic w piśmie w zdigitalizowanych manuskryptach. Maszyna nauczyła się analizować zarówno geometryczne zmiany śladów atramentu na poziomie mikro – badając takie elementy jak zmiany nacisku, tekstury czy kierunku – jak i sam kształt liter. Po treningu naukowcy przeanalizowali za pomocą Enocha 135 z około 1000 zwojów. Pierwsze wnioski z analizy zostały właśnie przedstawione na łamach PLOS One. Wynika z nich, że wiele zwojów jest starszych niż sądzono. Wyniki badań pokazały też, że należy zmienić pogląd na dwa style starożytnego pisma – hasmonejski i herodiański. Manuskrypty napisane w stylu hasmonejskim mogą być bowiem starsze niż obecne szacunki datujące je na lata 150–50 p.n.e. Również styl herodiański pojawił się wcześniej niż przypuszczano. To zaś wskazuje, że oba style pisma były używane jednocześnie od końca II wieku przed Chrystusem, a nie – jak się uważa – od połowy pierwszego wieku p.n.e. Nowe datowanie manuskryptów w znaczącym stopniu zmienia nasze rozumienie zjawisk politycznych i intelektualnych, jakie zachodziły we wschodniej części Śródziemiomorza w okresie hellenistycznym i rzymskim. Rzuca nowe światło na poziom wykształcenia, opanowania umiejętności pisania i czytania, na urbanizację, rozwój kultury, wydarzenia polityczne, pojawienie się dynastii hasmonejskiej oraz rozwój różnych grup religijnych, w tym wczesnych chrześcijan. Ponadto okazało się, że rękopisy 4QDanielc (4Q114) – czyli zwój znaleziony w 4. jaskini w Qumran, który zawiera fragment Księgi Daniela i jest trzecim (stąd litera c) rękopisem Daniela z tej jaskini, a 4Q114 to numer katalogowy – oraz 4QQoheleta (4Q109) są pierwszymi znanymi rękopisami biblijnymi, które mogą pochodzić z czasów życia ich autorów. Nie wiemy, kto ukończył Księgę Daniela, ale powszechnie uważa się, że została ona napisana około 160 roku przed naszą erą. Odnośnie Księgi Koheleta, której autorstwo tradycja przypisuje królowi Salomonowi, naukowcy są zgodni, że postała ona w okresie hellenistycznym, w III wieku p.n.e. Wykonane właśnie datowanie radiowęglowe 4Q114 oraz analiza 4Q109 za pomocą Enocha wskazują, że manuskrypty powstały – odpowiednio – w II i III wieku, zatem w czasie, gdy żyli ich prawdopodobni autorzy. Mamy więc do czynienia z kopiami wykonanymi jeszcze za ich życia. Źródło: Dating ancient manuscripts using radiocarbon and AI-based writing style analysis « powrót do artykułu
  23. Po raz pierwszy od niemal 30 lat zauważono najcięższe jądro rozpadające się metodą emisji protonu, poinformowali naukowcy z Laboratorium Akceleratorowego na Universytecie w Jyväskylä. Poprzednie najcięższe jądro rozpadające się w ten sposób zarejestrowano w 1996 roku. Emisja protonu to rzadki rodzaj rozpadu radioaktywnego, w wyniku którego jądro emituje proton, by stać się bardziej stabilne, mówi doktorantka Henna Kokkonen. To kolejne osiągnięcie młodej uczonej, o którym informujemy. Henna zaraz po ukończeniu studiów odkryła nieznany izotop astatu, najrzadszego pierwiastka występującego w skorupie ziemskiej. Zauważony przez nią astat-190 był najlżejszym izotopem astatów. Jednocześnie uczona zauważyła sygnały, które mogły świadczyć o pojawieniu się innego nieznanego izotopu, astatu-188. I to właśnie jego dotyczy najnowsze odkrycie. Jak bowiem stwierdziła obecnie Henna, astat-188 – najlżejszy izotop astatu – jest najcięższym pierwiastkiem rozpadającym się poprzez emisję protonu. Dotychczas tytuł ten należał do bizmutu-185. Astat-188 ma 85 protonów i 103 neutrony. Tak egzotyczne pierwiastki są trudne do badania, gdyż istnieją bardzo krótko i mają niski przekrój czynny, a więc istnieje niewielkie prawdopodobieństwo jego zarejestrowania. "Jądro zostało uzyskane w reakcji fuzji-ewaporacji, poprzez wzbudzenie celu ze srebra za pomocą strumienia jonów strontu-84", wyjaśnia Kalle Auranen. Badania, prowadzone przez Hennę Kekkonen, są częścią jej pracy doktorskiej i stanowią kontynuację badań, jakie prowadziła na potrzeby magisterki. Bardzo rzadko dochodzi do odkryć izotopów, a ja mam okazję po raz drugi przejść do historii, cieszy się młoda uczona. Każdy eksperyment to wyzwanie, ale to wspaniałe uczucie, gdy może prowadzić badania, które pozwalają nam lepiej zrozumieć materię i strukturę jądra atomowego, dodaje. Źródło: New proton emitter 188At implies an interaction unprecedented in heavy nuclei « powrót do artykułu
  24. Białko, dzięki któremu pchły mogą skakać na wysokość 100-krotnie większą niż wysokość ich ciała, może przydać się do zapobiegania infekcjom szpitalnym. Naukowcy z australijskiego RMIT University poinformowali o wykorzystaniu powłoki wykonanej z białek przypominających rezylinę. Dzięki niej bakterie nie były w stanie uczepić się badanej powierzchni. Celem eksperymentów jest stworzenie metod zapobiegania infekcjom przez bakterie osadzające się na powierzchniach urządzeń medycznych. Nasza praca pokazuje, że tego typu powłoki mogą efektywnie zwalczać bakterie, nie tylko krótkoterminowo, ale prawdopodobnie i w dłuższym czasie, mówi główna autorka badań, profesor Namita Roy Choudhry. Zakażenia bakteryjne po zabiegach szpitalnych to poważny problem. Tym poważniejszy w obliczu zwiększającej się antybiotykooporności. Antybiotykooporność wywołała większe zainteresowanie materiałami, które są w stanie samodzielnie zachować sterylność. Dlatego też stworzyliśmy powłokę, która całkowicie zapobiega początkowemu przyczepianiu się bakterii i utworzeniu biofilmu, dodaje uczona. Rezylina bo niezwykle elastyczne białko występujące u owadów. To dzięki niemu pchły mogą skakać tak wysoko. Jest przy tym niezwykle wytrzymałe i biokompatybilne. Te wyjątkowe właściwości w połączeniu z faktem, że rezylina i podobne jej białka nie są toksyczne, czynią z nich idealny materiał wszędzie tam, gdzie potrzebna jest elastyczna, wytrzymała powłoka, stwierdza Choundhry. Naukowcy wykorzystali zmodyfikowane formy rezyliny i stworzyli z nich cały szereg powłok, które następnie testowali pod kątem interakcji z bakteriami E. coli i ludzką skórą. Badania wykazały, że w formie nanokropli (koacerwatu) powłoki takie uniemożliwiały przyczepienie się 100% bakterii, jednocześnie zaś były całkowicie biokompatybilne ze zdrowymi ludzkimi komórkami. Przy kontakcie z ujemnie naładowaną błoną komórkową bakterii dochodziło do niszczenia błony za pomocą sił elektrostatycznych, wycieku zawartości komórki i jej śmierci. Efektywność tej metody wynosiła 100% w testach z E. coli. Wysoka biokompatybilność z ludzkimi tkankami oznacza, że stosowanie powłok z rezyliny i podobnych jej białek nie powinno być ryzykowne, a fakt, że są to materiały naturalne, oznacza, iż są bardziej przyjazne środowisku niż rozwiązania opierające się na nanocząstkach srebra. Źródło: Nano-structured antibiofilm coatings based on recombinant resilin « powrót do artykułu
  25. Wendelstein 7-X, największy stellarator na świecie, pobił światowy rekord w kluczowym parametrze fuzji jądrowej, potrójnym iloczynie (triple product). Stellaratory to, po tokamakach, najbardziej popularna architektura reaktorów fuzyjnych. Oba rodzaje mają swoje wady i zalety, jednak stellaratory są trudniejsze do zbudowania, dlatego też świat skupia się głównie na tokamakach. Obecnie istnieje około 50 tokamaków i 10 stellaratorów. Znajdujący się w Greifswald w Niemczech Wendelstein 7-X został wybudowany przez Instytut Fizyki Plazmy im. Maxa Plancka. Zainwestowała w niego też Polska. Przed dwoma tygodniami, 22 maja zakończyła się tam kampania badawcza OP 2.3. W ostatnim dniu jej trwania międzynarodowy zespół pracujący przy W7-X utrzymał nową rekordową wartość potrójnego iloczynu przez 43 sekundy. Tym samym przebił najlepsze osiągnięcia tokamaków. Dlaczego potrójny iloczyn jest tak ważny? Potrójny iloczyn to jeden z kluczowych elementów opisujących wydajność i warunki potrzebne do osiągnięcia zapłonu, czyli do samopodtrzymującej się reakcji fuzji jądrowej. Jest to iloczyn trzech wielkości: gęstości plazmy (n), jej temperatury (T) oraz czasu uwięzienia energii w plazmie (τE). Żeby reakcja fuzji jądrowej była efektywna i samowystarczalna, potrójny iloczyn musi osiągnąć lub przekroczyć pewną minimalną wartość. W praktyce oznacza to konieczność osiągnięcia odpowiedniej temperatury plazmy, która jest konieczna do pokonania sił odpychających jądra atomów od siebie, osiągnięcia wysokiej gęstości, co zwiększa szanse na zderzenia między jądrami oraz osiągnięcia długiego czasu uwięzienia energii, gdyż jeśli energia ucieka zbyt szybko, plazma się schładza. Po przekroczeniu wartości granicznej iloczynu reakcja fuzji zaczyna samodzielnie się podtrzymywać, bez konieczności dogrzewania plazmy z zewnątrz. Dotychczas minimalną wartość potrójnego iloczynu przekroczono – zatem osiągnięto zapłon – jedynie w impulsowym inercyjnym reaktorze laserowym NIF. O osiągnięciu tym było głośno przed ponad dwoma laty. Pisaliśmy o tym w tekście Fuzja jądrowa: co tak naprawdę osiągnięto w National Ignition Facility? Rekordowy stellarator pokonał tokamaki Tokamaki są prostsze w budowie i łatwiej w nich osiągnąć wysoką temperaturę plazmy. W bardziej skomplikowanych stellaratorach łatwiej zaś plazmę ustabilizować. Tokamaki są więc bardziej popularne wśród badaczy. Stellaratory pozostają w tyle, ale w ostatnich latach dokonano w badaniach nad nimi kilku znaczących przełomów, o których wcześniej informowaliśmy. Czytaj: Jak załatać magnetyczną butelkę? Rozwiązano problem, który od 70 lat trapił fuzję jądrową Duży krok naprzód w dziedzinie fuzji jądrowej. Stellaratory mogą wyjść z cienia tokamaków  Najwyższymi osiągnięciami potrójnego iloczynu wśród tokamaków mogą pochwalić się japoński JT60U (zaprzestał pracy w 2008 roku) i europejski JET w Wielkiej Brytanii (zaprzestał pracy w 2023 r.). Oba na kilka sekund zbliżyły się do minimalnej wartości granicznej. W7-X wydłużył ten czas do 43 sekund. Pamiętamy, co prawda, że niedawno Chińczycy pochwalili się utrzymaniem reakcji przez ponad 1000 sekund, jednak nie podali wartości potrójnego iloczynu, zatem nie wiemy, czy ten kluczowy parametr został osiągnięty. Klucz do sukcesu: wstrzykiwanie kapsułek z wodorem Kluczem do sukcesu W7-X było nowe urządzenie zasilające plazmę w paliwo, które specjalnie na potrzeby tego stellaratora zostało zbudowane prze Oak Ridge National Laboratory w USA. Urządzenie schładza wodór tak bardzo, że staje się on ciałem stałym, następnie tworzy z niego kapsułki o średnicy 3 mm i długości 3,2 mm i wystrzeliwuje je w kierunki plazmy z prędkością 300 do 800 metrów na sekundę. W ten sposób reakcja jest wciąż zasilana w nowe paliwo. W ciągu wspomnianych 43 sekund urządzenie wysłało do plazmy około 90 kapsułek. Dzięki precyzyjnej koordynacji grzania plazmy i wstrzeliwania kapsułek możliwe było uzyskanie optymalnej równowagi pomiędzy ogrzewaniem, a dostarczaniem paliwa. Podczas opisywanego przez nas eksperymentu temperatura plazmy została podniesiona do ponad 20 milionów stopni Celsjusza, a chwilowo osiągnęła 30 milionów stopni. Ponadto wśród ważnych osiągnięć kampanii OP 2.3 warto wspomnieć o tym, że po raz pierwszy w całej objętości plazmy ciśnienie plazmy wyniosło 3% ciśnienia magnetycznego. Podczas osobnych eksperymentów ciśnienie magnetyczne obniżono do około 70%, pozwalając wzrosnąć ciśnieniu plazmy. Ocenia się, że w reaktorach komercyjnych ciśnienie plazmy w całej jej objętości będzie musiało wynosić 4–5% ciśnienia magnetycznego. Jednocześnie szczytowa temperatura plazmy wzrosła do około 40 milionów stopni Celsjusza. Rekordy pobite podczas naszych eksperymentów to znacznie więcej niż cyfry. To ważny krok w kierunku zweryfikowania przydatności samej idei stellaratorów, posumował profesor Robert Wolf, dyrektor wydziału Optymalizacji i Grzania Stellaratora w Instytucie Fizyki Plazmy im. Maxa Plancka. Czym jest fuzja jądrowa Fuzja jądrowa – reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii w tym procesie. Taki proces produkcji energii ma bardzo dużo zalet. Nie dochodzi do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody, i litu, z których można pozyskać paliwo do fuzji, czyli, odpowiednio, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Fuzja jądrowa jest bowiem niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów. Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Fuzja jądrowa to jednak bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje. « powrót do artykułu
×
×
  • Create New...