Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Gorąco jak przed miliardami lat
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Po raz czwarty z rzędu światowe oceany pobiły rekordy ciepła. Kilkunastu naukowców z Chin, USA, Nowej Zelandii, Włoch opublikowało raport, z którego dowiadujemy się, że w 2022 roku światowe oceany – pod względem zawartego w nich ciepła – były najcieplejsze w historii i przekroczyły rekordowe maksimum z roku 2021. Poprzednie rekordy ciepła padały w 2021, 2020 i 2019 roku. Oceany pochłaniają nawet do 90% nadmiarowego ciepła zawartego w atmosferze, a jako że atmosfera jest coraz bardziej rozgrzana, coraz więcej ciepła trafia do oceanów.
Lijing Cheng z Chińskiej Akademii Nauk, który stał na czele grupy badawczej, podkreślił, że od roku 1958, kiedy to zaczęto wykonywać wiarygodne pomiary temperatury oceanów, każda dekada była cieplejsza niż poprzednia, a ocieplenie przyspiesza. Od końca lat 80. tempo, w jakim do oceanów trafia dodatkowa energia, zwiększyło się nawet 4-krotnie.
Z raportu dowiadujemy się, że niektóre obszary ocieplają się szybciej, niż pozostałe. Swoje własne rekordy pobiły Północny Pacyfik, Północny Atlantyk, Morze Śródziemne i Ocean Południowy. Co gorsza, naukowcy obserwują coraz większą stratyfikację oceanów, co oznacza, że wody ciepłe i zimne nie mieszają się tak łatwo, jak w przeszłości. Przez większą stratyfikację może pojawić się problem z transportem ciepła, tlenu i składników odżywczych w kolumnie wody, co zagraża ekosystemom morskim. Ponadto zamknięcie większej ilości ciepła w górnej części oceanów może dodatkowo ogrzać atmosferę. Kolejnym problemem jest wzrost poziomu wód oceanicznych. Jest on powodowany nie tylko topnieniem lodu, ale również zwiększaniem objętości wody wraz ze wzrostem jej temperatury.
Ogrzewające się oceany przyczyniają się też do zmian wzorców pogodowych, napędzają cyklony i huragany. Musimy spodziewać się coraz bardziej gwałtownych zjawisk pogodowych i związanych z tym kosztów. Amerykańska Administracja Oceaniczna i Atmosferyczna prowadzi m.in. statystyki dotyczące gwałtownych zjawisk klimatycznych i pogodowych, z których każde przyniosło USA straty przekraczające miliard dolarów. Wyraźnie widać, że liczba takich zjawisk rośnie, a koszty są coraz większe. W latach 1980–1989 średnia liczba takich zjawisk to 3,1/rok, a straty to 20,5 miliarda USD/rok. Dla lat 1990–1999 było to już 5,5/rok, a straty wyniosły 31,4 miliarda USD rocznie. W ubiegłym roku zanotowano zaś 18 takich zjawisk, a straty sięgnęły 165 miliardów dolarów.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Gdy rozpędzone niemal do prędkości światła jony ołowiu lub złota wpadną na siebie w czeluściach akceleratorów, na ułamki sekund tworzy się plazma kwarkowo-gluonowa. Zdaniem naukowców z Instytutu Fizyki Jądrowej PAN w Krakowie, dane eksperymentalne wskazują, że na arenie wydarzeń są tu obecni jeszcze inni, dotychczas niedoceniani aktorzy: fotony. Ich zderzenia prowadzą do emisji pozornie nadmiarowych cząstek, których obecności nie potrafiono wyjaśnić.
Plazma kwarkowo-gluonowa to bezsprzecznie najbardziej egzotyczny ze znanych nam stanów materii. W akceleratorze LHC w CERN pod Genewą tworzy się ona podczas centralnych zderzeń dwóch nadlatujących z naprzeciwka jonów ołowiu, poruszających się z prędkościami bardzo bliskimi prędkości światła. Kwarkowo-gluonowa zupa bywa też doprawiona innymi cząstkami. Niestety, opis teoretyczny przebiegu wydarzeń z udziałem plazmy oraz jej koktajlu nie w pełni odpowiadał danym zebranym w eksperymentach. W artykule opublikowanym na łamach czasopisma Physics Letters B grupa naukowców z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk w Krakowie wyjaśniła przyczynę zaobserwowanych rozbieżności. Dane zebrane w trakcie zderzeń jąder ołowiu w akceleratorze LHC, a także podczas zderzeń jąder złota w akceleratorze RHIC w Brookhaven National Laboratory koło Nowego Jorku, zaczynają się zgadzać z teorią, gdy w opisie zachodzących procesów uwzględni się zderzenia między fotonami otaczającymi oba oddziałujące ze sobą jony.
Z pewnym przymrużeniem oka można powiedzieć, że przy odpowiednio wielkich energiach masywne jony zderzają się nie tylko swoimi protonami i neutronami, ale nawet swoimi chmurami fotonów, mówi dr Mariola Kłusek-Gawenda (IFJ PAN) i od razu precyzuje: Przy opisie kolizji jonów w LHC już wcześniej uwzględnialiśmy zderzenia między fotonami. Dotyczyły one jednak tylko zderzeń ultraperyferyjnych, w których jony nie trafiają w siebie, lecz mijają się niezmienione, oddziałując wyłącznie własnymi polami elektromagnetycznymi. Nikt nie przypuszczał, że zderzenia fotonów mogą odgrywać jakąkolwiek rolę w brutalnych interakcjach, gdzie protony i neutrony dosłownie zlewają się w kwarkowo-gluonową zupę.
W warunkach znanych z codziennego życia fotony nie zderzają się ze sobą. Gdy jednak mamy do czynienia z masywnymi jonami rozpędzonymi niemal do prędkości światła, sytuacja staje się inna. Jądro złota zawiera 79 protonów, jądro ołowiu aż 82, ładunek elektryczny każdego jonu jest więc odpowiednio wiele razy większy od ładunku elementarnego. Nośnikami oddziaływań elektromagnetycznych są fotony, zatem każdy jon można traktować jako obiekt otoczony chmurą wielu fotonów. Co więcej, w akceleratorach RHIC i LHC jony poruszają się z prędkościami bliskimi prędkości światła. W rezultacie i one, i otaczająca je chmura fotonów, z punktu widzenia obserwatora w laboratorium sprawiają wrażenie niezwykle cienkich placków, spłaszczonych w kierunku ruchu. Z każdym przelotem takiego protonowo-neutronowego naleśnika wiąże się wyjątkowo gwałtowna oscylacja pól elektrycznego i magnetycznego.
W elektrodynamice kwantowej, teorii używanej do opisu elektromagnetyzmu z uwzględnieniem zjawisk kwantowych, istnieje maksymalna wartość krytyczna pola elektrycznego, rzędu dziesięć do szesnastej woltów na centymetr. Dotyczy ona statycznych pól elektrycznych. W przypadku zderzeń masywnych jąder atomowych w RHIC czy LHC mamy do czynienia z polami dynamicznymi, pojawiającymi się na zaledwie milionowe części jednej miliardowej jednej miliardowej sekundy. Przez tak ekstremalnie krótki czas pola elektryczne w zderzeniach jonów mogą być nawet stukrotnie silniejsze od wartości krytycznej.
W istocie pola elektryczne jonów zderzających się w LHC bądź RHIC są tak potężne, że pod ich wpływem powstają wirtualne fotony i dochodzi do ich zderzeń. W wyniku tych procesów w różnych punktach wokół jonów, gdzie wcześniej nie było niczego materialnego, powstają pary lepton-antylepton. Cząstki każdej pary rozbiegają się w charakterystyczny sposób: typowo w przeciwnych kierunkach i niemal prostopadle do pierwotnego kierunku ruchu jonów, wyjaśnia dr hab. Wolfgang Schäfer (IFJ PAN) i przypomina, że do rodziny leptonów są zaliczane elektrony oraz ich bardziej masywne odpowiedniki: miony i taony.
Interakcje fotonów i związana z nimi produkcja par lepton-antylepton są kluczowe w zderzeniach peryferyjnych. Kolizje tego typu krakowscy fizycy opisali już kilka lat wcześniej. Ku własnemu zaskoczeniu, teraz udało się im wykazać, że te same zjawiska odgrywają niemałą rolę również w bezpośrednich zderzeniach jąder, nawet centralnych. Z danych zebranych dla jąder złota w RHIC i jąder ołowiu w LHC wynika bowiem, że podczas takich zderzeń pojawia się pewna „nadmiarowa” liczba par elektron-pozyton, które stosunkowo wolno rozbiegają się w kierunkach niemal prostopadłych do wiązek jonów. Ich istnienie udało się wyjaśnić właśnie poprzez uwzględnienie produkcji par lepton-antylepton przez zderzające się fotony.
Prawdziwą wisienką na torcie okazał się dla nas fakt, że uzupełniając dotychczasowe narzędzia opisu zderzeń masywnych jonów o nasz formalizm zbudowany na tak zwanych funkcjach Wignera mogliśmy wreszcie wytłumaczyć, dlaczego detektory największych współczesnych eksperymentów akceleratorowych rejestrują takie a nie inne rozkłady leptonów i antyleptonów uciekających z miejsca kolizji jąder (dla ustalonej centralności zderzenia). Nasze rozumienie najważniejszych zachodzących tu procesów stało się bardziej kompletne, podsumowuje prof. dr hab. Antoni Szczurek (IFJ PAN).
Prace nad krakowskim modelem zderzeń foton-foton sfinansowano ze środków Narodowego Centrum Nauki. Model wzbudził zainteresowanie fizyków pracujących przy detektorach ATLAS i ALICE akceleratora LHC i zostanie użyty już w najbliższych analizach danych eksperymentalnych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wyjście z łóżka w ciemny zimowy poranek jest dla wielu nie lada wyzwaniem. Nie ma jednak co robić sobie z tego powodu wyrzutów. Neurobiolodzy z Northwestern University odkryli właśnie mechanizm wskazujący, że zachowanie takie ma biologiczne podstawy.
Naukowcy zauważyli otóż, że muszki owocówki posiadają rodzaj termometru, który przekazuje informacje o temperaturze z czułków zwierzęcia do bardziej rozwiniętych części mózgu. Wykazali też, że gdy jest ciemno i zimno sygnały te tłumią działanie neuronów odpowiedzialnych za przebudzenie się i aktywność, a tłumienie to jest najsilniejsze o poranku.
To pomaga wyjaśnić dlaczego, zarówno w przypadku muszek owocówek jak i ludzi, tak trudno jest obudzić się w zimie. Badając zachowanie muszek możemy lepiej zrozumieć jak i dlaczego temperatury są tak ważne dla regulacji snu, mówi profesor Marco Gallio z Winberg College of Arts and Sciences.
W artykule opublikowanym na łamach Current Biology autorzy badań jako pierwsi opisali receptory „absolutnego zimna” znajdujące się w czułkach muszki. Reagują one wyłącznie na temperatury poniżej strefy komfortu termicznego zwierzęcia, czyli poniżej 25 stopni Celsjusza. Po zidentyfikowaniu tych neuronów uczeni zbadali ich interakcję z mózgiem. Okazało się, że głównym odbiorcą przesyłanych przez nie informacji jest mała grupa neuronów mózgu, która jest częścią większego obszaru odpowiedzialnego za kontrolę rytmu aktywności i snu. Gdy obecne w czułkach receptory zimna zostają aktywowane, wówczas komórki w mózgu, które zwykle są aktywowane przez światło, pozostają uśpione.
Odczuwanie temperatury to jeden z najważniejszych stymulantów. Podstawy jego działania, jakie znaleźliśmy u owocówki, mogą być identyczne u ludzi. Niezależnie bowiem od tego, czy mamy do czynienia z człowiekiem czy z muszką, narządy zmysłów mają do rozwiązania te same problemy i często jest to robione w ten sam sposób, dodaje Gallio.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Uniwersytetu Stanforda i SLAC National Accelerator Laboratory stworzyli pierwszy na świecie akcelerator cząstek na chipie. Za pomocą podczerwonego lasera na długości ułamka średnicy ludzkiego włosa można cząstkom nadać energię, którą mikrofale nadają im na przestrzeni wielu metrów.
Akcelerator na chipie to prototyp, ale profesor Jelena Vuckovic, która kierowała zespołem badawczym, mówi, że zarówno projekt jak i techniki produkcyjne, można skalować tak, by uzyskać strumienie cząstek o energiach wystarczających do prowadzenia zaawansowanych eksperymentów chemicznych, biologicznych czy z nauk materiałowych. Akcelerator na chipie przyda się wszędzie tam, gdzie nie są wymagane najwyższe dostępne energie.
Największe akceleratory są jak potężne teleskopy. Na świecie jest ich tylko kilka i naukowcy muszą przyjeżdżać do takich miejsc jak SLAC by prowadzić eksperymenty. Chcemy zminiaturyzować technologię akceleratorów, by stała się ona bardziej dostępnym narzędziem naukowym, wyjaśnia.
Uczeni porównują swoje osiągnięcie do przejścia od potężnych mainframe'ów do posiadających mniejszą moc obliczeniową, ale wciąż użytecznych, pecetów. Fizyk Robert Byer mówi, że technologia accelerator-on-a-chip może doprowadzić do rozwoju nowych metod radioterapii nowotworów. Obecnie maszyny do radioterapii do wielkie urządzenia emitujące promieniowanie na tyle silne, że może ono szkodzić zdrowym tkankom. W naszym artykule stwierdzamy, że może być możliwe skierowanie strumienia cząstek precyzyjnie na guza, bez szkodzenia zdrowym tkankom, mówi uczony.
Za każdym razem, gdy laser emituje impuls – a robi to 100 000 razy na sekundę – fotony uderzają w elektrony i je przyspieszają. Wszystko to ma miejsce na przestrzeni krótszej niż średnica ludzkiego włosa.
Celem grupy Vukovic jest przyspieszenie elektronów do 94% prędkości światła, czyli nadanie im energii rzędu 1 MeV (milion elektronowoltów). W ten sposób otrzymamy przepływ cząstek o energii na tyle dużej, że będzie je można wykorzystać w medycynie czy badaniach naukowych.
Stworzony obecnie prototyp układu zawiera 1 kanał przyspieszający. Do nadania energii 1 MeV potrzebnych będzie tysiąc takich kanałów. I, wbrew pozorom, będzie to prostsze niż się wydaje. Jako, że mamy tutaj w pełni zintegrowany układ scalony, znajdują się już w nim wszystkie elementy potrzebne do wykonania zadania. Vukovic twierdzi że do końca bieżącego roku powstanie chip w którym elektrony zyskają energię 1 MeV. Będzie on miał długość około 2,5 centymetra.
Inżynier Olav Solgaard nie czeka na ukończenie prac nad chipem. Już teraz zastanawia się nad wykorzystaniem go w onkologii. Obecnie wysokoenergetyczne elektrony nie są używane w radioterapii, gdyż doprowadziłyby do oparzeń skóry. Dlatego też Solgaard pracuje rodzajem lampy elektronowej, którą wprowadzałoby się chirurgicznie w pobliże guza i traktowało chorą tkankę strumieniem elektronów generowanych przez akcelerator na chipie.
Warto w tym miejscu przypomnieć o rewolucyjnym laserze BELLA (Berkeley Lab Laser Accelerator), o którym informowaliśmy przed kilku laty. To najpotężniejszy kompaktowy akcelerator na świecie. Na przestrzeni 1 metra nadaje on cząstkom energie liczone w gigaelektronowoltach (GeV).
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.