Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Naukowcom z Brookhaven National Laboratory udało się osiągnąć najwyższą spotykaną dotychczas temperaturę. Za pomocą akceleratora cząstek Relativistic Heavy Ion Collider (RHIC) doprowadzali oni do zderzeń jonów złota, co wywoływało eksplozje i gwałtowny wzrost temperatury. Przez kilka milisekund wynosiła ona cztery biliony stopni Celsjusza. Takie temperatury mogły panować wkrótce po Wielkim Wybuchu, a osiągnięcie z Brookhaven pozwoli uczonym badać, w jaki sposób formowała się materia.

"Ta temperatura wystarczy, by stopić protony i neutrony" - mówi doktor Seven Vidgor. Dodał, że eksperyment pozwolił na dokonanie pierwszych pomiarów temperatury w plazmie kwarkowo-gluonowej.

Pomiarów nie dokonywano, oczywiście, za pomocą termometrów. O temperaturze świadczył kolor światła, którą emitowała rozgrzana materia.

Uczeni uważają, że przez kilka mikrosekund po Wielkim Wybuchu istniała plazma kwarkowo-gluonowa, która następnie zaczęła stygnąć, dzięki czemu uformowały się protony oraz neutrony i powstała otaczająca nas materia.

Dzięki RHIC już wcześniej dokonano kilku ważnych obserwacji dotyczących materii. Zanim w 2000 roku uruchomiono akcelerator uważano, że plazma kwarkowo-gluonowa jest gazem. Jednak po analizie wyników pracy akceleratora uczeni, ku swojemu zaskoczeniu, doszli w 2005 roku do wniosku, że materia powstająca w RHIC zachowuje się jak płyn. Co więcej, jest to płyn niemal idealny, gdyż praktycznie nie posiada lepkości. Postanowiono więc zbadać właściwości tego płynu.

Wspomniany na wstępie pomiar temperatury został wykonany właśnie w ramach takich badań.

Odkrycia dokonane za pomocą RHIC kazały naukowcom postawić kolejne badania odnośnie kwantowej chromodynamiki, czyli teorii zajmującej się interakcją najmniejszych składowych jądra atomu.

Fizycy z Brookhaven chcą w najbliższych latach udoskonalić RHIC tak, by zwiększyć liczbę zderzeń i czułość detektorów.

 

Share this post


Link to post
Share on other sites

Małymi kroczkami do odtworzenia samego wielkiego wybuchu i samozagłady. Opierając się na tych samych prawach, które zakłada teoria wielkiego wybuchu, ilość wygenerowanej ciemnej materii spowoduje rozpad cząsteczek wszystkich pierwiastków. Przynajmniej tak piszą.

Share this post


Link to post
Share on other sites

Istnieje duża szansa, że porównując historię przeglądanych stron pokonasz mnie w pojedynku na ilość wizyt onet.pl. Ja mam jedną. Ale czyściłem kilka miesięcy temu, muszę się przyznać.

 

Komentarze czytam na physics.org, aczkolwiek to nie moja dziedzina i nie jestem kompetentny rzucać argumentami.

Share this post


Link to post
Share on other sites

Możesz wierzyć bądź nie, ale ja onetu nie odwiedzam w ogóle, nawet nie muszę czyścić statystyk historii przeglądarki, aby uzyskać taki wynik. Wcale też nie chodziło mi o to aby udowadniać sobie nawzajem kto częściej przegląda onetowe komentarze. Jeśli moja wypowiedź Cię uraziła to szczerze przepraszam. Twój pierwszy post w tym wątku po prostu trąci wyssaną z palca teoryjką...

Share this post


Link to post
Share on other sites

Nie ma sprawy. Tak jak wspomniałem nie jest to moja opinia, natomiast jeśli tak jak mówisz nie ma ona faktycznie żadnych podstaw byłbym wdzięczny jeśli wyjaśniłbyś dlaczego, jako że temat mnie interesuje.

Share this post


Link to post
Share on other sites

Najpierw musieli by stworzyć "osobliwość" o takim charakterze jak przed wielkim wybuchem. A do tego potrzeba chyba wszelkiej energii wszechświata :D

Share this post


Link to post
Share on other sites

Z tego co się orientuję nikt nie ma taj naprawdę pojęcia czego by było trzeba, aby wywołać reakcję tego typu - stąd przypuszczenia i teorie o różnych niebezpieczeństwach wynikających z eksperymentów przeprowadzanych na cząstkach elementarnych. Ja przynajmniej nie doczytałem się jeszcze nigdzie mocnego argumentu za lub przeciw, stąd też moja ciekawość i prośba do thibrisa o podzielenie się swoją wiedzą na ten temat.

Share this post


Link to post
Share on other sites

Moja wiedza w tej (czarnej) materii nie jest wcale jakaś spora, a rzekłbym raczej że nikła nawet. Moje osądy w tej sprawie wysnuwam na podstawie logicznych założeń, które już niejako skrystalizował Douger.

Skoro nie wiemy co jest potrzebne do wytworzenia tak niesamowitej i (przynajmniej według naszej wiedzy) unikalnej osobliwości, to wszelkie teorie na temat tego że kombinowanie z XYZ może ją wytworzyć jest nielogiczne. Równie dobrze można by stwierdzić, że jeśli ja rzucę moim papuciem i trafię płetwalowi błękitnemu w odbyt, to powstanie taka właśnie osobliwość :D

Tak na chłopski rozum - gdyż innego nie posiadam - stworzenie wszechświata nie może być tak banalnie proste, ażeby udało się to człowiekowi.

Share this post


Link to post
Share on other sites

Tzn nie do końca moim zdaniem. Większość teorii idzie w kierunku podziału czarnej materii na kilka konkretnych podgrup, z dosyć ściśle sprecyzowaną strukturą - przyjmujemy, że mowa jest o protonach i neutronach, nieatomicznej strukturze, wykluczone zostały neutrina, etc etc. W związku z tym logiczne jest to, że bardziej prawdopodobne jest spowodowanie powstania takiej materii poprzez eksperymenty na cząstkach elementarnych (w szczególności zderzanie) niż np. moje kichnięcie. Wiele lat temu minęliśmy już próg czystej teorii w kwestii tej materii i moim zdaniem im dalej się posuwamy tym bardziej powinniśmy być ostrożni.

 

Generalnie chodzi mi o podejście "nie mamy o tym pojęcia, przeprowadzimy więc eksperyment i zobaczymy co się stanie", a tak jest chociażby w przypadku większej części zakresu pracy LHC, co przyznają sami autorzy badań (choć oni pełni ekscytacji traktują to jako wielki plus, co w ogóle jest już groteską).

Share this post


Link to post
Share on other sites

Tylko skoro według tego co obiło się o moje uszy, to większość masy galaktyk i wszechświata to czarna materia. Sądzisz że ilości jakie może wyprodukować LHC czy ogólnie człowiek mogą zaszkodzić wszechświatu i spowodować przekroczenie jakiejś krytycznej granicy ? Moim zdaniem przeceniasz możliwości człowieka :D

Share this post


Link to post
Share on other sites

Tu właśnie następuje powiązanie z teorią wielkiego wybuchu. I choć naprawdę wątpliwe jest wywołanie dokładnie takiej samej reakcji przez człowieka w ciągu najbliższych tysiącleci z posiadaną technologią, o tyle nie można raczej wykluczać zjawiska tego samego typu lecz na skalę mikro. Jeśli bowiem wszechświat powstał faktycznie na skutek jednej reakcji na poziomie subatomowym, to spowodowanie reakcji podobnego typu na biliardy mniejszą skalę, a wystarczającej do zdematerializowania naszego układu jest czymś więcej niż sci-fi, skoro eksperymenty tego typu o trudnych do przewidzenia konsekwencjach są prowadzone.

Share this post


Link to post
Share on other sites

Macie problemy natury czysto filozoficznej - co się stanie jeżeli świat zginie - nic się nie stanie, a przynajmniej nic, co by mi zaprzątało głowę. To jest tak jakby sadam się przejmował, co będą robić z jego zwłokami po tym jak zawiśnie...

Share this post


Link to post
Share on other sites

Ale to bardzo ważny problem. Nie wiem jak Ty, ja natomiast nie chciałbym umrzeć wcześniej, mimo że jak już umrę to nie będę tym sobie zaprzątać głowy :D Tym samym tokiem myślenia można by nie karać za morderstwa, no bo nieboszczykowi to już bez różnicy.

Share this post


Link to post
Share on other sites

Hmm... Czy faktycznie wszechświat powstał w wyniku jednej reakcji na poziomi subatomowym ? Znaczyło by to że spokojnie można robić coś z niczego. Z niewielkiej liczby subatomowych cząstek stworzyć cały ogromny wszechświat. Kłóci się to z moją logiką troszkę. Rozumiem i wierzę że był big bang, ale co tam się właściwie stało, to pewnie pozostanie dla nas zagadką na zawsze.

Share this post


Link to post
Share on other sites

Ale to bardzo ważny problem. Nie wiem jak Ty, ja natomiast nie chciałbym umrzeć wcześniej, mimo że jak już umrę to nie będę tym sobie zaprzątać głowy :D Tym samym tokiem myślenia można by nie karać za morderstwa, no bo nieboszczykowi to już bez różnicy.

Właśnie dlatego nie stosuje się kary śmierci - w tej sytuacji morderca ma komfort 5min i po krzyku. Faktyczne dożywocie jest zdecydowanie brutalniejszą karą, szczególnie gdyby można dodać poniżające warunki przechowywania. Poza tym w przypadku morderców strzeliłeś sobie w stopę, zawsze istnieje ryzyko, że może ponownie zabić i właśnie w tym celu wsadza się delikwenta do kicia - w celu prewencji przyszłych "wykroczeń".

 

Zaś odnośnie chęci do życia - mi nie zależy, jak już będzie tak daleko to będę szczęśliwy, a jeżeli nawet się o tym nie dowiem, to jeszcze lepiej ;)

 

Hmm... Czy faktycznie wszechświat powstał w wyniku jednej reakcji na poziomi subatomowym ? Znaczyło by to że spokojnie można robić coś z niczego. Z niewielkiej liczby subatomowych cząstek stworzyć cały ogromny wszechświat. Kłóci się to z moją logiką troszkę.

Dla początku nie ma logiki, a przynajmniej nie takiej w sensie "najpierw był zarodek, 9 miesięcy i bum, nowy świat" -> zawsze pozostanie pytanie "ale co było wcześniej" i czy przypadkiem to "wcześniej" nie jest efektem pierdnięcia krasnoludka żyjącego na innej płaszczyźnie. Absurdalne? no takie jest imo życie -> żyjesz po to, aby umrzeć.

Share this post


Link to post
Share on other sites

Ale troszkę przeginacie :D To już są rozważania na skraju teologii, mówimy tu zaś o czymś, na temat czego współczesna nauka ma już pewną wiedzę. Teoria Wielkiego Wybuchu jest tak popularna, ponieważ po części opiera się na znanych nam prawach - łańcuchach kreacji par, przemianie fazowej, etc. Choć oczywiście o wiele łatwiej nam wyjaśnić sam przebieg procesu już po wielkim wybuchu niż zjawiska w czasie jego trwania zachodzące, to jednak:

 

Znaczyło by to że spokojnie można robić coś z niczego. Z niewielkiej liczby subatomowych cząstek stworzyć cały ogromny wszechświat. Kłóci się to z moją logiką troszkę.

 

trąci trochę przeszłymi epokami bez uwzgędnienia znanych nam faktów naukowych ;)

 

@czesiu: może przykład nie był trafiony, ale chyba zrozumiałeś co miałem na myśli. Bardzo nierozsądny jest dla mnie po prostu brak działań zapobiegających swojemu przedwczesnemu unicestwieniu. Nawet jeśli śmierć fizyczna jest ostatnim etapem egzystencji, co dla mnie wydaje się więcej niż oczywiste, to jednak o ile lubimy swoje życie, powinniśmy robić wszystko, by trwało jak najdłużej.

Share this post


Link to post
Share on other sites

Ale troszkę przeginacie :D To już są rozważania na skraju teologii, mówimy tu zaś o czymś, na temat czego współczesna nauka ma już pewną wiedzę. Teoria Wielkiego Wybuchu jest tak popularna, ponieważ po części opiera się na znanych nam prawach - łańcuchach kreacji par, przemianie fazowej, etc.

(...)

 

Bardzo nierozsądny jest dla mnie po prostu brak działań zapobiegających swojemu przedwczesnemu unicestwieniu.

Ach ta kochana "wiedza" - na cóż ona jest dobra (w tym względzie)?. Przykład z górnej półki - Einstein i szczególna teoria względności, popatrz na świat przed i po publikacji tej teorii.

The point is: stan aktualnej wiedzy na temat wielkiego wybuchu, jak to mówisz oparty o znane nam prawa - łańcuchy kreacji par, przemiana fazowa, etc. Wcale nie musi być 100% prawdą, nic tylko czekać kolejne 1000 lat na następnego Newtona czy Einsteina.

 

 

Bardzo nierozsądny jest dla mnie po prostu brak działań zapobiegających swojemu przedwczesnemu unicestwieniu.

Nawet jeśli śmierć fizyczna jest ostatnim etapem egzystencji, co dla mnie wydaje się więcej niż oczywiste, to jednak o ile lubimy swoje życie, powinniśmy robić wszystko, by trwało jak najdłużej.

Tak jak już wcześniej gdzieś pisałem - każdemu to, co chce mi akurat nie zależy. A co do argumentu testy LHC mogą rozwalić świat -> za dużo filmów Sci-fi i teorii spiskowych, taka jest moja subiektywna opinia. Zresztą testy LHC też nie są robione do końca w ciemno, mają potwierdzić teorie dotychczas niepotwierdzone - skoro wg teorii nie ma zagrożenia końcem świata, to dlaczego temat jest ciągle wałowany? czyżby czarny PR był lepszy niż żaden + więcej osób przeczyta artykuł o ryzyku zagłady świata w porównaniu z notką potwierdzającą istnienie teorii strun?

Share this post


Link to post
Share on other sites

Raz jeszcze: inną rzeczą jest faktycznie głosić np. że testy LHC mogą 'rozwalić' świat (czego nie robię), a inną wskazywanie potencjalnych zagrożeń. Zaś  Twoja subiektywna opinia opiera się o stwierdzenie "każdy może się mylić". No ale z takim zdaniem ciężko dyskutować, bo tym można rzucić w każdym temacie i sobie nie pogadamy. Każdy może się też nie mylić, i co z tego wynika? Że przeprowadzać eksperymenty czy nie? Chciałem podejść do tego od strony praktycznej, ale widzę, że niezbyt się da.

Share this post


Link to post
Share on other sites

Ale troszkę przeginacie :D To już są rozważania na skraju teologii, mówimy tu zaś o czymś, na temat czego współczesna nauka ma już pewną wiedzę. Teoria Wielkiego Wybuchu jest tak popularna, ponieważ po części opiera się na znanych nam prawach - łańcuchach kreacji par, przemianie fazowej, etc. Choć oczywiście o wiele łatwiej nam wyjaśnić sam przebieg procesu już po wielkim wybuchu niż zjawiska w czasie jego trwania zachodzące, to jednak:

 

trąci trochę przeszłymi epokami bez uwzgędnienia znanych nam faktów naukowych ;)

 

Jeśli się wygłupiłem to przepraszam, chyba już pisałem że jestem laikiem. Jak to jest więc z tworzeniem materii z niczego ? Skąd jej się tyle po wielkim wybuchu natworzyło ? Jeśli Ci się nie chce tłumaczyć, to poproszę o linka. Z miłą chęcią się czegoś nauczę dzisiaj ;)

Share this post


Link to post
Share on other sites

Proszę bardzo: E = mc2 :D

 

To powinno rozwiać Twoje wątpliwości odnośnie proporcji masy (coś z niczego). Teoria względności, którą jeśli dobrze pamiętam wcześniej przytoczyłeś (lub czesiu) zakłada przecież możliwość przemiany energii w materię. Teoria Wielkiego Wybuchu określa początek jako punkt o nieskończonej gęstości i energii (dla mnie na przykład ten właśnie fregment tej teorii jest jej najsłabszym punktem, mimo że już dalej wszystko zaczyna wyglądać dużo lepiej). Dalej już wiadomo, znane z poznanych już obecnie praw fizyki oddziaływania cząstek elementarnych, kolejne fazy opisane są wszędzie w sieci, wystarczy wrzucić w Google.

 

I na podstawie tych samych praw wysnuwane są teorie lub obawy odnośnie eksperymentów na cząstkach elementarnych. Prędkości, które zakłada praca LHC na pełnych obrotach (co jeszcze nie miało miejsca jak wiemy) mogą teoretycznie doprowadzić do powstania tak silnych oddziaływań i wytworzyć tak wielką energię w punkcie, że skutki tego są dla nas nie do przewidzenia zgodnie z posiadaną aktualnie wiedzą. Stąd apokaliptyczne wizje czarnych dziur jednych, kreacji antymaterii drugich czy podnoszony alarm przez trzecich. Może też oczywiście stać się wielkie NIC. Problem w tym właśnie, że nie potrafimy tego przewidzieć.

 

Ja należę do tych osób, które uważają, że nasza współczesna wiedza sprawia, iż przeprowadzanie takich eksperymentów jest nieodpowiedzialne. Prawda jest taka, że kilkadziesiąt dalszych lat modelowania komputerowego (biorąc pod uwagę postęp technologiczny) najprawdopodobniej ogromnie przybliżyłoby nas do uzyskania odpowiednich informacji z tego zakresu i zniosłoby ewentualne ryzyko podejmowane dziś w ciemno. Tymczasem niektórym świat zasłania wizja otrzymania nagrody Nobla i z tej racji są w stanie zignorować wszystko, co ich prace mogłoby opóźnić lub wstrzymać.

Share this post


Link to post
Share on other sites

Czyli powróciliśmy do punktu wyjścia i tego co powiedział wcześniej Douger. Energia. Świat powstał z jednego punktu w którym była zakumulowana cała energia którą dzisiaj możemy gdziekolwiek znaleźć. Nadal więc obstaję przy tym, że człowiekowi daleko (choć to niewyobrażalnie zbyt słabe słowo) do tego, aby takie energie uzyskać. Być może to tylko moja naiwność, ale uważam że w tym względzie ludzi nie ma się co obawiać.

Share this post


Link to post
Share on other sites

Ja należę do tych osób, które uważają, że nasza współczesna wiedza sprawia, iż przeprowadzanie takich eksperymentów jest nieodpowiedzialne. Prawda jest taka, że kilkadziesiąt dalszych lat modelowania komputerowego (biorąc pod uwagę postęp technologiczny) najprawdopodobniej ogromnie przybliżyłoby nas do uzyskania odpowiednich informacji z tego zakresu i zniosłoby ewentualne ryzyko podejmowane dziś w ciemno. Tymczasem niektórym świat zasłania wizja otrzymania nagrody Nobla i z tej racji są w stanie zignorować wszystko, co ich prace mogłoby opóźnić lub wstrzymać.

 

Modelowanie komputerowe jest fajne, jak możesz od czasu do czasu potwierdzić wyniki. Taki przykład zupełnie przyziemny - crash-testy samochodów. Niby masz manekiny, centra obliczeniowe, wszystko piko bello, a jednak od czasu do czasu nadal używa się prawdziwe ludzkie zwłoki w celu ocenienia czy komputer/manekin przypadkiem nie mija się z prawdą. Imówimy tutaj o czymś tak "prostym" w opisie jak wypadek samochodowy, ty natomiast postulujesz modelowanie komputerowe zjawisk, które są poza ludzkim pojęciem (w sensie powstania świata) -> ciekawe jak można by te modele zweryfikować.

 

Zresztą jeszcze do modelowania jakiegokolwiek. Modelowanie = uproszczenie do akceptowalnego poziomu, co w efekcie końcowym nie ma prawa 100% przełożenia się na praktykę. Górnolotny przykład - poszukaj sobie systemów w totka - to jest też model matematyczny uwzględniający prawdopodobieństwa, a jednak totalizator jeszcze nie poszedł z torbami, ciekawe czemu?!

Share this post


Link to post
Share on other sites

Nadal więc obstaję przy tym, że człowiekowi daleko (choć to niewyobrażalnie zbyt słabe słowo) do tego, aby takie energie uzyskać.

 

A 387 biliardów razy mniejsze energie? Bo nie wiem czy wiesz, ale to wystarczy.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
      Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
      Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
      Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
      Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
      Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
      Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
      Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po raz czwarty z rzędu światowe oceany pobiły rekordy ciepła. Kilkunastu naukowców z Chin, USA, Nowej Zelandii, Włoch opublikowało raport, z którego dowiadujemy się, że w 2022 roku światowe oceany – pod względem zawartego w nich ciepła – były najcieplejsze w historii i przekroczyły rekordowe maksimum z roku 2021. Poprzednie rekordy ciepła padały w 2021, 2020 i 2019 roku. Oceany pochłaniają nawet do 90% nadmiarowego ciepła zawartego w atmosferze, a jako że atmosfera jest coraz bardziej rozgrzana, coraz więcej ciepła trafia do oceanów.
      Lijing Cheng z Chińskiej Akademii Nauk, który stał na czele grupy badawczej, podkreślił, że od roku 1958, kiedy to zaczęto wykonywać wiarygodne pomiary temperatury oceanów, każda dekada była cieplejsza niż poprzednia, a ocieplenie przyspiesza. Od końca lat 80. tempo, w jakim do oceanów trafia dodatkowa energia, zwiększyło się nawet 4-krotnie.
      Z raportu dowiadujemy się, że niektóre obszary ocieplają się szybciej, niż pozostałe. Swoje własne rekordy pobiły Północny Pacyfik, Północny Atlantyk, Morze Śródziemne i Ocean Południowy. Co gorsza, naukowcy obserwują coraz większą stratyfikację oceanów, co oznacza, że wody ciepłe i zimne nie mieszają się tak łatwo, jak w przeszłości. Przez większą stratyfikację może pojawić się problem z transportem ciepła, tlenu i składników odżywczych w kolumnie wody, co zagraża ekosystemom morskim. Ponadto zamknięcie większej ilości ciepła w górnej części oceanów może dodatkowo ogrzać atmosferę. Kolejnym problemem jest wzrost poziomu wód oceanicznych. Jest on powodowany nie tylko topnieniem lodu, ale również zwiększaniem objętości wody wraz ze wzrostem jej temperatury.
      Ogrzewające się oceany przyczyniają się też do zmian wzorców pogodowych, napędzają cyklony i huragany. Musimy spodziewać się coraz bardziej gwałtownych zjawisk pogodowych i związanych z tym kosztów. Amerykańska Administracja Oceaniczna i Atmosferyczna prowadzi m.in. statystyki dotyczące gwałtownych zjawisk klimatycznych i pogodowych, z których każde przyniosło USA straty przekraczające miliard dolarów. Wyraźnie widać, że liczba takich zjawisk rośnie, a koszty są coraz większe. W latach 1980–1989 średnia liczba takich zjawisk to 3,1/rok, a straty to 20,5 miliarda USD/rok. Dla lat 1990–1999 było to już 5,5/rok, a straty wyniosły 31,4 miliarda USD rocznie. W ubiegłym roku zanotowano zaś 18 takich zjawisk, a straty sięgnęły 165 miliardów dolarów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gdy rozpędzone niemal do prędkości światła jony ołowiu lub złota wpadną na siebie w czeluściach akceleratorów, na ułamki sekund tworzy się plazma kwarkowo-gluonowa. Zdaniem naukowców z Instytutu Fizyki Jądrowej PAN w Krakowie, dane eksperymentalne wskazują, że na arenie wydarzeń są tu obecni jeszcze inni, dotychczas niedoceniani aktorzy: fotony. Ich zderzenia prowadzą do emisji pozornie nadmiarowych cząstek, których obecności nie potrafiono wyjaśnić.
      Plazma kwarkowo-gluonowa to bezsprzecznie najbardziej egzotyczny ze znanych nam stanów materii. W akceleratorze LHC w CERN pod Genewą tworzy się ona podczas centralnych zderzeń dwóch nadlatujących z naprzeciwka jonów ołowiu, poruszających się z prędkościami bardzo bliskimi prędkości światła. Kwarkowo-gluonowa zupa bywa też doprawiona innymi cząstkami. Niestety, opis teoretyczny przebiegu wydarzeń z udziałem plazmy oraz jej koktajlu nie w pełni odpowiadał danym zebranym w eksperymentach. W artykule opublikowanym na łamach czasopisma Physics Letters B grupa naukowców z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk w Krakowie wyjaśniła przyczynę zaobserwowanych rozbieżności. Dane zebrane w trakcie zderzeń jąder ołowiu w akceleratorze LHC, a także podczas zderzeń jąder złota w akceleratorze RHIC w Brookhaven National Laboratory koło Nowego Jorku, zaczynają się zgadzać z teorią, gdy w opisie zachodzących procesów uwzględni się zderzenia między fotonami otaczającymi oba oddziałujące ze sobą jony.
      Z pewnym przymrużeniem oka można powiedzieć, że przy odpowiednio wielkich energiach masywne jony zderzają się nie tylko swoimi protonami i neutronami, ale nawet swoimi chmurami fotonów, mówi dr Mariola Kłusek-Gawenda (IFJ PAN) i od razu precyzuje: Przy opisie kolizji jonów w LHC już wcześniej uwzględnialiśmy zderzenia między fotonami. Dotyczyły one jednak tylko zderzeń ultraperyferyjnych, w których jony nie trafiają w siebie, lecz mijają się niezmienione, oddziałując wyłącznie własnymi polami elektromagnetycznymi. Nikt nie przypuszczał, że zderzenia fotonów mogą odgrywać jakąkolwiek rolę w brutalnych interakcjach, gdzie protony i neutrony dosłownie zlewają się w kwarkowo-gluonową zupę.
      W warunkach znanych z codziennego życia fotony nie zderzają się ze sobą. Gdy jednak mamy do czynienia z masywnymi jonami rozpędzonymi niemal do prędkości światła, sytuacja staje się inna. Jądro złota zawiera 79 protonów, jądro ołowiu aż 82, ładunek elektryczny każdego jonu jest więc odpowiednio wiele razy większy od ładunku elementarnego. Nośnikami oddziaływań elektromagnetycznych są fotony, zatem każdy jon można traktować jako obiekt otoczony chmurą wielu fotonów. Co więcej, w akceleratorach RHIC i LHC jony poruszają się z prędkościami bliskimi prędkości światła. W rezultacie i one, i otaczająca je chmura fotonów, z punktu widzenia obserwatora w laboratorium sprawiają wrażenie niezwykle cienkich placków, spłaszczonych w kierunku ruchu. Z każdym przelotem takiego protonowo-neutronowego naleśnika wiąże się wyjątkowo gwałtowna oscylacja pól elektrycznego i magnetycznego.
      W elektrodynamice kwantowej, teorii używanej do opisu elektromagnetyzmu z uwzględnieniem zjawisk kwantowych, istnieje maksymalna wartość krytyczna pola elektrycznego, rzędu dziesięć do szesnastej woltów na centymetr. Dotyczy ona statycznych pól elektrycznych. W przypadku zderzeń masywnych jąder atomowych w RHIC czy LHC mamy do czynienia z polami dynamicznymi, pojawiającymi się na zaledwie milionowe części jednej miliardowej jednej miliardowej sekundy. Przez tak ekstremalnie krótki czas pola elektryczne w zderzeniach jonów mogą być nawet stukrotnie silniejsze od wartości krytycznej.
      W istocie pola elektryczne jonów zderzających się w LHC bądź RHIC są tak potężne, że pod ich wpływem powstają wirtualne fotony i dochodzi do ich zderzeń. W wyniku tych procesów w różnych punktach wokół jonów, gdzie wcześniej nie było niczego materialnego, powstają pary lepton-antylepton. Cząstki każdej pary rozbiegają się w charakterystyczny sposób: typowo w przeciwnych kierunkach i niemal prostopadle do pierwotnego kierunku ruchu jonów, wyjaśnia dr hab. Wolfgang Schäfer (IFJ PAN) i przypomina, że do rodziny leptonów są zaliczane elektrony oraz ich bardziej masywne odpowiedniki: miony i taony.
      Interakcje fotonów i związana z nimi produkcja par lepton-antylepton są kluczowe w zderzeniach peryferyjnych. Kolizje tego typu krakowscy fizycy opisali już kilka lat wcześniej. Ku własnemu zaskoczeniu, teraz udało się im wykazać, że te same zjawiska odgrywają niemałą rolę również w bezpośrednich zderzeniach jąder, nawet centralnych. Z danych zebranych dla jąder złota w RHIC i jąder ołowiu w LHC wynika bowiem, że podczas takich zderzeń pojawia się pewna „nadmiarowa” liczba par elektron-pozyton, które stosunkowo wolno rozbiegają się w kierunkach niemal prostopadłych do wiązek jonów. Ich istnienie udało się wyjaśnić właśnie poprzez uwzględnienie produkcji par lepton-antylepton przez zderzające się fotony.
      Prawdziwą wisienką na torcie okazał się dla nas fakt, że uzupełniając dotychczasowe narzędzia opisu zderzeń masywnych jonów o nasz formalizm zbudowany na tak zwanych funkcjach Wignera mogliśmy wreszcie wytłumaczyć, dlaczego detektory największych współczesnych eksperymentów akceleratorowych rejestrują takie a nie inne rozkłady leptonów i antyleptonów uciekających z miejsca kolizji jąder (dla ustalonej centralności zderzenia). Nasze rozumienie najważniejszych zachodzących tu procesów stało się bardziej kompletne, podsumowuje prof. dr hab. Antoni Szczurek (IFJ PAN).
      Prace nad krakowskim modelem zderzeń foton-foton sfinansowano ze środków Narodowego Centrum Nauki. Model wzbudził zainteresowanie fizyków pracujących przy detektorach ATLAS i ALICE akceleratora LHC i zostanie użyty już w najbliższych analizach danych eksperymentalnych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wyjście z łóżka w ciemny zimowy poranek jest dla wielu nie lada wyzwaniem. Nie ma jednak co robić sobie z tego powodu wyrzutów. Neurobiolodzy z Northwestern University odkryli właśnie mechanizm wskazujący, że zachowanie takie ma biologiczne podstawy.
      Naukowcy zauważyli otóż, że muszki owocówki posiadają rodzaj termometru, który przekazuje informacje o temperaturze z czułków zwierzęcia do bardziej rozwiniętych części mózgu. Wykazali też, że gdy jest ciemno i zimno sygnały te tłumią działanie neuronów odpowiedzialnych za przebudzenie się i aktywność, a tłumienie to jest najsilniejsze o poranku.
      To pomaga wyjaśnić dlaczego, zarówno w przypadku muszek owocówek jak i ludzi, tak trudno jest obudzić się w zimie. Badając zachowanie muszek możemy lepiej zrozumieć jak i dlaczego temperatury są tak ważne dla regulacji snu, mówi profesor Marco Gallio z Winberg College of Arts and Sciences.
      W artykule opublikowanym na łamach Current Biology autorzy badań jako pierwsi opisali receptory „absolutnego zimna” znajdujące się w czułkach muszki. Reagują one wyłącznie na temperatury poniżej strefy komfortu termicznego zwierzęcia, czyli poniżej 25 stopni Celsjusza. Po zidentyfikowaniu tych neuronów uczeni zbadali ich interakcję z mózgiem. Okazało się, że głównym odbiorcą przesyłanych przez nie informacji jest mała grupa neuronów mózgu, która jest częścią większego obszaru odpowiedzialnego za kontrolę rytmu aktywności i snu. Gdy obecne w czułkach receptory zimna zostają aktywowane, wówczas komórki w mózgu, które zwykle są aktywowane przez światło, pozostają uśpione.
      Odczuwanie temperatury to jeden z najważniejszych stymulantów. Podstawy jego działania, jakie znaleźliśmy u owocówki, mogą być identyczne u ludzi. Niezależnie bowiem od tego, czy mamy do czynienia z człowiekiem czy z muszką, narządy zmysłów mają do rozwiązania te same problemy i często jest to robione w ten sam sposób, dodaje Gallio.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Stanforda i SLAC National Accelerator Laboratory stworzyli pierwszy na świecie akcelerator cząstek na chipie. Za pomocą podczerwonego lasera na długości ułamka średnicy ludzkiego włosa można cząstkom nadać energię, którą  mikrofale nadają im na przestrzeni wielu metrów.
      Akcelerator na chipie to prototyp, ale profesor Jelena Vuckovic, która kierowała zespołem badawczym, mówi, że zarówno projekt jak i techniki produkcyjne, można skalować tak, by uzyskać strumienie cząstek o energiach wystarczających do prowadzenia zaawansowanych eksperymentów chemicznych, biologicznych czy z nauk materiałowych. Akcelerator na chipie przyda się wszędzie tam, gdzie nie są wymagane najwyższe dostępne energie.
      Największe akceleratory są jak potężne teleskopy. Na świecie jest ich tylko kilka i naukowcy muszą przyjeżdżać do takich miejsc jak SLAC by prowadzić eksperymenty. Chcemy zminiaturyzować technologię akceleratorów, by stała się ona bardziej dostępnym narzędziem naukowym, wyjaśnia.
      Uczeni porównują swoje osiągnięcie do przejścia od potężnych mainframe'ów do posiadających mniejszą moc obliczeniową, ale wciąż użytecznych, pecetów. Fizyk Robert Byer mówi, że technologia accelerator-on-a-chip może doprowadzić do rozwoju nowych metod radioterapii nowotworów. Obecnie maszyny do radioterapii do wielkie urządzenia emitujące promieniowanie na tyle silne, że może ono szkodzić zdrowym tkankom. W naszym artykule stwierdzamy, że może być możliwe skierowanie strumienia cząstek precyzyjnie na guza, bez szkodzenia zdrowym tkankom, mówi uczony.
      Za każdym razem, gdy laser emituje impuls – a robi to 100 000 razy na sekundę – fotony uderzają w elektrony i je przyspieszają. Wszystko to ma miejsce na przestrzeni krótszej niż średnica ludzkiego włosa.
      Celem grupy Vukovic jest przyspieszenie elektronów do 94% prędkości światła, czyli nadanie im energii rzędu 1 MeV (milion elektronowoltów). W ten sposób otrzymamy przepływ cząstek o energii na tyle dużej, że będzie je można wykorzystać w medycynie czy badaniach naukowych.
      Stworzony obecnie prototyp układu zawiera 1 kanał przyspieszający. Do nadania energii 1 MeV potrzebnych będzie tysiąc takich kanałów. I, wbrew pozorom, będzie to prostsze niż się wydaje. Jako, że mamy tutaj w pełni zintegrowany układ scalony, znajdują się już w nim wszystkie elementy potrzebne do wykonania zadania. Vukovic twierdzi że do końca bieżącego roku powstanie chip w którym elektrony zyskają energię 1 MeV. Będzie on miał długość około 2,5 centymetra.
      Inżynier Olav Solgaard nie czeka na ukończenie prac nad chipem. Już teraz zastanawia się nad wykorzystaniem go w onkologii. Obecnie wysokoenergetyczne elektrony nie są używane w radioterapii, gdyż doprowadziłyby do oparzeń skóry. Dlatego też Solgaard pracuje rodzajem lampy elektronowej, którą wprowadzałoby się chirurgicznie w pobliże guza i traktowało chorą tkankę strumieniem elektronów generowanych przez akcelerator na chipie.
      Warto w tym miejscu przypomnieć o rewolucyjnym laserze BELLA (Berkeley Lab Laser Accelerator), o którym informowaliśmy przed kilku laty. To najpotężniejszy kompaktowy akcelerator na świecie. Na przestrzeni 1 metra nadaje on cząstkom energie liczone w gigaelektronowoltach (GeV).

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...