Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Naukowcom z Brookhaven National Laboratory udało się osiągnąć najwyższą spotykaną dotychczas temperaturę. Za pomocą akceleratora cząstek Relativistic Heavy Ion Collider (RHIC) doprowadzali oni do zderzeń jonów złota, co wywoływało eksplozje i gwałtowny wzrost temperatury. Przez kilka milisekund wynosiła ona cztery biliony stopni Celsjusza. Takie temperatury mogły panować wkrótce po Wielkim Wybuchu, a osiągnięcie z Brookhaven pozwoli uczonym badać, w jaki sposób formowała się materia.

"Ta temperatura wystarczy, by stopić protony i neutrony" - mówi doktor Seven Vidgor. Dodał, że eksperyment pozwolił na dokonanie pierwszych pomiarów temperatury w plazmie kwarkowo-gluonowej.

Pomiarów nie dokonywano, oczywiście, za pomocą termometrów. O temperaturze świadczył kolor światła, którą emitowała rozgrzana materia.

Uczeni uważają, że przez kilka mikrosekund po Wielkim Wybuchu istniała plazma kwarkowo-gluonowa, która następnie zaczęła stygnąć, dzięki czemu uformowały się protony oraz neutrony i powstała otaczająca nas materia.

Dzięki RHIC już wcześniej dokonano kilku ważnych obserwacji dotyczących materii. Zanim w 2000 roku uruchomiono akcelerator uważano, że plazma kwarkowo-gluonowa jest gazem. Jednak po analizie wyników pracy akceleratora uczeni, ku swojemu zaskoczeniu, doszli w 2005 roku do wniosku, że materia powstająca w RHIC zachowuje się jak płyn. Co więcej, jest to płyn niemal idealny, gdyż praktycznie nie posiada lepkości. Postanowiono więc zbadać właściwości tego płynu.

Wspomniany na wstępie pomiar temperatury został wykonany właśnie w ramach takich badań.

Odkrycia dokonane za pomocą RHIC kazały naukowcom postawić kolejne badania odnośnie kwantowej chromodynamiki, czyli teorii zajmującej się interakcją najmniejszych składowych jądra atomu.

Fizycy z Brookhaven chcą w najbliższych latach udoskonalić RHIC tak, by zwiększyć liczbę zderzeń i czułość detektorów.

 

Share this post


Link to post
Share on other sites

Małymi kroczkami do odtworzenia samego wielkiego wybuchu i samozagłady. Opierając się na tych samych prawach, które zakłada teoria wielkiego wybuchu, ilość wygenerowanej ciemnej materii spowoduje rozpad cząsteczek wszystkich pierwiastków. Przynajmniej tak piszą.

Share this post


Link to post
Share on other sites

Istnieje duża szansa, że porównując historię przeglądanych stron pokonasz mnie w pojedynku na ilość wizyt onet.pl. Ja mam jedną. Ale czyściłem kilka miesięcy temu, muszę się przyznać.

 

Komentarze czytam na physics.org, aczkolwiek to nie moja dziedzina i nie jestem kompetentny rzucać argumentami.

Share this post


Link to post
Share on other sites

Możesz wierzyć bądź nie, ale ja onetu nie odwiedzam w ogóle, nawet nie muszę czyścić statystyk historii przeglądarki, aby uzyskać taki wynik. Wcale też nie chodziło mi o to aby udowadniać sobie nawzajem kto częściej przegląda onetowe komentarze. Jeśli moja wypowiedź Cię uraziła to szczerze przepraszam. Twój pierwszy post w tym wątku po prostu trąci wyssaną z palca teoryjką...

Share this post


Link to post
Share on other sites

Nie ma sprawy. Tak jak wspomniałem nie jest to moja opinia, natomiast jeśli tak jak mówisz nie ma ona faktycznie żadnych podstaw byłbym wdzięczny jeśli wyjaśniłbyś dlaczego, jako że temat mnie interesuje.

Share this post


Link to post
Share on other sites

Najpierw musieli by stworzyć "osobliwość" o takim charakterze jak przed wielkim wybuchem. A do tego potrzeba chyba wszelkiej energii wszechświata :D

Share this post


Link to post
Share on other sites

Z tego co się orientuję nikt nie ma taj naprawdę pojęcia czego by było trzeba, aby wywołać reakcję tego typu - stąd przypuszczenia i teorie o różnych niebezpieczeństwach wynikających z eksperymentów przeprowadzanych na cząstkach elementarnych. Ja przynajmniej nie doczytałem się jeszcze nigdzie mocnego argumentu za lub przeciw, stąd też moja ciekawość i prośba do thibrisa o podzielenie się swoją wiedzą na ten temat.

Share this post


Link to post
Share on other sites

Moja wiedza w tej (czarnej) materii nie jest wcale jakaś spora, a rzekłbym raczej że nikła nawet. Moje osądy w tej sprawie wysnuwam na podstawie logicznych założeń, które już niejako skrystalizował Douger.

Skoro nie wiemy co jest potrzebne do wytworzenia tak niesamowitej i (przynajmniej według naszej wiedzy) unikalnej osobliwości, to wszelkie teorie na temat tego że kombinowanie z XYZ może ją wytworzyć jest nielogiczne. Równie dobrze można by stwierdzić, że jeśli ja rzucę moim papuciem i trafię płetwalowi błękitnemu w odbyt, to powstanie taka właśnie osobliwość :D

Tak na chłopski rozum - gdyż innego nie posiadam - stworzenie wszechświata nie może być tak banalnie proste, ażeby udało się to człowiekowi.

Share this post


Link to post
Share on other sites

Tzn nie do końca moim zdaniem. Większość teorii idzie w kierunku podziału czarnej materii na kilka konkretnych podgrup, z dosyć ściśle sprecyzowaną strukturą - przyjmujemy, że mowa jest o protonach i neutronach, nieatomicznej strukturze, wykluczone zostały neutrina, etc etc. W związku z tym logiczne jest to, że bardziej prawdopodobne jest spowodowanie powstania takiej materii poprzez eksperymenty na cząstkach elementarnych (w szczególności zderzanie) niż np. moje kichnięcie. Wiele lat temu minęliśmy już próg czystej teorii w kwestii tej materii i moim zdaniem im dalej się posuwamy tym bardziej powinniśmy być ostrożni.

 

Generalnie chodzi mi o podejście "nie mamy o tym pojęcia, przeprowadzimy więc eksperyment i zobaczymy co się stanie", a tak jest chociażby w przypadku większej części zakresu pracy LHC, co przyznają sami autorzy badań (choć oni pełni ekscytacji traktują to jako wielki plus, co w ogóle jest już groteską).

Share this post


Link to post
Share on other sites

Tylko skoro według tego co obiło się o moje uszy, to większość masy galaktyk i wszechświata to czarna materia. Sądzisz że ilości jakie może wyprodukować LHC czy ogólnie człowiek mogą zaszkodzić wszechświatu i spowodować przekroczenie jakiejś krytycznej granicy ? Moim zdaniem przeceniasz możliwości człowieka :D

Share this post


Link to post
Share on other sites

Tu właśnie następuje powiązanie z teorią wielkiego wybuchu. I choć naprawdę wątpliwe jest wywołanie dokładnie takiej samej reakcji przez człowieka w ciągu najbliższych tysiącleci z posiadaną technologią, o tyle nie można raczej wykluczać zjawiska tego samego typu lecz na skalę mikro. Jeśli bowiem wszechświat powstał faktycznie na skutek jednej reakcji na poziomie subatomowym, to spowodowanie reakcji podobnego typu na biliardy mniejszą skalę, a wystarczającej do zdematerializowania naszego układu jest czymś więcej niż sci-fi, skoro eksperymenty tego typu o trudnych do przewidzenia konsekwencjach są prowadzone.

Share this post


Link to post
Share on other sites

Macie problemy natury czysto filozoficznej - co się stanie jeżeli świat zginie - nic się nie stanie, a przynajmniej nic, co by mi zaprzątało głowę. To jest tak jakby sadam się przejmował, co będą robić z jego zwłokami po tym jak zawiśnie...

Share this post


Link to post
Share on other sites

Ale to bardzo ważny problem. Nie wiem jak Ty, ja natomiast nie chciałbym umrzeć wcześniej, mimo że jak już umrę to nie będę tym sobie zaprzątać głowy :D Tym samym tokiem myślenia można by nie karać za morderstwa, no bo nieboszczykowi to już bez różnicy.

Share this post


Link to post
Share on other sites

Hmm... Czy faktycznie wszechświat powstał w wyniku jednej reakcji na poziomi subatomowym ? Znaczyło by to że spokojnie można robić coś z niczego. Z niewielkiej liczby subatomowych cząstek stworzyć cały ogromny wszechświat. Kłóci się to z moją logiką troszkę. Rozumiem i wierzę że był big bang, ale co tam się właściwie stało, to pewnie pozostanie dla nas zagadką na zawsze.

Share this post


Link to post
Share on other sites

Ale to bardzo ważny problem. Nie wiem jak Ty, ja natomiast nie chciałbym umrzeć wcześniej, mimo że jak już umrę to nie będę tym sobie zaprzątać głowy :D Tym samym tokiem myślenia można by nie karać za morderstwa, no bo nieboszczykowi to już bez różnicy.

Właśnie dlatego nie stosuje się kary śmierci - w tej sytuacji morderca ma komfort 5min i po krzyku. Faktyczne dożywocie jest zdecydowanie brutalniejszą karą, szczególnie gdyby można dodać poniżające warunki przechowywania. Poza tym w przypadku morderców strzeliłeś sobie w stopę, zawsze istnieje ryzyko, że może ponownie zabić i właśnie w tym celu wsadza się delikwenta do kicia - w celu prewencji przyszłych "wykroczeń".

 

Zaś odnośnie chęci do życia - mi nie zależy, jak już będzie tak daleko to będę szczęśliwy, a jeżeli nawet się o tym nie dowiem, to jeszcze lepiej ;)

 

Hmm... Czy faktycznie wszechświat powstał w wyniku jednej reakcji na poziomi subatomowym ? Znaczyło by to że spokojnie można robić coś z niczego. Z niewielkiej liczby subatomowych cząstek stworzyć cały ogromny wszechświat. Kłóci się to z moją logiką troszkę.

Dla początku nie ma logiki, a przynajmniej nie takiej w sensie "najpierw był zarodek, 9 miesięcy i bum, nowy świat" -> zawsze pozostanie pytanie "ale co było wcześniej" i czy przypadkiem to "wcześniej" nie jest efektem pierdnięcia krasnoludka żyjącego na innej płaszczyźnie. Absurdalne? no takie jest imo życie -> żyjesz po to, aby umrzeć.

Share this post


Link to post
Share on other sites

Ale troszkę przeginacie :D To już są rozważania na skraju teologii, mówimy tu zaś o czymś, na temat czego współczesna nauka ma już pewną wiedzę. Teoria Wielkiego Wybuchu jest tak popularna, ponieważ po części opiera się na znanych nam prawach - łańcuchach kreacji par, przemianie fazowej, etc. Choć oczywiście o wiele łatwiej nam wyjaśnić sam przebieg procesu już po wielkim wybuchu niż zjawiska w czasie jego trwania zachodzące, to jednak:

 

Znaczyło by to że spokojnie można robić coś z niczego. Z niewielkiej liczby subatomowych cząstek stworzyć cały ogromny wszechświat. Kłóci się to z moją logiką troszkę.

 

trąci trochę przeszłymi epokami bez uwzgędnienia znanych nam faktów naukowych ;)

 

@czesiu: może przykład nie był trafiony, ale chyba zrozumiałeś co miałem na myśli. Bardzo nierozsądny jest dla mnie po prostu brak działań zapobiegających swojemu przedwczesnemu unicestwieniu. Nawet jeśli śmierć fizyczna jest ostatnim etapem egzystencji, co dla mnie wydaje się więcej niż oczywiste, to jednak o ile lubimy swoje życie, powinniśmy robić wszystko, by trwało jak najdłużej.

Share this post


Link to post
Share on other sites

Ale troszkę przeginacie :D To już są rozważania na skraju teologii, mówimy tu zaś o czymś, na temat czego współczesna nauka ma już pewną wiedzę. Teoria Wielkiego Wybuchu jest tak popularna, ponieważ po części opiera się na znanych nam prawach - łańcuchach kreacji par, przemianie fazowej, etc.

(...)

 

Bardzo nierozsądny jest dla mnie po prostu brak działań zapobiegających swojemu przedwczesnemu unicestwieniu.

Ach ta kochana "wiedza" - na cóż ona jest dobra (w tym względzie)?. Przykład z górnej półki - Einstein i szczególna teoria względności, popatrz na świat przed i po publikacji tej teorii.

The point is: stan aktualnej wiedzy na temat wielkiego wybuchu, jak to mówisz oparty o znane nam prawa - łańcuchy kreacji par, przemiana fazowa, etc. Wcale nie musi być 100% prawdą, nic tylko czekać kolejne 1000 lat na następnego Newtona czy Einsteina.

 

 

Bardzo nierozsądny jest dla mnie po prostu brak działań zapobiegających swojemu przedwczesnemu unicestwieniu.

Nawet jeśli śmierć fizyczna jest ostatnim etapem egzystencji, co dla mnie wydaje się więcej niż oczywiste, to jednak o ile lubimy swoje życie, powinniśmy robić wszystko, by trwało jak najdłużej.

Tak jak już wcześniej gdzieś pisałem - każdemu to, co chce mi akurat nie zależy. A co do argumentu testy LHC mogą rozwalić świat -> za dużo filmów Sci-fi i teorii spiskowych, taka jest moja subiektywna opinia. Zresztą testy LHC też nie są robione do końca w ciemno, mają potwierdzić teorie dotychczas niepotwierdzone - skoro wg teorii nie ma zagrożenia końcem świata, to dlaczego temat jest ciągle wałowany? czyżby czarny PR był lepszy niż żaden + więcej osób przeczyta artykuł o ryzyku zagłady świata w porównaniu z notką potwierdzającą istnienie teorii strun?

Share this post


Link to post
Share on other sites

Raz jeszcze: inną rzeczą jest faktycznie głosić np. że testy LHC mogą 'rozwalić' świat (czego nie robię), a inną wskazywanie potencjalnych zagrożeń. Zaś  Twoja subiektywna opinia opiera się o stwierdzenie "każdy może się mylić". No ale z takim zdaniem ciężko dyskutować, bo tym można rzucić w każdym temacie i sobie nie pogadamy. Każdy może się też nie mylić, i co z tego wynika? Że przeprowadzać eksperymenty czy nie? Chciałem podejść do tego od strony praktycznej, ale widzę, że niezbyt się da.

Share this post


Link to post
Share on other sites

Ale troszkę przeginacie :D To już są rozważania na skraju teologii, mówimy tu zaś o czymś, na temat czego współczesna nauka ma już pewną wiedzę. Teoria Wielkiego Wybuchu jest tak popularna, ponieważ po części opiera się na znanych nam prawach - łańcuchach kreacji par, przemianie fazowej, etc. Choć oczywiście o wiele łatwiej nam wyjaśnić sam przebieg procesu już po wielkim wybuchu niż zjawiska w czasie jego trwania zachodzące, to jednak:

 

trąci trochę przeszłymi epokami bez uwzgędnienia znanych nam faktów naukowych ;)

 

Jeśli się wygłupiłem to przepraszam, chyba już pisałem że jestem laikiem. Jak to jest więc z tworzeniem materii z niczego ? Skąd jej się tyle po wielkim wybuchu natworzyło ? Jeśli Ci się nie chce tłumaczyć, to poproszę o linka. Z miłą chęcią się czegoś nauczę dzisiaj ;)

Share this post


Link to post
Share on other sites

Proszę bardzo: E = mc2 :D

 

To powinno rozwiać Twoje wątpliwości odnośnie proporcji masy (coś z niczego). Teoria względności, którą jeśli dobrze pamiętam wcześniej przytoczyłeś (lub czesiu) zakłada przecież możliwość przemiany energii w materię. Teoria Wielkiego Wybuchu określa początek jako punkt o nieskończonej gęstości i energii (dla mnie na przykład ten właśnie fregment tej teorii jest jej najsłabszym punktem, mimo że już dalej wszystko zaczyna wyglądać dużo lepiej). Dalej już wiadomo, znane z poznanych już obecnie praw fizyki oddziaływania cząstek elementarnych, kolejne fazy opisane są wszędzie w sieci, wystarczy wrzucić w Google.

 

I na podstawie tych samych praw wysnuwane są teorie lub obawy odnośnie eksperymentów na cząstkach elementarnych. Prędkości, które zakłada praca LHC na pełnych obrotach (co jeszcze nie miało miejsca jak wiemy) mogą teoretycznie doprowadzić do powstania tak silnych oddziaływań i wytworzyć tak wielką energię w punkcie, że skutki tego są dla nas nie do przewidzenia zgodnie z posiadaną aktualnie wiedzą. Stąd apokaliptyczne wizje czarnych dziur jednych, kreacji antymaterii drugich czy podnoszony alarm przez trzecich. Może też oczywiście stać się wielkie NIC. Problem w tym właśnie, że nie potrafimy tego przewidzieć.

 

Ja należę do tych osób, które uważają, że nasza współczesna wiedza sprawia, iż przeprowadzanie takich eksperymentów jest nieodpowiedzialne. Prawda jest taka, że kilkadziesiąt dalszych lat modelowania komputerowego (biorąc pod uwagę postęp technologiczny) najprawdopodobniej ogromnie przybliżyłoby nas do uzyskania odpowiednich informacji z tego zakresu i zniosłoby ewentualne ryzyko podejmowane dziś w ciemno. Tymczasem niektórym świat zasłania wizja otrzymania nagrody Nobla i z tej racji są w stanie zignorować wszystko, co ich prace mogłoby opóźnić lub wstrzymać.

Share this post


Link to post
Share on other sites

Czyli powróciliśmy do punktu wyjścia i tego co powiedział wcześniej Douger. Energia. Świat powstał z jednego punktu w którym była zakumulowana cała energia którą dzisiaj możemy gdziekolwiek znaleźć. Nadal więc obstaję przy tym, że człowiekowi daleko (choć to niewyobrażalnie zbyt słabe słowo) do tego, aby takie energie uzyskać. Być może to tylko moja naiwność, ale uważam że w tym względzie ludzi nie ma się co obawiać.

Share this post


Link to post
Share on other sites

Ja należę do tych osób, które uważają, że nasza współczesna wiedza sprawia, iż przeprowadzanie takich eksperymentów jest nieodpowiedzialne. Prawda jest taka, że kilkadziesiąt dalszych lat modelowania komputerowego (biorąc pod uwagę postęp technologiczny) najprawdopodobniej ogromnie przybliżyłoby nas do uzyskania odpowiednich informacji z tego zakresu i zniosłoby ewentualne ryzyko podejmowane dziś w ciemno. Tymczasem niektórym świat zasłania wizja otrzymania nagrody Nobla i z tej racji są w stanie zignorować wszystko, co ich prace mogłoby opóźnić lub wstrzymać.

 

Modelowanie komputerowe jest fajne, jak możesz od czasu do czasu potwierdzić wyniki. Taki przykład zupełnie przyziemny - crash-testy samochodów. Niby masz manekiny, centra obliczeniowe, wszystko piko bello, a jednak od czasu do czasu nadal używa się prawdziwe ludzkie zwłoki w celu ocenienia czy komputer/manekin przypadkiem nie mija się z prawdą. Imówimy tutaj o czymś tak "prostym" w opisie jak wypadek samochodowy, ty natomiast postulujesz modelowanie komputerowe zjawisk, które są poza ludzkim pojęciem (w sensie powstania świata) -> ciekawe jak można by te modele zweryfikować.

 

Zresztą jeszcze do modelowania jakiegokolwiek. Modelowanie = uproszczenie do akceptowalnego poziomu, co w efekcie końcowym nie ma prawa 100% przełożenia się na praktykę. Górnolotny przykład - poszukaj sobie systemów w totka - to jest też model matematyczny uwzględniający prawdopodobieństwa, a jednak totalizator jeszcze nie poszedł z torbami, ciekawe czemu?!

Share this post


Link to post
Share on other sites

Nadal więc obstaję przy tym, że człowiekowi daleko (choć to niewyobrażalnie zbyt słabe słowo) do tego, aby takie energie uzyskać.

 

A 387 biliardów razy mniejsze energie? Bo nie wiem czy wiesz, ale to wystarczy.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Wyjście z łóżka w ciemny zimowy poranek jest dla wielu nie lada wyzwaniem. Nie ma jednak co robić sobie z tego powodu wyrzutów. Neurobiolodzy z Northwestern University odkryli właśnie mechanizm wskazujący, że zachowanie takie ma biologiczne podstawy.
      Naukowcy zauważyli otóż, że muszki owocówki posiadają rodzaj termometru, który przekazuje informacje o temperaturze z czułków zwierzęcia do bardziej rozwiniętych części mózgu. Wykazali też, że gdy jest ciemno i zimno sygnały te tłumią działanie neuronów odpowiedzialnych za przebudzenie się i aktywność, a tłumienie to jest najsilniejsze o poranku.
      To pomaga wyjaśnić dlaczego, zarówno w przypadku muszek owocówek jak i ludzi, tak trudno jest obudzić się w zimie. Badając zachowanie muszek możemy lepiej zrozumieć jak i dlaczego temperatury są tak ważne dla regulacji snu, mówi profesor Marco Gallio z Winberg College of Arts and Sciences.
      W artykule opublikowanym na łamach Current Biology autorzy badań jako pierwsi opisali receptory „absolutnego zimna” znajdujące się w czułkach muszki. Reagują one wyłącznie na temperatury poniżej strefy komfortu termicznego zwierzęcia, czyli poniżej 25 stopni Celsjusza. Po zidentyfikowaniu tych neuronów uczeni zbadali ich interakcję z mózgiem. Okazało się, że głównym odbiorcą przesyłanych przez nie informacji jest mała grupa neuronów mózgu, która jest częścią większego obszaru odpowiedzialnego za kontrolę rytmu aktywności i snu. Gdy obecne w czułkach receptory zimna zostają aktywowane, wówczas komórki w mózgu, które zwykle są aktywowane przez światło, pozostają uśpione.
      Odczuwanie temperatury to jeden z najważniejszych stymulantów. Podstawy jego działania, jakie znaleźliśmy u owocówki, mogą być identyczne u ludzi. Niezależnie bowiem od tego, czy mamy do czynienia z człowiekiem czy z muszką, narządy zmysłów mają do rozwiązania te same problemy i często jest to robione w ten sam sposób, dodaje Gallio.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Stanforda i SLAC National Accelerator Laboratory stworzyli pierwszy na świecie akcelerator cząstek na chipie. Za pomocą podczerwonego lasera na długości ułamka średnicy ludzkiego włosa można cząstkom nadać energię, którą  mikrofale nadają im na przestrzeni wielu metrów.
      Akcelerator na chipie to prototyp, ale profesor Jelena Vuckovic, która kierowała zespołem badawczym, mówi, że zarówno projekt jak i techniki produkcyjne, można skalować tak, by uzyskać strumienie cząstek o energiach wystarczających do prowadzenia zaawansowanych eksperymentów chemicznych, biologicznych czy z nauk materiałowych. Akcelerator na chipie przyda się wszędzie tam, gdzie nie są wymagane najwyższe dostępne energie.
      Największe akceleratory są jak potężne teleskopy. Na świecie jest ich tylko kilka i naukowcy muszą przyjeżdżać do takich miejsc jak SLAC by prowadzić eksperymenty. Chcemy zminiaturyzować technologię akceleratorów, by stała się ona bardziej dostępnym narzędziem naukowym, wyjaśnia.
      Uczeni porównują swoje osiągnięcie do przejścia od potężnych mainframe'ów do posiadających mniejszą moc obliczeniową, ale wciąż użytecznych, pecetów. Fizyk Robert Byer mówi, że technologia accelerator-on-a-chip może doprowadzić do rozwoju nowych metod radioterapii nowotworów. Obecnie maszyny do radioterapii do wielkie urządzenia emitujące promieniowanie na tyle silne, że może ono szkodzić zdrowym tkankom. W naszym artykule stwierdzamy, że może być możliwe skierowanie strumienia cząstek precyzyjnie na guza, bez szkodzenia zdrowym tkankom, mówi uczony.
      Za każdym razem, gdy laser emituje impuls – a robi to 100 000 razy na sekundę – fotony uderzają w elektrony i je przyspieszają. Wszystko to ma miejsce na przestrzeni krótszej niż średnica ludzkiego włosa.
      Celem grupy Vukovic jest przyspieszenie elektronów do 94% prędkości światła, czyli nadanie im energii rzędu 1 MeV (milion elektronowoltów). W ten sposób otrzymamy przepływ cząstek o energii na tyle dużej, że będzie je można wykorzystać w medycynie czy badaniach naukowych.
      Stworzony obecnie prototyp układu zawiera 1 kanał przyspieszający. Do nadania energii 1 MeV potrzebnych będzie tysiąc takich kanałów. I, wbrew pozorom, będzie to prostsze niż się wydaje. Jako, że mamy tutaj w pełni zintegrowany układ scalony, znajdują się już w nim wszystkie elementy potrzebne do wykonania zadania. Vukovic twierdzi że do końca bieżącego roku powstanie chip w którym elektrony zyskają energię 1 MeV. Będzie on miał długość około 2,5 centymetra.
      Inżynier Olav Solgaard nie czeka na ukończenie prac nad chipem. Już teraz zastanawia się nad wykorzystaniem go w onkologii. Obecnie wysokoenergetyczne elektrony nie są używane w radioterapii, gdyż doprowadziłyby do oparzeń skóry. Dlatego też Solgaard pracuje rodzajem lampy elektronowej, którą wprowadzałoby się chirurgicznie w pobliże guza i traktowało chorą tkankę strumieniem elektronów generowanych przez akcelerator na chipie.
      Warto w tym miejscu przypomnieć o rewolucyjnym laserze BELLA (Berkeley Lab Laser Accelerator), o którym informowaliśmy przed kilku laty. To najpotężniejszy kompaktowy akcelerator na świecie. Na przestrzeni 1 metra nadaje on cząstkom energie liczone w gigaelektronowoltach (GeV).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rok 2019 był drugim najcieplejszym rokiem od czasu rozpoczęcia regularnych pomiarów w 1880 roku, a miniona dekada był najgorętszą od 140 lat. Dotychczas najcieplejszym rokiem w historii pomiarów był 2016, a ostatnich pięć lat było najgorętszymi, od kiedy ludzkość regularnie mierzy temperaturę na Ziemi.
      Jak poinformowali specjaliści z NASA, rok 2019 był o 0,98 stopnia Celsjusza cieplejszy niż średnia z lat 1951–1980. Od lat 80. XIX wieku średnie temperatury na Ziemi wzrosły o około 1,1 stopnia Celsjusza w porównaniu z epoką preindustrialną. Dla porównania, w czasach epoki lodowej temperatury były o około 5,5 stopnia Celsjusza niższe niż bezpośrednio przed rewolucją przemysłową. O ile więc w okresie 10 000 lat pomiędzy epoką lodową z rewolucją przemysłową średni temperatury na Ziemi zwiększyły się o 5,5 stopnia Celsjusza, to w ciagu ostatnich 140 lat wzrosły one o 1,1 stopień Celsjusza.
      Fakt, że zakończyła się najbardziej gorąca znana nam dekada potwierdzają niezależnie od siebie NASA, NOAA, Berkeley Earth, Met Office czy Copernicus Climate Change Service. Ranking pięciu najgorętszych lat w historii pomiarów wygląda następująco: 2016 (+0,94 stopnia Celsjusza względem okresu referencyjnego), 2019 (+0,93), 2015 (+0,90), 2017 (+0,84), 2018 (+0,77). Lata 2010–2019 były o 0,753 stopnia Celsjusza cieplejsze od średniej z okresu referencyjnego (1951-1980) i o 0,24 stopnia Celsjusza cieplejsze od dekady wcześniejszej.


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przy wyższych temperaturach kobiety lepiej wypadają w zadaniach matematycznych i słownych. U mężczyzn jest dokładnie na odwrót (w ich przypadku zależność między temperaturą a osiągami jest jednak słabiej zaznaczona).
      Badanie sugeruje, że płeć jest ważnym czynnikiem nie tylko przy określaniu wpływu temperatury na komfort, ale i na produktywność czy osiągi poznawcze.
      Jest udokumentowane, że kobiety wolą w pomieszczeniach wyższe temperatury niż mężczyźni. Dotąd sądzono jednak, że to wyłącznie kwestia osobistych preferencji. Nasz zespół ustalił, że nie chodzi tylko o to, czy czujesz się dobrze, czy nie i że temperatura wpływa na osiągi w kluczowych dziedzinach: w matematyce, zadaniach słownych i we wkładanym wysiłku - opowiada prof. Tom Chang z Uniwersytetu Południowej Kalifornii.
      W eksperymencie wzięło udział 543 studentów z WZB Berlin Social Science Center. W ciągu sesji ustawiano różne zakresy temperaturowe (od ok. 16 do 33 stopni Celsjusza). Ochotnicy mieli wykonywać 3 typy zadań (zachętą do pracy była nagroda pieniężna): 1) matematyczne, polegające na dodaniu bez kalkulatora pięciu dwucyfrowych liczb, 2) słowne, przy którym z zestawu 10 liter należało utworzyć w zadanym czasie jak najwięcej słów i 3) test świadomego myślenia (ang. Cognitive Reflection Test, CRT).
      Naukowcy wykryli znaczącą zależność między temperaturą otoczenia i wynikami osiąganymi w zadaniach matematycznym i słownym. Ani u kobiet, ani u mężczyzn temperatura nie miała wpływu na wyniki testu CRT.
      Jedną z najbardziej zaskakujących rzeczy jest to, że nie uciekaliśmy się wcale do skrajnych temperatur. Nie chodzi o trzaskający mróz czy upał. Znaczące zróżnicowanie osiągów widać nawet przy temperaturach rzędu 60-75 stopni Fahrenheita [15,5-24 stopni Celsjusza], co jest w końcu stosunkowo normalnym zakresem wartości.
      Autorzy artykułu z pisma PLoS ONE podkreślają, że poprawa osiągów poznawczych kobiet w wyższych temperaturach wydaje się napędzana głównie wzrostem liczby podawanych odpowiedzi. Po części można to interpretować jako skutek wzrostu wkładanego wysiłku.
      U mężczyzn spadek osiągów poznawczych przejawiał się mniejszą liczbą zgłaszanych odpowiedzi.
      Wzrost osiągów kobiet jest większy (daje się też precyzyjniej oszacować) niż spadek osiągów u mężczyzn.
      Amerykańsko-niemiecki zespół podkreśla, że uzyskane wyniki rzucają nieco światła na nieustającą walkę o ustawienia termostatu w biurach. Wg naukowców, by zwiększyć produktywność w mieszanych płciowo zespołach, ustawienia temperatury powinny być wyższe niż przy obecnych standardach.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W przyszłym miesiącu w Narodowym Muzeum Historii Naturalnej w Waszyngtonie zostanie otwarta wystawa na temat zmian klimatu Ziemi na przestrzeni setek milionów lat. Przygotowujący ją paleobotanik Scott Wing i paleontolog Brian Huber, chcieli zaprezentować też wykres temperatur powierzchni Ziemi w ciągu ostatnich 500 milionów lat. Zadanie okazało się niezwykle trudne do wykonania, a uzyskane wyniki zaskoczyły specjalistów. Okazało się, że w przeszłości na naszej planecie panowały znacznie bardziej ekstremalne warunki, niż sądziliśmy.
      Dość łatwo jest śledzić okresy zlodowaceń czy okresy wysokich temperatur, gdy palmy rosły w pobliżu biegunów. Jednak poza tym niewiele jest pewnych rzeczy. Szczególnie jeśli chodzi o paleozoik, erę która rozpoczęła się 542 miliony lat temu. Pierścienie drzew pozwalają na śledzenie temperatur na przestrzeni tysięcy lat, w rdzeniach lodowców zapisane są dane z około miliona lat. Dlatego prace nad odtworzeniem dawnego klimatu są niezwykle trudne.
      Specjaliści zajmujący się paleoklimatem wykorzystują różne metody pomiarowe, różne metody korekty błędów, korzystają z różnych materiałów. Jedni odtwarzają klimat sprzed milionów lat na podstawie skamieniałych liści, inni na podstawie wzrostu skamieniałych koralowców. Często uzyskują sprzeczne wyniki. Nie rozmawiamy ze sobą zbyt dużo, przyznaje paleoklimatolog Dana Royer z Wesleyan University. Huber i Wing postanowili to zmienić i powołali do życia luźną grupę naukową o nazwie Phantastic, której celem jest zebranie i zweryfikowanie różnych danych. Pomysł jej powołania spodobał się wielu naukowcom, przyznaje Dan Lunt z Uniwersytetu w Bristolu, który specjalizuje się w modelowaniu paleoklimatu. Dodatkową zachętą dla naukowców było przypuszczenie, że jeśli uda się dobrze określić klimat, jaki panował w przeszłości oraz nałożyć na to stężenie CO2 w atmosferze, będzie można udoskonalić współczesne modele klimatyczne i lepiej określić, jak dwutlenek węgla wpływa na klimat.
      Do szacunku dawnych temperatur można wykorzystywać izotopy tlenu uwięzione w skamieniałych muszlach na dnie oceanów. Jako, że molekuły wody zawierające lżejsze izotopy szybciej parują i zostają uwięzione w lodzie, stosunek ciężkich i lekkich izotopów w skamielinach wskazuje na globalną ilość lodu, z czego można zgrubnie wyliczać temperatury.
      Jednak tutaj pojawia się kolejny problem. W niewielu miejscach na świecie mamy do czynienia z dnem oceanicznym starszym niż 100 milionów lat. Ciągły ruch płyt tektonicznych bez przerwy „odnawia” dno oceanów. Geochemik Ethan Grossman z Texas A&M University bada morskie skamieniałości znajdowane na lądach. To głównie szczątki ramienionogów, z których najstarsze pochodzą sprzed 540 milionów lat. Większość z nich żyła w płytkich morzach, które formowały się wewnątrz dawnych superkontynentów. Żeby jednak używać ich do oceny temperatur, trzeba przyjąć założenie, że stosunek izotopów tlenu w morzach przed milionami lat był taki, jak we współczesnych oceanach.
      Problem ten znany jest specjalistom od dziesięcioleci. Jednak grupa Phantastic postanowiła podejść do niego w nowatorskich sposób. Wykorzystali nową technikę mierzącą zawartość dwóch lub więcej połączonych razem rzadkich izotopów. Za pomocą bardzo czułych spektrometrów mas analizowali skamieniałości pod kątem obecności w nich molekuł zawierających ciężki izotop tlenu powiązany z ciężkim izotopem węgla. Takie molekuły częściej występują w niskich temperaturach. Problem w tym, że jeśli skamieniałość była wystawiona na działanie wysokiej temperatury lub ciśnienia, to uzyskane wyniki będą mylące. Na szczęście naukowcy odkryli sposób na odróżnienie tych zmienionych skamieniałości. Udaliśmy się do miejsca, w którym mogliśmy przeprowadzić badania, stwierdzili naukowcy.
      Poszukiwaniami połączonych ciężkich izotopów zajęła się geobiolog Kristin Bergmann z MIT we współpracy z geochemikiem Gregorym Henkesem z Uniwersytetu Stanu Nowy Jork i innymi uczonymi. W czasie swoich badań dokonali odkrycia, które trudno określić inaczej, niż „szokujące”. Okazało się, że przed 450 milionami lat średnia temperatura wód oceanicznych wynosiła... 35–40 stopni Celsjusza. To o ponad 20 stopni więcej, niż obecnie. I w takich, wydawałoby się niekorzystnych, warunkach, życie w oceanach rozkwitało, a nawet różnicowało się. Dla biologów to coś, z czym nie potrafią sobie poradzić. Dla współczesnych organizmów są to ekstremalne temperatury, mówi Grossman.
      Pozostało jeszcze przełożyć uzyskane lokalne wyniki na dane dla całego globu. Jeden z członków grupy Phantastic wpadł na prosty pomysł: wystarczy sprawdzić, jak wyglądała wówczas pokrywa lodowa na Ziemi, by dowiedzieć się, pomiędzy temperaturami wód na równiku i w pobliżu biegunów istniała aż tak wielka różnica.
      Inni członkowie Phantastic wykorzystują zdobyte dane do lepszego skalibrowania modeli klimatycznych opisujących dawny klimat i testują modele przeprowadzając setki symulacji by sprawdzić, która z nich najlepiej zgadza się z danymi uzyskanymi z innych źródeł.
      Niestety, Wingowi i Hubnerowi skończył się czas i muszą otwierać wystawę. Dlatego zaprezentują na niej wykres temperatur w wersji beta. To połączenie różnego rodzaju obserwacji, różnego rodzaju modeli, różnego rodzaju procedur badawczych i różnych założeń, przyznaje Wing. Jednak grupa Phantastic nie kończy pracy, a wersja beta zostanie zastąpiona gotową wersją wykresu gdy tylko będzie możliwe jej stworzenie. Jednak, jak podkreślają uczeni, nawet wersja beta powinna otworzyć ludziom oczy. To pokazuje, jak łatwo Ziemia może wejść w okres wysokich temperatur. Bo już takie okresy się zdarzały, mówi Grossman.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...