Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Skąd ta pewność, że taka energia wystarczy + co to znaczy "387 biliardów razy mniejsze energie"? w odniesieniu do czego? Czy te energie wyzwalane przez całe LHC choć zbliżą się do energii, która jest co roku przekazywana przez słońce ziemi?

 

Wkurzają mnie takie porównania bez odniesienia. To tak jak bym ci powiedział będziesz miał emeryturkę 10 000zł - super? a jak ci powiem że w tym okresie inflacja sprawi, że te 10k będzie warte tyle co dzisiejsze 1zł? - polska już to przerabiała...

 

Ostatnio kiedyś też w meteorolodzy mówili - będzie padać, bo warstwa chmur ma aż 10km. - jak dla mnie nie ma różnicy czy chmury mają 100m czy 100km, bo nie znam odniesienia plus wiatr sprawia, że nawet gdyby było tych 100km chmur cały deszcz nie zostanie wypadany u mnie pod blokiem.

 

Czy tak z innej beczki - wyobrażasz sobie korzystanie z mapy bez znajomości skali? Bo ja nie, ten 1cm to w rzeczywistości 100m czy 100km?!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A 387 biliardów razy mniejsze energie? Bo nie wiem czy wiesz, ale to wystarczy.

Nie wiem, wystarczy do czego ? Czyżby energię całego wszechświata można zamknąć w 387 biliardach LHC ? Strzelam w ciemno że galaktyk jest więcej...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pi razy drzwi. Wy teoretyzujecie od samego początku "na Waszą logikę". Chodzi o to, że nie jest potrzebne wytworzenie energii równej tej, która miała miejsce w czasie Wielkiego Wybuchu - to byłby idiotyzm i tym raczej bym się nie przejmował. Chodzi o to, że spowodowanie zjawiska tego samego typu o energii biliardy razy mniejszej wystarczyłoby do całkowitej zmiany materii w naszym układzie. Nie wiem dokładnie ile razy mniejszej, ale chyba w naszej dyskusji czy będzie to 1 i 40 zer czy 1 i 45 zer nie ma większego znaczenia.

 

@thibris: nie porównujemy tu masy naszego układu do masy wszechświata.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pi razy drzwi.Nie wiem dokładnie ile razy mniejszej, ale chyba w naszej dyskusji czy będzie to 1 i 40 zer czy 1 i 45 zer nie ma większego znaczenia.

 

@thibris: nie porównujemy tu masy naszego układu do masy wszechświata.

Nie wiem jak ty, ale ja bym wolał mieć na koncie 9 cyfrową sumę od 5 cyfrowej. Dalej nie podałeś punktu odniesienia (którego nie masz prawa/możliwości znać)- EOT.  Twoje praktykowanie wygląda tak: jak jedziecie motorem to możecie się zabić. (jednocześnie nie podając prędkości od której współczynnik śmiertelności wynosi np. 10%)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A Twoje praktykowanie wygląda tak: pojadę motorem 600km/h, nikt przecież nie obliczył śmiertelności dla tej prędkości, nie można więc śmiertelności brać pod uwagę przy podejmowaniu decyzji o takiej przejażdżce. Thibris ma o wiele bardziej konstruktywne podejście, Ty natomiast rzucasz frazesami jak szalony, nie wiem tylko w imię czego, bo nawet nic nie próbujesz udowodnić (cóż, wtedy trzeba byłoby wyjść poza wygodną ramkę filozofii).

 

Przyjmuję, że nie widzisz żadnego zagrożenia i nie masz nic przeciwko takim eksperymentom. I faktycznie EOT.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No jasne, jeden rozpędzony elektron , czy nawet milion raczej nie stanowi zagrożenia i tyle.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodzi o to, że spowodowanie zjawiska tego samego typu o energii biliardy razy mniejszej wystarczyłoby do całkowitej zmiany materii w naszym układzie. Nie wiem dokładnie ile razy mniejszej, ale chyba w naszej dyskusji czy będzie to 1 i 40 zer czy 1 i 45 zer nie ma większego znaczenia.

 

Tylko czy są jakieś konkretne wyliczenia co do tego ile potrzeba energii aby wytworzyć big bang na skalę układu słonecznego czy pojedynczej galaktyki ?

Wydaje mi się (znów to określenie) - ale Ty tu jesteś większym ekspertem - że gdzieś wyczytałem informację o tym że czarnej materii ciągle przybywa. Jeśli tak to widzę dwie implikacje - we wszechświecie jest sporo LHC, lub czegoś co tą materię wytwarza, co tak czy siak sprowadza się do tego iż wytwarzanie ciemnej energii nie jest niebezpieczne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To właśnie sedno sprawy thibris :D Gdyby istniały takie obliczenia, praca LHC z pewnością brałaby je pod uwagę i nie byłoby żadnego zagrożenia. Nie istnieją jednak (z powodu nieznanego punktu wyjścia), dlatego nie wiemy czy eksperymenty , o których rozmawiamy są niebezpieczne czy nie. Moim zdaniem jeśli nie wiemy, to nie powinniśmy się "w to bawić". Przez lata spotkałem się z całym mnóstwem teorii na ten temat i w zasadzie 99% z nich zakłada udział jedynie dwóch cząstek elementarnych w procesie powstania reakcji mogącej hipotetycznie swoim modelem nawiązywać do wielkiego wybuchu. Jeśli przyjmiemy, że żadna ze znanych nam cząstek sama nie może wprowadzić się w stan umożliwiający zapoczątkowanie takiej reakcji (chyba ciężko przyjąć przeciwstawne stanowisko), to albo jest to niemożliwe (czyli wracamy do oddziaływań międzycząsteczkowych), albo też główną rolę odgrywa hipotetyczna cząsteczka X - e.g. bozon Higgsa. A jak wiemy LHC tegoż bozonu sobie szuka.

 

Czarna materia to ponoć niezapadnięte kwarki. Albo więc jej ilość się nie zwiększa, albo też zwiększa przez jakieś reakcje, w której nieskolapsowane kwarki biorą udział. Tego chyba nie wiadomo, natomiast i tak pozostaje kwestia miejsca takiej produkcji. Jedyne mi nasuwające się na myśl to czarna dziura, a w takim przypadku o pomiar efektów takiej produkcji byłoby raczej ciężko. Ale raczej z korzyścią dla nas by to nie było - jedyny rodzaj oddziaływania czarnej materii na zwykłą materię to oddziaływanie ciśnieniowe (grawitacyjne). Biorąc pod uwagę podatność wszystkich organizmów żywych na zmiany ciśnieniowe wielkości kilkudziesięciu hPA, nawet niewielki przyrost w skali makro chyba by wystarczył.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To właśnie sedno sprawy thibris :D Gdyby istniały takie obliczenia, praca LHC z pewnością brałaby je pod uwagę i nie byłoby żadnego zagrożenia. Nie istnieją jednak (z powodu nieznanego punktu wyjścia), dlatego nie wiemy czy eksperymenty , o których rozmawiamy są niebezpieczne czy nie. Moim zdaniem jeśli nie wiemy, to nie powinniśmy się "w to bawić".

Ten argument sprowadza się do paranoi, nie róbmy, to się nic nie stanie - jak samolotem latasz to tak samo panikujesz, "bo może piorun trafić"?! Rzeczywiście, patrząc na to z tej strony wolę być ignorantem, wszak nasi przodkowie też byli ignorantami bawiąc się ogniem. Czym się różnią moje frazesy pytające "skąd wiesz, że tyle a tyle energii potrzeba" od pytania, które zadał Thibris?

Ale raczej z korzyścią dla nas by to nie było - jedyny rodzaj oddziaływania czarnej materii na zwykłą materię to oddziaływanie ciśnieniowe (grawitacyjne). Biorąc pod uwagę podatność wszystkich organizmów żywych na zmiany ciśnieniowe wielkości kilkudziesięciu hPA, nawet niewielki przyrost w skali makro chyba by wystarczył.

Tak jak sam zaznaczyłeś ZMIANA ciśnienia, a nie sam wzrost, czy spadek - w tej sytuacji nie można by mówić o alpiniźmie czy nurkowaniu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czesiu między nami jest eot, nie wiem jak Ty, ale ja mam zamiar tego się trzymać.

 

BTW strasznie boję się latać, a robię to cały czas. Wierz mi, nic przyjemnego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
      Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
      Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
      Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
      Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
      Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
      Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
      Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po raz czwarty z rzędu światowe oceany pobiły rekordy ciepła. Kilkunastu naukowców z Chin, USA, Nowej Zelandii, Włoch opublikowało raport, z którego dowiadujemy się, że w 2022 roku światowe oceany – pod względem zawartego w nich ciepła – były najcieplejsze w historii i przekroczyły rekordowe maksimum z roku 2021. Poprzednie rekordy ciepła padały w 2021, 2020 i 2019 roku. Oceany pochłaniają nawet do 90% nadmiarowego ciepła zawartego w atmosferze, a jako że atmosfera jest coraz bardziej rozgrzana, coraz więcej ciepła trafia do oceanów.
      Lijing Cheng z Chińskiej Akademii Nauk, który stał na czele grupy badawczej, podkreślił, że od roku 1958, kiedy to zaczęto wykonywać wiarygodne pomiary temperatury oceanów, każda dekada była cieplejsza niż poprzednia, a ocieplenie przyspiesza. Od końca lat 80. tempo, w jakim do oceanów trafia dodatkowa energia, zwiększyło się nawet 4-krotnie.
      Z raportu dowiadujemy się, że niektóre obszary ocieplają się szybciej, niż pozostałe. Swoje własne rekordy pobiły Północny Pacyfik, Północny Atlantyk, Morze Śródziemne i Ocean Południowy. Co gorsza, naukowcy obserwują coraz większą stratyfikację oceanów, co oznacza, że wody ciepłe i zimne nie mieszają się tak łatwo, jak w przeszłości. Przez większą stratyfikację może pojawić się problem z transportem ciepła, tlenu i składników odżywczych w kolumnie wody, co zagraża ekosystemom morskim. Ponadto zamknięcie większej ilości ciepła w górnej części oceanów może dodatkowo ogrzać atmosferę. Kolejnym problemem jest wzrost poziomu wód oceanicznych. Jest on powodowany nie tylko topnieniem lodu, ale również zwiększaniem objętości wody wraz ze wzrostem jej temperatury.
      Ogrzewające się oceany przyczyniają się też do zmian wzorców pogodowych, napędzają cyklony i huragany. Musimy spodziewać się coraz bardziej gwałtownych zjawisk pogodowych i związanych z tym kosztów. Amerykańska Administracja Oceaniczna i Atmosferyczna prowadzi m.in. statystyki dotyczące gwałtownych zjawisk klimatycznych i pogodowych, z których każde przyniosło USA straty przekraczające miliard dolarów. Wyraźnie widać, że liczba takich zjawisk rośnie, a koszty są coraz większe. W latach 1980–1989 średnia liczba takich zjawisk to 3,1/rok, a straty to 20,5 miliarda USD/rok. Dla lat 1990–1999 było to już 5,5/rok, a straty wyniosły 31,4 miliarda USD rocznie. W ubiegłym roku zanotowano zaś 18 takich zjawisk, a straty sięgnęły 165 miliardów dolarów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy rozpędzone niemal do prędkości światła jony ołowiu lub złota wpadną na siebie w czeluściach akceleratorów, na ułamki sekund tworzy się plazma kwarkowo-gluonowa. Zdaniem naukowców z Instytutu Fizyki Jądrowej PAN w Krakowie, dane eksperymentalne wskazują, że na arenie wydarzeń są tu obecni jeszcze inni, dotychczas niedoceniani aktorzy: fotony. Ich zderzenia prowadzą do emisji pozornie nadmiarowych cząstek, których obecności nie potrafiono wyjaśnić.
      Plazma kwarkowo-gluonowa to bezsprzecznie najbardziej egzotyczny ze znanych nam stanów materii. W akceleratorze LHC w CERN pod Genewą tworzy się ona podczas centralnych zderzeń dwóch nadlatujących z naprzeciwka jonów ołowiu, poruszających się z prędkościami bardzo bliskimi prędkości światła. Kwarkowo-gluonowa zupa bywa też doprawiona innymi cząstkami. Niestety, opis teoretyczny przebiegu wydarzeń z udziałem plazmy oraz jej koktajlu nie w pełni odpowiadał danym zebranym w eksperymentach. W artykule opublikowanym na łamach czasopisma Physics Letters B grupa naukowców z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk w Krakowie wyjaśniła przyczynę zaobserwowanych rozbieżności. Dane zebrane w trakcie zderzeń jąder ołowiu w akceleratorze LHC, a także podczas zderzeń jąder złota w akceleratorze RHIC w Brookhaven National Laboratory koło Nowego Jorku, zaczynają się zgadzać z teorią, gdy w opisie zachodzących procesów uwzględni się zderzenia między fotonami otaczającymi oba oddziałujące ze sobą jony.
      Z pewnym przymrużeniem oka można powiedzieć, że przy odpowiednio wielkich energiach masywne jony zderzają się nie tylko swoimi protonami i neutronami, ale nawet swoimi chmurami fotonów, mówi dr Mariola Kłusek-Gawenda (IFJ PAN) i od razu precyzuje: Przy opisie kolizji jonów w LHC już wcześniej uwzględnialiśmy zderzenia między fotonami. Dotyczyły one jednak tylko zderzeń ultraperyferyjnych, w których jony nie trafiają w siebie, lecz mijają się niezmienione, oddziałując wyłącznie własnymi polami elektromagnetycznymi. Nikt nie przypuszczał, że zderzenia fotonów mogą odgrywać jakąkolwiek rolę w brutalnych interakcjach, gdzie protony i neutrony dosłownie zlewają się w kwarkowo-gluonową zupę.
      W warunkach znanych z codziennego życia fotony nie zderzają się ze sobą. Gdy jednak mamy do czynienia z masywnymi jonami rozpędzonymi niemal do prędkości światła, sytuacja staje się inna. Jądro złota zawiera 79 protonów, jądro ołowiu aż 82, ładunek elektryczny każdego jonu jest więc odpowiednio wiele razy większy od ładunku elementarnego. Nośnikami oddziaływań elektromagnetycznych są fotony, zatem każdy jon można traktować jako obiekt otoczony chmurą wielu fotonów. Co więcej, w akceleratorach RHIC i LHC jony poruszają się z prędkościami bliskimi prędkości światła. W rezultacie i one, i otaczająca je chmura fotonów, z punktu widzenia obserwatora w laboratorium sprawiają wrażenie niezwykle cienkich placków, spłaszczonych w kierunku ruchu. Z każdym przelotem takiego protonowo-neutronowego naleśnika wiąże się wyjątkowo gwałtowna oscylacja pól elektrycznego i magnetycznego.
      W elektrodynamice kwantowej, teorii używanej do opisu elektromagnetyzmu z uwzględnieniem zjawisk kwantowych, istnieje maksymalna wartość krytyczna pola elektrycznego, rzędu dziesięć do szesnastej woltów na centymetr. Dotyczy ona statycznych pól elektrycznych. W przypadku zderzeń masywnych jąder atomowych w RHIC czy LHC mamy do czynienia z polami dynamicznymi, pojawiającymi się na zaledwie milionowe części jednej miliardowej jednej miliardowej sekundy. Przez tak ekstremalnie krótki czas pola elektryczne w zderzeniach jonów mogą być nawet stukrotnie silniejsze od wartości krytycznej.
      W istocie pola elektryczne jonów zderzających się w LHC bądź RHIC są tak potężne, że pod ich wpływem powstają wirtualne fotony i dochodzi do ich zderzeń. W wyniku tych procesów w różnych punktach wokół jonów, gdzie wcześniej nie było niczego materialnego, powstają pary lepton-antylepton. Cząstki każdej pary rozbiegają się w charakterystyczny sposób: typowo w przeciwnych kierunkach i niemal prostopadle do pierwotnego kierunku ruchu jonów, wyjaśnia dr hab. Wolfgang Schäfer (IFJ PAN) i przypomina, że do rodziny leptonów są zaliczane elektrony oraz ich bardziej masywne odpowiedniki: miony i taony.
      Interakcje fotonów i związana z nimi produkcja par lepton-antylepton są kluczowe w zderzeniach peryferyjnych. Kolizje tego typu krakowscy fizycy opisali już kilka lat wcześniej. Ku własnemu zaskoczeniu, teraz udało się im wykazać, że te same zjawiska odgrywają niemałą rolę również w bezpośrednich zderzeniach jąder, nawet centralnych. Z danych zebranych dla jąder złota w RHIC i jąder ołowiu w LHC wynika bowiem, że podczas takich zderzeń pojawia się pewna „nadmiarowa” liczba par elektron-pozyton, które stosunkowo wolno rozbiegają się w kierunkach niemal prostopadłych do wiązek jonów. Ich istnienie udało się wyjaśnić właśnie poprzez uwzględnienie produkcji par lepton-antylepton przez zderzające się fotony.
      Prawdziwą wisienką na torcie okazał się dla nas fakt, że uzupełniając dotychczasowe narzędzia opisu zderzeń masywnych jonów o nasz formalizm zbudowany na tak zwanych funkcjach Wignera mogliśmy wreszcie wytłumaczyć, dlaczego detektory największych współczesnych eksperymentów akceleratorowych rejestrują takie a nie inne rozkłady leptonów i antyleptonów uciekających z miejsca kolizji jąder (dla ustalonej centralności zderzenia). Nasze rozumienie najważniejszych zachodzących tu procesów stało się bardziej kompletne, podsumowuje prof. dr hab. Antoni Szczurek (IFJ PAN).
      Prace nad krakowskim modelem zderzeń foton-foton sfinansowano ze środków Narodowego Centrum Nauki. Model wzbudził zainteresowanie fizyków pracujących przy detektorach ATLAS i ALICE akceleratora LHC i zostanie użyty już w najbliższych analizach danych eksperymentalnych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wyjście z łóżka w ciemny zimowy poranek jest dla wielu nie lada wyzwaniem. Nie ma jednak co robić sobie z tego powodu wyrzutów. Neurobiolodzy z Northwestern University odkryli właśnie mechanizm wskazujący, że zachowanie takie ma biologiczne podstawy.
      Naukowcy zauważyli otóż, że muszki owocówki posiadają rodzaj termometru, który przekazuje informacje o temperaturze z czułków zwierzęcia do bardziej rozwiniętych części mózgu. Wykazali też, że gdy jest ciemno i zimno sygnały te tłumią działanie neuronów odpowiedzialnych za przebudzenie się i aktywność, a tłumienie to jest najsilniejsze o poranku.
      To pomaga wyjaśnić dlaczego, zarówno w przypadku muszek owocówek jak i ludzi, tak trudno jest obudzić się w zimie. Badając zachowanie muszek możemy lepiej zrozumieć jak i dlaczego temperatury są tak ważne dla regulacji snu, mówi profesor Marco Gallio z Winberg College of Arts and Sciences.
      W artykule opublikowanym na łamach Current Biology autorzy badań jako pierwsi opisali receptory „absolutnego zimna” znajdujące się w czułkach muszki. Reagują one wyłącznie na temperatury poniżej strefy komfortu termicznego zwierzęcia, czyli poniżej 25 stopni Celsjusza. Po zidentyfikowaniu tych neuronów uczeni zbadali ich interakcję z mózgiem. Okazało się, że głównym odbiorcą przesyłanych przez nie informacji jest mała grupa neuronów mózgu, która jest częścią większego obszaru odpowiedzialnego za kontrolę rytmu aktywności i snu. Gdy obecne w czułkach receptory zimna zostają aktywowane, wówczas komórki w mózgu, które zwykle są aktywowane przez światło, pozostają uśpione.
      Odczuwanie temperatury to jeden z najważniejszych stymulantów. Podstawy jego działania, jakie znaleźliśmy u owocówki, mogą być identyczne u ludzi. Niezależnie bowiem od tego, czy mamy do czynienia z człowiekiem czy z muszką, narządy zmysłów mają do rozwiązania te same problemy i często jest to robione w ten sam sposób, dodaje Gallio.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Stanforda i SLAC National Accelerator Laboratory stworzyli pierwszy na świecie akcelerator cząstek na chipie. Za pomocą podczerwonego lasera na długości ułamka średnicy ludzkiego włosa można cząstkom nadać energię, którą  mikrofale nadają im na przestrzeni wielu metrów.
      Akcelerator na chipie to prototyp, ale profesor Jelena Vuckovic, która kierowała zespołem badawczym, mówi, że zarówno projekt jak i techniki produkcyjne, można skalować tak, by uzyskać strumienie cząstek o energiach wystarczających do prowadzenia zaawansowanych eksperymentów chemicznych, biologicznych czy z nauk materiałowych. Akcelerator na chipie przyda się wszędzie tam, gdzie nie są wymagane najwyższe dostępne energie.
      Największe akceleratory są jak potężne teleskopy. Na świecie jest ich tylko kilka i naukowcy muszą przyjeżdżać do takich miejsc jak SLAC by prowadzić eksperymenty. Chcemy zminiaturyzować technologię akceleratorów, by stała się ona bardziej dostępnym narzędziem naukowym, wyjaśnia.
      Uczeni porównują swoje osiągnięcie do przejścia od potężnych mainframe'ów do posiadających mniejszą moc obliczeniową, ale wciąż użytecznych, pecetów. Fizyk Robert Byer mówi, że technologia accelerator-on-a-chip może doprowadzić do rozwoju nowych metod radioterapii nowotworów. Obecnie maszyny do radioterapii do wielkie urządzenia emitujące promieniowanie na tyle silne, że może ono szkodzić zdrowym tkankom. W naszym artykule stwierdzamy, że może być możliwe skierowanie strumienia cząstek precyzyjnie na guza, bez szkodzenia zdrowym tkankom, mówi uczony.
      Za każdym razem, gdy laser emituje impuls – a robi to 100 000 razy na sekundę – fotony uderzają w elektrony i je przyspieszają. Wszystko to ma miejsce na przestrzeni krótszej niż średnica ludzkiego włosa.
      Celem grupy Vukovic jest przyspieszenie elektronów do 94% prędkości światła, czyli nadanie im energii rzędu 1 MeV (milion elektronowoltów). W ten sposób otrzymamy przepływ cząstek o energii na tyle dużej, że będzie je można wykorzystać w medycynie czy badaniach naukowych.
      Stworzony obecnie prototyp układu zawiera 1 kanał przyspieszający. Do nadania energii 1 MeV potrzebnych będzie tysiąc takich kanałów. I, wbrew pozorom, będzie to prostsze niż się wydaje. Jako, że mamy tutaj w pełni zintegrowany układ scalony, znajdują się już w nim wszystkie elementy potrzebne do wykonania zadania. Vukovic twierdzi że do końca bieżącego roku powstanie chip w którym elektrony zyskają energię 1 MeV. Będzie on miał długość około 2,5 centymetra.
      Inżynier Olav Solgaard nie czeka na ukończenie prac nad chipem. Już teraz zastanawia się nad wykorzystaniem go w onkologii. Obecnie wysokoenergetyczne elektrony nie są używane w radioterapii, gdyż doprowadziłyby do oparzeń skóry. Dlatego też Solgaard pracuje rodzajem lampy elektronowej, którą wprowadzałoby się chirurgicznie w pobliże guza i traktowało chorą tkankę strumieniem elektronów generowanych przez akcelerator na chipie.
      Warto w tym miejscu przypomnieć o rewolucyjnym laserze BELLA (Berkeley Lab Laser Accelerator), o którym informowaliśmy przed kilku laty. To najpotężniejszy kompaktowy akcelerator na świecie. Na przestrzeni 1 metra nadaje on cząstkom energie liczone w gigaelektronowoltach (GeV).

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...