Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Obronienie Ziemi będzie trudniejsze, niż sądziliśmy

Rekomendowane odpowiedzi

Popularnym motywem filmowym jest asteroida zagrażająca Ziemi i grupa śmiałków, która ratuje planetę przed katastrofą. Jednak, jak się okazuje, zniszczenie asteroidy może być trudniejsze, niż dotychczas sądzono, donoszą naukowcy z Uniwersytetu Johnsa Hopkinsa (JHU). Wyniki ich badań, które zostaną opublikowane 15 marca na łamach Icarusa, pozwolą na opracowanie lepszych strategii obrony przed asteroidami, zwiększą naszą wiedzę na temat ewolucji Układu Słonecznego oraz pomogą stworzyć technologie kosmicznego górnictwa.

Zwyczajowo przypuszczamy, że większe obiekty jest łatwiej rozbić, gdyż z większym prawdopodobieństwem zawierają one różnego rodzaju słabości. Jednak nasze badania wskazują, że asteroidy są bardziej wytrzymałe niż sądzimy, a do ich całkowitego zniszczenia potrzeba więcej energii, mówi świeżo upieczony doktor Charles El Mir w Wydziału Inżynierii Mechanicznej JHU.

Współczesna nauka dobrze rozumie budowę skał, które może badać w laboratorium. Ale trudno jest przełożyć wyniki uzyskane z badania obiektu wielkości pięści na obiekt wielkości miasta. Na początku bieżącego wieku kilka zespołów naukowych stworzyło model komputerowy uwzględniający takie czynniki jak masa, temperatura, kruchość materiału. Model posłużył do symulacji uderzenia asteroidą o średnicy 1 kilometra w asteroidę o średnicy 25 kilometrów. Zderzenie miało miejsce przy prędkości 5 km/s, a model wykazał, że większa asteroida zostanie całkowicie zniszczona.

Podczas najnowszych badań El Mir oraz jego współpracownicy, K.T. Ramesh dyrektor Instytutu Materiałów Ekstremalnych JHU oraz profesor Derek Richardson, astronom z University of Maryland, przetestowali ten sam scenariusz, ale wykorzystując do tego model komputerowy Tonge-Ramesha, który bierze pod uwagę procesy zachodzące na mniejszą skalę podczas zderzenia asteroid. Model z początku wieku nie brał pod uwagę ograniczonej prędkości powstawania pęknięć podczas zderzenia.

Symulację podzielono na dwa etapy: krótszy etap fragmentacji i długoterminowej ponownej akumulacji grawitacyjnej.  Fragmentacja rozpoczyna się w ciągu ułamków sekund po zderzeniu, natomiast ponowna kumulacja to proces biorący pod uwagę wpływ grawitacji na kawałki, które oddzieliły się od asteroidy po zderzeniu, ale wskutek grawitacji ponownie się do siebie zbliżają.

Symulacja wykazała, że zaraz po uderzeniu powstały miliony pęknięć, część materiału asteroidy została odrzucona i uformował się krater. Symulacja brała pod uwagę dalszy losy poszczególnych pęknięć i ich rozwój. Nowy model wykazał, że asteroida nie została rozbita po uderzeniu. To, co z asteroidy pozostało, wywierało następnie duży wpływ grawitacyjny na oderwane fragmenty i je przyciągało.

Okazało się, że uderzona asteroida nie zamieniła się w gromadę luźnych kawałków. Nie rozpadła się całkowicie, rozbite fragmenty przemieściły się wokół rdzenia asteroidy. To może być przydatna informacja, którą zechcą studiować specjaliści ds. kosmicznego górnictwa.

Badania dotyczące ochrony przed asteroidami są bardzo skomplikowane. Na przykład musimy odpowiedzieć sobie na pytanie, czy gdyby wielka asteroida podążała w kierunku Ziemi, to lepiej byłoby ją rozbić na kawałki czy przekierować? A jeśli zechcemy ją przekierować, to jakiej siły musimy użyć, by zmieniła tor lotu, ale by jej nie rozbić, zauważa El Mir.

Dość często na Ziemię spadają niewielkie asteroidy, takie jak ten z Czelabińska. Jednak jest tylko kwestią czasu, gdy akademickie badania będziemy musieli przełożyć na praktykę i bronić się przed dużą asteroidą. Musimy być gotowi, gdy ten czas nadejdzie, a badania naukowe to kluczowy element decyzji, którą wówczas będziemy podejmowali, mówi profesor Ramesh.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, KopalniaWiedzy.pl napisał:

Na przykład musimy odpowiedzieć sobie na pytanie, czy gdyby wielka asteroida podążała w kierunku Ziemi, to lepiej byłoby ją rozbić na kawałki czy przekierować?

Przekierować, rozbić o Księżyc, cokolwiek. Wydaje mi się, że niezależnie od tego w ilu kawałka dotrze do nas asteroida, to wyzwolona energia będzie taka sama. Jasne, sporo tej energii wytworzy się w górnych warstwach atmosfery, ale jak to będzie duży kamień to i tak nas ugotuje. Dlatego raczej potrzeba nam propelerków, żeby spychać z kursu co większe sztuki. imho.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najważniejszy trik to wczesna detekcja, odpowiednio wcześnie wykryte zagrożenia można będzie relatywnie łatwo zneutralizować. Np pomalować jedną stronę na znacząco jaśniejszy lub ciemniejszy kolor. Resztę roboty zrobi słoneczko.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, rahl napisał:

Np pomalować jedną stronę na znacząco jaśniejszy lub ciemniejszy kolor. Resztę roboty zrobi słoneczko.

to zależy czy obiekt rotuje(a chyba wszystkie to robią?) i jaka jest jego oś obrotu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Hmm. Ten artykuł jednak podrzuca nam inną metodę. Jakbyśmy na orbicie zebrali te wszystkie nasze śmieci i ulepili na kształt kuli - którą to byśmy w jakiś sposób poprzez np. zwierciadła mogli powoli sterować to można by ją tak wysterować że uderzyłaby w asteroidę która by była na kursie kolizyjnym z Ziemią.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Naukowcy zakładają że asteroidy do duże skały, podczas gdy większość obserwacji wskazuje że to zlepek drobnego rumoszu, czasem twardy, czasem bardzo zlodowaciały ale jednak rumosz - czyli zachowuje się jak granulat a nie ja skała. Skałę łatwo jest rozsadzić, rumosz nie, energia szybko się traci. W dodatku poszczególnym bryłkom trzeba by nadać prędkość ucieczki z grawitacji - co prawda jest ona niewielka, ale i tak aby bryłka skutecznie odleciała potrzebne jest pokonanie tej bariery.  To wszystko wymaga siły, precyzyjnie ukierunkowanej a nie bezładnej - bo w rumoszu siły będą po serii uderzeń się niwelować. Dlatego lepiej jest traktować asteroidę jako jeden obiekt, za pomocą stałego ciągu próbować powstrzymać rotację a następnie pomalować jedną stronę i stabilizować aby się nie odwróciła.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Malowanie takiego rumoszu może być trochę trudne. To nie ściana. Powierzchnia jest dużo większa ze względu na porowatość.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 godzin temu, tempik napisał:

to zależy czy obiekt rotuje(a chyba wszystkie to robią?) i jaka jest jego oś obrotu

dlatego napisałem "Np"

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Puki co nie potrafimy ze 100% pewnością określić czy asteroida jest na kursie kolizyjnym czy jednak minie nas. Żeby była szansa reakcji, trzeba taką wiedzę mieć bardzo wcześnie, jak asteroida jest bardzo daleko. Do tego trzeba mieć pojazd który będzie szybciej pędził w kierunku asteroidy niż ona w naszym. Na koniec dobrze by było żeby w odpowiednim czasie np. odpalić jakąś dużą głowicę atomową obok niej, żeby lekko skorygować jej trajektorię. Na razie nic z tych rzeczy nie jest w naszym zasięgu.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, thikim napisał:

Malowanie takiego rumoszu może być trochę trudne. To nie ściana. Powierzchnia jest dużo większa ze względu na porowatość.

To potrzebna jest "farba" o większej lepkości/granulacji by nie wsiąkała tak łatwo.

Ciekawy jestem czy taki luźny kawałek lodu i skał jest równie niebezpieczny. Wydaje mi się, że rozsypie się w górnych warstwach atmosfery i będzie miał większą powierzchnię nagrzewania się, straci więc więcej energii i tym samym masy nim dotrze do powierzchni.

Z drugiej strony trafienie czegoś takiego z odpowiednią siłą od boku powinno znacząco zmienić jego trajektorię prawie nie zmieniając znacząco integralności obiektu. To się wydaje bardziej sensowne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Do tego ten rumosz potrafi sporo masy odrzucać na widok Słońca. Może odrzucić tę część z farbą.

W każdym razie zmierzam do tego że malarz pokojowy tu nie wystarczy. To dość trudna operacja. Jak mniemam łatwiej będzie albo tam wysłać kilka Carów albo jednak przywalić jakimś sztucznym obiektem który sobie zrobimy na orbicie.

Wystarczyłoby tylko dodać w przepisach dot. satelitów: "pod koniec życia ma wykonać takie a takie manewry"

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

@thikim

Widzę 2 problemy w tym:
1. jest to jednak bardzo niewielka masa w porównaniu z tym, czym chcielibyśmy uderzyć w zagrażającą asteroidę (masa śmieci orbitalnych jest szacowana na 5500 ton, a masa skały o średnicy 5km, to tak na szybko oszacowane 80 miliardów ton - dla obiektu kulistego o gęstości 4t/m3)
2. wyobrażasz sobie skuteczne rozpędzenie nawet tej masy wiszącej na orbicie by osiągnęła II kosmiczną? (tak wiem, na orbicie jest ona dużo mniejsza, ale wciąż spora i trzeba dużo energii dla takiego skupiska gruzu i złomu) 

Nikt o zdrowych zmysłach nie będzie chciał uderzać w asteroidę gdy jest mniej niż milion kilometrów od nas! Takie manewry lepiej wykonywać gdy mamy jeszcze zapas co najmniej 100 000 km.

Edytowane przez pogo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Zgadza się. Ale zauważ że tendencja jest wzrostowa. Do tego dodaj różnicę prędkości która wyzwoli całkiem sporą ilość energii.

Ja nie piszę że to ma być gotowe za 2 lata. My tę potrzebę obrony możemy mieć za lat 100.

Za 100 lat to już będzie z milion ton - jeśli będziemy to planować.
Może jednak najlepszym sposobem będzie budowa potężnego lasera na orbicie.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, thikim napisał:

Może jednak najlepszym sposobem będzie budowa potężnego lasera na orbicie.

i to chyba jest najlepszy kierunek. raz że nie będzie strat mocy w próżni, dwa będzie można go odpalić natychmiast po wykryciu zagrożenia i miesiącami czy nawet latami ciągle spychać obiekt z kursu kolizyjnego. A jak obiekt będzie miał sporo wody i co2 to dzięki odparowywaniu gazów  będzie to jeszcze łatwiejsze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeden błąd :D

Trzeba zbudować dwa lasery na Księżycu :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jeszcze do niedawna naukowcy potrafili określi miejsce pochodzenia jedynie 6% meteorytów znalezionych na Ziemi. Teraz naukowcy z francuskiego Narodowego Centrum Badań Naukowych (CNRS), Europejskiego Obserwatorium Południowego i czeskiego Uniwersytetu Karola wykazali, że 70% wszystkich znalezionych na naszej planecie meteorytów pochodzi z trzech młodych rodzin asteroid.
      Rodziny te to wyniki trzech zderzeń, do których doszło w głównym pasie asteroid 5,8, 7,5 oraz 40 milionów lat temu. Badacze określili też źródło innych meteorytów, dzięki czemu możemy teraz zidentyfikować miejsce pochodzenia ponad 90% skał, które z kosmosu spadły na Ziemię. Wyniki badań zostały opublikowane w trzech artykułach. Jeden ukazał się łamach Astronomy and Astrophysics, a dwa kolejne na łamach Nature.
      Wspomniane rodziny asteroid to – od najmłodszej do najstarszej – Karin, Koronis i Massalia. Wyróżnia się Massalia, która jest źródłem 37% meteorytów. Dotychczas na Ziemi odnaleziono podczas 700 000 okruchów z kosmosu. Jedynie 6% z nich zidentyfikowano jako achondryty pochodzące z Księżyca, Marsa lub Westy, jednego z największych asteroid głównego pasa. Źródło pozostałych 94%, z których większość do chondryty, pozostawało nieznane.
      Jak to jednak możliwe, że źródłem większości znalezionych meteorytów są młode rodziny asteroid? Autorzy badań wyjaśniają, że rodziny takie charakteryzują się dużą liczbą niewielkich fragmentów powstałych w wyniku niedawnych kolizji. Ta obfitość zwiększa prawdopodobieństwo kolejnych zderzeń, co w połączeniu z duża mobilnością tych szczątków, powoduje, że mogą zostać wyrzucone z głównego pasa asteroid, a część z nich poleci w kierunku Ziemi. Starsze rodziny asteroid nie są tak liczne. Przez wiele milionów lat mniejsze fragmenty, ale na tyle duże, że mogłyby spaść na Ziemię, zniknęły w wyniku kolejnych zderzeń i ucieczki z pasa asteroid.
      Określenie pochodzenia większości meteorytów było możliwe dzięki teleskopowym badaniom składu większości rodzin asteroid w głównym pasie oraz zaawansowanymi symulacjami komputerowymi, podczas których badano dynamikę tych rodzin.
      Autorzy badań określili też pochodzenie wielkich asteroid, takich jak Ryugu czy Bennu. Okazało się, że pochodzą one od tego samego przodka co rodzina asteroid Polana.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
      Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
      Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
      Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
      Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
      Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
      Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
      Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Japoński akcelerator cząstek SuperKEKB pobił światowy rekord świetlności. Pracujący przy nim naukowcy obiecują, że to dopiero początek. W ciągu najbliższych lat chcą zwiększyć świetlność urządzenia aż 40-krotnie, co ma pozwolić zarówno na odkrycie ciemnej materii, jak i wyjście z fizyką poza Model Standardowy. Mamy nadzieję, że akcelerator pozwoli nam wykryć ciemną materię – o ile ona istnieje – i badać ją w niedostępny obecnie sposób, mówi profesor Kay Kinoshita z University of Cincinnati.
      Świetlność akceleratora to liczba kolizji, która w nim zachodzi. Podczas tych zderzeń powstają nowe cząstki. Im więc więcej zderzeń, tym więcej cząstek, więcej danych i większa szansa n a zarejestrowanie czegoś nowego.
      SuperKEKB zderza pozytony i elektrony przyspieszane w 3-kilometrowym tunelu. Akcelerator został uruchomiony w 2018 roku i naukowcy ciągle pracują nad zwiększaniem jego jasności. Profesor Alan Schwartz i jego studenci z University of Cincinnati zaprojektowali i zbudowali jeden z detektorów akceleratora. To krok milowy w projektowaniu akceleratorów. SuperKEKB wykorzystuje architekturę tzw. „nano strumieni”. W technice tej strumienie cząstek są ściskane wzdłuż osi pionowej, dzięki czemu są bardzo cienkie, wyjaśnia Schwartz. To pierwszy na świecie akcelerator, który korzysta z tej techniki.
      Ze względu na rozmiary cząstek, szansa, że dojdzie do zderzenia, jest niewielka. Im bardziej ściśnięty strumień, tym większe zagęszczenie cząstek i tym większe prawdopodobieństwo zderzeń. Obecnie wysokość wiązki w punkcie zderzenia wynosi 220 nanometrów. W przyszłości ma to być zaledwie 50 nanometrów, czyli około 1/1000 grubości ludzkiego włosa.
      Profesor Kay Kinoshita poświęciła całą swoją naukową karierę zagadnieniu zwiększania świetlności akceleratorów. Uczona pracuje nad tym zagadnieniem od 1982 roku. To bardzo interesujące, gdyż jest bardzo wymagające. Wiesz, że robisz coś, czego nikt nigdy nie zrobił, mówi.
      Poprzednik SuperKEKB, akcelerator KEKB, który działał w latach 1999–2010 w KEK (Organizacja Badań nad Akceleratorami Wysokich Energii), również był światowym rekordzistą. Urządzenie pracowało ze świetlnością 2,11x1034 cm-2s-1. Dopiero w 2018 roku rekord ten został pobity przez Wielki Zderzacz Hadronów, który osiągnął świetlność 2,14x1034 cm-2s-1. Rekord LHC nie utrzymał się długo, dnia 15 czerwca 2020 roku SuperKEKB osiągnął świetlność 2,22x1034 cm-2s-1. Już tydzień później, 21 czerwca naukowcy poinformowali o nowym rekordzie. Teraz SuperKEKB pracuje ze świetlnością wynoszącą 2,40x1034 cm-2s-1.
      W ciągu najbliższych lat świetlność SuperKEKB ma wzrosnąć 40-krotnie. Docelowo ma ona wynieść 8x1035 cm-2s-1.
      Sukces SuperKEKB to sukces międzynarodowej współpracy. Nadprzewodzące magnesy, które ostatecznie skupiają strumienie cząstek zostały zbudowane we współpracy z amerykańskimi Brookhaven National Laboratory oraz Fermi National Accelerator Laboratory. Systemy monitorowania kolizji to dzieło SLAC National Accelerator Laboratory i University of Hawaii. Naukowcy ze Szwajcarii (CERN), Francji (IJCLab), Chin (IHEP) i USA (SLAC) biorą udział w pracach i badaniach, w których wykorzystywany jest akcelerator. Wykorzystujący diament system monitorowania promieniowania oraz system przerywania wiązki to dzieło włoskich Narodowego Instytutu Fizyki Jądrowej oraz Uniwersytetu w Trieście, a system monitorowania jasności powstał w Rosji.
      Wiązki elektronów i pozytonów rozpędzane w SuperKEKB zderzają się w centrum detektora Belle II, który opisywaliśmy przed 2 laty. To niezwykłe urządzenie zostało zbudowane przez grupę 1000 fizyków i inżynierów ze 119 uczelni z 26 krajów świata. I to właśnie wewnątrz Belle II naukowcy mają nadzieję znaleźć ciemną materię i rozpocząć badania jej właściwości.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po dziesięcioleciach udało się odkryć ambipolarne (dwukierunkowe) pole elektryczne Ziemi. To słabe pole elektryczne naszej planety, które jest tak podstawową jej cechą jak grawitacja czy pola magnetyczne. Hipoteza o istnieniu takiego pola pojawiła się ponad 60 lat temu i od tamtego czasu poszukiwano tego pola. Jest ono kluczowym mechanizmem napędzającym „wiatr polarny”, czyli ucieczkę naładowanych cząstek z ziemskiej atmosfery w przestrzeń kosmiczną. Ma ona miejsce nad ziemskimi biegunami.
      „Wiatr polarny” został odkryty w latach 60. XX wieku. Od samego początku naukowcy uważali, że jego siłą napędową jest nieznane pole elektryczne. Uważano, że jest ono generowane w skali subatomowej i jest niezwykle słabe. Przez kolejnych kilkadziesiąt lat ludzkość nie dysponowała narzędziami, które mogły zarejestrować takie pole.
      W 2016 roku Glyn Collinson i jego zespół z Goddars Space Flight Center zaczęli pracować nad instrumentami zdolnymi do zmierzenia ambipolarnego pola elektrycznego. Stworzone przez nich urządzenia oraz metoda pomiaru zakładały przeprowadzenie badań za pomocą rakiety suborbitalnej wystrzelonej z Arktyki. Badacze nazwali swoją misję Endurance, na cześć statku, którym Ernest Shackleton popłynął w 1914 roku na swoją słynną wyprawę na Antarktykę. Rakietę postanowiono wystrzelić ze Svalbardu, gdzie znajduje się najbardziej na północ wysunięty kosmodrom. Svalbard to jedyny kosmodrom na świecie, z którego można wystartować, by przelecieć przez wiatr polarny i dokonać koniecznych pomiarów, mówi współautorka badań, Suzie Imber z University of Leicester.
      Misja Endurance została wystrzelona 11 maja 2022 roku. Rakieta osiągnęła wysokość 768,03 km i 19 minut później spadła do Morza Grenlandzkiego. Urządzenia pokładowe zbierały dane przez 518 kilometrów nabierania wysokości i zanotowały w tej przestrzeni zmianę potencjału elektrycznego o 0,55 wolta. Pół wolta to tyle co nic, to napięcie baterii w zegarku. Ale to dokładnie tyle, ile trzeba do napędzenia wiatru polarnego, wyjaśnia Collinson.
      Generowane pole elektryczne oddziałuje na jony wodoru, które dominują w wietrze polarnym, z siłą 10,6-krotnie większą niż grawitacja. To więcej niż trzeba, by pokonać grawitację. To wystarczająco dużo, by wystrzelić jony z prędkością naddźwiękową prosto w przestrzeń kosmiczną, dodaje Alex Glocer z NASA. Pole napędza też cięższe pierwiastki, jak jony tlenu. Z badań wynika, że dzięki obecności tego pola elektrycznego jonosfera jest na dużej wysokości o 271% bardziej gęsta, niż byłaby bez niego. Mamy tutaj rodzaj taśmociągu, podnoszącego atmosferę do góry, dodaje Collinson.
      Pole to nazwano ambipolarnym (dwukierunkowym), gdyż działa w obie strony. Opadające pod wpływem grawitacji jony ciągną elektrony w dół, a w tym samym czasie elektrony – próbując uciec w przestrzeń kosmiczną – ciągną jony w górę. Wskutek tego wysokość atmosfery zwiększa się, a część jonów trafia na wystarczającą wysokość, by uciec w przestrzen kosmiczną w postaci wiatru polarnego.
      Odkrycie ambipolarnego pola elektrycznego otwiera przed nauką nowe pola badawcze. Jest ono bowiem, obok grawitacji i pola magnetycznego, podstawowym polem energetycznym otaczającym naszą planetę, wciąż wpływa na ewolucję naszej atmosfery w sposób, który dopiero teraz możemy badać. Co więcej, każda planeta posiadająca atmosferę powinna mieć też ambipolarne pole elektryczne. Można więc będzie go szukać i badać na Marsie czy Wenus.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jedno z ważnych pytań o początki życia brzmi: w jaki sposób cząstki RNA swobodnie przemieszczające się w pierwotnej zupie zostały opakowane w chronione błoną komórki. Odpowiedź na to pytanie zaproponowali właśnie na łamach Science Advances inżynierowie i chemicy z Uniwersytetów w Chicago i w Houston oraz Jack Szostak, laureat Nagrody Nobla w dziedzinie fizjologii lub medycyny. W swoim artykule pokazują, jak przed 3,8 miliardami lat krople deszczu mogły ochronić pierwsze protokomórki i umożliwić powstanie złożonych organizmów żywych.
      Uczeni przyjrzeli się koacerwatom, dużym grupom cząstek, samoistnie tworzącym się w układach koloidalnych (niejednorodnych mieszaninach). Zachowanie koacerwatów można porównać do zachowania kropli oleju w wodzie.
      Już dawno pojawiła się hipoteza, że nie posiadające błon mikrokrople koacerwatów mogły być modelowymi protokomórkami, gdyż mogą rosnąć, dzielić się i gromadzić wewnątrz RNA. Jednak błyskawiczna wymiana RNA pomiędzy koacerwatami, ich szybkie łączenie się, zachodzące w ciągu minut oznaczają, że poszczególne krople nie są w stanie utrzymać swojej odrębności genetycznej. To zaś oznacza, że ewolucja darwinowska nie jest możliwa, a populacja takich protokomórek byłaby narażona na błyskawiczne załamanie w wyniku rozprzestrzeniania się pasożytniczego RNA, czytamy w artykule. Innymi słowy każda kropla, która zawierałaby mutację potencjalnie użyteczną na drodze do powstania życia, błyskawicznie wymieniałaby swoje RNA z innymi RNA, nie posiadającymi takich pożytecznych mutacji. W bardzo szybkim tempie wszystkie krople stałyby się takie same. Nie byłoby różnicowania, konkurencji, a zatem nie byłoby ewolucji i nie mogłoby powstać życie.
      Jeśli dochodzi do ciągłej wymiany molekuł czy to między kroplami czy między komórkami i po krótkim czasie wszystkie one wyglądają tak samo, to nie pojawi się ewolucja. Będziemy mieli grupę klonów, wyjaśnia Aman Agrawal z Pritzker School of Molecular Engineering na University of Chicago.
      Nauka od dawna zastanawia się, co było pierwszą molekułą biologiczną. To problem kury i jajka. DNA koduje informacje, ale nie przeprowadza żadnych działań. Białka przeprowadzają działania, ale nie przenoszą informacji. Badacze tacy jak Szostak wysunęli hipotezę, że pierwsze było RNA. To molekuła jak DNA, zdolna do kodowania informacji, ale zawija się jak białko.
      RNA było więc kandydatem na pierwszy materiał biologiczny, a koacerwaty kandydatami na pierwsze protokomórki. Wszystko wydawało się dobrze układać, aż w 2014 roku Szostak opublikował artykuł, w którym informował, że wymiana materiału pomiędzy kroplami koacerwatów zachodzi zbyt szybko. Możesz stworzyć różnego rodzaju krople koacerwatów, ale nie zachowają one swojej unikatowej odrębności. Zbyt szybko będą wymieniały RNA. To był problem z którym przez długi czas nie potrafiono sobie poradzić, mówi Szostak.
      W naszym ostatnim artykule wykazaliśmy, że problem ten można przynajmniej częściowo przezwyciężyć, jeśli koacerwaty zamkniemy w wodzie destylowanej – na przykład wodzie deszczowej czy jakiejś innej słodkiej wodzie. W kroplach takich pojawia się rodzaj wytrzymałej błony, która ogranicza wymianę zawartości, dodaje uczony.
      Na trop tego zjawiska naukowcy wpadli, gdy Aman Agrawal był na studiach doktoranckich. Badał zachowanie koacerwatów poddanych działaniu pola elektrycznego w destylowanej wodzie. Jego badania nie miały nic wspólnego z początkami życia. Interesował go fascynujący materiał z inżynieryjnego punktu widzenia. Manipulował napięciem powierzchniowym, wymianą soli, molekuł itp. Chciał w swojej pracy doktorskiej badać podstawowe właściwości koacerwatów.
      Pewnego dnia Agrawal jadł obiad z promotorem swojej pracy magisterskiej, profesorem Alamgirem Karimem oraz jego starym znajomym, jednym ze światowych ekspertów inżynierii molekularnej, Matthew Tirrellem. Tirrell zaczął się zastanawiać, jak badania Agrawala nad wpływem wody destylowanej na koacerwaty mogą się mieć do początków życia na Ziemi. Zadał swoim rozmówcom pytanie, czy 3,8 miliarda lat temu na naszej planecie mogła istnieć woda destylowana. Spontanicznie odpowiedziałem „deszczówka”! Oczy mu się zaświeciły i od razu było widać, że jest podekscytowany tym pomysłem. Tak połączyły się nasze pomysły, wspomina profesor Karim.
      Tirrell skontaktował Agrawla z Szostakiem, który niedawno rozpoczął na Uniwersytecie Chicagowskim nowy projekt badawczy, nazwany z czasem Origins of Life Initiative. Profesor Tirrel zadał Szostakowi pytanie: Jak sądzisz, skąd na Ziemi przed powstaniem życia mogła wziąć się woda destylowana. I Jack odpowiedział dokładnie to, co już usłyszałem. Że z deszczu.
      Szostak dostarczył Agrawalowi próbki DNA do badań, a ten odkrył, że dzięki wodzie destylowanej transfer RNA pomiędzy kroplami koacerwatów znacząco się wydłużył, z minut do dni. To wystarczająco długo, że mogło dochodzić do mutacji, konkurencji i ewolucji. Gdy mamy populację niestabilnych protokomórek, będą wymieniały materiał genetyczny i staną się klonami. Nie ma tutaj miejsca na ewolucję w rozumieniu Darwina. Jeśli jednak ustabilizujemy te protokomórki tak, by przechowywały swoją unikatową informację wystarczająco długo, co najmniej przez kilka dni, może dojść do mutacji i cała populacja będzie ewoluowała, stwierdza Agrawal.
      Początkowo Agrawal prowadził swoje badania z komercyjnie dostępną laboratoryjną wodą destylowaną. Jest ona wolna od zanieczyszczeń, ma neutralne pH. Jest bardzo odległa od tego, co występuje w naturze. Dlatego recenzenci pisma naukowego, do którego miał trafić artykuł, zapytali Agrawala, co się stanie, jeśli woda będzie miała odczyn kwasowy, będzie bardziej podobna do tego, co w naturze.
      Naukowcy zebrali więc w Houston deszczówkę i zaczęli z nią eksperymentować. Gdy porównali wyniki badań z wykorzystaniem naturalnej deszczówki oraz wody destylowanej laboratoryjnie, okazało się, że są one identyczne. W obu rodzajach wody panowały warunki, które pozwalałyby na ewolucję RNA wewnątrz koacerwatów.
      Oczywiście skład chemiczny deszczu, który pada obecnie w Houston, jest inny, niż deszczu, który padał na Ziemi przed 3,8 miliardami lat. To samo zresztą można powiedzieć o modelowych protokomórkach. Autorzy badań dowiedli jedynie, że taki scenariusz rozwoju życia jest możliwy, ale nie, że miał miejsce.
      Molekuły, których użyliśmy do stworzenia naszych protokomórek to tylko modele do czasu, aż znajdziemy bardziej odpowiednie molekuły. Środowisko chemiczne mogło się nieco różnić, ale zjawiska fizyczne były takie same, mówi Agrawal.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...