Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Wielkie burze geomagnetyczne zdarzają się częściej niż sądzono

Rekomendowane odpowiedzi

Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku.
Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji.

Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy.

Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej.

Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku.

Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę.

Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia.

Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach.

Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario.

Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy.

Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jeszcze do niedawna naukowcy potrafili określi miejsce pochodzenia jedynie 6% meteorytów znalezionych na Ziemi. Teraz naukowcy z francuskiego Narodowego Centrum Badań Naukowych (CNRS), Europejskiego Obserwatorium Południowego i czeskiego Uniwersytetu Karola wykazali, że 70% wszystkich znalezionych na naszej planecie meteorytów pochodzi z trzech młodych rodzin asteroid.
      Rodziny te to wyniki trzech zderzeń, do których doszło w głównym pasie asteroid 5,8, 7,5 oraz 40 milionów lat temu. Badacze określili też źródło innych meteorytów, dzięki czemu możemy teraz zidentyfikować miejsce pochodzenia ponad 90% skał, które z kosmosu spadły na Ziemię. Wyniki badań zostały opublikowane w trzech artykułach. Jeden ukazał się łamach Astronomy and Astrophysics, a dwa kolejne na łamach Nature.
      Wspomniane rodziny asteroid to – od najmłodszej do najstarszej – Karin, Koronis i Massalia. Wyróżnia się Massalia, która jest źródłem 37% meteorytów. Dotychczas na Ziemi odnaleziono podczas 700 000 okruchów z kosmosu. Jedynie 6% z nich zidentyfikowano jako achondryty pochodzące z Księżyca, Marsa lub Westy, jednego z największych asteroid głównego pasa. Źródło pozostałych 94%, z których większość do chondryty, pozostawało nieznane.
      Jak to jednak możliwe, że źródłem większości znalezionych meteorytów są młode rodziny asteroid? Autorzy badań wyjaśniają, że rodziny takie charakteryzują się dużą liczbą niewielkich fragmentów powstałych w wyniku niedawnych kolizji. Ta obfitość zwiększa prawdopodobieństwo kolejnych zderzeń, co w połączeniu z duża mobilnością tych szczątków, powoduje, że mogą zostać wyrzucone z głównego pasa asteroid, a część z nich poleci w kierunku Ziemi. Starsze rodziny asteroid nie są tak liczne. Przez wiele milionów lat mniejsze fragmenty, ale na tyle duże, że mogłyby spaść na Ziemię, zniknęły w wyniku kolejnych zderzeń i ucieczki z pasa asteroid.
      Określenie pochodzenia większości meteorytów było możliwe dzięki teleskopowym badaniom składu większości rodzin asteroid w głównym pasie oraz zaawansowanymi symulacjami komputerowymi, podczas których badano dynamikę tych rodzin.
      Autorzy badań określili też pochodzenie wielkich asteroid, takich jak Ryugu czy Bennu. Okazało się, że pochodzą one od tego samego przodka co rodzina asteroid Polana.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
      Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
      Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
      Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
      Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
      Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
      Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
      Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po dziesięcioleciach udało się odkryć ambipolarne (dwukierunkowe) pole elektryczne Ziemi. To słabe pole elektryczne naszej planety, które jest tak podstawową jej cechą jak grawitacja czy pola magnetyczne. Hipoteza o istnieniu takiego pola pojawiła się ponad 60 lat temu i od tamtego czasu poszukiwano tego pola. Jest ono kluczowym mechanizmem napędzającym „wiatr polarny”, czyli ucieczkę naładowanych cząstek z ziemskiej atmosfery w przestrzeń kosmiczną. Ma ona miejsce nad ziemskimi biegunami.
      „Wiatr polarny” został odkryty w latach 60. XX wieku. Od samego początku naukowcy uważali, że jego siłą napędową jest nieznane pole elektryczne. Uważano, że jest ono generowane w skali subatomowej i jest niezwykle słabe. Przez kolejnych kilkadziesiąt lat ludzkość nie dysponowała narzędziami, które mogły zarejestrować takie pole.
      W 2016 roku Glyn Collinson i jego zespół z Goddars Space Flight Center zaczęli pracować nad instrumentami zdolnymi do zmierzenia ambipolarnego pola elektrycznego. Stworzone przez nich urządzenia oraz metoda pomiaru zakładały przeprowadzenie badań za pomocą rakiety suborbitalnej wystrzelonej z Arktyki. Badacze nazwali swoją misję Endurance, na cześć statku, którym Ernest Shackleton popłynął w 1914 roku na swoją słynną wyprawę na Antarktykę. Rakietę postanowiono wystrzelić ze Svalbardu, gdzie znajduje się najbardziej na północ wysunięty kosmodrom. Svalbard to jedyny kosmodrom na świecie, z którego można wystartować, by przelecieć przez wiatr polarny i dokonać koniecznych pomiarów, mówi współautorka badań, Suzie Imber z University of Leicester.
      Misja Endurance została wystrzelona 11 maja 2022 roku. Rakieta osiągnęła wysokość 768,03 km i 19 minut później spadła do Morza Grenlandzkiego. Urządzenia pokładowe zbierały dane przez 518 kilometrów nabierania wysokości i zanotowały w tej przestrzeni zmianę potencjału elektrycznego o 0,55 wolta. Pół wolta to tyle co nic, to napięcie baterii w zegarku. Ale to dokładnie tyle, ile trzeba do napędzenia wiatru polarnego, wyjaśnia Collinson.
      Generowane pole elektryczne oddziałuje na jony wodoru, które dominują w wietrze polarnym, z siłą 10,6-krotnie większą niż grawitacja. To więcej niż trzeba, by pokonać grawitację. To wystarczająco dużo, by wystrzelić jony z prędkością naddźwiękową prosto w przestrzeń kosmiczną, dodaje Alex Glocer z NASA. Pole napędza też cięższe pierwiastki, jak jony tlenu. Z badań wynika, że dzięki obecności tego pola elektrycznego jonosfera jest na dużej wysokości o 271% bardziej gęsta, niż byłaby bez niego. Mamy tutaj rodzaj taśmociągu, podnoszącego atmosferę do góry, dodaje Collinson.
      Pole to nazwano ambipolarnym (dwukierunkowym), gdyż działa w obie strony. Opadające pod wpływem grawitacji jony ciągną elektrony w dół, a w tym samym czasie elektrony – próbując uciec w przestrzeń kosmiczną – ciągną jony w górę. Wskutek tego wysokość atmosfery zwiększa się, a część jonów trafia na wystarczającą wysokość, by uciec w przestrzen kosmiczną w postaci wiatru polarnego.
      Odkrycie ambipolarnego pola elektrycznego otwiera przed nauką nowe pola badawcze. Jest ono bowiem, obok grawitacji i pola magnetycznego, podstawowym polem energetycznym otaczającym naszą planetę, wciąż wpływa na ewolucję naszej atmosfery w sposób, który dopiero teraz możemy badać. Co więcej, każda planeta posiadająca atmosferę powinna mieć też ambipolarne pole elektryczne. Można więc będzie go szukać i badać na Marsie czy Wenus.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Darwin był pierwszym naukowcem, który zwrócił uwagę na ruchy nutacyjne roślin. Od tamtej pory badający je uczeni dowiedzieli się, że te zwykle koliste lub wahadłowe ruchy służą, między innymi, poszukiwaniu podpory przez pędy. Jednak ruchy nutacyjne wykonuje też podążający za słońcem słonecznik. I, jak wszyscy wiemy, chodzi tutaj o zwrócenie się w stronę źródła światła. Jednak, jak dowodzą naukowcy z Izraela i USA, nie jest to działanie wyłącznie samolubne. Okazuje się bowiem, że gęsto rosnące słoneczniki poruszają się tak, by rzucać jak najmniej cienia na sąsiadujące rośliny.
      Już wcześniejsze badania pokazały, że jeśli słoneczniki są gęsto zasiane, ich wzorzec wzrostu przypomina zygzak. Jedna rośilna jest wychylona do przodu, sąsiednia do tyłu. W ten sposób cała społeczność maksymalizuje dostęp do światła słonecznego. Co więcej, potrafią odróżnić cień rzucany na przykład przez budynek, od cienia innych roślin. Jeśli wyczują cień budynku, nie zmieniają kierunku wzrostu, bo wiedzą, że to nic nie da. Jeśli jednak wyczują cień innej rośliny, rosną tak, by od tego cienia się oddalić, bo i ta roślina będzie się oddalała, wyjaśnia główna autorka badań, profesor Yasmine Meroz z Uniwersytetu w Tel Awiwie.
      Autorzy badań prowadzili eksperyment, w czasie którego co kilka minut fotografowali gęsto zasiane słoneczniki. Mogli w ten sposób śledzić ruchy każdej z roślin. Przeanalizowaliśmy ruch każdej z roślin w grupie, obserwowaliśmy ich taniec podczas wzrostu i przekonaliśmy się, że każda roślina stara się rosnąć tak, by nie blokować światła swojemu sąsiadowi. Zaskoczeniem dla nas był olbrzymi zakres ruchów, sięgający trzech rzędów wielkości. W zależności od sytuacji rośliny albo niemal nie zmieniały swojej pozycji, albo przesuwały się nawet o 2 centymetry co kilka minut w różnych kierunkach, dodaje uczona.
      Ta duża elastyczność ruchów pozwala słonecznikom na zadbanie o sąsiada i zmaksymalizowanie jego fotosyntezy. Gdyby słoneczniki były zdolne do wykonywania tylko ruchów o dużym zakresie, lub tylko tych o małym zakresie, częściej by się przesłaniały i rzucały cień na sąsiadów. To przypomina taniec w zatłoczonym miejscu, gdzie każdy z tancerzy porusza się tak, by wokół było jak najwięcej miejsca.[...] Dynamika ruchu słoneczników to połączenie reakcji na cień innych roślin z przypadkowymi ruchami niezależnymi od zewnętrznego bodźca, stwierdza Meroz.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jedno z ważnych pytań o początki życia brzmi: w jaki sposób cząstki RNA swobodnie przemieszczające się w pierwotnej zupie zostały opakowane w chronione błoną komórki. Odpowiedź na to pytanie zaproponowali właśnie na łamach Science Advances inżynierowie i chemicy z Uniwersytetów w Chicago i w Houston oraz Jack Szostak, laureat Nagrody Nobla w dziedzinie fizjologii lub medycyny. W swoim artykule pokazują, jak przed 3,8 miliardami lat krople deszczu mogły ochronić pierwsze protokomórki i umożliwić powstanie złożonych organizmów żywych.
      Uczeni przyjrzeli się koacerwatom, dużym grupom cząstek, samoistnie tworzącym się w układach koloidalnych (niejednorodnych mieszaninach). Zachowanie koacerwatów można porównać do zachowania kropli oleju w wodzie.
      Już dawno pojawiła się hipoteza, że nie posiadające błon mikrokrople koacerwatów mogły być modelowymi protokomórkami, gdyż mogą rosnąć, dzielić się i gromadzić wewnątrz RNA. Jednak błyskawiczna wymiana RNA pomiędzy koacerwatami, ich szybkie łączenie się, zachodzące w ciągu minut oznaczają, że poszczególne krople nie są w stanie utrzymać swojej odrębności genetycznej. To zaś oznacza, że ewolucja darwinowska nie jest możliwa, a populacja takich protokomórek byłaby narażona na błyskawiczne załamanie w wyniku rozprzestrzeniania się pasożytniczego RNA, czytamy w artykule. Innymi słowy każda kropla, która zawierałaby mutację potencjalnie użyteczną na drodze do powstania życia, błyskawicznie wymieniałaby swoje RNA z innymi RNA, nie posiadającymi takich pożytecznych mutacji. W bardzo szybkim tempie wszystkie krople stałyby się takie same. Nie byłoby różnicowania, konkurencji, a zatem nie byłoby ewolucji i nie mogłoby powstać życie.
      Jeśli dochodzi do ciągłej wymiany molekuł czy to między kroplami czy między komórkami i po krótkim czasie wszystkie one wyglądają tak samo, to nie pojawi się ewolucja. Będziemy mieli grupę klonów, wyjaśnia Aman Agrawal z Pritzker School of Molecular Engineering na University of Chicago.
      Nauka od dawna zastanawia się, co było pierwszą molekułą biologiczną. To problem kury i jajka. DNA koduje informacje, ale nie przeprowadza żadnych działań. Białka przeprowadzają działania, ale nie przenoszą informacji. Badacze tacy jak Szostak wysunęli hipotezę, że pierwsze było RNA. To molekuła jak DNA, zdolna do kodowania informacji, ale zawija się jak białko.
      RNA było więc kandydatem na pierwszy materiał biologiczny, a koacerwaty kandydatami na pierwsze protokomórki. Wszystko wydawało się dobrze układać, aż w 2014 roku Szostak opublikował artykuł, w którym informował, że wymiana materiału pomiędzy kroplami koacerwatów zachodzi zbyt szybko. Możesz stworzyć różnego rodzaju krople koacerwatów, ale nie zachowają one swojej unikatowej odrębności. Zbyt szybko będą wymieniały RNA. To był problem z którym przez długi czas nie potrafiono sobie poradzić, mówi Szostak.
      W naszym ostatnim artykule wykazaliśmy, że problem ten można przynajmniej częściowo przezwyciężyć, jeśli koacerwaty zamkniemy w wodzie destylowanej – na przykład wodzie deszczowej czy jakiejś innej słodkiej wodzie. W kroplach takich pojawia się rodzaj wytrzymałej błony, która ogranicza wymianę zawartości, dodaje uczony.
      Na trop tego zjawiska naukowcy wpadli, gdy Aman Agrawal był na studiach doktoranckich. Badał zachowanie koacerwatów poddanych działaniu pola elektrycznego w destylowanej wodzie. Jego badania nie miały nic wspólnego z początkami życia. Interesował go fascynujący materiał z inżynieryjnego punktu widzenia. Manipulował napięciem powierzchniowym, wymianą soli, molekuł itp. Chciał w swojej pracy doktorskiej badać podstawowe właściwości koacerwatów.
      Pewnego dnia Agrawal jadł obiad z promotorem swojej pracy magisterskiej, profesorem Alamgirem Karimem oraz jego starym znajomym, jednym ze światowych ekspertów inżynierii molekularnej, Matthew Tirrellem. Tirrell zaczął się zastanawiać, jak badania Agrawala nad wpływem wody destylowanej na koacerwaty mogą się mieć do początków życia na Ziemi. Zadał swoim rozmówcom pytanie, czy 3,8 miliarda lat temu na naszej planecie mogła istnieć woda destylowana. Spontanicznie odpowiedziałem „deszczówka”! Oczy mu się zaświeciły i od razu było widać, że jest podekscytowany tym pomysłem. Tak połączyły się nasze pomysły, wspomina profesor Karim.
      Tirrell skontaktował Agrawla z Szostakiem, który niedawno rozpoczął na Uniwersytecie Chicagowskim nowy projekt badawczy, nazwany z czasem Origins of Life Initiative. Profesor Tirrel zadał Szostakowi pytanie: Jak sądzisz, skąd na Ziemi przed powstaniem życia mogła wziąć się woda destylowana. I Jack odpowiedział dokładnie to, co już usłyszałem. Że z deszczu.
      Szostak dostarczył Agrawalowi próbki DNA do badań, a ten odkrył, że dzięki wodzie destylowanej transfer RNA pomiędzy kroplami koacerwatów znacząco się wydłużył, z minut do dni. To wystarczająco długo, że mogło dochodzić do mutacji, konkurencji i ewolucji. Gdy mamy populację niestabilnych protokomórek, będą wymieniały materiał genetyczny i staną się klonami. Nie ma tutaj miejsca na ewolucję w rozumieniu Darwina. Jeśli jednak ustabilizujemy te protokomórki tak, by przechowywały swoją unikatową informację wystarczająco długo, co najmniej przez kilka dni, może dojść do mutacji i cała populacja będzie ewoluowała, stwierdza Agrawal.
      Początkowo Agrawal prowadził swoje badania z komercyjnie dostępną laboratoryjną wodą destylowaną. Jest ona wolna od zanieczyszczeń, ma neutralne pH. Jest bardzo odległa od tego, co występuje w naturze. Dlatego recenzenci pisma naukowego, do którego miał trafić artykuł, zapytali Agrawala, co się stanie, jeśli woda będzie miała odczyn kwasowy, będzie bardziej podobna do tego, co w naturze.
      Naukowcy zebrali więc w Houston deszczówkę i zaczęli z nią eksperymentować. Gdy porównali wyniki badań z wykorzystaniem naturalnej deszczówki oraz wody destylowanej laboratoryjnie, okazało się, że są one identyczne. W obu rodzajach wody panowały warunki, które pozwalałyby na ewolucję RNA wewnątrz koacerwatów.
      Oczywiście skład chemiczny deszczu, który pada obecnie w Houston, jest inny, niż deszczu, który padał na Ziemi przed 3,8 miliardami lat. To samo zresztą można powiedzieć o modelowych protokomórkach. Autorzy badań dowiedli jedynie, że taki scenariusz rozwoju życia jest możliwy, ale nie, że miał miejsce.
      Molekuły, których użyliśmy do stworzenia naszych protokomórek to tylko modele do czasu, aż znajdziemy bardziej odpowiednie molekuły. Środowisko chemiczne mogło się nieco różnić, ale zjawiska fizyczne były takie same, mówi Agrawal.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...