Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Tlen był produkowany na Ziemi o miliard lat wcześniej niż sądzimy?

Recommended Posts

Mikroorganizmy produkujące tlen w procesie fotosyntezy mogły istnieć na Ziemi co najmniej miliard lat wcześniej, niż dotychczas sądzono. Najnowsze odkrycie może zmienić nasze spojrzenie na ewolucję życia na Ziemi oraz na to, jak mogło ono ewoluować na innych planetach.

Na Ziemi tlen jest niezbędny do powstania bardziej złożonych form życia, które wykorzystują go w procesie produkcji energii.
Przed około 2,4 miliarda lat temu na Ziemi doszło katastrofy tlenowej. To nazwa wielkich przemian środowiskowych na Ziemi, których przyczyną było pojawienie się dużych ilości tlenu w atmosferze.

Część naukowców uważa, że cyjanobakterie, które dostarczyły tlen do atmosfery, pojawiły się stosunkowo niedługo przed katastrofą tlenową. Jednak, jako, że cyjanobakterie wykorzystują dość złożony mechanizm fotosyntezy, podobny do tej używanego obecnie przez rośliny, inni uczeni uważają, że przed cyjanobakteriami mogły istnieć inne, prostsze mikroorganizmy produkujące tlen.

Teraz naukowcy z Imperial College London poinformowali o znalezieniu dowodów na obecność fotosyntezy tlenowej na co najmniej miliard lat przed pojawieniem się cyjanobakterii.

Wiemy, że cyjanobakterie są bardzo starymi formami życia. Nie wiemy jednak dokładnie, jak starymi. Jeśli cyjanobakterie liczą sobie, na przykład, 2,5 miliarda lat, to z naszych badań wynika, że fotosynteza tlenowa zachodziła na Ziemi już 3,5 miliarda lat temu. To zaś wskazuje, że pomiędzy powstaniem Ziemi a fotosyntezą prowadzącą do powstania tlenu nie musiało minąć tak dużo czasu, jak sądziliśmy, mówi główny autor badań, doktor Tanai Cardona.

Jeśli fotosynteza tlenowa wyewoluowała wcześnie, oznacza to, że jest ona procesem, z którym ewolucja dość łatwo potrafi sobie poradzić. To zaś zwiększa prawdopodobieństwo pojawienia się jej na innych planetach i pojawienia się, wraz z nią, złożonych form życia.

Jednak stwierdzenie, kiedy na Ziemi pojawili się pierwsi producenci tlenu, jest trudne. Im starsze są skały, tym rzadziej występują i tym trudniej udowodnić, że znalezione w nich skamieniałe mikroorganizmy wykorzystywały lub wytwarzały tlen.

Zespół Cardony nie zajmował się więc skamieniałymi mikroorganizmami, a postanowił zbadać ewolucję dwóch głównych protein zaangażowanych w fotosyntezę, w wyniku której powstaje tlen.

W pierwszym etapie fotosyntezy cyjanobakterie wykorzystują światło do rozbicia wody na protony, elektrony i tlen. Pomocny jest w tym kompleks białkowy o nazwie Fotoukład II.

Fotoukład II złożony jest m.in. z homologicznych protein D1 oraz D2. W przeszłości było one identyczne, jednak obecnie są one kodowane przez różne sekwencje co wskazuje, że w pewnym momencie się rozdzieliły. Nawet wówczas, gdy były identyczne, były one w stanie prowadzić fotosyntezę tlenową. Jeśli jednak udałoby się określić moment, w którym się rozdzieliły, byłby to moment, w którym na pewno tlen powstawał na Ziemi w wyniku fotosyntezy.

W przeszłości zatem podobieństwo sekwencji genetycznych kodujących D1 i D2 wynosiło 100%, obecnie zaś kodujące je sekwencje w cyjanobakteriach i roślinach są podobne do siebie w 30%. Naukowcy wykorzystali więc złożone modele statystyczne oraz znane fakty z historii ewolucji fotosyntezy, by dowiedzieć się, w jakim czasie mogło dojść do zmiany ze 100 do 30 procent. Wyliczyli, że D1 i D2 w Fotoukładzie II ewoluowały wyjątkowo powoli. Okazało się, że musiało minąć co najmniej miliard lat, by doszło do takiej zmiany w kodującej obie proteiny sekwencji genetycznej.

Nasze badania sugerują, że fotosynteza tlenowa rozpoczęła się prawdopodobnie na długo przed pojawieniem się ostatniego przodka cyjanobakterii. Jest to zgodne z ostatnimi badaniami geologicznymi, które wskazują, że zlokalizowane gromadzenie sie tlenu było możliwe już ponad 3 miliardy lat temu. Tym samym pojawienie się cyjanobakterii i pojawienie się fotosyntezy, w wyniku której powstaje tlen, nie jest tym samym zjawiskiem. Pomiędzy oboma wydarzeniami mogło upłynąć bardzo dużo czasu. Dla nauki oznacza to wielką zmianę perspektywy, stwierdza Cardona.


« powrót do artykułu

Share this post


Link to post
Share on other sites
11 godzin temu, KopalniaWiedzy.pl napisał:

Naukowcy wykorzystali więc złożone modele statystyczne oraz znane fakty z historii ewolucji fotosyntezy, by dowiedzieć się, w jakim czasie mogło dojść do zmiany ze 100 do 30 procent.

Mogli jeszcze wykorzystać kości i wnętrzności - podobno z nich też się dobrze wróży :D

Cytat

Nasze badania sugerują, że fotosynteza tlenowa rozpoczęła się prawdopodobnie 

Bez komentarza :D

Edited by nantaniel
  • Downvote (-1) 1

Share this post


Link to post
Share on other sites

Haha! Jakie dowcipne. LOL.Rotfl.

NIE! Jednak nie.

Mógłbym zapytać które - twoim zdaniem - elementy tej pracy: https://onlinelibrary.wiley.com/doi/full/10.1111/gbi.12322  obarczone są tak dużym błędem i jakie masz podstawy, by tak twierdzić. Nie ma to jednak sensu bo wiem, że nie masz nic na obronę swojej tezy (jeśli to co napisałeś, w ogóle można tak nazwać).

Zamiast tego przetłumaczę twój komentarz z języka sarkazmu na język faktów:

12 godzin temu, nantaniel napisał:
23 godziny temu, KopalniaWiedzy.pl napisał:

Naukowcy wykorzystali więc złożone modele statystyczne oraz znane fakty z historii ewolucji fotosyntezy, by dowiedzieć się, w jakim czasie mogło dojść do zmiany ze 100 do 30 procent.

Mogli jeszcze wykorzystać kości i wnętrzności - podobno z nich też się dobrze wróży :D

Tłumaczenie: "Nie przeczytałem ani nawet nie przejrzałem pracy wspomnianych naukowców. Nie mam najmniejszego pojęcia o statystyce, biologii molekularnej i ewolucji białek. Nie potrafię sobie nawet wyobrazić, jak można datować tak dawne wydarzenia. A skoro JA nie potrafię sobie czegoś wyobrazić, to znaczy że to szarlataneria i wróżbiarstwo."

12 godzin temu, nantaniel napisał:
Cytat

Nasze badania sugerują, że fotosynteza tlenowa rozpoczęła się prawdopodobnie 

Bez komentarza :D

Ja natomiast skomentuję, bo najwyraźniej albo nie wiesz jak działa nauka, albo to ignorujesz bo tak ci pasuje do twoich z nauki heheszków.

W skrócie - mamy 2 podejścia. Pokażę łatwe do ogarnięcia przykłady na obecnie obowiązujących teoriach naukowych.

Pierwsze:

Jest rok 1905. Nazywam się Albert Einstein. Publikuję właśnie efekty mojej pracy. Stanowczo twierdzę, że... - i tu mamy STW

Drugie:

Jest rok 1909. Nazywam się Ernest Rutherford. Publikuję wyniki eksperymentu, który właśnie przeprowadziłem z kolegami. Sugerują one, że dotychczas uznawany model budowy atomu Thomsona jest błędny. Prawdopodobnie atom wygląda tak: ... - i tu mamy planetarny model atomu Rutherforda bliski już obecnie obowiązującemu.

Kilka eksperymentów więcej + trochę matematyki i w 1913 roku mamy poprawioną wersję (czyli rozwinięcie poprzedniej a nie wyrzucenie jej do kosza) - model atomu Bohra. Jeszcze kilkanaście lat i trochę mechaniki kwantowej - i mamy kolejne tuningi, itd.

Tak się pcha naukę do przodu.

Share this post


Link to post
Share on other sites
W dniu 29.11.2018 o 01:21, KopalniaWiedzy.pl napisał:

Wiemy, że cyjanobakterie są bardzo starymi formami życia. Nie wiemy jednak dokładnie, jak starymi. Jeśli cyjanobakterie liczą sobie, na przykład, 2,5 miliarda lat, to z naszych badań wynika, że fotosynteza tlenowa zachodziła na Ziemi już 3,5 miliarda lat temu. To zaś wskazuje, że pomiędzy powstaniem Ziemi a fotosyntezą prowadzącą do powstania tlenu nie musiało minąć tak dużo czasu, jak sądziliśmy, mówi główny autor badań, doktor Tanai Cardona.

Istotne jest to, czy ci pierwotni producenci tlenu posiadali nukleotyd sterujący ich funkcjami życiowymi, czy też nie.

Dlaczego?

Gdyby sterowanie za pomocą nukleotydu pojawiło się dopiero z sinicami, oznaczałoby to, że pomiędzy powstaniem protokomórek a implantacją nukleotydu podtrzymującego syntezę białek i podział komórki, upłynęło 1,3 miliarda lat. A jeżeli wcześniej, to 0,3 mld. Różnica 1 miliarda lat zmienia postrzeganie stopnia prawdopodobieństwa na powstanie życia i umacnia bądź osłabia hipotezę jedynej Ziemi.

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.

Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      W lipcu przyszłego roku zostanie wystrzelona misja Mars 2020. Po trwającej pół roku podróży lądownik z ważącym 1 tonę łazikiem rozpocznie sekwencję lądowania na dnie dawnego jeziora. Na miejsce lądowania wybrano Krater Jezero.
      Lądowanie będzie najbardziej ryzykownym i najmniej przewidywalnym momentem całej misji. Ci, którzy pamiętają słynne „7 minut horroru” podczas lądowania łazika Curiosity mogą wzruszyć ramionami sądząc, że NASA po prostu powtórzy to, co zrobiła w 2012 roku. Jednak pomiędzy oboma lądowaniami jest pewna zasadnicza różnica. Curiosity lądował w bezpiecznym płaskim terenie Krateru Gale. Mars 2020 wyląduje w miejscu znacznie trudniejszym, pełnym głazów i innych niebezpieczeństw.
      Aby zwiększyć powodzenie przyszłorocznego lądowania misję Mars 2020 wyposażono w technologię Terrain Relative Navigation, czyli autopilota. Autopilot ten to efekt 15 lat pracy inżyniera Andrew Johnsona z Jet Propulsion Laboratory. Specjalista pracował przez 15 lat nad urządzeniem, które będzie potrzebne przez... 10 sekund. Jednak te 10 sekund zdecydują o tym, czy lądowanie na Marsie się uda czy też nie, mówi Johnson.
      Gdy łazik znajdzie się na wysokości 4,2 kilometra nad powierzchnią Marsa i będzie opadał na spadochronach, jego komputer pokładowy zacznie szybko wykonywać fotografie powierzchni Czerwonej Planety. Rozdzielczość każdego zdjęcia będzie wynosiła 6 metrów na piksel, a system lądowania będzie je analizował, szukając głazów, szczelin, kraterów, klifów i innych przeszkód. Fotografie te zostaną też porównane ze zdjęciami wykonanymi wcześniej z orbity. Gdy komputer pokładowy zidentyfikuje 15 charakterystycznych cech terenu, przełączy swój system wizyjny na większą rozdzielczość.
      Na całą opisaną powyżej sekwencję będzie tylko 10 sekund. W tym czasie muszą zostać wykonane zdjęcia, ma być przeprowadzona ich analiza, komputer dokona oceny miejsca lądowania, porówna przewidywane miejsce lądowania z tym, wybranym na podstawie zdjęć z orbity i zdecyduje, czy należy zmieć tor lotu. Wszystko w ciągu wspomnianych 10 sekund, gdyż po tym, gdy od lądownika oddzieli się osłona termiczna nie będzie możliwe dokonywanie żadnych korekt lotu.
      To wszystko może wyglądać na niepotrzebne ryzyko i komplikowanie sekwencji lądowania, ale ma swoje głębokie uzasadnienie. O ile bowiem wcześniej łazik był w stanie określić swoje miejsce lądowania z dokładnością do 3000 metrów, nowa technologia ma pozwolić na zmniejszenie marginesu błędu do zaledwie 40 metrów. I NASA nie chodzi tutaj o bicie rekordów. Tylko bowiem taka technologia pozwala nam na lądowania w tak interesujących z naukowego punktu widzenia miejscach, jak Krater Jezero, mówi Johnson.
      NASA szacuje, że bez opracowanego przez Johnsona systemu wizyjnego szansa na udane lądowanie Jezero wynosiłaby 85%. Dzięki Terrain Relative Navigation wrasta ona do 99%.
      Skąd takie zaufanie do systemu, którego nie można było nigdy wcześniej przetestować w miejscu, w którym będzie używany? Wszystko dzięki wyczerpującym testom, jakie system przechodził w kwietniu i maju bieżącego roku na Pustyni Mojave, w tym w Dolinie Śmierci. Johnson i jego koledzy odbyli ponad 600 lotów śmigłowcem na wyskości do 5 kilometrów nad Ziemią. Do śmigłowca był przyczepiony marsjański system wizyjny, którego zadaniem było wykonywanie fotografii, ich analiza, porównywanie, znalezienie miejsca do lądowania, ocena ryzyka i przeprowadzenie symulowanego lądowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Za trzy tygodnie zostanie przedstawione szczegółowe podsumowanie projektu Deep Carbon Observatory (DCO), prowadzonego od 10 lat przez amerykańskie Narodowe Akademie Nauk. W programie bierze obecnie udział niemal 1000 naukowców z niemal 50 krajów na świecie. Mediom udostępniono już główne wnioski z raportu, które zostały opublikowane w piśmie Elements.
      Z badań wynika, że w oceanach, najwyższej warstwie gleby oraz w atmosferze znajduje się 43 500 gigaton (Gt – miliardów ton) węgla. Cała reszta jest uwięziona w ziemskiej skorupie, płaszczu i jądrze. Całkowita ilość węgla obecnego na naszej planecie to 1,85 miliarda Gt. Każdego roku z głębi Ziemi za pośrednictwem wulkanów oraz innych aktywnych regionów emitowanych jest od 280 do 360 milionów ton (0,28–0,36 Gt) węgla. Zatem całkowita antropogeniczna emisja węgla jest od 40 do 100 razy większa, niż całkowita emisja z aktywności wulkanicznej.
      Obieg węgla w głębi planety wykazuje długoterminową stabilność. Czasami dochodzi do katastrofalnych wydarzeń, podczas których do atmosfery przedostają się duże ilości węgla, co powoduje ocieplenie klimatu, zakwaszenie oceanów oraz masowe wymieranie. W ciągu ostatnich 500 milionów lat Ziemia doświadczyła co najmniej 5 tego typu wydarzeń. Upadek meteorytu, który przed 66 miliony laty przyczynił się do zagłady dinozaurów, spowodował emisję od 425 do 1400 Gt CO2 powodując ogrzanie klimatu i masowe wymieranie roślin i zwierząt. Niewykluczone, że uda się opracować system wczesnego ostrzegania przed erupcjami wulkanicznymi, gdyż przed 5 laty zaobserwowano, iż przed wybuchem w gazach wulkanicznych zmniejsza się udział dwutlenku siarki, a zwiększa dwutlenku węgla.
      Węgiel, będący podstawą wszelkiego życia i źródłem energii dla ludzkości, obiega planetę od płaszcza po atmosferę. By zabezpieczyć naszą przyszłość, musimy lepiej zrozumieć cały cykl obiegu węgla. Kluczowe jest określenie, jak wiele jest tego węgla, gdzie on się znajduje, jak szybko i w jakiej ilości przemieszcza się pomiędzy głębokimi obszarami ziemi a atmosferą i z powrotem, mówi Marie Edmonds z University of Cambridge, która bierze udział w projekcie DCO. Z kolei Tobias Fischer z University of New Mexico przypomina, że dotychczas w ramach prac DCO powstało ponad 1500 publikacji naukowych. Cieszymy się z postępu, jednak trzeba podkreślić, że głębokie warstwy naszej planety to obszar w dużej mierze nieznany nauce. Dopiero zaczynamy zdobywać potrzebną nam wiedzę.
      Ponad powierzchnią Ziemi występuje 43 500 gigaton węgla. Niemal cały ten węgiel, bo 37 000 gigaton znajduje się w głębinach oceanów. Kolejne 3000 gigaton występuje w osadach morskich, a 2000 Gt w biosferze lądowej. W powierzchniowych wodach oceanów występuje 900 Gt węgla, a w atmosferze jest go 590 Gt.
      Eksperci z DCO oceniają też, że obecnie na Ziemi aktywnych jest około 400 z 1500 wulkanów, które były aktywne od ostatniej epoki lodowej. Kolejnych 670 wulkanów, które były aktywne przed epoką lodową, może emitować gazy. Dotychczas udokumentowano emisję ze 102 takich wulkanów, z czego 22 to wulkany, w przypadku których ostatnia erupcja miała miejsce dawniej niż 2,5 miliona lat temu. Dzięki stacjom monitorującym, modelom cyfrowym i eksperymentom wiemy, że w latach 2005–2017 mierzalne ilości CO2 emitowało do atmosfery ponad 200 systemów wulkanicznych. Jeszcze w roku 2013 ich liczbę oceniano na 150. Udokumentowano też superregiony w których dochodzi do rozproszonej emisji gazów z wnętrza Ziemi, takie jak Yellowstone, Wielki Rów Wschodni w Afryce czy wulkaniczna prowincja Technong w Chinach. Dzięki tym badaniom możliwe było stwierdzenie, że emisja z takich regionów jest porównywalna z emisją wulkaniczną

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku.
      Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji.
      Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy.
      Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej.
      Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku.
      Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę.
      Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia.
      Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach.
      Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario.
      Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy.
      Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Jednym z największych problemów eksploracji kosmosu jest olbrzymi koszt pokonania grawitacji Ziemi. Silniki rakietowe zużywają olbrzymie ilości paliwa na osiągnięcie odpowiedniego przyspieszenia, a samo paliwo tylko zwiększa masę, którą trzeba wynieść. Wskutek tego umieszczenie na orbicie każdego kilograma ładunku kosztuje dziesiątki tysięcy dolarów. Wyprawa w dalsze regiony to kolejne koszty. Dlatego też specjaliści od dawna zastanawiają się, w jaki sposób obniżyć te koszty.
      Jeden z pomysłów zakłada zbudowanie kosmicznej windy, kabla rozciągającego się od Ziemi na orbitę, po której można by wysyłać ładunki. Olbrzymią zaletą takiego rozwiązania byłaby możliwość wykorzystania energii słonecznej, zatem nie trzeba by było wynosić paliwa.
      Jest jednak pewien problem. Taki kabel musiałby być niezwykle wytrzymały. Zephyr Penoyre z University of Cambridge oraz Emily Sandford z Columbia University twierdzą, że już teraz istnieją komercyjnie dostępne materiały, z których taki kabel mógłby powstać. Trzeba jedynie zmienić sposób myślenia o budowie kosmicznej windy.
      Rozważana przez licznych ekspertów winda kosmiczna rozciągałaby się od Ziemi po orbitę geosynchroniczną, która znajduje się około 36 000 kilometrów nad powierzchnią naszej planety. Kabel o takiej długości miałby olbrzymią masę. Żeby nie dopuścić do jego upadku, trzeba by umocować go na orbicie do podobnej masy, a tak skonstruowana winda byłaby utrzymywana przez działające na nią siły odśrodkowe.
      Przez dziesięciolecia specjaliści prowadzili odpowiednie obliczenia i zawsze otrzymywali zniechęcające wyniki. Nie istnieje bowiem materiał wystarczająco wytrzymały, z którego można by taką windę zbudować.
      Penoyre i Sandford zaproponowali więc inne rozwiązanie. Zamiast mocować kabel do Ziemi, należy umocować go do Księżyca i opuścić w kierunku Ziemi. Różnica tkwi w sile odśrodkowej. Rozważana dotychczas winda kosmiczna wykonywałaby jeden obrót wokół planety w ciągu doby. Jednak lina mocowana do Księżyca wykonywałaby obrót raz na miesiąc, zatem działałyby na niż mniejsze siły. Co więcej, siły te byłyby inaczej rozłożone. Lina rozciągnięta od Księżyca ku Ziemi przechodziłaby przez obszar, w którym oddziaływania grawitacyjne Ziemi i Księżyca się znoszą. Obszar ten, punkt Lagrange'a, jest kluczowym elementem nowej koncepcji kosmicznej windy. Poniżej niego grawitacja ciągnie linę ku Ziemi, powyżej, ku Księżycowi.
      Penoyre i Sandford wykazali oczywiście, że nie istnieje materiał pozwalający na stworzenie liny rozciągającej się od Księżyca do Ziemi. Jednak kabel taki, by być użytecznym, nie musi być rozciągnięty na całą długość. Naukowcy wykazali, że z dostępnych obecnie polimerów węglowych można zbudować kabel rozciągający się od Księżyca po orbitę geosynchroniczną Ziemi. Tworzenie prototypowego kabla grubości rysika ołówka kosztowałoby miliardy dolarów. Nie jest to jednak coś, czego już teraz nie da się wykonać.
      Dzięki rozciągnięciu umocowanej do Księżyca liny głęboko w studnię grawitacyjną Ziemi możemy zbudować stabilną użyteczną windę kosmiczną pozwalającą na swobodne przemieszczanie się pomiędzy sąsiedztwem Ziemi a powierzchnią Księżyca, mówią Penoyre i Sandford. Wyliczają, że dzięki takiemu rozwiązaniu obecne koszty osiągnięcia powierzchni Księżyca zmniejszyłyby się o około 70%. Co więcej taka winda ułatwiłaby eksplorację  okolic punktu Lagrange'a. To niezwykle interesujący region, gdyż zarówno grawitacja jak i jej gradient wynoszą w nim 0, dzięki czemu można tam bezpiecznie prowadzić różnego typu prace konstrukcyjne. Jeśli z Międzynarodowej Stacji Kosmicznej wypadnie jakieś narzędzie, będzie ono szybko przyspieszało. W punkcie Lagrange'a gradient grawitacji jest praktycznie pomijalny, takie narzędzie przez długi czas będzie znajdowało się blisko ręki, z której wypadło, zauważają naukowcy.
      Dodatkową zaletą punktu Lagrange'a jest fakt, że w regionie tym znajduje się bardzo mało śmieci pozostawionych przez człowieka oraz innych obiektów, mogących stanowić zagrożenie dla pracujących tam ludzi oraz wznoszonych konstrukcji.
      Z tych właśnie powodów Penoyre i Sandford uważają, że dostęp do punktu Lagrange'a jest główną zaletą proponowanej przez nich windy kosmicznej. Możliwość założenia obozu w punkcie Lagrange'a to, naszym zdaniem, najważniejszy i najbardziej obiecujący element wczesnego użycia proponowanej przez nas windy kosmicznej. Taki obóz pozwoliłby na budowanie i konserwację nowej generacji sprzętu kosmicznego, czy to teleskopów, akceleratorów cząstek, wykrywaczy fal grawitacyjnych, generatorów energii, wiwariów czy platform startowych dla podboju dalszych regionów Układu Słonecznego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcom w końcu udało się odnaleźć częściowo zachowaną czaszkę jednego z naszych najważniejszych przodków. Odkrycie rzuca światła na kluczowy etap ewolucji człowieka.
      W 2016 roku Yohannes Haile-Selassie z Cleveland Museum of Natural History w Ohio i jego koledzy prowadzili wykopaliska na stanowisku Woranso-Mille w Etiopii. Pewnego dnia podszedł do nich Ali Bereino, jeden z okolicznych mieszkańców, i pokazał naukowcowi kość szczękową. On nie był wówczas nawet przeze mnie zatrudniony, mówi Haile Selassie.
      Uczony poszedł z Bereino na miejsce znaleziska. Trzy metry dalej leżała reszta głowy, stwierdza. Jego zespół zaczął bardzo dokładnie przeszukiwać teren. Praca nie należała do przyjemnych, gdyż miejsce było pokryte półmetrową warstwą świeżych kozich odchodów. Poświęcenie się jednak opłaciło. Znaleziono bowiem wiele ważnych kości, w tym np. lewą kość jarzmową.
      Czaszka prawdopodobnie należała do mężczyzny, a biorąc pod uwagę stopień zużycia zębów, do sędziwego mężczyzny. Na podstawie warstwy, w której ją znaleziono, uczeni stwierdzili, że mężczyzna żył 3,8 miliona lat temu.
      Teraz zidentyfikowano czaszkę jako należącą do Australopithecus anamensis.
      Australopitek stanowił główną grupę homininów zamieszkujących Afrykę w okresie pomiędzy 4 a 2 milionami lat temu. Australopitek przemieszczał się na dwóch nogach, ale jego mózg był mniejszy od naszego. Do tego rodzaju należało wiele gatunków, w tym Australopithecus afarensis, którego przedstawicielka była słynna Lucy.
      Odkrycie czaszki A. anamensis jest niezwykle istotne, gdyż jest to najstarszy znany gatunek australopiteka. Po raz pierwszy został on opisany w 1995 roku. Już wcześniej wiedzieliśmy dość dużo o anamensis. Jednak nie dysponowaliśmy jego czaszką, mówi Stephanie Melillo z Instytutu Antropologii Ewolucyjnej im. Maksa Plancka w Lipsku.
      Odnalezienie czaszki być może zmusi naukę do zweryfikowania poglądów dotyczących ewolucji. Większość antropologów uważa, że A. anamensis jest przodkiem A. afarensis. Jest bowiem nieco starszy i bardziej podobny do małp. Jednak Melillo i jej zespół zaczęli kwestionować drogę ewolucji, jaką przyjęto we współczesnej nauce.
      Wielu uczonych twierdzi, że A. afarensis powstał w wyniku anagenezy A. anamensis. Anageneza to taka zmiana całej populacji, że pojawiają się w niej tak istotne cechy, iż należy tę populację uznać za nowy gatunek, a populację wyjściową za gatunek wymarły. Anageneza A. anamensis w A. afarensis byłaby jednym z najniezwyklejszych przypadków anagenezy, jakie zachowały się w skamieniałościach, stwierdza Melillo.
      Naukowcy z Lipska porównali nowo znalezioną czaszkę A. anamensis z czaszkami innych homininów, goryli oraz szympansów. Na tej podstawie stwierdzili, że znaleziona przed ponad 30 laty częściowa kość czołowa, która liczy sobie 3,9 miliona lat, należy do A. afarensis. Jako, że jest ona starsza niż znaleziona obecnie czaszka A. anamensis, nie mogło dojść do anagenezy, gdyż gatunek starszy nie może powstać z młodszego. Zespół Melillo uważa, że doszło do podziału linii ewolucyjnych wśród A. anamensis. Część gatunku dała początek A. afarensis, a część istniała jeszcze przez co najmniej 100 000 lat.
      Nie wszyscy jednak zgadzają się z taką hipotezą. Bardzo trudno jest na podstawie fragmentu kości jednoznacznie stwierdzić, że należy on do afarensis, a nie do anamensis, mów zwolennik anagenezy, William Kimbel z Arizona State University. Posiadamy bowiem obecnie jedną czaszką A. anamensis, więc nie wiemy, na ile zróżnicowany był wygląd tego gatunku. Jak podkreśla Kimbel, nie oznacza to, że Melillo się myli. Potrzebujemy po prostu więcej skamieniałości do porównań.
      Odnalezienie czaszki A. anamensis wzmacnia też argumenty tej części naukowców, którzy twierdzą, że niektóre bardzo stare skamieniałości należą do homininów, a nie do wymarłym linii ewolucyjnych małp. Chodzi tutaj m.in. o Ardipithecus ramidus sprzed 4,4 miliona lat czy Sahelanthropus tchadensis sprzed 6 milionów lat. Widzimy pewne podobieństwa pomiędzy nowo znalezioną czaszką a na przykład czaszką Sahelanthropusa czy też między zębami nowo znalezionej czaszki, a zębami ardipiteka, stwierdza Melillo.

      « powrót do artykułu
×
×
  • Create New...