Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Sztuczna inteligencja wyliczyła, że wymieranie dewońskie nie miało miejsca

Recommended Posts

Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat.

Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie.

Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat.

Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 000 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A.

Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu.

Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania.

Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20.

Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat.

W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił.

Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania.


« powrót do artykułu

Share this post


Link to post
Share on other sites

63.000 lat ... taki krótki okres... pomyślmy sobie że od początku naszej ery upłynęło zaledwie 2.000.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z laboratorium ENIGMA (Evolution of Nanomachinest In Geospheres and Microbial Ancestors) na Rutgers University sądzą, że odtworzyli kształt pierwszej molekuły będącej wspólnym przodkiem współczesnych enzymów, które dały początek życiu na Ziemi.
      Życie to proces elektryczny. Obwód elektryczny jest katalizowany przez niewielki zestaw protein, które działają jak złożone nanomaszyny, czytamy na stronie laboratorium. ENIGMA jest współfinansowane przez NASA w ramach Astrobiology Program. Sądzimy, że życie powstało z bardzo małych klocków i pojawiło się zestaw Lego, z którego powstały komórki i bardziej złożone organizmy, jak my, mówi główny autor badań, biofizyk Paul G. Falkowski.
      Naukowcy wykonali analizę porównawczą trójwymiarowych struktur białek, by sprawdzić, czy można na tej podstawie wysnuć wnioski, co do kształtu ich wspólnego przodka. Szczególnie skupili się na podobieństwach pomiędzy kształtami, jakie w trzech wymiarach przyjmują łańcuchy aminokwasów. Poszukiwali prostego topologicznego modelu, który powiedziałby, jak wyglądały pierwsze proteiny, zanim stały się bardziej złożone i zróżnicowane.
      Odkryliśmy, że dwa powtarzające się wzorce zwijania są kluczowe dla pojawienia się metabolizmu. Prawdopodobnie te metody zawijania mają wspólnego przodka, który za pomocą duplikacji, specjalizacji i różnicowania ewoluował tak, by ułatwić transfer elektronów i katalizę na bardzo wczesnym etapie początków metabolizmu, wyjaśniają naukowcy.
      Te dwa zidentyfikowane metody zwijania to zwijanie ferredoksyny oraz konformacja Rossmanna. Naukowcy sądzą, że te dwie podstawowe struktury, które mogą mieć wspólnego przodka, posłużyły jako wzorzec dla protein sprzed ponad 2,5 miliarda lat.
      Przypuszczamy, że pierwszymi proteinami były małe, proste peptydy, któe pobierały elektrony z oceanu, atmosfery lub skał i przekazywały je innym molekułom akceptującym elektrony, mówi biolog molekularny Vikas Nanda. W reakcji transferu elektronu uwalnia się energia i energia ta napędza życie, dodaje.
      Naukowcy przyznają, że to wszystko jest jedynie hipotezą. Porównywanie kształtu obecnie istniejących protein to metoda pełna ograniczeń, która nie pozwala na uzyskanie pewności co do prawdziwości wnioskowania. Domyślamy się co mogło się wydarzyć, a nie dowodzimy, co się wydarzyło, stwierdzają autorzy badań. Jednak, jak zauważają, można tego typu badania posunąć dalej.
      Można spróbować odtworzyć w laboratorium hipotetyczne proteiny z przeszłości i sprawdzić, jak działają i jak mogą ewoluować. Naszym głównym celem jest dostarczenie NASA informacji, dzięki którym przyszłe misje naukowe będą wiedziały gdzie i jak poszukiwać życia na planetach pozasłonecznych.
      Ze szczegółami badań można zapoznać się na łamach PNAS.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Minor Planet Centre ogłosiło właśnie, że Ziemia ma... dwa księżyce. Poza Srebrnym Globem naszą planetę okrąża jeszcze jeden księżyc, który został przechwycony przez Ziemię przed około 3 laty. Nie zobaczymy go jednak gołym okiem. Nowy księżyc ma zaledwie od 1 do 6 metrów średnicy i zbyt długo z nami nie pozostanie.
      Po raz pierwszy został on zauważony przez Theodore'a Pruyne'a i Kacpera Wierzchosa za pomocą teleskopu w Mount Lemmon Observatory w Arizonie. Uczeni spostrzegli nieznany dotychczas obiekt 15 lutego. Kolejne obserwacje pozwoliły obliczyć jego orbitę i potwierdzić, że jest on powiązany z Ziemią. W związku z tym Minor Planet Center, które pracuje w imieniu Międzynarodowej Unii Astronomicznej, oficjalnie ogłosiło odkrycie i nadało księżycowi nazwę 2020 CD3.
      Obiekt ten to niewielka asteroida, której orbita skrzyżowała się z orbitą Ziemi. Czasem takie asteroidy przelatują obok naszej planety, czasem na nią spadają. Jednak 2020 CD3 została przechwycona i stała się naszym tymczasowym księżycem. Te tak zwane „mini księżyce” pojawiają się i znikają. Autorzy jednego z wcześniejszych badań twierdzą, że w każdym momencie Ziemia posiada przynajmniej jeden dodatkowy czasowy mini-księżyc o średnicy powyżej 1 metra, który wykonuje co najmniej jeden pełny obieg wokół Ziemi.
      Żaden z tych księżyców nie zostaje na długo, gdyż oddziaływania grawitacyjne Księżyca i Słońca destabilizują ich orbity. Najprawdopodobniej krążą one wokół Ziemi najwyżej przez kilka lat, później uwalniają się spod jej wpływu i zajmują orbitę wokół Słońca.
      2020 CD3 znajduje się dalej niż Księżyc i prawdopodobnie odbywa obecnie ostatnie okrążenie wokół naszej planety.
      Poprzednim odkrytym tymczasowym księżycem Ziemi był 2006 RH120. Pomiędzy wrześniem 2006 a czerwcem 2007 czterokrotnie okrążył on Ziemię, a później poleciał swoją drogą. Obecnie znajduje się po drugiej stronie Słońca, a Ziemię ponownie odwiedzi w 2028 roku.
      Istnieje też hipoteza mówiąca, że „mini księżyce” to asteroidy, których okres orbitalny wokół Słońca wynosi dokładnie 1 rok. Czasem ich orbity zbiegają się z naszą, wówczas wydają się powiązane z Ziemią, ale w rzeczywistości krążą niezależnie wokół Słońca. Mówi się tutaj o „kwazi-satelitach” Ziemi. Jeden z nich, 1991 VG, prawdopodobnie dokonał co najmniej jednego obiegu wokół naszej planety. Niewykluczone, że powtórzy to w przyszłości.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Algorytmy sztucznej inteligencji znacznie lepiej niż ludzie przewidują, którzy ze skazanych popełnią w przyszłości przestępstwo. Przeprowadzone właśnie badania pokazują, że programy takie jak COMPAS mogą być niezwykle przydatnym narzędziem dla sędziów i innych pracowników systemu sprawiedliwości i więziennictwa.
      Co prawda ludzie w warunkach testowych również radzą sobie z tym zadaniem dobrze i gdy znają kilka podstawowych zmiennych, to nawet osoba bez odpowiedniego przygotowania jest w stanie, w kontrolowanym środowisku, dorównać złożonym narzędziom oceny ryzyka, mówią naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley.
      Jednak zupełnie inaczej ma się sprawa z rzeczywistymi wydarzeniami i problemami, z którymi mierzy się wymiar sprawiedliwości. Tutaj zmiennych jest olbrzymia liczba. A przeprowadzone właśnie badania wykazały, że algorytmy potrafią nawet z 90-procentową trafnością przewidzieć, który z podsądnych zostanie w przyszłości zatrzymany za inne przestępstwo. Ludzie potrafią to ocenić ze znacznie niższą, bo zaledwie 60-procentową trafnością.
      Ocena ryzyka od dawna jest częścią procesu podejmowania decyzji w sądownictwie kryminalnym. Ostatnio toczą się dyskusje na temat wykorzystywania narzędzi opierających się na algorytmach komputerowych. Nasze badania wykazały, że w sytuacji rzeczywistych przypadków karnych algorytmy sztucznej inteligencji dokonują często lepszej oceny ryzyka niż ludzie. Wyniki te są zgodne z wieloma innymi badaniami porównującymi wyniki uzyskiwane przez narzędzia statystyczne z wynikami uzyskiwanymi przez ludzi, mówi Jennifer Skeem, psycholog specjalizującą się w przestępczości kryminalnej.
      Sprawdzone narzędzia do oceny ryzyka mogą pomóc sędziom i innym pracownikom wymiaru sprawiedliwości w podejmowaniu lepszych decyzji. Na przykład narzędzia te mogą sędziemu wskazać, który ze skazanych stwarza niewielkie ryzyko i w związku z tym można go przedterminowo zwolnić z więzienia. Oczywiście, podobnie jak inne narzędzia, także i te do oceny ryzyka, muszą zostać połączone z rozsądną polityką oraz muszą być nadzorowane przez człowieka, dodaje Sharad Goel z Uniwersytetu Stanforda, statystyk specjalizujący się w dziedzinie nauk społecznych.
      Lepsze narzędzia do oceny ryzyka są niezwykle potrzebne, szczególnie w USA. Stany Zjednoczone mają bowiem największy na świecie odsetek liczby uwięziony i największą na świecie liczbę osób w więzieniach. Od lat toczy się tam dyskusja na temat zmiany tego stanu rzeczy, ale trzeba zrównoważyć to z potrzebą zapewnienia bezpieczeństwa. Ocena, którego z więźniów można bez ryzyka wypuścić, jest więc niezwykle istotna.
      Narzędzia do oceny ryzyka są w USA bardzo szeroko rozpowszechnione w medycynie, bankowości czy szkolnictwie wyższym. Od dawna też używane są w miarze sprawiedliwości. Jednak w 2018 roku Dartmouth College przeprowadzono badania, w których poddano w wątpliwość skuteczność takich narzędzi. Wynikało z nich bowiem, że i ludzie i algorytmy równie dobrze (z 66% trafnością) oceniają ryzyko. Badania były szeroko komentowane i wiele osób stwierdziło, że w takiej sytuacji nie powinno się używać algorytmów.
      Autorzy najnowszych badań powtórzyli badania przeprowadzone przez Dartmouth i stwierdzili, że posługiwano się podczas nich ograniczonym zestawem danych. Wzięto bowiem pod uwagę jedynie płeć oskarżonych, ich wiek, przestępstwo z które zostali ostatnio skazani oraz całą ich wcześniejszą kartotekę policyjną. Tymczasem sędziowie mają do dyspozycji znacznie więcej informacji. Korzystają z dokumentów ze śledztwa, opinii adwokatów, zeznań ofiar, na ich ocenę wpływa zachowanie i sposób bycia sprawców oraz ofiar. To często są informacje nie mające wpływu na ryzyko recydywy, są niespójne, z łatwością mogą powodować błędną ocenę, wyjaśniają autorzy najnowszych badań.
      Dlatego też rozszerzyli zestaw danych, którymi posługiwali się badacze z Dartmouth. Do wykorzystanych przez nich czynników, dodali 10 nowych, takich jak informacje o zatrudnieniu, zażywaniu używek czy zdrowiu psychicznym. Zmieniono też metodologię. Po każdym z eksperymentów nie mówiono ludziom, których wyniki porównywano z maszyną, czy dokonali dobrej oceny. Sędziowie nie mają przecież informacji o tym, czy osoba, której skrócili karę, popełni w przyszłości przestępstwo.
      Wyniki pokazały, że w takiej sytuacji, gdy zasady eksperymentu bardziej odpowiadają rzeczywistości, ludzie wypadają znacznie gorzej niż algorytm COMPAS. Takie narzędzia mogą być więc przydatnym uzupełnieniem pracy sędziów, kuratorów, lekarzy i innych osób, które mają wpływ na decyzję o wcześniejszym zwolnieniu przestępcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.
      Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze.
      Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI.
      Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM.
      Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna.
      Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe.
      Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci.
      Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie.
      Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman.
      Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman.
      Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów.
      Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE.
      Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund.
      Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Transiting Exoplanet Survey Satellite (TESS) odkrył swoją pierwszą planetę wielkości Ziemi znajdującą się w ekosferze gwiazdy. Istnienie TOI 700 d została potwierdzona za pomocą Teleskopu Kosmicznego Spitzera.
      TOI 700 do jedna z niewielu znanych nam planet, która znajduje się w ekosferze swojej gwiazdy i jest wielkości Ziemi. "TESS został zaprojektowany i wystrzelony z myślą o poszukiwaniach planet wielkości Ziemi krążących woków pobliskich gwiazd. Planety towarzyszące niedalekim gwiazdom są łatwiejsze do odnalezienia. Odkrycie TOI 700 d to znaczące osiągnięcie dla TESS. Potwierdzenie wielkości planety i jej obecności w ekosferze to z kolei osiągnięcie Spitzera, teleskopu, którego misja ma się zakończyć 30 stycznia bieżącego roku", mówi Paul Hertz, dyrektor wydziału astrofizyki w kwaterze głównej NASA w Waszyngtonie.
      TESS monitoruje przez 27 dni wybrany sektory nieboskłonu. Poszukuje zmian jasności gwiazd, które mogą świadczyć o przechodzeniu planet na ich tle. TOI 700 to niewielka chłodna gwiazda typu M położona w odległości około 100 lat świetlnych w południowej części Gwiazdozbioru Złotej Ryby. Ma o 60% mniejszą masę od Słońca, a jej powierzchnia jest dwukrotnie chłodniejsza. Gwiazdę widać na 11 z 13 sektorów obserwowanych przez TESS w pierwszym roku misji. Dzięki tak długiemu czasowi obserwacji udało się zauważyć trzy planety przechodzące na jej tle.
      Początkowo gwiazda TOI 700 została zakwalifikowana jako bardziej podobna do Słońca, przez co jej planety wydawały się gorętsze i większe niż w rzeczywistości. Gdy dokonano korekt okazało się, że najbardziej zewnętrzna z planet jest wielkości Ziemi i znajduje się ekosferze. Co więcej, przez 11 miesięcy obserwacji nie zaobserwowano na gwieździe żadnych rozbłysków, co zwiększa szanse, że TOI 700 d ma stabilną atmosferę i warunki odpowiednie do życia.
      Najbardziej wewnętrzna planeta układu, TOI 700 b jest niemal dokładnie wielkości Ziemi, prawdopodobnie jest skalista i okrąża swoją gwiazdę w ciągu 10 dni. Kolejna z planet – TOI 700 c – ma średnicę 2,6 razy większą od średnicy Ziemi, jest prawdopodobniej gazowa, a jej czas obiegu wokół gwiazdy wynosi 16 dni. Znajdująca się w ekosferze TOI 700 d jest o 20% większa od naszej planety, obiega gwiazdę w ciągu 37 dni i otrzymuje z niej 86% energii jaką Ziemia otrzymuje od Słońca.
      Wszystkie planety prawdopodobnie charakteryzuje obrót synchroniczny, co oznacza, że jedna ich strona jest zawsze wystawiona w kierunku gwiazdy.
      Jako, że gwiazda TOI 700 jest jasna, znajduje się w pobliżu i nie zauważono na niej rozbłysków, jest ona bardzo dobrym celem kolejnych badań, pozwalających na precyzyjne pomiary masy. W niedalekiej zaś przyszłości powinno być możliwe zbadanie, czy planety mają atmosfery i jaki jest ich skład.

      « powrót do artykułu
×
×
  • Create New...