Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Sztuczna inteligencja wyliczyła, że wymieranie dewońskie nie miało miejsca

Recommended Posts

Zdaniem autorów nowych badań oraz algorytmu sztucznej inteligencji, jedno z masowych ziemskich wymierań, wymieranie dewońskie, nigdy nie miało miejsca. Obecnie uważa się, że przed około 375 milionami lat oceany stały się toksyczne, co doprowadziło do masowego wymierania. Wyginęły wówczas m.in. niemal wszystkie trylobity. Jednak grupa naukowców twierdzi, że nie było to masowe wymieranie, a stopniowy proces rozciągnięty na 50 milionów lat.

Wymieranie dewońskie nie miało miejsca. Ziemia doświadczyła powolnego spadku bioróżnorodności, co zresztą niektórzy naukowcy już wcześniej sugerowali, mówi Doug Erwin z Narodowego Muzeum Historii Naturalnej w Waszyngtonie.

Badanie historii bioróżnorodności nie jest łatwym zadaniem. Większość gatunków istnieje zaledwie kilka milionów lat. Jeśli więc widzimy skamieniałości gatunku w różnych miejscach, to pochodzą one z mniej więcej tego samego okresu. Podczas dotychczasowych badań nad bioróżnorodnością skupiano się na okresach liczących około 10 milionów lat.

Jednak Shuzhong Shen z Instytutu Geologii i Paleontologii w Nankinie oraz jego koledzy i współpracujący z nimi Erwin byli w stanie przeprowadzić badania, w czasie których przyjrzeli się okresom trwającym zaledwie 26 000 lat. Dokonali tego za pomocą opracowanych przed dekadą metod analizy statystycznej, które wykorzystali do analizy 100 000 rekordów dotyczących skamieniałości 11 000 gatunków morskich znalezionych w Chinach i Europie. Obliczenia były tak złożone, że naukowcy musieli opracować specjalny algorytm sztucnej inteligencji i uruchomić go na czwartym najpotężniejszym superkomputerze świata, Tianhe-2A.

Badaniami objęto okres 300 milionów lat,od początku kambru po początek triasu. Jak mówią obrazowo uczeni, poprawienie rozdzielczości czasowej badań pozwoliło na przejście od stwierdzenia, że wszyscy ludzie żyjący w tym samym wieku byli sobie współcześni, po uznanie za współczesnych sobie tylko ludzi, żyjących w tym samym półroczu.

Spadek bioróżnorodności w dewonie jest wciąż jasno widoczny, ale następował on przez cały późny dewon, a nie był pojedynczym skoncentrowanym wydarzeniem, mówi emerytowany paleontolog Richard Bambach, autor pracy naukowej z 2004 roku, w której argumentował, że w dewonie nie doszło do masowego wymierania.

Pomysł, że na Ziemi doszło do 5 masowych wymierań pojawił się po raz pierwszy w 1982 roku. Od tamtego czasu autorzy różnych badań argumentowali, że wymierań było od 3 do 20.

Nie istnieje formalna definicja masowego wymierania, jednak większość specjalistów zgadza się, że takim mianem należy określić znaczne zwiększenie liczby gatunków ginących w krótkim czasie. Na przykład w okresie wymierania permskiego większość gatunków wyginęła w ciągu 63 000 lat.

W roku 2004 Bambach argumentował również, że nie było wymierania triasowego. Jednak od tamtej pory pojawiło się więcej dowodów, iż miało ono jednak miejsce. Bambach przyznaje, że w tej kwestii się mylił.

Wszystko jednak wskazuje na to, że Ziemia doświadczyła czterech, a nie pięciu, okresów masowego wymierania.


« powrót do artykułu

Share this post


Link to post
Share on other sites

63.000 lat ... taki krótki okres... pomyślmy sobie że od początku naszej ery upłynęło zaledwie 2.000.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Mars jest drugą, po Ziemi, planetą w przypadku której stwierdzono istnienie oscylacji swobodnej Chandlera i zmierzono to zjawisko. Dokonał tego zespół z Jet Propulsion Laboratory, California Institute of Technology oraz Belgijskiego Obserwatorium Królewskiego.
      Oscylacja swobodna Chandlera to odchylenie osi obrotu Ziemi względem sztywnej skorupy ziemskiej. W przypadku Ziemi okres oscylacji swobodnej Chandlera wynosi około 433 dni, podczas których oś obrotu ziemi na Biegunie Północnym przemieszcza się po nieregularnym okręgu o średnicy około 8–10 metrów. Istnienie takiego efektu przewidział już Euler w 1765 roku, a pod koniec XIX wieku jego istnienie potwierdził astronom Seth Carlo Chandler. Oscylacja swoboda Chandlera to przykład ruchu, któremu podlega swobodnie wirujące ciało nie będące kulą.
      O ile jednak zmierzenie tego ruchu było możliwe w przypadku Ziemi, to dotychczas nie możemy go mierzyć w odniesieniu do innych planet. Wymaga to bowiem wieloletnich precyzyjnych pomiarów. Właśnie udało się ich dokonać dla Marsa.
      Amerykańsko-belgijski zespół naukowy wykorzystał w swojej pracy dane zebrane w ciągu 18 lat przez Mars Reconnaissance Orbiter, Mars Global Surveyor i Mars Odyssey. Wpływ grawitacyjny Marsa, jakie planeta wywiera na satelity, pozwolił stwierdzić istnienie oscylacji swobodnej Chandlera. W przypadku Czerwonej Planety jest ona jednak znacznie mniejsza niż na Ziemi. Odchylenie osi wynosi bowiem ok. 10 cm, a jego okres to 200 dni.
      Co interesujące, z obliczeń wynika, że oscylacja Chandlera powinna po jakimś czasie zaniknąć. Zarówno w przypadku Ziemi jak i Marsa istnieje ono dłużej niż powinno. To zaś wskazuje, że na oscylację ma wpływ czynnik, którego nauka jeszcze nie odkryła. Znalezienie tego czynnika powinno być łatwiejsze w przypadku Marsa, niż Ziemi, gdyż Czerwona Planeta ma znacznie mniej złożoną geografię, atmosferę i strukturę wewnętrzną. To pokazuje, jak ważnym osiągnięciem jest dokonany właśnie pomiar oscylacji Chandlera dla Marsa.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W medycynie nuklearnej sztuczna inteligencja wkroczyła już na III i IV poziom w pięciostopniowej skali. Oznacza ona oszczędność czasu, szansę uniknięcia błędów ludzkich i skuteczniejsze terapie dla pacjentów – ocenia prof. Janusz Braziewicz z Polskiego Towarzystwa Medycyny Nuklearnej.
      Wkraczająca do nowoczesnej medycyny sztuczna inteligencja budzi skrajne emocje: w środowisku medycznym jak i w społeczeństwie jedni wiążą z nią duże nadzieje, inni mają obawy i wątpliwości. Tak jest np. z medycyną nuklearną, w której wykorzystywane są nowoczesne technologie.
      Prof. Janusz Braziewicz, kierownik Zakładu Medycyny Nuklearnej z Ośrodkiem PET w Świętokrzyskim Centrum Onkologii twierdzi, że zaawansowanie automatyzacji i sztucznej inteligencji w medycynie nuklearnej jest już na tyle duże, ze wkroczyło na III i IV poziom w pięciostopniowej skali.
      Pierwszy poziom oznacza jedynie działania manualne, drugi – maszynowo-manualne, a trzeci – zautomatyzowane działania maszynowo-manualne. Na czwartym poziomie pojawia się automatyzacja, ale „z ludzką ręką”, piąty oznacza pełną automatyzację.
      W diagnostyce obrazowej wygląda to w ten sposób, że na poziomie III (warunkowej automatyzacji) skaner czy system opisowy pod wpływem operatora dostosowuje się do narzucanych mu warunków i wykonuje zlecone zadanie.
      Obecnie obserwujemy duże przyspieszenie technologiczne i wejście na poziom IV (wysokiej automatyzacji), kiedy to system automatycznie przetwarza samodzielnie pozyskane dane i dostarcza specjaliście wstępnie przeanalizowane informacje. Ma to miejsce na przykład wówczas, kiedy system zeskanuje ułożonego na stole skanera PET/TK pacjenta i na podstawie swego rodzaju skanu topogramowego, w oparciu o analizę danych anatomicznych chorego zaproponuje wykonanie skanu PET i tomografu komputerowego z uwzględnieniem wskazania klinicznego i sylwetki pacjenta – wyjaśnia w informacji przekazanej PAP prof. Braziewicz, członek Zarządu Polskiego Towarzystwa Medycyny Nuklearnej.
      Odbywa się to z użyciem automatycznie dostosowanych parametrów akwizycji, z minimum wymaganej dawki promieniowania ze strony tomografu komputerowego. Algorytm po stronie PET ustala: szybkość przesuwu łóżka podczas płynnego skanowania różnych części ciała pacjenta, zastosowanie różnych matryc rekonstrukcyjnych, zastosowanie bramkowania oddechowego dla odpowiedniego obszaru klatki piersiowej i tułowia.
      Według prof. Braziewicza bezzasadne są zatem obawy, że komputery zastąpią lekarzy. W przypadku diagnostyki obrazowej stają się one wręcz niezbędne. Powodem jest choćby lawinowy wzrost diagnostycznych badań obrazowych, w tym również z zakresu medycyny nuklearnej. Jedynie w latach 2000-2010 liczba badań tomografii komputerowej i rezonansu magnetycznego wzrosła dziesięciokrotnie. Z kolei w medycynie nuklearnej taki gwałtowny wzrost liczby badań SPECT i PET przypada na okres po 2010 r.
      W ślad za tym nie następuje niestety proporcjonalny wzrost liczby dostępnych lekarzy specjalistów, którzy mogliby je szybko i rzetelnie przeprowadzić. Brakuje także wyszkolonych techników, korzystających z zaawansowanych metod akwizycji z zastosowaniem narzędzi, jakie oferuje dany skaner. Efektem jest przeciążenie ilością pracy poszczególnych grup specjalistów i często coraz dłuższy czas oczekiwania na opisanie badań. Co istotne, presja obniża jakość pracy. Jak pokazują badania, jeśli skróci się o 50 proc. czas na interpretację badania radiologicznego, to stosunek błędów interpretacyjnych wzrośnie o niemal 17 proc. – zaznacza prof. Janusz Braziewicz.
      Sztuczna inteligencja w coraz bardziej skomplikowanej i wymagającej diagnostyce obrazowej może zatem usprawnić i wspomóc pracę lekarza. Wdrożenia algorytmów opartych na Artificial Intelligence (AI) przynoszą oszczędność czasu i szansę na pełną standaryzację procedur, ale także na uniknięcie błędów ludzkich i skuteczniejsze, spersonalizowane terapie dla pacjentów – twierdzi specjalista.
      Obecnie medycy nuklearni rozwijają nowy trend teranostyki, który wydaje się być przyszłością personalizowanej medycyny poprzez ścisłe połączenie diagnostyki i terapii w celu dobrania do potrzeb konkretnego pacjenta celowanego leczenia. W obszarze sztucznej inteligencji medycy nuklearni coraz częściej wspierają proces terapii, pomagając w ocenie trafności i zasadności zaleconego leczenia już w początkowej jego fazie. Nie bez znaczenia jest w tym kontekście wykorzystywanie hybrydowych badań PET/CT na przykład w planowaniu radioterapii – tłumaczy prof. Janusz Braziewicz.
      Sztuczna inteligencja określa proces, w którym maszyna, czyli komputer, uczy się i naśladuje funkcje poznawcze specyficzne dla człowieka, aby wykonywać zadania, jakie zwyczajowo wykonywane są przez ludzki umysł: rozpoznawanie obrazów, identyfikacja różnic czy stawianie logicznych wniosków i prognozowanie. W procesie deep learning komputer już nie organizuje danych i nie wykonuje wcześniej zdefiniowanych ciągów równań, ale zbiera podstawowe parametry dotyczące tych danych i jest tak zaprogramowany, że przygotowuje się do samodzielnego uczenia się przez rozpoznawanie wzorców przy użyciu wielu kolejnych warstw przetwarzania.
      Trzeba mieć zatem świadomość, że algorytmy AI będą tak dobre, jak dane, na których były trenowane. Wyzwaniem będzie zatem zgromadzenie odpowiednio opracowanych dużych zestawów danych oraz odpowiednio wydajnych centrów obliczeniowych – uważa przedstawiciel Polskiego Towarzystwa Medycyny Nuklearnej.
      Jego zdaniem szanse zastosowania sztucznej inteligencji w medycynie to przede wszystkim digitalizacja wszystkich danych dotyczących konkretnego pacjenta, z uwzględnieniem takich aspektów, jak miejsce zamieszkania, historia chorób w rodzinie, dotychczasowe hospitalizacje, podejmowane wcześniej terapie lekowe i obecnie przyjmowane leki, styl życia, rodzaj wykonywanej pracy, kondycja psychofizyczna.
      Ta ilość danych może być przetworzona przez wydajne komputery. Jeśli maszyny będą miały zaimplementowane algorytmy deep learning, jest szansa, że wesprą specjalistów w szybszej i trafniejszej diagnostyce oraz lepszej opiece farmakologicznej. Korzyści z wdrożeń sztucznej inteligencji może odnieść zatem cały system opieki zdrowotnej, w tym: świadczeniodawca, lekarz, ale przede wszystkim – sam pacjent – uważa specjalista.
      Podkreśla, że lekarze, którzy będą używać z dużą rozwagą i odpowiedzialnością systemów opartych na sztucznej inteligencji zastąpią tych, którzy ich nie będą używać. Tym bardziej, że w nowoczesnych rozwiązaniach nie mówimy już o wielkości danych generowanych przy badaniach i dalej poddawanych processingowi w gigabajtach, terabajtach czy nawet petabajtach. Bardzo szybko nadchodzi era eksabajtów danych – dodaje prof. Janusz Braziewicz.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Astronomowie korzystający z Very Long Baseline Array (VLBA) dokonali pierwszego w historii bezpośredniego geometrycznego pomiaru odległości do magnetara znajdującego się w Drodze Mlecznej. Pomiar ten pomoże stwierdzić, czy magnetary są źródłem tajemniczych szybkich błysków radiowych (FRB).
      Magnetary to odmiana gwiazd neutronowych. Te bardzo gęste obiekty charakteryzują się niezwykle silnym polem magnetycznym. Pole magnetyczne typowego magnetara może być bilion razy silniejsze niż pole magnetyczne Ziemi. Wiadomo też, że magnetary emitują silne impulsy promieniowania rentgenowskiego i gamma, przez co od pewnego czasu podejrzewa się, że to właśnie one mogą być źródłami FRB.
      Odkryty w 2003 roku magnetar XTE J1810-197 jest jednym z zaledwie sześciu takich obiektów, o których wiadomo, że emitują impulsy w paśmie radiowym. Emisję taką notowano w latach 2003–2008, później magnetar ucichł, a w grudniu 2018 roku znowu zaczął emitować sygnał.
      Grupa naukowców wykorzystała VLBA do obserwacji XTE J1810-197 najpierw od stycznia do listopada 2019, a później w marcu i kwietniu bieżącego roku. Dzięki temu możliwe było obserwowanie obiektu z dwóch przeciwległych stron orbity Ziemi wokół Słońca. To zaś pozwoliło na zarejestrowanie paralaksy, czyli niewielkiej pozornej zmiany położenia obiektu względem tła.
      Po raz pierwszy udało się wykorzystać paralaksę do pomiaru odległości od magnetara. Okazało się, że to jeden z najbliższych magnetarów. Znajduje się w odległości około 8100 lat świetlnych dzięki czemu jest świetnym obiektem dla przyszłych badań, mówi Hao Ding, student z australijskiego Swinburne University of Technology.
      Niedawno, 28 kwietnia, inny magnetar – SGR 1935+2154 – wyemitował najsilniejszy sygnał radiowy, jaki kiedykolwiek zarejestrowano w Drodze Mlecznej. Co prawda nie był on tak silny jak FRB pochodzące z innych galaktyk, jednak wydarzenie to tym bardziej sugeruje, że magnetary mogą być źródłem FRB.
      Większość znanych nam FRB pochodzi spoza Drogi Mlecznej. To niezwykle silne, trwające milisekundy sygnały o nieznanym źródle. Są na tyle niezwykłe, że muszą powstawać w bardzo ekstremalnych środowiskach. Takich jak np. magnetary.
      Dzięki dokładnemu poznaniu odległości do magnetara, możemy precyzyjnie obliczyć siłę sygnału radiowego, który emituje. Jeśli pojawi się coś podobnego do FRB pochodzącego XTE J1810-197, będziemy wiedzieli, jak silny to był impuls. FRB bardzo różnią się intensywnością, więc badania magnetara XTE J1810-197 pozwolą nam stwierdzić, czy jego emisja jest zbliżona do zakresu FRB, wyjaśnia Adam Deller ze Swinburne.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja w zastosowaniach wojskowych kojarzy się z autonomicznymi systemami broni czy androidami jak Terminator. Jednak amerykańscy eksperci twierdzą, że rzeczywistość będzie mniej spektakularna, a potęga militarnej SI nie będzie opierała się na zabójczych robotach.
      Pułkownik Brad Boyd, szef Joint Warfighting Operations w Joint Artificial Intelligence Center (JAIC) amerykańskiego Departamentu Obrony mówi, że znacznie ważniejsze od budowy najlepszej broni autonomicznej jest wykorzystanie sztucznej inteligencji do gromadzenia, analizowanie oraz przesyłania danych oraz ich wykorzystania podczas treningu nowych bądź udoskonalania starych systemów.
      Najbardziej intensywnie pracujemy nad infrastrukturą, bo to ona zdecyduje, kto za 20 lat wygra wojnę, powiedział Boyd podczas konferencji prasowej. I nie chodzi tu o to, kto będzie miał najlepsze algorytmy, one za 20 lat i tak będą przestarzałe. Chodzi o to, kto będzie dysponował najlepszą infrastrukturą bo z niej wciąż będziemy korzystali za 50 lat.
      W ubiegłym miesiącu JAIC przyznało firmie Deloitte Consulting kontrakt o wartości do 106 milionów dolarów. Za te pieniądze w ciągu czterech lat ma powstać specjalna platforma dla chmur obliczeniowych – Joint Common Foundation (JCF) – zaprojektowana pod kątem potrzeb Pentagonu. Zadaniem Deloitte Consulting jest znalezienie odpowiednich kontrahentów, którzy wykonają poszczególne elementy JCF.
      JCF będzie działała jak scentralizowany hub zawierający dane i narzędzia, dzięki którym kontrahenci Pentagonu będą tworzyli i testowali produkty na potrzeby amerykańskich sił zbrojnych. Zbudowana z myślą o współpracy z przemysłem platforma ma być pomyślana tak, by była możliwa jej integracja z innymi elementami, takimi jak np. chmura JEDI, którą kosztem 10 miliardów USD ma dla Pentagonu stworzyć Microsoft.
      Umieszczenie wszystkich danych i narzędzi w jednym wspólnym repozytorium, jakim ma być JCF, ułatwi tworzenie i testowanie nowych algorytmów. SI ma kolosalny apetyt na dane. Właściwie nie ma momentu, w którym można powiedzieć, że algorytm SI został ukończony. On jest ciągle udoskonalany i testowany, mówi Nand Mulchandani, p.o. dyrektora JAIC. Również wdrożenie algorytmu nie jest łatwe, gdyż jego wydajność i możliwości mogą zależeć od lokalizacji geograficznej, w której jest wdrażany. Nie możesz wdrożyć algorytmu w jednej części świata i oczekiwać, że będzie działał w innej części. Trzeba mu zapewnić dostęp do lokalnych danych, by przystosować się do specyficznej lokalizacji czy zadań. Mulchandani nazywa ten proces cyklem ponownego treningu i stwierdza to coś, w czym musimy być naprawdę dobrzy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Za cztery dni w pobliżu Ziemi pojawi się asteroida 2011 ES4. Może przelecieć bardzo blisko naszej planety. Znacznie bliżej niż odległość pomiędzy Księżycem a Ziemią. Obecnie jej przelot przewidywany jest na 1 września. Wtedy to może się ona znaleźć w odległości od 0,32 do 0,19 odległości Księżyca. Może zatem minąć Ziemię w odległości zaledwie ok. 120–72 tysięcy kilometrów. Wielkość obiektu to 22–49 metrów.
      2011 ES już wielokrotnie zbliżała się do Ziemi. Po raz pierwszy wykryto ją w 2011 roku, gdy znajdowała się w odległości około 5 milionów kilometrów od planety. Przez cztery dni prowadzono jej obserwacje i na tej podstawie określono ówczesną oraz przeszłe i przyszłe jej orbity. Z przeprowadzonych obliczeń wynika, że od 1987 roku asteroida nigdy nie była tak blisko Ziemi, jak ma się znaleźć obecnie.
      Wiemy, że 2011 ES okrąża Słońce w ciągu około 415 dni. Jej peryhelium to 0,83 j.a., a aphelium wynosi 1,35 j.a. Przez większość zbliżania się do Ziemi asteroida będzie znajdowała się blisko Słońca, więc będzie niewidoczna. Sytuacja poprawi się w ostatnich dniach, więc niewykluczone że już można ją obserwować na nocnym niebie.
      Niepewność co do czasu przelotu i orbity asteroidy jest na tyle duża, że nie można wykluczyć, że już niezauważenie minęła ona Ziemię i to w znacznie większej odległości, niż przewidywano.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...