Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

IBM i Microsoft liderami w rozwoju sztucznej inteligencji. Rośnie rola Chin
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Odkryty w południowo-zachodnich Chinach zestaw drewnianych narzędzi sprzed 300 tysięcy lat daje nam wgląd w życie, dietę oraz warunki środowiskowe, w jakich żyli ówcześni ludzie. To niezwykłe znalezisko. I to podwójnie niezwykłe. Dotychczas znaliśmy jedynie dwa zestawy drewnianych narzędzi z paleolitu, jeden odkryty w Europie i jeden z Afryki. Służyły do polowań. Tutaj zaś mamy narzędzia do pracy w ziemi. W skład zestawu wchodzi 35 narzędzi wykonanych głównie z sosny i gatunków drzew o twardym drewnie Znajdują się w nim kije do kopania, haki oraz niewielkie narzędzia ręczne.
Odkrycia dokonano na stanowisku Gantangquing. Drewniane narzędzia znaleziono w towarzystwie narzędzi kamiennych, młotków wykonanych z poroża i kości ze śladami nacięć. Wiek stanowiska określono na 361–250 tysięcy lat, a drewniane narzędzia znaleziono w warstwach sprzed około 300 tysięcy lat. To wyjątkowe odkrycie, gdyż pokazuje moment w historii, gdy wcześni ludzie używali zaawansowanych drewnianych narzędzi do pozyskiwania pożywienia spod ziemi. Przygotowanie takich przedmiotów wymagało takiego poziomu zaawansowania i rzemiosła, które przeczą założeniu, jakoby homininy z tamtych terenów nie korzystały z zaawansowanych narzędzi, mówi profesor Bo Li z University of Wollongong.
W zestawie widzimy narzędzia o różnym przeznaczeniu. Dwa duże kije do kopania przypominają te z Poggetti Vecchi we Włoszech, datowane na 171 tysięcy lat. Cztery unikatowe haki mogły służyć do przecinania korzeni. Badania śladów zużycia wykazały celowe polerowanie i obecność materiału, wskazującego na wykopywanie bulw i korzeni. To wskazuje, że ich użytkownicy spożywali dietę roślinną, w tym orzechy, owoce kiwi i bulwy roślin wodnych. To też pokazuje różnice w diecie pomiędzy współcześnie żyjącymi grupami ludźmi. O ile na współczesnych stanowiskach w Europie (jak Schöningen w Niemczech) widzimy dowody świadczące o polowaniu na duże zwierzęta, w subtropikalnym Gantanquing mamy unikatowe ślady strategii przetrwania polegającej na diecie roślinnej, dodaje Li.
Źródło: 300,000-year-old wooden tools from Gantangqing, southwest China, https://www.science.org/doi/10.1126/science.adr8540
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wielkie tsunami niszczą wybrzeża i transportują olbrzymie ilości szczątków roślinnych i innych na dużej odległości. Jednak z powodu erozji wybrzeży i słabego zachowywania się materiału roślinnego, trudno jest rozpoznać depozyty złożone przez tsunami w starszym zapisie geologicznym. Grupa japońskich naukowców zidentyfikowała wyjątkowo bogate nagromadzenie bursztynu w osadach morskich na dużej głębokości. Uczeni uważają, że bursztyn znalazł się tam w wyniku jednego lub więcej tsunami, które uderzyło w wybrzeże Wysp Japońskich pomiędzy 116 a 114 milionów lat temu.
Uczeni analizowali bogate w bursztyn pokłady krzemionki znajdujące się w kamieniołomie Shimonakagawa. Złoża te powstały około 115 milionów lat temu, gdy region ten stanowił dno głębokiego morza. Naukowcy zauważyli, że złoża bursztynu są zdeformowane w sposób przypominający struktury płomieniowe w deformacjach sedymentacyjnych. Struktury takie tworzą się w miękkich osadach. Jako że żywica wystawiona na działanie powietrza twardnieje w ciągu tygodni, struktury płomieniowe sugerują, że żywica z której powstał bursztyn, nie była przez dłuższy czas wystawiona na kontakt z powietrzem. Szybko trafiła na dno.
Zdaniem autorów badań, jedynym scenariuszem, który wyjaśnia tak szybkie przedostanie się dużej ilości żywicy na dno jest przyniesienie jej tam przez tsunami. Żywica została następnie przykryta warstwą mułu i zachowana do naszych czasów.
Ze szczegółami badań można zapoznać się na łamach Scientific Reports.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Prezydent Trump nie ustaje w wysiłkach na rzecz ograniczenia finansowania nauki. Wcześniej informowaliśmy o propozycji obcięcia budżetu NASA na naukę. Tym razem na celowniku jego administracji znalazł się superkomputer Horizon. Mimo, że prezydent twierdzi, że utrzymanie dominacji USA na rynku najbardziej wydajnych maszyn obliczeniowych jest jego priorytetem, działania Białego Domu mogą opóźnić lub całkowicie zniweczyć plany budowy maszyny Horizon, która ma stanąć na University of Texas w Austin.
Stany Zjednoczone dominują na rynku superkomputerów. To w tym kraju tradycyjnie już znajduje się największa liczba spośród 500 najbardziej wydajnych maszyn świata. Jednak dominacja ta jest coraz mniejsza. Obecnie na liście TOP500 superkomputerów znajdują się 173 maszyny z USA – w tym 5 z 10 najpotężniejszych – a przed 10 laty w USA stały 232 takie maszyny.
Horizon ma być najpotężniejszym superkomputerem na amerykańskiej uczelni wyższej. Obecnie miano takiej maszyny należy do superkomputera Frontera, również znajdującego się na University of Texas. Maksymalna moc obliczeniowa Frontery to 23,52 Pflops (Pflops to 1015 operacji zmiennoprzecinkowych na sekundę), teoretyczna szczytowa wydajność tej maszyny to 38,75 Pflops. Frontera znajduje się obecnie na 52. miejscu na liście TOP500. W chwili powstania był 5. najbardziej wydajnym superkomputerem na świecie. Dla porównania, najpotężniejszy polski superkomputer Helios GPU, z maksymalną mocą obliczeniową 19,14 Pflops zajmuje obecnie 69. pozycję.
Horizon, którego koszt ma wynieść 520 milionów dolarów, będzie 10-krotnie bardziej wydajny od Frontery. Znalazłby się na 10. miejscu obecnej listy. Obecnie jednak nie wiadomo czy i kiedy powstanie. Wszystko przez działania Białego Domu, który chce uniemożliwić Narodowej Fundacji Nauki (NFC) wydatkowanie 234 milionów dolarów, jakie Kongres przyznał jej w ubiegłym miesiącu na program Major Research Equipment and Facilities Construction (MREFC). Zdecydowana większość tej kwoty – 154 miliony USD – miało zostać przeznaczone na budowę Horizona, a resztę NFC ma zamiar wydać na wieloletni program unowocześniania stacji antarktycznej McMurdo i niewielką infrastrukturę naukową w kraju.
Pieniądze przyznane na MFERC to część znacznie większej kwoty 1,9 biliona USD zatwierdzonej w marcu jako awaryjne wydatki w celu uniknięcia przerw w pracy w wyniku możliwego zamknięcia rządu federalnego.
Prezydent Trump sprzeciwił się takim działaniom i zapowiedział, że wstrzyma wydatkowanie 2,9 miliarda USD, w tym właśnie 234 milionów dolarów dla Narodowej Fundacji Nauki. Stwierdził bowiem, że nie są to wydatki awaryjne. Prawdopodobnie takie działanie byłoby nielegalne, gdyż zgodnie z prawem prezydent może albo wstrzymać całość wydatków (1,9 biliona), albo żadnego.
Jeśli jednak Trump dopnie swego, budowa Horizona może co najmniej poważnie się opóźnić. Texas Advanced Computing Center (TACC) ma fundusze wystarczające na prace nad superkomputerem przez 3–4 miesiące. W zbudowanie i oprogramowanie komputera zaangażowanych jest 80 specjalistów z TACC oraz prywatne firmy.
Naukowcy z niecierpliwością czekają na nowy superkomputer. Pozwoli on na symulowanie zarówno ewolucji galaktyk, jak i rozprzestrzeniania się wirusów w aerozolach. Mikrobiolodzy mówią, że zastosowanie Horizona w połączeniu z algorytmami sztucznej inteligencji sprawi, że obliczenia związane z wirusami będą 100-krotnie bardziej wydajne, niż obliczenia prowadzone na Fronterze.
Uruchomienie Horizona planowane jest na połowę przyszłego roku. Frontera używa technologii z 2019 roku. Starzeje się i nie możemy go już dłużej używać, stwierdzają naukowcy. Już samo opóźnienie prac nad Horizonem to poważny problem. Może to bowiem oznaczać unieważnienie umowy pomiędzy TACC a Nvidią na dostarczenie tysięcy zaawansowanych procesorów graficznych. W związku z rozwojem sztucznej inteligencji zapotrzebowanie na takie układy jest ogromne, więc nie wiadomo, kiedy znowu Nvidia mogłaby dostarczyć tylu układów, ile potrzebuje Horizon.
Zatrzymanie prac nad superkomputerem oznaczałoby też zmarnowanie 100 milionów USD, które dotychczas wydano na maszynę.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Niewidoczna z Ziemi strona Księżyca zawiera znacznie mniej wody, niż część widoczna – donoszą chińscy naukowcy. Takie zaskakujące wnioski płyną z badań próbek bazaltu zebranych przez misję Chang'e-6. Wyniki badań, opublikowane na łamach Nature, pozwolą lepiej zrozumieć ewolucję ziemskiego satelity.
Dostarczone na Ziemię próbki zawierały mniej niż 2 mikrogramy wody w gramie. Nigdy wcześniej nie zanotowano tak mało H2O na Księżycu. Wcześniejsze badania próbek ze strony widocznej z Ziemi zawierały nawet do 200 mikrogramów wody na gram.
Naukowcy potrafią mierzyć zawartość wody w materiale z dokładnością do 1–1,5 części na milion. Już widoczna strona Księżyca jest niezwykle sucha. A ta niewidoczna całkowicie zaskoczyła naukowców. Nawet najbardziej suche pustynie na Ziemi zawierają około 2000 części wody na milion. To ponad tysiąckrotnie więcej, niż zawiera jej niewidoczna z Ziemi część Księżyca, mówi główny autor badań, profesor Hu Sen z Instytutu Geologii i Geofizyki Chińskiej Akademii Nauk.
Obecnie powszechnie przyjęta hipoteza mówi, że Księżyc powstał w wyniku kolizji Ziemi z obiektem wielkości Marsa. Do zderzenia doszło 4,5 miliarda lat temu, a w wyniku niezwykle wysokich temperatur, będących skutkiem zderzenia, Księżyc utracił wodę i inne związki lotne. Debata o tym, jak dużo wody pozostało na Księżycu, trwa od dekad. Dotychczas jednak dysponowaliśmy wyłącznie próbkami ze strony widocznej z Ziemi.
Chińska misja Chang'e-6 została wystrzelona w maju 2024 roku, wylądowała w Basenie Południowym – Aitken i w czerwcu wróciła z niemal 2 kilogramami materiału. To pierwsze w historii próbki pobrane z niewidocznej części Księżyca.
Zespół profesora Hu wykorzystał 5 gramów materiału, na który składało się 578 ziaren o rozmiarach od 0,1 do 1,5 milimetra. Po przesianiu i dokładnej analizie okazało się, że 28% z nich stanowi bazalt. I to on właśnie został poddany badaniom.
Ilość wody w skałach księżycowych to bardzo ważny test hipotezy o pochodzeniu Księżyca. Jeśli w skałach byłoby 200 części wody na milion lub więcej, byłoby to poważne wyzwanie dla obecnie obowiązującej hipotezy i naukowcy musieliby zaproponować nowy model powstania Księżyca, wyjaśnia profesor Hu. Wyniki badań jego zespołu stanowią więc potwierdzenie tego, co obecnie wiemy.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.