Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

IBM i Microsoft liderami w rozwoju sztucznej inteligencji. Rośnie rola Chin
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Prezydent Trump nie ustaje w wysiłkach na rzecz ograniczenia finansowania nauki. Wcześniej informowaliśmy o propozycji obcięcia budżetu NASA na naukę. Tym razem na celowniku jego administracji znalazł się superkomputer Horizon. Mimo, że prezydent twierdzi, że utrzymanie dominacji USA na rynku najbardziej wydajnych maszyn obliczeniowych jest jego priorytetem, działania Białego Domu mogą opóźnić lub całkowicie zniweczyć plany budowy maszyny Horizon, która ma stanąć na University of Texas w Austin.
Stany Zjednoczone dominują na rynku superkomputerów. To w tym kraju tradycyjnie już znajduje się największa liczba spośród 500 najbardziej wydajnych maszyn świata. Jednak dominacja ta jest coraz mniejsza. Obecnie na liście TOP500 superkomputerów znajdują się 173 maszyny z USA – w tym 5 z 10 najpotężniejszych – a przed 10 laty w USA stały 232 takie maszyny.
Horizon ma być najpotężniejszym superkomputerem na amerykańskiej uczelni wyższej. Obecnie miano takiej maszyny należy do superkomputera Frontera, również znajdującego się na University of Texas. Maksymalna moc obliczeniowa Frontery to 23,52 Pflops (Pflops to 1015 operacji zmiennoprzecinkowych na sekundę), teoretyczna szczytowa wydajność tej maszyny to 38,75 Pflops. Frontera znajduje się obecnie na 52. miejscu na liście TOP500. W chwili powstania był 5. najbardziej wydajnym superkomputerem na świecie. Dla porównania, najpotężniejszy polski superkomputer Helios GPU, z maksymalną mocą obliczeniową 19,14 Pflops zajmuje obecnie 69. pozycję.
Horizon, którego koszt ma wynieść 520 milionów dolarów, będzie 10-krotnie bardziej wydajny od Frontery. Znalazłby się na 10. miejscu obecnej listy. Obecnie jednak nie wiadomo czy i kiedy powstanie. Wszystko przez działania Białego Domu, który chce uniemożliwić Narodowej Fundacji Nauki (NFC) wydatkowanie 234 milionów dolarów, jakie Kongres przyznał jej w ubiegłym miesiącu na program Major Research Equipment and Facilities Construction (MREFC). Zdecydowana większość tej kwoty – 154 miliony USD – miało zostać przeznaczone na budowę Horizona, a resztę NFC ma zamiar wydać na wieloletni program unowocześniania stacji antarktycznej McMurdo i niewielką infrastrukturę naukową w kraju.
Pieniądze przyznane na MFERC to część znacznie większej kwoty 1,9 biliona USD zatwierdzonej w marcu jako awaryjne wydatki w celu uniknięcia przerw w pracy w wyniku możliwego zamknięcia rządu federalnego.
Prezydent Trump sprzeciwił się takim działaniom i zapowiedział, że wstrzyma wydatkowanie 2,9 miliarda USD, w tym właśnie 234 milionów dolarów dla Narodowej Fundacji Nauki. Stwierdził bowiem, że nie są to wydatki awaryjne. Prawdopodobnie takie działanie byłoby nielegalne, gdyż zgodnie z prawem prezydent może albo wstrzymać całość wydatków (1,9 biliona), albo żadnego.
Jeśli jednak Trump dopnie swego, budowa Horizona może co najmniej poważnie się opóźnić. Texas Advanced Computing Center (TACC) ma fundusze wystarczające na prace nad superkomputerem przez 3–4 miesiące. W zbudowanie i oprogramowanie komputera zaangażowanych jest 80 specjalistów z TACC oraz prywatne firmy.
Naukowcy z niecierpliwością czekają na nowy superkomputer. Pozwoli on na symulowanie zarówno ewolucji galaktyk, jak i rozprzestrzeniania się wirusów w aerozolach. Mikrobiolodzy mówią, że zastosowanie Horizona w połączeniu z algorytmami sztucznej inteligencji sprawi, że obliczenia związane z wirusami będą 100-krotnie bardziej wydajne, niż obliczenia prowadzone na Fronterze.
Uruchomienie Horizona planowane jest na połowę przyszłego roku. Frontera używa technologii z 2019 roku. Starzeje się i nie możemy go już dłużej używać, stwierdzają naukowcy. Już samo opóźnienie prac nad Horizonem to poważny problem. Może to bowiem oznaczać unieważnienie umowy pomiędzy TACC a Nvidią na dostarczenie tysięcy zaawansowanych procesorów graficznych. W związku z rozwojem sztucznej inteligencji zapotrzebowanie na takie układy jest ogromne, więc nie wiadomo, kiedy znowu Nvidia mogłaby dostarczyć tylu układów, ile potrzebuje Horizon.
Zatrzymanie prac nad superkomputerem oznaczałoby też zmarnowanie 100 milionów USD, które dotychczas wydano na maszynę.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Niewidoczna z Ziemi strona Księżyca zawiera znacznie mniej wody, niż część widoczna – donoszą chińscy naukowcy. Takie zaskakujące wnioski płyną z badań próbek bazaltu zebranych przez misję Chang'e-6. Wyniki badań, opublikowane na łamach Nature, pozwolą lepiej zrozumieć ewolucję ziemskiego satelity.
Dostarczone na Ziemię próbki zawierały mniej niż 2 mikrogramy wody w gramie. Nigdy wcześniej nie zanotowano tak mało H2O na Księżycu. Wcześniejsze badania próbek ze strony widocznej z Ziemi zawierały nawet do 200 mikrogramów wody na gram.
Naukowcy potrafią mierzyć zawartość wody w materiale z dokładnością do 1–1,5 części na milion. Już widoczna strona Księżyca jest niezwykle sucha. A ta niewidoczna całkowicie zaskoczyła naukowców. Nawet najbardziej suche pustynie na Ziemi zawierają około 2000 części wody na milion. To ponad tysiąckrotnie więcej, niż zawiera jej niewidoczna z Ziemi część Księżyca, mówi główny autor badań, profesor Hu Sen z Instytutu Geologii i Geofizyki Chińskiej Akademii Nauk.
Obecnie powszechnie przyjęta hipoteza mówi, że Księżyc powstał w wyniku kolizji Ziemi z obiektem wielkości Marsa. Do zderzenia doszło 4,5 miliarda lat temu, a w wyniku niezwykle wysokich temperatur, będących skutkiem zderzenia, Księżyc utracił wodę i inne związki lotne. Debata o tym, jak dużo wody pozostało na Księżycu, trwa od dekad. Dotychczas jednak dysponowaliśmy wyłącznie próbkami ze strony widocznej z Ziemi.
Chińska misja Chang'e-6 została wystrzelona w maju 2024 roku, wylądowała w Basenie Południowym – Aitken i w czerwcu wróciła z niemal 2 kilogramami materiału. To pierwsze w historii próbki pobrane z niewidocznej części Księżyca.
Zespół profesora Hu wykorzystał 5 gramów materiału, na który składało się 578 ziaren o rozmiarach od 0,1 do 1,5 milimetra. Po przesianiu i dokładnej analizie okazało się, że 28% z nich stanowi bazalt. I to on właśnie został poddany badaniom.
Ilość wody w skałach księżycowych to bardzo ważny test hipotezy o pochodzeniu Księżyca. Jeśli w skałach byłoby 200 części wody na milion lub więcej, byłoby to poważne wyzwanie dla obecnie obowiązującej hipotezy i naukowcy musieliby zaproponować nowy model powstania Księżyca, wyjaśnia profesor Hu. Wyniki badań jego zespołu stanowią więc potwierdzenie tego, co obecnie wiemy.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Rząd Japonii dał zielone światło budowie Hyper-Kamiokande, największego na świecie wykrywacza neutrin, którego konstrukcja pochłonie 600 milionów dolarów. Gigantyczna instalacja powstanie w specjalnie przygotowanej dlań grocie niedaleko kopalni w miejscowości Kamioka. Pomieści ona 250 000 ton ultraczystej wody. To 5-krotnie więcej niż obecnie używany Super-Kamiokande. Ten z kolei jest następcą 3000-tonowego Kamiokande, który działał w latach 1983–1995.
Dzięki olbrzymim rozmiarom Hyper-K możliwe będzie zarejestrowanie większej liczby neutrin niż dotychczas. Będą one pochodziły z różnych źródeł – z promieniowania kosmicznego, Słońca, supernowych oraz z akceleratora cząstek. Instalacja posłuży też do ewentualnej obserwacji rozpadu protonów. Istnienie takiego zjawiska przewidują niektóre rozszerzenia Modelu Standardowego, jednak dotychczas nie udało się go zarejestrować.
Budowa wykrywacza ma kosztować 600 milionów dolarów, z czego Japonia pokryje 85%, a resztę sfinansują inne kraje, w tym Wielka Brytania i Kanada. Dodatkowo Japonia wyda 66 milionów dolarów na rozbudowę akceleratora J-PARC. To znajdujące się 300 kilometrów dalej urządzenie będzie źródłem neutrin dla Hyper-K.
Głównym elementem nowego wykrywacza będzie zbiornik o głębokości 71 i średnicy 68 metrów. Grota, do której trafi, powstanie 8 kilometrów od istniejącej infrastruktury Kamioka, by uniknąć wibracji mogących zakłócić prace przygotowywanego właśnie do uruchomienia wykrywacza fal grawitacyjnych KAGRA.
Wnętrze zbiornika Hyper-K zostanie wyłożone fotopowielaczami, które będą przechwytywały fotony powstałe w wyniku zderzeń neutrino z atomami w wodzie.
Hyper-Kamiokande będzie jednym z trzech dużych instalacji służących do wykrywania neutrin, jakie mają ruszyć w nadchodzącej dekadzie. Dwa pozostałe to Deep Underground Neutrino Experiment (DUNE), który ma zacząć pracę w USA w 2025 roku oraz Jiangmen Underground Neutrino Observatory (JUNO), jaki Chiny planują uruchomić w roku 2021.
Takaaki Kajita, fizyk z Uniwersytetu Tokijskiego, mówi, że naukowcy są podekscytowani możliwościami Hyper-K, który ma pozwalać na badanie różnic w zachowaniu neutrin i antuneutrin. Już w Super-K zauważono istnienie takich różnic, jednak to Hyper-K i DUNE pozwolą na ich bardziej szczegółowe zbadanie. Zaś dzięki temu, że oba detektory będą korzystały z różnej techniki – w DUNE znajdzie się płynny argon a nie woda – będzie można nawzajem sprawdzać uzyskane wyniki.
Jednak,jak podkreśla Masayuki Nakahata, fizyk z Uniwersytetu Tokijskiego i rzecznik prasowy Super-K, największą nadzieją, jaką pokłada się w Hyper-K jest odkrycie rozpadu protonu.
Na razie rząd Japonii nie wydał oficjalnego oświadczenia w sprawie budowy Hyper-Kamiokande. Jednak japońscy naukowcy mówią, że właśnie zaproponowano poprawkę budżetową, w ramach której przewidziano pierwszą transzę w wysokości 32 milionów dolarów na rozpoczęcie budowy wykrywacza. Poprawka musi jeszcze zostać zatwierdzona przez parlament, co prawdopodobnie nastąpi w przyszłym miesiącu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Ponad pięć lat temu w Science ukazał się artykuł, którego autorzy alarmowali, że od 1970 roku populacja ptaków w USA spadła niemal o 30%. Wczoraj podczas 90th North American Wildlife and Natural Resources Conference opublikowano 2025 U.S. State of the Birds, raport przygotowany przez wiodące organizacje i instytucje zajmujące się ochroną przyrody, w tym Cornell Lab of Ornithology. Z raportu wynika, że populacja ptaków wciąż się zmniejsza. Co więcej, pozytywne zjawiska z pierwszego raportu – jak długoterminowy wzrost liczby ptaków wodnych – już nie zachodzą.
Najnowszy raport nie przynosi optymistycznych wieści. Okazuje się bowiem, że sytuacja 229 gatunków, czyli około 1/3 wszystkich żyjących w USA, jest na tyle zła, że w bliższej lub dalszej przyszłości ich istnienie może być zagrożone. Liczebność gatunków leśnych spada zarówno na wschodzie, jak i zachodzie, ale na zachodzie tempo spadku przyspiesza. Jednak najszybciej zmniejsza się liczebność gatunków żyjących na łąkach i pastwiskach (o 43% od 1970 r.) oraz na terenach suchych (o 41% od 1970 r.). Populacja ptaków wodnych, która rosła od 1970 roku, zaczęła spadać. Od roku 2014 zmniejszyła się aż o 20%.
Aż 42 gatunki, w tym c, srokę żółtodziobą i epoletnika trójbarwnego, zaklasyfikowano jako Red-Alert Tipping Point Species, co oznacza, że ich liczebność jest niebezpiecznie mała. Kolejnych 37 gatunków przypisano do kategorii Orange Alert. Ich liczebność w długim terminie się zmniejsza, a spadek ten przyspiesza.
Szybkie spadki liczebności ptaków to dowód na coraz silniejsze działanie niekorzystnych czynników, które doświadczają zwierzęta i ludzie na całym świecie. Te czynniki to utrata siedlisk, degradacja środowiska i ekstremalne zjawiska pogodowe. Gdy widzimy takie spadki, musimy pamiętać, że jeśli warunki nie są dobre do życia dla ptaków, nie są też dobre do życia dla ludzi, mówi profesor Amanda Rodewald z Cornell Lab.
Naukowcy zwracają jednak uwagę, że takie zjawiska nie są nieodwracalne. Odpowiednie działania i inwestycje mogą dać bardzo dobre wyniki. Przypominają, że w 2009 roku 16 leżących na wybrzeżach stanów skoordynowało wysiłki na rzecz ochrony ostrygojada brunatnego. Od tamtej pory regionalne populacje tego ptaka zwiększyły swoją liczebność o 43%. Jak więc zauważają eksperci, takie działania jak zakładanie obszarów chronionych, ochrona wybrzeży i lasów mogą wiele zdziałać i odwrócić niekorzystne trendy.
Coś wręcz przeciwnego obserwuje się w przypadku ptaków wodnych. Obecnie ich liczebność gwałtownie spada, gdyż mamy do czynienia z suszami, zmniejszono ochronę obszarów podmokłych i są one coraz częściej zamieniane są w pola uprawne.
Wiele populacji ptaków walczy o przetrwanie. Istnieją jednak sprawdzone metody ochrony oparte na nauce i inwestycjach w ochronę środowiska. Dekady ochrony obszarów podmokłych przed myśliwymi, właścicielami ziemskimi, agencjami stanowymi i federalnym oraz korporacjami pozwoliły na zwiększenie liczebności wielu gatunków ptaków wodnych. Wystarczy, że będzie korzystna pogoda. Udowodniliśmy, że to działa, mówi Steve Adair, główny naukowiec organizacji Ducks Unlimited.
Autorzy raportu podkreślają też korzyści gospodarcze wynikające z ochrony ptaków. Przypominają, że rekreacyjnymi obserwacjami ptaków zajmuje się około 100 milionów Amerykanów. Żadna inna forma aktywności nie jest w USA tak popularna. Nie licząc oczywistych korzyści zdrowotnych wynikających z aktywności fizycznej i przebywania na świeżym powietrzu, to zamiłowanie obywateli USA do obserwowania ptaków przekłada się na konkretne kwoty. Amerykanie wydają na tę formę rozrywki aż 108 miliardów USD rocznie w postaci wydatków na podróże, zakwaterowanie czy sprzęt do obserwacji. Przekłada się to na 1,4 miliona miejsc pracy i 38 miliardów USD wpływów z podatków.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.