Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja pesymistycznie patrzy na globalne ocieplenie

Rekomendowane odpowiedzi

Badania przeprowadzone za pomocą algorytmów sztucznej inteligencji sugerują, że nie uda się dotrzymać wyznaczonego przez ludzkość celu ograniczenia globalnego ocieplenia do 1,5 stopnia Celsjusza powyżej czasów preindustrialnych. Wątpliwe jest też ograniczenie ocieplenia do poziomu poniżej 2 stopni Celsjusza.

Noah Diffenbaugh z Uniwersytetu Stanforda i Elizabeth Barnes z Colorado State University wytrenowali sieć neuronową na modelach klimatycznych oraz historycznych danych na temat klimatu. Ich model był w stanie precyzyjnie przewidzieć, jak zwiększała się temperatura w przeszłości, dlatego też naukowcy wykorzystali go do przewidzenia przyszłości. Z modelu wynika, że próg 1,5 stopnia Celsjusza ocieplenia powyżej poziomu preindustrialnego przekroczymy pomiędzy rokiem 2033 a 2035. Zgadza się to z przewidywaniami dokonanymi bardziej tradycyjnymi metodami. Przyjdzie czas, gdy oficjalnie będziemy musieli przyznać, że nie powstrzymamy globalnego ocieplenia na zakładanym poziomie 1,5 stopnia. Ta praca może być pierwszym krokiem w tym kierunku, mówi Kim Cobb z Brown University, który nie był zaangażowany w badania Diffenbaugha i Barnes.

Przekroczenie poziomu 1,5 stopnia jest przewidywane przez każdy realistyczny scenariusz redukcji emisji. Mówi się jednak o jeszcze jednym celu: powstrzymaniu ocieplenia na poziomie nie wyższym niż 2 stopnie Celsjusza w porównaniu z epoką przedindustrialną. Tutaj przewidywania naukowców znacząco różnią się od przewidywań SI.

Zdaniem naukowców, możemy zatrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza pod warunkiem, że do połowy wieków państwa wywiążą się ze zobowiązania ograniczenia emisji gazów cieplarnianych do zera. Sztuczna inteligencja nie jest jednak tak optymistycznie nastawiona. Zdaniem algorytmu, przy obecnej emisji poziom ocieplenia o ponad 2 stopnie osiągniemy około roku 2050, a przy znacznym zredukowaniu emisji – około roku 2054. Obliczenia te znacznie odbiegają od szacunków IPCC z 2021 roku, z których wynika, że przy redukcji emisji do poziomu, jaki jest wspomniany przez algorytm sztucznej inteligencji, poziom 2 stopni przekroczymy dopiero w latach 90. obecnego wieku.

Diffenbaugh i Barnes mówią, że do przewidywania przyszłych zmian klimatu naukowcy wykorzystują różne modele klimatyczne, które rozważają wiele różnych scenariuszy, a eksperci – między innymi na podstawie tego, jak dany model sprawował się w przeszłości czy jak umiał przewidzieć dawne zmiany klimatu, decydują, który scenariusz jest najbardziej prawdopodobny. SI, jak stwierdzają uczeni, bardziej skupia się zaś na obecnym stanie klimatu. Stąd też mogą wynikać różnice pomiędzy stanowiskiem naukowców a sztucznej inteligencji.

W środowisku naukowym od pewnego czasu coraz częściej słychać głosy, byśmy przestali udawać, że jesteśmy w stanie powstrzymać globalne ocieplenie na poziomie 1,5 stopnia Celsjusza. Wielu naukowców twierdzi jednak, że jest to możliwe, pod warunkiem, że do 2030 roku zmniejszymy emisję gazów cieplarnianych o połowę.

Sztuczna inteligencja jest więc znacznie bardziej pesymistycznie nastawiona od większości naukowców zarówno odnośnie możliwości powstrzymania globalnego ocieplenia na poziomie 1,5, jak i 2 stopni Celsjusza.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 godziny temu, KopalniaWiedzy.pl napisał:

możemy zatrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza pod warunkiem, że do połowy wieków państwa wywiążą się ze zobowiązania ograniczenia emisji gazów cieplarnianych do zera. Sztuczna inteligencja nie jest jednak tak optymistycznie nastawiona

Redukując produkcję w Europie przy pobudzaniu konsumpcjonizmu zaspokajanego rosnącą produkcją w Chinach :) i dołożeniu dodatkowej emisji z transportu z Azji do Europy. Brawo, to się musi udać.
Na szczęście to się nie może udać.
Szkoda tylko, że kosztem tych eksperymentów Europa stanie się kontynentem drugiego świata.

Jakbym to ja robił - to przede wszystkim skupiłbym się na
- osłabieniu konsumpcjonizmu edukacją
- lepszym wykorzystaniu surowców wtórnych
- lepszym wykorzystaniu pożywienia (dużo leci na śmietnik)
- przypilnowaniu producentów czy nie obniżają sztucznie trwałości produktów w celu zwiększenia konsumpcji
- poprawieniu norm jeśli chodzi o opakowania (unikanie zmieszanych opakowań - trudnych w przetwórstwie)
- wypierdzilił bym do kosza te wszystkie unijne dyrektywy które powodują że na każdy 1 kg zakupionego towaru przypada z  (retorycznie) 1 kg zużytego papieru (te wszystkie tłumaczenia na 50 różnych niepotrzebnych języków itd.).

A na pewno nie przenosiłbym produkcji do Chin, które produkując to samo - emitują więcej.

Ale na szczęście nie ja za to odpowiadam i będzie cieplej :) bo pod warstwą słownej troski o klimat - robią wszystko żeby było cieplej :)


Aha, no i jeszcze dużo robią żeby doszło do III WŚ - a wtedy to już nie 2 ale 5 st. będzie problemem bo wtedy to już nikt nie będzie patrzył na to czy emituje czy nie.

Przy okazji - ciekawe jakie były koszty emisji CO2 na produkcję tego pierdyliarda maseczek który potem trafił na śmietniki i do mórz. Pamiętam jak nawet żołnierze szyli maseczki :)
Zakup 200 mln szczepionek dla 38 mln państwa - też nie pomógł. Z takim gospodarzeniem ( na całym świecie, bo inni też tak robili) to nie wiem ale czuję się jakbym wszedł do domu gospodarza który mówi cały czas o oszczędzaniu a tam wóda się leje po podłodze, panny tańczą na rurach, jedzenie na podłodze, wszyscy żygają, leją i srają po kątach - a gospodarz mówi a teraz zróbmy dla mediów zdjęcie jak jemy robaki by być solidarni z Afryką.
Hmm, ja to sobie tak rzuciłem ale w sumie jak to czytałem to mi się przypomniały rzeczywiste sytuacje z rzeczywistymi ludźmi którzy tak chcieli pomagać Afryce.

Jeśli ktoś chce stać się synonimem hipokryzji to dalej niech innych gani za jazdę samochodem spalinowym - podczas gdy sam lekką ręką marnuje w Polsce setki milionów zł a na świecie to setki mld dolarów - co można dość konkretnie przeliczyć na spalone paliwo czy węgiel potrzebny do ogrzania domów.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Punktem wyjścia dla szacowania poziomu antropogenicznego ocieplenia jest zwykle rok 1850, kiedy na wystarczająco dużą skalę prowadzono wiarygodne pomiary temperatury. Jednak w roku 1850 rewolucja przemysłowa trwała od dawna, więc przyjmując ten rok jako podstawę dla pomiarów, trudno jest mówić o wpływie człowieka na temperatury na Ziemi od czasów preindustrialnych. Andrew Jarvis z Lancaster University i Piers Forster z University of Leeds, wykorzystali rdzenie lodowe z Antarktyki do opracowania nowej osi referencyjnej temperatur w czasach przedprzemysłowych.
      Uczeni przeanalizowali bąbelki powietrza zamknięte w rdzeniach lodowych i w ten sposób określili stężenie dwutlenku węgla w latach 13–1700. Następnie, zakładając liniową zależność pomiędzy koncentracją CO2 a temperaturami, obliczyli średnie temperatury panujące na Ziemi.
      Z pracy opublikowanej na łamach Nature Geoscience dowiadujemy się, że od okresu przed 1700 roku do roku 2023 ludzie podnieśli średnią temperaturę na planecie o 1,49 (±0,11) stopnia Celsjusza. Dodatkową zaletą wykorzystanej metody jest niezależna weryfikacja obecnych szacunków. Z badań Jarvisa i Forstera wynika, że od roku 1850 wzrost temperatury wyniósł 1,31 stopnia Celsjusza. Dokładnie zgadza się to z dotychczasowymi ustaleniami, ale badania z rdzeni lodowych są obarczone mniejszym marginesem błędu.
      Niektórzy eksperci uważają, że nowa metoda, chociaż sprawdza się teraz, może nie być przydatna w przyszłości. Nie wiemy bowiem, czy w nadchodzących dekadach liniowa zależność pomiędzy stężeniem dwutlenku węgla a temperaturą się utrzyma. Ich metoda bazuje na korelacji stężenia CO2 z antropogenicznym ociepleniem klimatu. Ta widoczna w przeszłości silna korelacja może być czystym przypadkiem i, w zależności od tego jak będą się układały proporcje CO2 i innych czynników w przyszłości, może się ona nie utrzymać, stwierdza Joeri Rogelj z Imperial College London.
      Richard Betts z Met Office chwali nową metodę, zauważa, że może dostarczać ona lepszych danych na temat przeszłości, ale nie widzi potrzeby zmiany punktu odniesienia dla badań nad ociepleniem klimatu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Leżące na północ od Ameryki Północnej przejście Północno-Zachodnie łączy Atlantyk z Oceanem Spokojnym. Poszukiwane było przez setki lat, aż w końcu udowodniono jego istnienie. Nie zdążyło jednak nabrać znaczenia, gdyż wkrótce potem otwarto Kanał Panamski. Od lat panuje przekonanie, że w związku z globalnym ociepleniem Przejście stanie się łatwiej dostępne. Jednak autorzy badań opublikowanych na łamach Nature twierdzą, że dzieje się coś przeciwnego. Żegluga tym szlakiem staje się coraz bardziej ryzykowna.
      Kanadyjscy naukowcy przez 15 lat przyglądali się temu, co dzieje się w Przejściu Północno-Zachodnim i zauważyli, że z powodu globalnego ocieplenia gromadzi się tam grubszy lód. Jednoroczny lód się wycofuje, a to pozwala wpłynąć na te obszary grubszemu lodowi z Grenlandii.
      Uczeni badali historyczne informacje o występowaniu lodu w Przejściu i przekładali to na długość trwania sezonu żeglugowego. Z analiz wynika, że z powodu globalnego ocieplenia w czterech regionach Przejścia Północno-Zachodniego doszło do znaczących zmian. W trzech z nich pomiędzy rokiem 2007 a 2021 doszło do skrócenia sezonu żeglugowego o 50 do 70 procent. W jednym z nich, na wschodzie Lancaster Sound, sezon żeglugowy wydłużył się w tym czasie o 15%.
      Pomimo skrócenia sezonu żeglugowego z danych Kanadyjskiej Straży Wybrzeża wynika, że ruch w badanym regionie zwiększył się. Ma to związek ze zwiększonym ruchem turystycznym, komercyjnym oraz ruchem określonym jako „adventuring opportunities”. Tę pozorną sprzeczność łatwo wyjaśnić. Z jednej strony firmy komercyjne szukają alternatywy wobec wąskiego i przepełnionego Kanału Panamskiego, z drugie zaś ruch turystyczny rozlewa się po całym globie i coraz więcej osób szuka przygód.
      Trzy regiony Przejścia, w których pojawił się grubszy lód, leżą na jego północnej odnodze. Jest ona krótsza, a więc bardziej atrakcyjna dla żeglugi. Odnoga południowa niemal nie odczuwa napływu grubszego lodu i to właśnie tam doszło do zwiększenia ruchu.
      Grubszy lód z dalekiej północy może jeszcze przez około 2 dekady napływał do Przejścia Północno-Zachodniego. Jeśli zaś ludzkość radykalnie nie zmniejszy emisji gazów cieplarnianych, to po roku 2050 Przejście Północno-Zachodnie powinno być w większości wolne od lodu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...