Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Algorytm sztucznej inteligencji równie dobrze wykrywa raka piersi jak radiolodzy
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.
« powrót do artykułu -
przez KopalniaWiedzy.pl
„Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
-
przez KopalniaWiedzy.pl
Freski na suficie Kaplicy Sykstyńskiej to jedno z największych osiągnięć zachodniego malarstwa. Michał Anioł wykonał je w latach 1508–1512 na zamówienie papieża Juliusza II. Przedstawiają sceny i postaci ze Starego Testamentu. Znajdziemy wśród nich i „Potop”, scenę, w której ujawnia się mistrzostwo artysty w przedstawianiu ludzkich postaci i dramatyzmu wydarzeń. Eksperci zajmujący się ikonodiagnostyką zauważyli, że jedna z kobiet namalowanych przez Michała Anioła ma prawdopodobnie raka piersi. Być może w ten sposób artysta chciał symbolicznie przypomnieć o nieuchronności śmierci.
Ikonodiagnostyka znana jest od stu lat lat. To nauka zajmująca się stawianiem diagnoz medycznych na podstawie obserwacji dzieł sztuki przedstawiających ludzkie postaci. Służy ona zarówno jako metoda uzupełniająca naszą wiedzę na temat epidemiologii chorób trapiących ludzkość w dawnych czasach, jak do ćwiczenia umiejętności lekarzy.
Teraz zespół specjalistów, w skład którego wchodzili historycy sztuki, lekarze, genetycy i patolodzy przyjrzał się freskowi Michała Anioła i stwierdził, że nienormalna morfologia piersi jednej z kobiet przedstawionych na „Potopie” to najprawdopodobniej reprezentacja nowotworu.
Kobiece piersi, symbol macierzyństwa i kobiecości, zajmują ważne miejsce w sztuce. W niektórych obrazach i rzeźbach specjaliści potrafią zdiagnozować patologie, co zawsze wywołuje debatę, czy artysta celowo je przedstawił i co chciał w ten sposób powiedzieć swojemu mecenasowi i odbiorcom.
U wspomnianej kobiety lewa pierś wykazuje objawy zwiotczenia spowodowane wiekiem lub karmieniem dzieci. Pierś ma wystającą brodawkę sutkową, a jej obwódka jest gładka. Natomiast brodawka prawej piersi jest wycofana i zdeformowana, sama zaś otoczka nieprawidłowa. Na górze piersi widoczne są dwa zgrubienia. To po prawej, od strony patrzącego, może być guzem, to po lewej – powiększonymi węzłami chłonnymi. Środek piersi wydaje się nieco odbarwiony, ale eksperci przypuszczają, że to raczej efekt wyrazu artystycznego, a nie oddanie efektu „skórki pomarańczy", który może świadczyć o raku zapalnym piersi.
Diagnozę raka piersi u kobiety z „Potopu” wysunięto po szczegółowej analizie przedstawiania przez artystę kobiecych piersi w innych dziełach. Eksperci przyjrzeli się m.in. nagim biustom w „Sądzie Ostatecznym” w Kaplicy Sykstyńskiej oraz rzeźby „Poranek” i „Noc” z Kaplicy Medyceuszów. Z analiz wynika, że Michał Anioł dobrze wiedział, jak wyglądają zdrowe piersi o różnych rozmiarach i kształtach, a wiedzę tę stosował podczas tworzenia biblijnych postaci kobiecych. Tym samym reprodukcja stanów patologicznych o znaczeniu symbolicznym czy teologicznym była celowa.
Wiemy, że Michał Anioł już w wieku 17 lat asystował przy autopsjach. Miał więc okazję oglądać patologie rozwojowe, nie można więc wykluczyć, że widział też kobiety zmarłe na nowotwory piersi.
Przyczyna zesłania Potopu jest znana „... zaś Pan widział, że wielka jest niegodziwość ludzi na ziemi i że usposobienie ich jest wciąż złe” [Rdz 6,5]. Wśród ludzi uciekających przed wodą, przedstawił Michał Anioł osoby reprezentujące siedem grzechów głównych. Mężczyzna z beczką reprezentuje lenistwo oraz nieumiarkowanie w jedzeniu i piciu, ludzie walczący na łodzi to przedstawienie gniewu, widzimy też chciwość pod postacią kobiety z naczyniami kuchennymi. To pokazuje przyczyny, dla których ludzie zostali ukazani. Być może rak piersi ma symbolizować nieczystość. Śmiertelna choroba może symbolizować przemijalność życia i wskazuje na karę. Warto zauważyć, że kobieta wskazuje palcem prawej dłoni – a więc tej od strony chorej piersi – na grunt. Tutaj można dopatrywać się odniesienia do słów „prochem jesteś i w proch się obrócisz” [Rdz 3,19]. Musimy też tutaj pamiętać, że rozdział 3. Księgi Rodzaju opisuje upadek pierwszych ludzi i karę za grzechy. Śmierć i jej świadomość to ostateczna konsekwencja grzechu Adama. Pod nogami wspominanej kobiety widzimy ścięte drzewo, które może być odniesieniem do Drzewa poznania dobra i zła.
Zgodnie z koncepcjami neoplatonizmu, pod wpływem którego Michał Anioł się znajdował, piękno i harmonia mogą prowadzić do nieśmiertelności, a fizyczna deformacja i choroba to symbol otchłani duchowej. Taka metafora powinna być brana pod uwagę, gdyż kobieta podnosi są pierś tak, by była ona dobrze widoczna dla obserwatora. Osoby przedstawione przez Michała Anioła są boleśnie świadome swego przeznaczenia, a nie sparaliżowane strachem przed nieokreślonym niebezpieczeństwem, podsumowują autorzy badań, dodając, że widoczny tutaj przykład patologii piersi w pełni wpisuje się w symbolikę i znaczenie teologiczne dzieła Michała Anioła.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.