Elon Musk chce łączyć człowieka z komputerem. Neuralink prezentuje implant mózgowy
By
KopalniaWiedzy.pl, in Technologia
-
Similar Content
-
By KopalniaWiedzy.pl
Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.
« powrót do artykułu -
By KopalniaWiedzy.pl
Z jakiego powodu pojawił się duży mózg? Objętość mózgu przedstawicieli taksonu Australopithecine, z którego prawdopodobnie wyewoluował rodzaj Homo, była około 3-krotnie mniejsza, niż mózgu H. sapiens. Tkanka mózgowa jest bardzo wymagająca pod względem metabolicznym, wymaga dużych ilości energii. Co spowodowało, że w pewnym momencie zaczęła się tak powiększać? Najprawdopodobniej było to związane z dietą, a jedna z najbardziej rozpowszechnionych hipotez mówi, że to opanowanie ognia dało naszym przodkom dostęp do większej ilości kalorii. Jednak hipoteza ta ma poważną słabość.
Francusko-amerykański zespół opublikował na lamach Communications Biology artykuł pod tytułem Fermentation technology as a driver of human brain expansion, w którym stwierdza, że to nie ogień, a fermentacja żywności pozwoliła na pojawienie się dużego mózgu. Hipoteza o wpływie ognia ma pewną poważną słabość. Otóż najstarsze dowody na używanie ognia pochodzą sprzed około 1,5 miliona lat. Tymczasem mózgi naszych przodków zaczęły powiększać się około 2,5 miliona lat temu. Mamy więc tutaj różnicę co najmniej miliona lat. Co najmniej, gdyż zmiana, która spowodowała powiększanie się mózgu musiała pojawić na znacznie wcześniej, niż mózg zaczął się powiększać.
Katherina L. Bryant z Uniwersytetu Aix-Marseille we Francji, Christi Hansen z Hungry Heart Farm and Dietary Consulting oraz Erin E. Hecht z Uniwersytetu Harvarda uważają, że tym, co zapoczątkowało powiększanie się mózgu naszych przodków była fermantacja żywności. Ich zdaniem pożywienie, które przechowywali, zaczynało fermentować, a jak wiadomo, proces ten zwiększa dostępność składników odżywczych. W ten sposób pojawił się mechanizm, który – dostarczając większej ilości składników odżywczych – umożliwił zwiększanie tkanki mózgowej.
Uczone sądzą, że do fermentacji doszło raczej przez przypadek. To mógł być przypadkowy skutek uboczny przechowywania żywności. I, być może, z czasem tradycje czy przesądy doprowadziły do zachowań, które promowały fermentowaną żywność, a fermentację uczyniły bardziej stabilną i przewidywalną, dodaje Hecht.
Uzasadnieniem takiego poglądu może być fakt, że ludzkie jelito grupe jest krótsze niż u innych naczelnych, co sugeruje, iż jest przystosowane do trawienia żywności, w której składniki zostały już wcześniej wstępnie przetworzone. Ponadto fermentacja jest wykorzystywana we wszystkich kulturach.
Zdaniem uczonych, w kontekście tej hipotezy pomocne byłoby zbadanie reakcji mózgu na żywność fermentowaną i niefermentowaną oraz badania nad receptorami smaku i węchu, najlepiej wykonane za pomocą jak najstarszego DNA.
« powrót do artykułu -
By KopalniaWiedzy.pl
Stres może spowodować, że zachorujemy, a naukowcy powoli odkrywają, dlaczego tak się dzieje. Od dłuższego już czasu wiadomo, że mikrobiom jelit odgrywa olbrzymią rolę w naszym stanie zdrowia, zarówno fizycznego, jak i psychicznego. Wiadomo też, że jelita i mózg komunikują się ze sobą. Słabiej jednak rozumiemy szlaki komunikacyjne, łączące mózg z jelitami.
Kwestią stresu i jego wpływu na mikrobiom postanowili zająć się naukowcy z Instytutu Cybernetyki Biologicznej im. Maxa Plancka w Tybindze. Skupili się na na słabo poznanych gruczołach Brunnera. Znajdują się one w dwunastnicy, gdzie wydzielają śluz zobojętniający treść żołądka, która do niej trafia. Ivan de Araujo i jego zespół odkryli, że myszy, którym usunięto gruczoły Brunnera są bardziej podatne na infekcje, zwiększyła się u nich też liczba markerów zapalnych. Te same zjawiska zaobserwowano u ludzi, którym z powodu nowotworu usunięto tę część dwunastnicy, w której znajdują się gruczoły.
Okazało się, że po usunięciu gruczołów Brunnera z jelit myszy zniknęły bakterie z rodzaju Lactobacillus. W prawidłowo funkcjonującym układzie pokarmowym bakterie kwasu mlekowego stymulują wytwarzanie białek, które działają jak warstwa ochronna, utrzymująca zawartość jelit wewnątrz, a jednocześnie umożliwiając substancjom odżywczym na przenikanie do krwi. Bez bakterii i białek jelita zaczynają przeciekać i do krwi przedostają się substancje, które nie powinny tam trafiać Układ odpornościowy atakuje te substancje, wywołując stan zapalny i choroby.
Gdy naukowcy przyjrzeli się neuronom gruczołów Brunnera odkryli, że łączą się one z nerwem błędnym, najdłuższym nerwem czaszkowym, a włókna, do którego połączone są te neurony biegną bezpośrednio do ciała migdałowatego, odpowiadającego między innymi za reakcję na stres. Eksperymenty, podczas których naukowcy wystawiali zdrowe myszy na chroniczny stres wykazały, że u zwierząt spada liczba Lactobacillus i zwiększa się stan zapalny. To zaś sugeruje, że w wyniku stresu mózg ogranicza działanie gruczołów Brunnera, co niekorzystnie wpływa na populację bakterii kwasu mlekowego, prowadzi do przeciekania jelit i chorób.
Odkrycie może mieć duże znaczenie dla leczenia chorób związanych ze stresem, jak na przykład nieswoistych zapaleń jelit. Obecnie de Araujo i jego zespół sprawdzają, czy chroniczny stres wpływa w podobny sposób na niemowlęta, które otrzymują Lactobacillus wraz z mlekiem matki.
« powrót do artykułu -
By KopalniaWiedzy.pl
Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.
« powrót do artykułu -
By KopalniaWiedzy.pl
W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.