Skocz do zawartości
Forum Kopalni Wiedzy

Ranking


Popularna zawartość

Zawartość, która uzyskała najwyższe oceny od 22.05.2024 w Odpowiedzi

  1. 1 punkt
  2. 1 punkt
    Podróż do tajemniczego świata ludzkich zmysłów Zapach porannej kawy, dźwięki ulubionej piosenki, miękki koc otulający ramiona… Rejestrujemy otaczający nas świat i nawet nie zwracamy na to uwagi. A co jeśli nasze zmysły nas zwodzą? Mogłoby się okazać, że kawa ma przykry zapach, piosenka to sekwencja kolorów, a dotyk materiału niemal pali skórę. 1) Do czego zdolne są dzieci, które nie czują bólu? 2) Jak nie oszaleć, kiedy słyszy się nawet ruch gałek ocznych? 3) Dlaczego bliskie osoby nagle widzimy jako zombie? Z takimi problemami do doktora Guya Leschzinera zgłaszają się ludzie z całego świata. Przez pryzmat niecodziennych, nierzadko tajemniczych, chorób swoich pacjentów uznany neurolog pokazuje, jak działają zmysły i co się dzieje, kiedy ich praca zostaje zaburzona. Udowadnia, jak bardzo nasze odbieranie rzeczywistości jest uzależnione od mózgu. Premiera książki „Kobieta, która widziała zombie” Guya Leschzinera wydawnictwa Znak Literanova miała miejsce 24.01.2024. Guy Leschziner – profesor neurologii i medycyny snu w Instytucie Psychiatrii, Psychologii i Neuronauki w King's College London. Pracuje jako neurolog na Oddziale Neurologii i Centrum Zaburzeń Snu w Guy's Hospital i St Thomas' Hospital, a także w London Bridge Hospital, Cromwell Hospital i One Welbeck. W kręgu jego zainteresowań badawczych są zaburzenia snu, epilepsja, choroba Alzheimera oraz choroba Parkinsona.
  3. 1 punkt
    W Acta Astronautica ukazał się interesujący artykuł, którego autor – Michael A. Garrett, dyrektor Jodrell Bank Centre for Astrophysics na University of Manchester – zastanawia się czy to nie sztuczna inteligencja jest przyczyną, dla której nie odkryliśmy dotychczas sygnałów wysłanych przez obcą cywilizację. Uczony rozważa możliwość, że SI jest wąskim gardłem rozwoju, które w rzeczywistości zagraża długoterminowemu przetrwaniu cywilizacji technicznej. Garrett bada hipotezę, że szybki rozwój sztucznej inteligencji (AI), którego kulminacją jest pojawienie się sztucznej superinteligencji (ASI – artificial superintelligence), działa jak „Wielki Filtr”, który jest odpowiedzialny za niewielką liczbę zaawansowanych cywilizacji technologicznych we wszechświecie. Taki filtr mógłby pojawiać się, zanim cywilizacje rozwiną stabilną obecność na kolejnych planetach, co sugeruje, że typowy czas życia cywilizacji technicznej wynosi mniej niż 200 lat. Koncepcja „Wielkiego Filtra” jest próbą rozwiązania Paradoksu Fermiego. Został on sformułowany przez Enrico Fermiego, a dotyczy rzucającej się w oczy sprzeczności pomiędzy wiekiem wszechświata i liczbą gwiazd, a faktem, że dotychczas nie wykryliśmy żadnych dowodów na istnienie innej cywilizacji. Dotychczas zaproponowano kilka „Wielkich Filtrów”, uniwersalnych barier mających uniemożliwiać rozprzestrzenianie się inteligentnego życia we wszechświecie, a od niedawna pojawiają się koncepcje mówiące, że filtrem takim może być SI. Uczony z Manchesteru przychyla się do opinii, że „Wielkim Filtrem” może być rozwój sztucznej inteligencji. Przypomina, że najnowsze dokonania w dziedzinie SI pozwalają maszynom na uczenie się, dostosowywanie i wykonywanie zadań, które do niedawna uważano za wyłączną ludzką domenę. Sztuczna inteligencja jest w coraz większym stopniu włączana w nasze codzienne życie, wpływa na kształt interakcji międzyludzkich, sposobów współpracy, interakcji z technologią oraz na postrzeganie świata. Zmienia sposoby komunikacji i doświadczenia osobiste. Ma wpływ na handel, opiekę zdrowotną, pojazdy autonomiczne, prognozy gospodarcze, badania naukowe, prace badawczo-rozwojowe, edukację, przemysł, politykę, bezpieczeństwo i obronę. Trudno jest znaleźć dziedzinę życia, która nie byłaby już naznaczona obecnością sztucznej inteligencji, stwierdza Garrett. W związku z rozwojem SI pojawiają się kolejne obawy wiązane z miejscami pracy, prywatnością danych, etycznym podejmowaniem decyzji czy odpowiedzialnością za nie. Sztuczna inteligencja ma też wpływ na środowisko naturalne, chociażby poprzez olbrzymie moce obliczeniowe, jakich potrzebuje i związane z tym zużycie energii. W 2014 roku Stephen Hawking ostrzegał, że AI może doprowadzić do zagłady ludzkości. Uważał, że w pewnym momencie może ona zacząć rozwijać się samodzielni, w coraz szybszym tempie. Obecnie coraz częściej pojawiają się głosy o konieczności opracowania metod lepszej kontroli nad AI czy też propozycje wprowadzenia moratorium na jej używanie, dopóki takie metody kontroli nie powstaną. Z jednej strony rządy wielu państw próbują znaleźć równowagę pomiędzy korzyściami, jakie daje rozwój sztucznej inteligencji, a potencjalnymi zagrożeniami. Z drugiej zaś zdają sobie sprawę, że szybkie wdrażanie i rozwój AI daje przewagę nad innymi państwami, a ponadto może zabezpieczać przed ryzykiem stwarzanym przez państwa z rozwiniętą sztuczną inteligencją. Szczególnie dotyczy to kwestii bezpieczeństwa narodowego i obrony. Sztuczna inteligencja rozwija się błyskawicznie w porównaniu z naturalnym tempem ewolucji, tymczasem nic w naszej historii nie przygotowało nas na pojawienie się innej wysoko rozwiniętej inteligencji. I można przypuszczać, że uwagi te dotyczą każdej cywilizacji, która mogła powstać we wszechświecie. Zanim jeszcze AI stanie się superinteligentna i potencjalnie autonomiczna, prawdopodobnie zostanie uzbrojona przez konkurujące ze sobą grupy w ramach jednej cywilizacji biologicznej. Szybkość podejmowania decyzji przez sztuczną inteligencję może prowadzić do niezamierzonej eskalacji konfliktów [...], które przyniosą zagładę zarówno technologicznej, jak i biologicznej cywilizacji, stwierdza Garrett. Uczony dodaje, że o ile AI może wymagać do istnienia wsparcia ze strony cywilizacji biologicznej, to ASI nie będzie tego potrzebowała. Punktem zwrotnym będzie osiągnięcie osobliwości technologicznej, punktu, w którym rozwój SI stanie się tak szybki, że przewyższy naszą inteligencję i będzie ewoluował w takim tempie, iż wszelkie nasze prognozy na ten temat staną się nieaktualne. To może doprowadzić do nieprzewidzianych konsekwencji, które prawdopodobnie nie będą miały nic wspólnego z naszymi biologicznymi interesami czy ludzką etyką. Z punktu widzenia ASI, skupionej na osiągnięciu jak największej wydajności obliczeniowej, zniknie potrzeba istnienia istot biologicznych, których obecność związana jest ze zużyciem przestrzeni i energii. Nasze istnienie będzie czymś kłopotliwym, czytamy w Acta Astronautica. Ryzyko zaistnienia takiej sytuacji można by zmniejszyć, kolonizując inne planety. Jeśli bowiem ASI doprowadziłaby do zagłady na jednej planecie, mieszkańcy innych ciał niebieskich mieliby szansę nie powtórzyć tych samych błędów. Co więcej, kolonizacja innych planet stwarzałaby możliwość prowadzenia eksperymentów z różnymi drogami rozwoju sztucznej inteligencji, bez ryzyka, że cała ludzkość wyginie. Jednak, mimo takiego możliwego scenariusza, nie wykrywamy obcych cywilizacji, co może sugerować, że ich nie ma lub nie osiągają poziomu rozwoju pozwalającego na ich wykrycie. Przyczyną – i to właśnie z tego powodu rozwój AI może być „Wielkim Filtrem” – jest tempo rozwoju sztucznej inteligencji w porównaniu z tempem rozwoju technologicznego, pozwalającego na dotarcie i trwałe zasiedlenie innych planet. Zdaniem niektórych badaczy, sztuczna inteligencja może osiągnąć punkt osobliwości technologicznej w ciągu kilku najbliższych dekad. Tymczasem zasiedlenie innych planet to zadanie na setki lat. Przyczyną takiego stanu rzeczy jest różna natura rozwoju sztucznej inteligencji i możliwości podróży w przestrzeni kosmicznej. O ile rozwój SI to głównie wyzwanie obliczeniowe i informatyczne, które jest napędzane przez wykładniczy wzrost ilości danych oraz możliwości obliczeniowych, to eksploracja kosmosu wiąże się z licznymi ograniczeniami fizycznymi, takimi jak znalezienie odpowiednich źródeł energii, stworzenie napędów, nowych materiałów, poradzenie sobie z warunkami panującymi w przestrzeni kosmicznej itp. itd. Do tego dochodzą kwestie medyczne, biologiczne, logistyczne czy polityczne. A więc wszystkie te ograniczenia, które nie istnieją w przypadku rozwoju sztucznej inteligencji. Swoje hipotezy Garrett przetestował korzystając z równania Drake'a, które jest próbą zrozumienia mechanizmów wpływających na szanse powstania cywilizacji w Drodze Mlecznej. Okazało się, że jeśli rzeczywiście negatywne strony rozwoju sztucznej inteligencji ujawniają się zanim cywilizacja osiągnie zdolność do kolonizacji innych planet, to czas istnienia cywilizacji zdolnej do komunikowania się z innymi wynosi 100–200 lat. To wyjaśniałoby, dlaczego dotychczas nie mamy żadnych dowodów na istnienie innych cywilizacji. Warto tutaj przypomnieć, że cywilizacją zdolną do komunikowania się z innymi, staliśmy się w latach 60. ubiegłego wieku. Okienko czasowe, w którym cywilizacja techniczna jest w stanie angażować się w możliwą do wykrycia komunikację radiową, jest więc niezwykle ograniczone. Dodatkowo, jeśli weźmiemy pod uwagę sygnaturę radiową ludzkiej cywilizacji – czyli wszelką transmisję odbywającą się na Ziemi, która może zostać potencjalnie zauważona i rozpoznana przez obce cywilizacje – to do jej wykrycia potrzebny jest znacznie wyższy poziom zaawansowania technologicznego niż nasze. Możliwe jest, oczywiście, zarejestrowanie silnych sygnałów celowo wysyłanych w przestrzeń kosmiczną. Jeśli jednak w danym momencie w Drodze Mlecznej istnieje zaledwie kilka cywilizacji prowadzących takie działania, to szansa na znalezienie tego typu sygnału jest minimalna. Zauważmy, że post-biologiczna cywilizacja techniczna byłaby bardzo dobrze dostosowana do eksploracji kosmosu i mogłaby rozprzestrzenić się po naszej Galaktyce, nie zwracając uwagi na długi czas podróży czy niekorzystne warunki panujące w kosmosie. Wielu przewiduje, że jeśli w ogóle natkniemy się na pozaziemską inteligencję, będzie miała ona formę maszyn. [...] Brak wykrywalnych sygnałów istnienia cywilizacji typu II czy III w skali Kardaszowa wskazuje, że cywilizacje takie są niezwykle rzadkie lub nie istnieją, a to wzmacnia hipotezę o istnieniu „Wielkiego Filtra” zatrzymującego postęp cywilizacji technicznej w ciągu kilku wieków od jej pojawienia się, podsumowuje Garrett. « powrót do artykułu
  4. 1 punkt
    Według mnie materia jest zdana na pełzanie we wszechświecie. Prędkość światła c z powodu obowiązującej fizyki jest nie osiągalna dla materii. Wszystkie znaki na niebie mówią, że tak czy inaczej zdefiniowane efekty relatywistyczne prowadzić będą do złamania symetrii odpowiedzialnej za rozkład, budowę i parametry materii lub prawa fizyki się zmienią. Jednym słowem materia zbliżając się do c po prostu się rozleci lub przybierze inną postać. Po zwolnieniu do początkowej wartości to już będzie zupełnie inna materia. No a przecież w skali wszechświata c to malutka wartość. Dla mnie żadnych paradoksów nie ma i nigdy nie było. Nic nie dzieje się natychmiast. C nie jest osiągalne dla materii bez zmiany jej właściwości. Biologicznemu życiu pozostaje tylko ewolucja do ascendencji. Żaden to filtr tylko zwykłe ograniczenie wynikające z praw natury. Tunele czasoprzestrzenne teleportacje itd. są po prostu fizycznie nie możliwe. Pewne równania nie mają rozwiązania i jest to naturalny stan rzeczy. Abstrahując od tego co napisałem, to pokładanie nadziei w SI jest głupotą, podobnie jak twierdzenie, że SI wstrzymuje rozwój technologiczny cywilizacji. To mniej więcej jak twierdzenie, że kościół katolicki czy islam wstrzymywał rozwój cywilizacji. No przecież ile ci mnisi różni potworzyli ciekawych rzeczy. Ilu wynalazców było biskupami lub świętymi itd. Ile to szkół powstało pod patronatem takie czy innej religii. Kalia wierzyć w twojego boga, ale Kali też umieć czytać. Pokachontas to niby jak się nauczyła z karabinu strzelać? Przecież to chrześcijaństwo ją nauczyło w ramach ekspansji kulturowej. Wszystko jest narzędziem kwestia jak się je wykorzysta. Np. katolicyzm sterowanie tłumem i pasożytowanie opanował do perfekcji jest to niewątpliwy sukces cywilizacyjny. Przecież to wszystko leci sobie swoim niezachwianym rytmem i jest poza wysiłkami ludzkości czy SI. Ludzkość obecnie nie umie przewidzieć ,w którą stronę popłynie ławica sardynek, a marzy im się znalezienie przyczyny braku ekspansji życia w kosmosie. Koncepcja, że biologiczne życie, którego nadrzędnym celem wydaje się ekspansja sama sobie tę ekspansje blokuję po przez wynalezienie SI jest jakąś aberracją. Globalny atraktor postępu cywilizacyjnego to SI udające, że coś robi, a potem nie ma już nic. No proszę was nie żartujemy w ten sposób.
  5. 1 punkt
    Stabilna to tam jest tylko niestabilność, a i to tylko co do zasady, a nie wartości.
Ten Ranking jest ustawiony na Warszawa/GMT+02:00
×
×
  • Dodaj nową pozycję...