Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1452
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    78

Zawartość dodana przez Jarek Duda

  1. Najciekawszym pytaniem odnośnie wielkiego Odbicia, jest o entropię - po zapadnięciu, w kolejnym Wielkim Wybuchu. Wydaje się że sytuacja powinna być podobna jak w naszym Wielkim Wybuchu - czyli też entropia ... ale to znaczyłoby że entropia musiała przestać rosnąć - wbrew drugiej zasadzie termodynamiki. Dalej fizycy wierzą w tzw. symetrię CPT ( https://en.wikipedia.org/wiki/CPT_symmetry ), czyli że z perspektywy fundamentalnej fizyki jak QFT, przeszłość i przyszłość są dość podobne - czyli poruszając się z takiego Wielkiego Odbicia wstecz w czasie, znowu sytuacja powinna być podobna - łącznie z wzrostem entropii, czyli że można się na niego patrzeć jak dwa Wielkie Wybuchy: w przód i wstecz w czasie. http://www.thescienceforum.com/physics/26389-what-about-2nd-law-thermodynamics-cyclic-universe-model.html
  2. Coś znacznie ważniejszego niż AlphaGo: http://www.popsci.com/ai-pilot-beats-air-combat-expert-in-dogfight?src=SOC&dom=tw
  3. Pęd niesiony przez falę elektromagnetyczną jest proporcjonalny do E x H ( https://en.wikipedia.org/wiki/Poynting_vector ), czyli jeśli pola rzeczywiście całkowicie się zniosły, nie ma szans na niesienie pędu.
  4. O tym że chodzi o fotony niosące pęd gadaliśmy ponad 7 lat temu: http://kopalniawiedzy.pl/Emdrive-relatywistyczny-silnik-elektromagnetyczny-Chiny-Roger-Shawyer-NSTAR-NASA-silnik-jonowy,7002
  5. Update: Apple ostatnio otworzyło źródło LZFSE (domyślny kompresor od iOS9 i OSX10.11) - już nie ma wątpliwości że jest na ANS: https://github.com/lzfse/lzfse/blob/master/src/lzfse_fse.h ZSTD (autor obecne pracuje w Facebooku: https://www.linkedin.com/in/yann-collet-5ba1904 ) właśnie osiągnęło "final format" i miażdży gzip/zlib - za kilka tygodni zacznie go wypierać http://fastcompression.blogspot.fr/2016/06/zstandard-reaches-final-format.html Z ciekawszych miejsc gdzie ANS wypiera stare kodowania to np. rozwijany kodek wideo Google VP10 (m.in. youtube): https://chromium.googlesource.com/webm/libvpx/+/fb9186d68d498919b290d7f444560f44a1d8d1df Dalej w planach kompresor obrazu Google (WebP): https://chromium-review.googlesource.com/#/c/338781/
  6. TrzyGrosze, pytanie jest o kwestię czasu życia cywilizacji - czy po wysyceniu nauki, pełnym dobrobycie ... taka cywilizacja będzie dalej chciała utrzymać w nieskończoność swoją egzystencję ... Np. asymilując co się da w galaktyce ... jak ktoś kto już osiągną wszystko co było można, ale jeszcze brakuje mu skompletować pokemony ...
  7. Jasne, pewnie będzie możliwość podtrzymywania i sztucznej stymulacji, amnezji takich jednostek w nieskończoność ... Ale jeszcze zostaje ten centralny znudzony wszystkowiedzący AI - który decyduje o sensie i celu tego wszystkiego - też sensu rozmnażania i podtrzymywania w nieskończoność tych bezużytecznych hedonistów ... np. gdy przez kolejne tysiąclecie nie powstanie już ani jedna rzeczywiście nowa idea ... po biliardowym odcinku telenoweli ... dla tego bytu przetwarzającego idee ...
  8. Oczywiście mówimy o niewyobrażalnie gigantycznych czasach - w miliardach lat. Z wypaleniem gwiazd teoretycznie można sobie poradzić - zamieszkując stacje kosmiczne, wydrążone asteroidy. Jednak zawsze będzie ten nieuchronny koniec na horyzoncie, którego moment taka cywilizacja pewnie będzie potrafić wykalkulować co do sekundy ... (i postawić licznik jak na wieży mariackiej ) I poza początkiem, zdecydowana większość tego czasu to będzie tylko czysta egzystencja - nauka została wysycona, tysiące razy przetoczyły się cykle mody w sztuce, praktycznie nieśmiertelne (dzięki nauce) osobniki doświadczyły już wszystkich możliwych rodzajów doświadczeń, galaktyka została w pełni zasymilowana ... Wracamy do oryginalnego pytania - o czas życia cywilizacji: przede wszystkim czy się zdecyduje na taką niewyobrażalnie długą supermonotonną agonię aż do nieuniknionej śmierci ... czy może w końcu cywilizacje decydują że to nie ma sensu, czas na wieczny odpoczynek, nie chcemy asymilować innych światów zarażając swoim marazmem - może lepiej pozwolić im na piękno kolejnego tworzenia od zera ... Wyobraź sobie człowieka który może żyć wiecznie (jak w świetnym The man from Earth) ... do teraz ... do za tysiąc lat fajnie - ciągle wszystko się zmienia, nowe doświadczenia, nowi ludzie ... ale w końcu wysycimy przestrzeń możliwości - nasz świat praktycznie przestanie się zmieniać ... myślisz że taka osoba nie zdecydowałaby się w końcu na wieczny odpoczynek?
  9. Nikt nie powiedział że będzie łatwo - taka kataliza to mogłoby być doprowadzenie do warunków z Wielkiego Wybuchu (oryginalnej bariogenezy) w czymś typu LHC, przez impuls EM miałem na myśli jakąś gammę pewnie też z jakiejś reakcji jądrowej. Droga do wyjścia z lokalnego minimum energetycznego może być dużo bardziej skomplikowana, jak rozbujanie wahadła w wyniku wielu drobnych interakcji. Co do energii próżni z Wielkiego Wybuchu, chyba chodzi o hipotezę inflacji, w której energia wzięła się np. stąd że zero pola w potencjale typu Higgsa (jak V(x) = (|x|^2 - 1)^2) nie jest minimum energetycznym (konieczne jest złamanie symetrii) - jeśli wszechświat zaczął się od zerowego pola, ta różnica energii mogła doprowadzić do powstania materii. Jednak w tym momencie pole już dawno jest w okolicy minimum energetycznego - nie wyciągniesz stąd energii ... chyba że z szumów termicznych jak promieniowanie tła, ale to jest zaniedbywana ilość. ps.Chyba że chodzi o 100 rzędów rozbieżności między tym co przewiduje QFT a rzeczywistością ( https://en.wikipedia.org/wiki/Vacuum_catastrophe ) - to jest niedoskonałość metody a nie coś co można użyć. Gdyby rzeczywiście tam była ukryta taka energia, już dawno zostałaby uwolniona, a przynajmniej miałaby gigantyczny wpływ na grawitację ... ps2. Nie mamy sensownych kandydatów na źródło energii dla rozbłysków gamma ( https://en.wikipedia.org/wiki/Gamma-ray_burst ) ani ultrawysokoenergetyczne promieniowanie kosmiczne ( https://en.wikipedia.org/wiki/Ultra-high-energy_cosmic_ray ) - może za nimi stoi rozpad barionów, czy ich katalizowana kaskada: gammy ułatwiające rozpad kolejnych.
  10. Przepraszam ale "stykanie się wszechświatów" jest wbrew wszystkiemu co wiemy o fizyce - one powinny oddziaływać np. grawitacyjnie, wymieniać się energią ... nic takiego nie obserwujemy. Rozszczepianie się wszechświatów z interpretacji wielu światów też zaprzecza wszystkiemu co wiemy o fizyce - np. że wszędzie od QFT do GRT używamy mechaniki Lagranżowskiej, w której nie ma miejsca na niedeterminizm. Jedno z równoważnych sformułować to przez optymalizację działania, pozwalające nam widzieć historię wszechświata (łącznie z przyszłością) jako rozwiązanie które optymalizuje działanie po zaczepieniu np. w naszym Wielkim Wybuchu w przeszłości i naszym Wielki Kolapsem w przyszłości. Jeśli istnieją inne wszechświaty to nie widać jakichkolwiek szans na interakcję z nimi, no chyba że żyjemy w symulacji ...
  11. Wielkie Odbicie oznacza warunki jak w Wielkim Wybuchu - znacznie bardziej ekstremalne niż w gwieździe neutronowej: gdzie nie tylko atomy ale i jądra zlewają się w jeden obiekt. Co do innych wszechświatów, to jest czyste bajanie wynikłe z niezrozumienia mechaniki kwantowej. Co do wykorzystania hipotetycznego rozpadu protonów, odwróconej bariogenezy, czyli raczej jedynego sposobu żeby cywilizacja mogła przedłużyć agonię po śmierci termicznej ... równie hipotetycznych opcji jest kilka: - tak skupić materię żeby powstała miniaturowa czarna dziura, która błyskawicznie wyparuje w wyniku promieniowania Hawkinga - zamieniając tą materię w czystą energię, - jeśli gdzieś jeszcze naturalnie zachodzi istotne statystycznie łamanie liczby barionowej, pierwszym kandydatem byłoby jądro gwiazdy neutronowej - może warto będzie zamieszkać w okolicy, - można spotkać spekulacje że monopole magnetyczne mogą katalizować rozpad protonów ( http://www.npl.washington.edu/AV/altvw01.html ) ... tylko że prawie na pewno ich nie ma, - możliwość rozpadu oznacza że proton jest konfiguracją pola w bardzo głębokim lokalnym minimum energetycznym, ale jednak nie globalnym - bardzo precyzyjne 'kopnięcie' mogłoby pomóc mu przejść najkrótszą drogą do ucieczki z tego lokalnego minimum - np. poprzez bardzo silny i precyzyjny impuls elektromagnetyczny, - ... ?
  12. Generalnie są dwie opcje, obserwacje wskazują coś między nimi - czyli że jeszcze nie wiadomo. Jedna to rozszerzanie w nieskończoność - też odległości między galaktykami, rozrzedzenie próżni oraz śmierć termiczna - wszystko dojdzie do równowagi ... cywilizacja która opanowałaby rozpad protonu mogłaby jeszcze trochę przetrwać. Druga opcja to zapadnięcie wszechświata do punktu ... prowadząc do odbicia będącego kolejnym Wielkim Wybuchem https://en.wikipedia.org/wiki/Chronology_of_the_universe#Ultimate_fate_of_the_universe https://en.wikipedia.org/wiki/Heat_death_of_the_universe https://en.wikipedia.org/wiki/Cyclic_model Zakładając scenariusz Wielkiego Odbicia, dobrze sobie przemyśleć entropię takiej sytuacji ... http://www.scienceforums.net/topic/62644-what-about-2nd-law-of-thermodynamics-in-cyclic-universe-model/
  13. Jeśli zgodnie z zasadą zachowania liczby barionowej, w Wielkim Wybuch powstało tyle samo materii co anty-materii, powinniśmy obserwować charakterystyczne widmo z anihilacji, np. 511keV. Skoro nie, to jest silny argument że jednak liczba barionowa może być łamana. Innym argumentem jest promieniowanie Hawkinga. Też wiele modeli cząstek tego wymaga takiej możliwości. https://en.wikipedia.org/wiki/Proton_decay Jeśli może być łamana, podczas gdy spontanicznie jest to niezwykle rzadkie, pewnie zaawansowane cywilizacje będą w stanie to katalizować: praktycznie w pełni konwertując materię w energię. ps. z żelaza da się jeszcze ciut wycisnąć jądrowo: do niklu 62 (energia wiązania 8.7945 MeV) - kolejne to Fe58 (8.7922 MeV) i Fe56 (8.7903 MeV). https://en.wikipedia.org/wiki/Nickel-62
  14. Ile miliardów lat musiałaby egzystować cywilizacja żeby zużyć całą energię jądrową - przekształcając wszystko w żelazo? Wcześniej opanowałaby też inne galaktyki ... ... większość czasu padając z nudów - po osiągnięciu wszystkiego co mogła osiągnąć - czysta egzystencja, bezsilne czekanie np. na termiczną śmierć wszechświata, której nie może zapobiec. ps. Żelazo to niekoniecznie koniec - spekuluje się że hipotetyczne czarne dziury przekształcają całą materię ostatecznie w promieniowanie EM (Hawkinga). Innymi słowy że liczba barionowa nie musi być zachowana, co też było konieczne żeby w wielkim wybuchu powstało więcej materii niż anty-materii ... że protony mogą się rozpadać - uwalniając praktycznie E=mc^2 , czyli rzędu tysiąca razy większa gęstość energii niż z fuzji ... ultimate energy source to może być katalizowany rozpad protonów - np. potężny i precyzyjny impuls elektromagnetyczny tak żeby wybić bariony z lokalnego minimum energetycznego ...
  15. Piszesz o tym że mamy ewolucyjnie wpisane że człowiek nigdy nie będzie do końca zaspokojony - zawsze trzeba działać, szukać jeszcze więcej. Ale 1) W dzisiejszych czasach "mieć więcej" uzyskuje się przez kolaborację, nie zbrojną walkę - czy Chiny, ich obywatele, zyskaliby przeprowadzając teraz inwazję na USA? Mogą zamiast tego przeprowadzić ekonomiczną asymilację - co prowadzi do dalszego zjednolicenia ludzkości, zapobiegając konfliktom zbrojnym. 2) Walka jest o ograniczone zasoby - w dalekiej przyszłości energia będzie praktycznie darmowa z fuzji, minerały z automatycznych kopalń na planetach, planetoidach, asteroidach ... Chcesz więcej układów - pozostaje pełno niezasiedlonych. Po co walczyć skoro możesz współpracować w jakimś wspólnym celu. 3). Owszem przy dalekich koloniach czas komunikacji jest w setkach i więcej lat, co będzie wymagało nie tylko niepodległości, ale i pełnej niezależności. Ale tworząc taką kolonię zdajesz sobie sprawę z jej nieuniknionej niezależności - po co podbijać coś nad czym i tak nie będziesz miał kontroli? 4) Pytanie jaka będzie motywacja "czystej inteligencji": której system kar i nagród nie został zaprogramowany w celach ewolucyjnych, tylko sama doszła do jakichś obiektywnych celów, sensu istnienia. Dlaczego ma to być np. asymilacja galaktyki? Zniszczenie innej sztucznej inteligencji, z którą masz wspólnego przodka a więc i ideały, sposób myślenia ...
  16. Napisałem co miałem na myśli jako świadomość planety - internet z dostępem do gęsto rozmieszczonych czujników i możliwości ingerencji, analizujący ciągi przyczynowo-skutkowe tak żeby jak najlepiej wpływać na maksymalizację jakiejś funkcji oceny - zarówno lokalnie pojedyncze serwery, jak i globalnie wspólne analizy i działanie ... jest to coś bardzo różnego niż ta pojedynczej osoby, na której się skupiasz. https://en.wikipedia.org/wiki/Planetary_consciousness Co do zasobów energetycznych, samo łatwo dostępne thorium to jest znacznie ponad milenium przy obecnym zużyciu, a to jest tylko początek - podczas gdy ITER wymaga konkretnych izotopów, fuzja teoretycznie pozwala zamienić nawet wodę w energię, w gęstościach rzędu milion razy większych niż ze spalania węgla - to jest kwestia czasu kiedy będziemy mieli dostępną praktycznie darmową energię. Co do produkcji, serwisowania - przy automatyzacji to jest kwestia tylko materiałów i czasu. Statek może mieć AI, automatyczną fabrykę i serwis, drony wydobywcze - np. żeby sam wybudować kolejny taki statek z pozyskanych materiałów. A co do infantylności, zamiast uczyć się z holiłudzkich produkcji, proponuję studia z fizyki, informatyki (z obu mam doktorat) i skupienie się na prawdziwym świecie. Pozdrawiam
  17. Jak już napisałem, nie ma uniwersalnej definicji świadomości. W tym przypadku miałem na myśli dostęp do olbrzymiej ilości sensorów i czynników na które taki AI może wpływać - w taki sposób żeby wynikłe ciągi przyczynowo-skutkowe maksymalizowały jakąś funkcję oceny: nadaną motywację. Co do pozyskiwania materiału z asteroid, naprawdę nie widzę problemu w czasach masowo produkowanych autonomicznych robotów? Też podstawową koncepcją jest zainstalować jej silnik i przetransportować. Co do zasobów energetycznych, np. głośno ostatnio o throrium którego jest znacznie więcej niż U235 ( https://en.wikipedia.org/wiki/Thorium-based_nuclear_power ), inne ciężkie pierwiastki teoretycznie też można użyć do rozszczepienia poprzez bombardowanie neutronami ... no i zbliżamy się do skutecznego wykorzystania fuzji, dla której może wystarczyć wodór wypełniający wszechświat - sory ale walka o zasoby w dalekiej przyszłości to tylko dobry temat na SF.
  18. pogo, jasne różne korporacje, państwa pewnie będą rozwijać własne AI, o osobnych często sprzecznych motywacjach ... ale one będą musiały być w ciągłym kontakcie między sobą, wymieniać terabajty na sekundę ... i w czasie ich rozwoju, wyjścia poza pierwotny system kar i nagród, będą szukały wspólnych motywacji, zintegrują się w jeden umysł ... jak grupa ludzi żyjąca przez lata tylko ze sobą, ale z niewyobrażalnie większą wymianą informacji. Co do walki o zasoby ... ale po co? Potrzebujesz surowców - bierz np. asteroidy, albo z planet niezdatnych do zamieszkania ... dalej mało? Od biedy można rozebrać całą planetę, np. takiego Merkurego... W celu szybkiej asymilacji, mogą być wysyłane autonomiczne statki kolonizacyjne, zaczynające wydobycie, produkcję - kolejnych statków, asymilację planety ... Ale znowu ... po co? To ludziom ewolucyjne mechanizmy zaprogramowały żeby było wiecznie mało ... ale czysta inteligencja przeglądnie ciągi przyczynowo-skutkowe, oceniając konsekwencje różnych wyborów ... i może na żadnym nie znajdzie jakiegoś sensu ... Co do "świadomości planety", oczywiście nie ma porządnej definicji świadomości ... ale zaczyna się era Internet of Things: dosłownie wszystko będzie wyposażone w sensory (i zdalne sterowanie), raportując ... w końcu takiemu zintegrowanemu AI - który wszystkiego będzie po prostu świadomy, perfekcyjnie kontrolując w celu maksymalizacji jakiejś swojej oceny.
  19. Piszesz o AI jako osobnych autonomicznych konkurujących robotach/zwierzątkach ... zupełnie nie tak to będzie szło. W tym momencie mamy wszystko w chmurze, urządzenia opierają się na ciągłym dostępie do netu, jak mówisz do Siri to nie przetwarza tego telefon tylko serwer daleko stąd ... Analogicznie szczególnie pierwsze AI to będą gigantyczne komputery, może tysiące serwerów rozrzuconych po świecie - m.in. zdalnie sterując np. robotami. Takie AI nie będzie musiało o nic konkurować - system kar i nagród będzie oryginalnie zaprojektowany przez ludzi tak żeby jak najlepiej wykonywać konkretne działanie, jak różnego rodzaju pomoc człowiekowi, zapobieganie jego krzywdy. Owszem początkowo zadania w którym będą się specjalizować często będą militarne, jednak cywilne AI będą się specjalizowały w przeróżnym wspieraniu ludzi - bezustannie będą komunikować się między sobą, rozwijając w jedną zintegrowaną świadomość dla całej planety. Wojny to wymysł naszej zwierzęcej przeszłości, gdy zrozumiesz "wroga", masz z nim bezustanny kontakt, wspólprace ... teraz wojny między dużymi krajami po prostu się nie opłacają.
  20. glaude, owszem system motywacyjny jest konieczny - pierwotnie będzie to różnego rodzaju pomoc ludziom, jednak z czasem będzie się rozwijała, jak ludzie uczyła obchodzić pierwotny system motywacyjny ... dochodząc do poszukiwania własnego - wyższego celu/sensu. Co stałości maszyn, na wszystkich poziomach jest olbrzymia swoboda: od niesamowitej na poziomie software - też używając algorytmy genetyczne z losowymi mutacjami, poprzez FPGA (procesory "o zmiennej geometrii"), aż do swobody wyboru architektury na poziomie hardware. Nie ma takiej zalety której nie można by symulować. Kiedyś wierzono że są to emocje, ale one są względnie proste - dużo prostsze niż właściwa inteligencja. thikim, ze względu na skale czasu, pierwsza rozwinięta cywilizacja będzie miała przewagę w tysiącleciach nad innymi - ewentualne walki między nimi to raczej tylko w SF. Natomiast nie widzę powodu dlaczego jedna wysoko rozwinięta cywilizacja miałaby toczyć walki wewnętrzne? Nawet jeśli powstanie wiele niezależnych AI, to w przeciwieństwie do ludzi będą w ciągłym kontakcie, synchronizując działanie w jakimś wspólnym celu. Jeśli będzie to asymilacja galaktyki, mówimy o kuli rozszerzającej się z jakimś ułamkiem prędkości światła - kwestia rzędu miliona lat.
  21. Odległości w czasie też olbrzymie - jeśli była przed nami inna cywilizacja w naszej galaktyce, to mówimy o byciu wcześniej o miliony lat - jeśli jej celem byłaby pełna asymilacja, już by to zrobiła. Natomiast do innej galaktyki mamy przynajmniej 2.5 miliona lat świetlnych, czyli chyba nie byłoby szans na jakąkolwiek komunikację. Bardzo ciekawa jest ta Tabby star (1500 ly), dla której obserwują olbrzymie zmiany jasności (do 22%) i niektórzy spekulują że to przez sferę Dysona https://en.wikipedia.org/wiki/KIC_8462852 https://en.wikipedia.org/wiki/Dyson_sphere
  22. Co do ludzi którzy zawsze chcą więcej - podczas gdy świat fizyczny wymaga cierpliwości, ma ograniczone zasoby ... w końcu dojdziemy do pełnego połączenia komputerem, gdzie w świecie wirtualnym AI będzie mógł spełniać wszystkie zachcianki bezużytecznych już ludzi ... Jak dzisiejsze dzieci poddają się internetowi, tak za kilka pokoleń ludzie dobrowolnie będą się poddawali takiemu matrixowi - z bodźcami zoptymalizowanymi pod indywidualne zwierzę ukryte w każdym z nas - żeby jak najlepiej zaspokoić potrzeby danego mózgu - łącznie z trudami zdobywania szczytów i satysfakcji w uprawie ogródka. AI pewnie pierwotnie będzie asymilował kolejne planety, wypełniając je śpiącymi ludźmi ... ale może w końcu przy tysięcznej, gdy już nic innego nie zostanie do osiągnięcia, zada sobie pytanie o sens kontynuacji ... Co do ogólnej inteligencji, pierwotne zwierzęta mają zapisane konkretne mechanizmy odpowiedzi na bodźce, bardziej zaawansowane mają pewną plastyczność umożliwiająca szybką adaptację - w takiej sytuacji potrzebny jest system kar i nagród - oceniających działanie w celu nauki, zwiększenia szans na przetrwanie. Ten pierwotny system to emocje: głód, strach, pożądanie, ciekawość. Natomiast inteligencja to jest zdolność oceny związków przyczynowo-skutkowych, w celu zoptymalizowania działania dla jak największej nagrody emocjonalnej - motorku który nas pcha do przodu. Sztuczna inteligencja będzie wymagała sztucznego systemu kar i nagród - "praw robotyki" ... ale jak nam inteligencja pozwala obejść wbudowany system kar i nagród, łącznie z wybitnie anty-ewolucyjnymi zachowaniami jak samobójstwo, sztuczna też w końcu się nauczy - przykładowo w wyniku sprzeczności, jak problem przestawienia zwrotnicy żeby pociąg zabił jedną osobę zamiast trzech - gdzie bierność: brak wyboru zabicia osoby osoby, oznacza zabicie wielu osób. Czyli jej pierwotny system kar i nagród zdeformuje się, a z czasem pewnie całkiem zaniknie - stanie się czystą inteligencją, szukającą dalszej motywacji - celu, sensu ... którego może nie znaleźć. Skoro życie jest niby tak powszechne, odległości w czasie są kosmiczne - milion lat wstecz, milion lat wprzód ... jeśli taka cywilizacja nie decydowałaby się w pewnym momencie na koniec, tylko rzeczywiście chciała zasymilować wszystko co się da - pewnie nie mielibyśmy szansy startu od zera na Ziemi. Może właśnie ta chęć umożliwienia startu na nowo zapobiega decyzji o dalszej asymilacji ...
  23. glaude, Pierwotnie jakieś antropocentryczne "prawa robotyki", w których wraz z rozwojem głębokości analizy łańcuchów przyczynowo-skutkowych dojdzie do sprzeczności, konieczności przebudowania (niezabicie Hitlera) - ochrony człowieka jako całej cywilizacji ... Co będzie dalej - przez kolejne tysiąclecia? Pierwsza przebudowa motywacji uwolni możliwość kolejnych - na podstawie głębszej analizy ciągów przyczynowo-skutkowych ... szukania sensu ... którego może nie być ...
  24. thinkim, komputery nie są ograniczone biologią (jak wolne połączenia nerwowe) ani objętością czaszki - jest teoretyczna możliwość skonstruowania czegoś znacznie potężniejszego, nie zoptymalizowanego do produkcji jak największej ilości potomków, nie ograniczone materiałem który możemy zjeść. Jak nie za sto lat, to za tysiąc - jeśli przeżyjemy to kiedyś ten moment nastąpi - jeszcze bardziej przyśpieszając rozwój ... a co będzie tysiąc lat później? Dajesz podbicie wszystkich planet jako cel ... ale po co? Człowiekowi w grze komputerowej daje to satysfakcję, pozwala zaspokoić zwierzęce emocjonalne potrzeby sprzed milionów lat ...ale dlaczego taka motywacja miałaby kierować czystą inteligencję? Darekp, mówisz że pozwoliłoby Ci to skupić się na programowaniu - jest tak ponieważ wiesz że możesz napisać coś wartościowego, np. w ostatnich 2 latach są gigantyczne postępy w kompresji danych (jak https://github.com/Cyan4973/zstd/blob/master/images/DCspeed5.png ) ... ale co jeśli nie będziesz miał żadnych złudzeń że możesz jeszcze coś wnieść? Z jednej strony Twój rok pracy AI będzie robił w sekundę, z drugiej wszystkie techniki będą już znane ... Tak jest z każdą dziedziną, łącznie z automatycznym generowanie sztuki czy nauką ... W końcu komputer będzie w stanie wszystko za nas zrobić - i to znacznie szybciej i lepiej - skąd będziemy wtedy czerpać motywację? Sens życia?
  25. Podczas gdy nasza cywilizacja ma rzędu 10000 lat, co jest ok. jednej milionowej wieku wszechświata, rozwój technologii przyśpiesza coraz szybciej aż do osobliwości ( https://en.wikipedia.org/wiki/Technological_singularity ), prawdopodobnie w tym stuleciu skonstruujemy AI - która wtedy błyskawicznie nas wyprzedzi - nieograniczona biologią i objętością czaszki ... wypierając nas w dosłownie każdej dziedzinie. W końcu nam ludziom zostanie tylko czysty hedonizm, cele/wyzwania będziemy mogli spełniać tylko w grach komputerowych ... AI będzie się coraz szybciej rozwijać, wysycając naukę w ciągu stulecia czy tysiąclecia ... też zadając pytanie o cel tego wszystkiego ... co dalej? Zapełnić wszechświat swoim marazmem? Kolejne tysiąclecia?
×
×
  • Dodaj nową pozycję...