peceed
Użytkownicy-
Liczba zawartości
1797 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
64
Zawartość dodana przez peceed
-
Mapa deformacji jąder atomowych przypomina swym kształtem górski krajobraz
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Raczej zasada nieoznaczoności, i tego uczy się już w liceum. To bzdura niemiłosierna. Dookoła ziemi również mamy termosferę o temperaturze do 1000 stopni i nikt nie robi z tego sensacji wymagającej zmiany praw fizyki.- 48 odpowiedzi
-
- deformacja jąder
- stany wzbudzone
-
(i 4 więcej)
Oznaczone tagami:
-
Podoba mi się użycie figur do złamania symetrii gry i pozostawienie takiej, że nie ma odwrócenia pozycji po zamianie stron, to ułatwia naukę. Bardzo szybko do gry wchodzą ciężkie figury. Na oko, goniec we wczesnej fazie jest bardziej wartościowy w porównaniu do normalnych szachów, a wieża nieco mniej, dałbym punktację 4.5-3.5.
- 7 odpowiedzi
-
- szachy diagonalne
- Zbigniew Kokosiński
-
(i 1 więcej)
Oznaczone tagami:
-
Mapa deformacji jąder atomowych przypomina swym kształtem górski krajobraz
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Ale działanie takiego miotacza już nie jest takie widowiskowe. Zrozumieniem jest to, że jest to wyłącznie kwestia obliczeń. Obliczenia p/n+d to 6 kwarków i kilkadziesiąt gluonów (a teoretycznie trzeba by przeliczyć historie z każdą ilością gluonów). Nie ma żadnej gwarancji że w przyrodzie musi pojawić się "zrozumienie" w postaci prostszej teorii efektywnej, to wyjątki a nie reguły. Do tego każda teoria efektywna ma ograniczony zakres stosowalności i wymaga cofnięcia się do bardziej fundamentalnej po jego przekroczeniu. Wielkie sukcesy uczenia maszynowego sugerują, że takie efektywne teorie rozumiane jako istnienie prostszych aproksymatorów nie są rzadkie w świecie fizyki, ale wciąż mogą być poza zasięgiem naszego mózgu, tzn. nie mamy gwarancji zrozumienia jak działa sieć neuronowa która jest takim aproksymatorem (poza ogólną zasadą działania sieci), rozumienie maszy jest nietransferowalne i niewyrażalne w postaci lingwistycznej (poza podaniem ciągu wag). No bez jaj. Maxwell i Hertz przewracają się grobach... No właśnie, powinno być Popow, odkrywca fal radiowych Jak już nawiążemy kontakt, to jak ufole zapytają czy już znamy minima kształtu jąder to będzie można błysnąć towarzysko - znamy, znamy. A to nieźle! - odpowiedzą ufole. I dla takich momentów uprawiamy całą HEP.- 48 odpowiedzi
-
- deformacja jąder
- stany wzbudzone
-
(i 4 więcej)
Oznaczone tagami:
-
To by wymagało wymiany DNA 40 mln ludzi z polskiego na chińskie
-
Umarło tam mniej ludzi niż w Polsce w przeliczeniu na mieszkańca, liczono się ze znacznie większymi stratami. To że zmienił zdanie nic nie znaczy, bo po takiej nagonce to dla swojego świętego spokoju zrobiłby inaczej. Odporność stadna to stan dynamiczny, Szwedom wydawało się że będą mieli spokój na zawsze i stąd rozczarowanie.
-
Jeszcze trzeba uwzględnić ile przez koronawirusa, a ilu przez lockdown służby zdrowia. Bo teraz nie ma wątpliwości że ludzie umierają na wszystko co nie jest koronawirusem. Były przypadki ludzi z gangreną odsyłanych z pogotowia.
-
Mapa deformacji jąder atomowych przypomina swym kształtem górski krajobraz
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Co jest niezrozumiałe, że mamy dokładną teorię która po przeliczeniu daje wyniki zgodnie z eksperymentem? Mózg nie jest w stanie odtworzyć tych obliczeń w głowie, więc rozumienia ponad abstrakcyjne nie będzie. Nasze możliwości "rozumienia" są ograniczone, komentarz mistrza świata odnośnie programów szachowych: Wykonują szereg niezrozumiałych posunięć bez najmniejszego sensu, a na końcu przegrywasz. Wiemy jak działa alfa-beta, jaka jest funkcja oceny, ale "zrozumienie" ruchu wymagałoby przeliczenia w myślach miliarda pozycji szachowych. Można sobie tworzyć urojone byty które pozwalają na rozumienie strategii, że na przykład program dostrzegł słabość w postaci określonego pola na którym przez kilkanaście ruchów koncentruje atak, ale to próba racjonalizacji działania jednego algorytmu przy pomocy pojęć wykorzystywanych przez człowieka. Pytanie dlaczego neutron jest cięższy od protonu przypomina pytanie, dlaczego program szachowy wykonuje określony ruch - odpowiedź na pewnym abstrakcyjnym i całkowicie satysfakcjonującym poziomie jest prosta (bo to najlepsza pozycja jaką znalazł/inaczej byśmy nie istnieli), a na głębszym wymaga gigantycznych obliczeń. I nie ma żadnego haka, żadnej ukrytej teorii "pomiędzy" która by to tłumaczyła, tylko mrówcza praca. Nie wątpię, że w końcu pojawiłyby się, przy odrobinie czasu i szczęścia opracowania typu "Psychologia programów szachowych. Praca zbiorowa". Potem, na ich podstawie, poradniki "Myśl jak Stockfish". Pewnie pojawiłaby się masa ludzi którym takie opracowania "pomogły", a nawet realnie polepszyły grę, ale... nie byłyby w żadnym stopniu prawdziwym zrozumieniem.- 48 odpowiedzi
-
- deformacja jąder
- stany wzbudzone
-
(i 4 więcej)
Oznaczone tagami:
-
Trzeba brać śmiertelność roczną dla całych państw, a nie jarać się szczytem epidemii i rejonami.
-
Mapa deformacji jąder atomowych przypomina swym kształtem górski krajobraz
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Na najgłębszym poziomie - zupełnie przypadkowo. To taka cecha wszechświata, że wszystkie istoty inteligentne zadają sobie pytanie, czemu zaszły warunki umożliwiające ich istnienie. Dlatego wymyślono mniej naiwną chromodynamikę kwantową.- 48 odpowiedzi
-
- deformacja jąder
- stany wzbudzone
-
(i 4 więcej)
Oznaczone tagami:
-
Szwecja nie istotnie wyższej śmiertelności niż kraje które wprowadziły drakońskie lockdowny, a podstawowym błędnym założeniem jest takie, że państwa istnieją po to, aby redukować śmiertelność obywateli z powodu koronawirusa. Tymczasem śmiertelność z powodu koronawirusa jest nieistotna z punktu widzenia funkcjonowania państwa jako całości. Oczekiwane skrócenie długości życia to lepsza miara niż prosta śmiertelność, dla populacji są to wielkości rzędu dni.
-
Całkowita śmiertelność wzrosła w minimalny sposób (z powodu koronawirusa). Paraliż służby zdrowia nie jest spowodowany koronawirusem, a podejściem wobec niego, tzn. pozwolono służbie zdrowia nie pracować. Model szwedzki się sprawdził, u nas ograniczono zachorowania wśród najodporniejszych dzieci, więc zachorowania i zgony musieli wziąć na klatę starsi.
-
Sztuczna inteligencja DeepMind robi kolejny krok. Uczy się od podstaw metodą prób i błędów
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Lepiej powiedzieć - efektywne. Nie ma problemu, aby sieć neuronowa została podzielona na sekcje które liczą niezależne składowe klasycznej ewaluacji Stockfisha, ale z punktu widzenia sieci jest to niepotrzebne ograniczenie działania. "Nauczony" algorytm może być efektywniejszy od "zaprojektowanego", ale to ten zaprojektowany liczy się znacnie szybciej bezośrednio na procesorze. Tak naprawdę to Stockfish 12 korzysta z obu funkcji oceny, jest hybrydowy. Nie wiem, czy ktoś robił porównanie jakości działania czystej heurystyki neuronowej w porównaniu z klasyczną (strzelam że klasyczna znacznie przegrywa), ale neuronowa przegrywa z hybrydową (bo inaczej nie stosowano by hybrydy).- 36 odpowiedzi
-
Nie przesadzajmy. Ludzie nie chcą się szczepić, bo zabrakło tych szeroko reklamowanych stosów trupów podczas epidemii. W ogóle nie warto tracić czasu na jałowe dywagacje. Szczepionki na początku będzie za mało dla wszystkich chętnych, a do momentu kiedy będzie dostępna znikną obawy co do efektów ubocznych. Ludzie mają prawo się nie szczepić.
-
Sztuczna inteligencja DeepMind robi kolejny krok. Uczy się od podstaw metodą prób i błędów
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Była dostępna jako rozszerzenie w wersji 11. Ale tym właśnie jest sieć neuronowa - heurystyką. Ponieważ nie jesteśmy w stanie miały przeanalizować drzewa gry do końca przez większość czasu, do przybliżonej analizy drzewa gry stosuje się alfa -beta pruning (np. Stockfish) albo monte-carlo (np. Komodo), alfa-beta jest wydajniejszy dla szachów gdy mamy dostatecznie dużą ilość analizowanych pozycji (analiza taktyczna nie ma błędów). W pewnym momencie trzeba posilić się funkcją oceny - czy ta pozycja "na oko" wygląda dobrze. Dla przykładu patrzy się (bez zaawansowanych zabaw z drzewami gry) który ruch daje najlepszą heurystyczną ocenę pozycji po 3 ruchach w przód przy najlepszej możliwej grze przeciwnika. Funkcje oceny miały postać prostych punktacji za składowe, podstawą jest materiał: - pion to 1 punkt, hetman - 10. I takiej skali używa się cały czas, ze względu na wygodę. Te funkcje przyznawały punkty dodatnie i ujemne za ocenę różnych aspektów pozycji. Oczywiście można w danej pozycji przegrać lub wygrać (-/+ nieskończoność). Sieć neuronowa robi dokładnie to samo, tylko zamiast korzystać z napisanych przez człowieka algorytmów aproksymuje zbiór uczący złożony z setek tysięcy i milionów partii, a dokładnie dla prawdziwych pozycji osiągniętych podczas partii (to rozsądne ograniczenie zbioru uczącego) liczy się dokładne ewaluacje pozycji wykorzystujące miliony ruchów i ta ocena jest oceną którą sieć neuronowa wykorzystuje do nauki. W przypadku sieci neuronowych alpha-zero i lila-chess-zero podstawą do oceny pozycji była własna sieć neuronowa, na początku nienauczona, czyli starano się uzyskać taką sieć neuronową, której heurystyka jest najbardziej zgodna z analizą kontynuacji (monte -carlo) uzyskaną za pomocą tej właśnie heurystyki. Czyli na początku trzeba polegać na rezultatach wygrana/przegrana (to jedyna wiedza dostarczana z zewnątrz, więcej niż reklamowane Zero), to jedyna heurystyka która działa w nienauczonej sieci, a gdy ta osiąga już jakąś sprawność to analiza kontynuacji pozwala na wzmacnianie swojej jakości. Maksimum jest zgodność funkcji neuronowej z analizą alfa-beta korzystającą z tej funkcji neuronowej jako heurystyki. Istnieją podejrzenia, że tak uczona sieć utyka w minimum lokalnym i dlatego obecnie próbuje się uczyć Lilę nie na podstawie oceny własnych partii tylko tych z silniejszego Stockfisha (trzeba uczyć się od lepszych od siebie ). Stockfish korzysta ze sieci neuronowych tylko w sytuacji, kiedy klasyczna funkcja oceny daje bardzo równe wyniki w porównaniu do przeciwnika, ale do ich nauki również wykorzystuje siebie (bo nie ma nic lepszego). Ważną częścią rozumienia jest akceptacja, że tak po prostu jest. Teraz wiemy że sieci neuronowe działają niezależnie od drobnych detali ich budowy, te okazały się nieważne. Regularna macierz światłoczuła działa rónie dobrze jak nieregularna siatkówka.- 36 odpowiedzi
-
Sztuczna inteligencja DeepMind robi kolejny krok. Uczy się od podstaw metodą prób i błędów
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Penrose w swoich wymysłach był wystarczająco precyzyjny aby wskazać na błąd logiczny w rozumowaniu, tego nie można mu odmówić. Nie ma żadnej teorii matematycznej która miałaby takie twierdzenie Zazwyczaj nikt nie bawił się w tworzenie maszyn które działały gorzej niż człowiek, więc twierdzenie jest bardzo mało odkrywczą konsekwencją tego faktu i okoliczności, że nie wszystkie domeny działalności ludzkiej dawały się łatwo zautomatyzować. Ograniczając je do świata komputerów wynika to z faktu, że człowiek jest wielką i powolną siecią neuronową, a komputery ekstremalnie szybkimi kalkulatorami.- 36 odpowiedzi
-
Sztuczna inteligencja DeepMind robi kolejny krok. Uczy się od podstaw metodą prób i błędów
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Wiadomo że do zrozumienia wszystkich funkcji mózgu jeszcze sporo brakuje, ale akurat ta obserwacja jest nieistotna. Mózg zajmuje się znacznie większą ilością problemów niż "niektóre". Nie przejmowałbym się takimi wykładami sprzed ćwierć wieku, postęp jest tak wielki że zmieniła się też nasza percepcja, pewne rzeczy stają się oczywiscie proste, zagadnienia filozoficzne zaczynają być problemami technicznymi. Zwłaszcza komputerowa kreatywność uświadomiła nam, że ta naturalna jest znacznie prostszym zjawiskiem niż się to wydawało. Bardzo błądzi, większość jego argumentów została obalona na gruncie logicznym, szczególnie zabawne były wywody o tym, że matematycy ludzcy mają większe możliwości niż komputery. Nic nie wskazuje na to aby mózg był nieobliczalny, ale niekoniecznie znamy wszystkie typy sieci neuronowych. Być może są takie, które pozwalają pojedynczym neuronom wykonywać bardziej złożone obliczenia. Z drugiej strony można dostrzec bardzo analogiczne struktury w mózgu jak wizualizację wag w głębokich sieciach neuronowych wytrenowanych dla obrazów. Zatem istota została uchwycona. Inteligencja to emergentne i stosunkowo proste zjawisko - inaczej dobór naturalny by go nie odkrył! Ostatnie lata uświadomiły, że ilość przechodzi w jakość - praktyczne sieci neuronowe mają wagi o rozmiarach setek megabajtów i więcej.Nawet prosta sieć szachowa ma kilkadziesiąt megabajtów. Wykorzystuje się wsadowe przetwarzanie (np. klasyfikacja wielu zdjęć na raz), bo to przesłanie wag do obliczeń jest wąskim gardłem, a nie danych do analizy. W ten sposób widać, że fizyczna reprezentacja sieci jest bardzo wydajna - wagi zostają w miejscu a przesyła się tylko aktualny stan obliczeń. Jeśli chcemy znaleźć nowe efektywne architektury sieci neuronowych, to kluczem jest analizowanie miniaturowych mózgów owadów - ciężko pobić ich wydajność, a ich zadania jakościowo nie różnią się od tych z bardziej złożonych zwierząt. Neuronowy paradygmat obliczeń jest wydajny nawet na poziomie bramek logicznych i zwykłej elektroniki - w procesorach stosuje się od niedawna predykcję rozgałęzień wykorzystującą perceptrony - całkiem nietrywialne zadanie które musi być wykonane w czasie rzędu pojedynczych taktów procesora.- 36 odpowiedzi
-
Odnosiłem się co realnie oznaczała wypowiedź. Inteligencja nie jest aż tak istotna, kluczowa jest elastyczność intelektualna. Są wybitnie inteligentni ludzie absolutnie niezdolni do zmiany swoich aksjomatów, mało tego, inteligencja służy im do obrony przed rzeczywistością, są w stanie błyskawicznie uzasadnić każdą bzdurę.
-
Sztuczna inteligencja DeepMind robi kolejny krok. Uczy się od podstaw metodą prób i błędów
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
1) Każdy silnik szachowy jest AI z definicji. Po prostu szachy padły ofiarą zjawiska, że jak już jakaś dziedzina stała się osiągalna dla komputerów to przestaje być AI stając się zwykłym softwarem. 2) Oczywiście że programy szachowe wykorzystują sieci neuronowe. Na poważnie zaczęło się od AlphaZero, potem powstał jego znacznie udoskonalony klon (jest obecnie silniejszy od oryginału) Lila Chess Zero, a w końcu Stockfish i praktycznie cała licząca się reszta dostała funkcję oceny wykorzystującą bardzo szybkie sieci neuronowe NNUE. Stockfish jest w stanie analizować za ich pomocą kilkadziesiąt milionów pozycji na sekundę (tak naprawdę kilka milionów sieciami a resztę swoją starą funkcją oceny). W sumie widać fajną gradacje - człowiek, z najdoskonalszą funkcją oceny, ocenia 1-2 pozycje na sekundę, programy oparte na powolnych sieciach neuronowych oceniają kilkadziesiąt tysięcy tych pozycji korzystając z GPU, a programy wykorzystujące proste sieci neuronowe razem ze standardowymi funkcjami oceny - kilkadziesiąt milionów na sekundę. Mamy gradację 1000 x na każdym stopniu, i obecnie wygląda na to, że jednak bardziej ocenia się oceniać znacznie więcej pozycji niż robić to lepiej. Stockfish najprawdopodobniej jest najbliżej optymalnego podziału pracy. Gigantyczna sprawność taktyczna jest ważniejsza od perfekcyjnej oceny strategicznej. Raczej nie ma żadnych wątpliwości. Pełna symulacja rozwojowa mózgu ludzkiego i funkcjonowania sieci neuronowej da ludzkie możliwości - to jest pewnik z matematycznego punktu widzenia. Indywidualne różnice po między ludźmi są z kolei na tyle gigantyczne, że wyidealizowana wersja (pod względem struktury, nie ilości neuronów) powinna być równie dobra. No i to jest doskonały przykład na to, że humaniści nie rozumieją, że kiedy używam określenia humanista istotne jest jedynie to, co ja mam mam na myśli w określonym kontekście. Jeśli mówimy o naukach humanistycznych w opozycji do ścisłych, to jedynym istotnym wyróżnikiem jest słaba zdolność do tworzenia dobrych teorii, obowiązuje gigantyczny przerost formy nad treścią w dziedzinie tworzonych abstrakcji. Utrzymują z rzeczywistością kontakt na poziomie surowych danych, a wszystko bardziej zaawansowane opiera się na poznawaniu uwarunkowanych historycznie konwencji, ich adepci zamiast rozumieć fragment rzeczywistości zmuszani są do studiowania samych dyscyplin, które de facto stają się swoim własnym podmiotem badań. Praktyczna przewaga nauk ścisłych polega na tym, że opierają się na skutecznej falsyfikacji zdań przez co teorie dzielą się lepsze i gorsze a zdania na prawdziwe lub fałszywe. Gdy profesorzy nauk ścisłych zaczynają bredzić wszyscy wiedzą że bredzą, w naukach humanistycznych powstają nowe teorie do poznania. Teorie ścisłe muszą być skuteczne, teorie humanistyczne - modne.- 36 odpowiedzi
-
Podobnie predykat NSWB (Niezbadane Są Wyroki Boskie) pozwala uniknąć konsekwencji niezgodności tez z rzeczywistością
-
Profesor Braziewicz: AI w medycynie nuklearnej wkroczyła na III i IV poziom 5-stopniowej skali
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Ha ha, to jakby powiedzieć że taksówkarze którzy wykorzystują autonomiczne samochody zastąpią tych którzy ich nie wykorzystują -
No bez jaj, tutaj raczej chodzi o to, że sprawny mózg i talent naukowy to dar od Boga (byleby tylko nie schodził na "manowce") , wirus to przeciesz dzieło Szatana (pewne info) Zasadniczo chodzie jedynie o to, że kościół nie popiera przymusowych szczepień. Jak ktoś ma rozum to zaszczepi episkopat w pierwszej kolejności a szeregowych księży w drugiej i problem sam się rozwiąże. Nie ma w tym nic niesamowitego, system logicznie sprzeczny jest w stanie udowodnić każde twierdzenie, zaryzykuję bez dowodu hipotezę, że jest to również nieskomplikowane obliczeniowo. Teraz najlepsze - wywiedzenie zdań przeciwnych nic nie znaczy, ostatecznie i tak liczy się wyłącznie ilość ludzi którzy je powtarzają, i częstość.
-
NASA i partnerzy pracują nad napędem atomowym dla pojazdów kosmicznych
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Schodzi już jakieś 40 lat (kiedyś to zwało się HOTOL) i zejść nie może :P- 24 odpowiedzi
-
- misja na Marsa
- pojazd kosmiczny
-
(i 1 więcej)
Oznaczone tagami:
-
Sztuczna inteligencja DeepMind robi kolejny krok. Uczy się od podstaw metodą prób i błędów
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Miałem dokładnie tak samo - reprezentacja wiedzy była na pewnym poziomie czysto semantyczna, z tym że nie miałem problemu z opisem wniosków za pomocą słów. Za to u humanistów wszystko zdaje składać się ze słów, do tego stopnia, że u niektórych synonimy i homonimy są mechanizmami wnioskowania (tzn. przeskoki pomiędzy nimi)- 36 odpowiedzi
-
NASA i partnerzy pracują nad napędem atomowym dla pojazdów kosmicznych
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Czyli chyba chłodzili komorę silnika paliwem bez ryzyka osadzania się sadzy. To miałoby sens wyłącznie przy zastosowaniu perhydrolu jako utleniacza przy silniku z zamkniętym cyklem. Swoją drogą, robiąc pociski rakietowe dla wojska właśnie tak wyglądałby mój silnik, H2O2 i nafta - nie ma nic prostszego w konstrukcji i działaniu jeśli chodzi o proste paliwa rakietowe. Paliwo kriogeniczne w armii to sabotaż.- 24 odpowiedzi
-
- misja na Marsa
- pojazd kosmiczny
-
(i 1 więcej)
Oznaczone tagami:
-
NASA i partnerzy pracują nad napędem atomowym dla pojazdów kosmicznych
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
Rozkład to był przed turbiną napędzającą pompy. Dalej w komorze spalania paliło się w tym 75% etanol (pewnie chciano oszczędzać paliwa naftowe). Stan zdrowia wskazuje na coś przeciwnego. Przede wszystkim nie ma żadnej katastrofy klimatycznej, na Ziemi żyje się lepiej niż kiedykolwiek w ostatnim czasie. Jedyne ryzyko to podwyższenie poziomu morza na co mamy wystarczająco wiele czasu na reakcję, ale jest to problem wyłącznie ekonomiczny dla człowieka. To wielki postęp, bo przez ostatnie 50 lat była 50 lat przed nami.- 24 odpowiedzi
-
- misja na Marsa
- pojazd kosmiczny
-
(i 1 więcej)
Oznaczone tagami: