Skocz do zawartości
Forum Kopalni Wiedzy

radar

Użytkownicy
  • Liczba zawartości

    2150
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    58

Zawartość dodana przez radar

  1. radar

    Czas na wyjście z UE?

    @Mariusz Błoński, widzisz i nie grzmisz (parafrazując)
  2. To chyba bardziej chodzi o to, że tam gdzie jest na prawdę duża kasa tam pojawia się system korupcyjny i mało kto jest zainteresowany nauką i pomaganiem pacjentowi, a jedynie zarobkami. Ot, ostatnie "newsy": https://www.science.org/content/article/bad-math-nih-researchers-didn-t-pocket-710-million-royalties-during-pandemic Sam rynek tylko "suplementów diety" tylko w Polsce to prawie 7 miliardów złotych.
  3. Dokładnie, otępienie = "sukces" A mówiąc mniej dosadnie to zbiorowo (!) ignorują fakt, że correlation does not mean causation. Też prawda. Dodatkowo bardzo łatwo "obalić" wszelkie metody leczenia alternatywnego, po które ludzie sięgają, gdy metody konwencjonalne zawodzą, bo wtedy to jest "nie wiadomo, bo to może poprzednie leczenie pomogło". Największą zbrodnią jest jednak "leczenie" nowotworów, które sprowadza się do wyniszczenia organizmu i przy okazji choroby, ale przeżywają w sumie najsilniejsi. Najgorsze jest to, że te statystyki są de facto dużo niższe niż podawane oficjalnie, bo bardzo dużo osób wyleczonych wraca po 3-5 latach z białaczką i innymi chorobami autoimmunologicznymi, "no, ale z X to Pana wyleczyliśmy, a teraz to co innego". ------- Wracają do głównego wątku Panowie. @Jarek Duda, może jakaś inspiracja https://www.nature.com/articles/s41562-023-01626-5 https://arxiv.org/html/2403.00022v1
  4. Nie wiem jaką definicję młodej Ziemi przyjmujesz, ale z opisu wnioskuję, że bardzo młodej. Obawiam się, że na tym etapie powszechne (?) erupcje ograniczały ilość światła słonecznego docierającego do powierzchni, więc raczej nie było dostępu do energii słonecznej, więc prędzej z geotermalnej, co zresztą zachodziło i zachodzi w naszym ekosystemie. Niestety ta cywilizacja rozwinęła się dopiero jak Ziemia "urosła". Z tego też powodu (gęsta atmosfera), ta cywilizacja mogła by nawet nie wiedzieć o istnieniu Księżyca, bo o ile mocne światło słoneczne się pewnie przebijało o tyle światło Księżyca niekoniecznie. No chyba, że byliby na tyle zaawansowani żeby wywnioskować to z jego grawitacyjnego wpływu na Ziemię, co zresztą utrudniało powstanie takiej cywilizacji. Ale żeby nie było, że tylko marudzę, jeśli jednak by się rozwinęła, to ich organizmy byłyby przystosowane do cięższych warunków (w tym obecność uranu), więc powinny sobie lepiej radzić w przestrzeni kosmicznej. Nie przeszkadza ani brak tlenu ani promieniowania.
  5. Tak, ale nie można generalizować. Znam wielu lekarzy, dla których to stwierdzenie byłoby bardzo niesprawiedliwe. Dla wielu z nich jednak dobro pacjenta jest na pierwszym miejscu, więc i wyniki badań są prawidłowe. Nie zmienia to jednak faktu, że niektórym brakuje podstaw "dobrej praktyki prowadzenia badań". A to jest 200% smutnej prawdy
  6. W szczególnym przypadku, jeśli wszystkie funkcje byłyby koherentne to niczym by się to nie różniło od "zwykłego" neurony z jedną funkcją. To jest oczywiście możliwe, ale raczej mało prawdopodobne. Pytanie ile z nich procentowo faktycznie będzie i czy taka optymalizacja ma sens. Problem z tą ideą jest też taki, że w procesie uczenia musiałbyś sprawdzać za każdym razem, które funkcje są (dalej) koherentne, a które (już) nie i je odpowiednio przenosić. A inne w drugą stronę, z tej nowej warstwy z powrotem. Raczej niepraktyczne. Na pewno są, na poziomie opracowywanie koncepcji, ale badania kliniczne, a potem również prace naukowe na ten temat, są przeprowadzane przez "zwykłych" lekarzy po "zwykłej" medycynie, a im już tej wiedzy brakuje. A tych badań jest cała masa i oni na niej zarabiają góry (często 2-3x więcej miesięcznie niż z kontraktu w szpitalu!) pieniędzy, więc jest czasami pokusa na to żeby wniosek się zgadzał z założeniem.
  7. Czy nazwiesz to prawami Asimova czy "responsible AI" czy jakkolwiek inaczej chodzi o to samo, o to, żeby AI nie "wymknęła się" spod kontroli. Oczywiście nie mówię o "prostych" sieciach neuronowych jakie znamy teraz, ale o "najwredniejszej" AGI. Do tego był mój komentarz. A to, że Ty nie słyszałeś, to nie znaczy, że nikt tego nie robi albo przynajmniej o tym nie dyskutuje https://www.theverge.com/2024/1/4/24025535/google-ai-robot-constitution-autort-deepmind-three-laws albo bardziej formalnie: https://go.microsoft.com/fwlink/?linkid=2257674&clcid=0x409&culture=en-us&country=us To już zostało ustalone wcześniej, albo w wątku Jarka. Ale znowu, mój komentarz odnosił się do worst case scenario. Oczywiście, że jest, ale również dobrem Dlatego "zarzut", że antropomorfizujemy jest dla mnie niepoważny, bo po pierwsze, co innego niby możemy robić jak niczego innego nie znamy, ale po drugie i najważniejsze, taki przecież jest cel, stworzyć "sztuczny mózg", sztuczną inteligencję, a jedyną jaką znamy na poważnie to my sami. Spodobał mi się ten argument z początku, każe się zastanowić nad naszymi wątpliwymi umiejętnościami. Ale ja się właśnie zastanowiłem i uważam argument za nietrafiony Żeby się "z kimś" dogadać to obie strony muszą być na to gotowe. My już potrafimy, ale to delfiny najwidoczniej nie. Oprócz widocznych objawów inteligencji delfiny nie dysponują "aparatem matematycznym" ani inżynierią. Nasz rozwój pozwolił nam porozumiewać się w sposób złożony, również abstrakcyjny, odmienny kulturowo, geograficznie, itp, ale to nie znaczy, że jest z kim gadać po drugiej stronie. Szczególnie w zakresie abstrakcji. Z AI to będzie co innego, bo i my już potrafimy się porozumiewać w sposób złożony, ale i ona już się z nami porozumiewa (tak wiem, na razie imituje), a ta na wyższym poziomie też będzie to potrafić, właśnie m.in. dzięki matematyce.
  8. Zakładając, że celem (AI jeśli o niej ciągle mówimy) jest zabezpieczenie trwania ludzkości lub samej AI to ten cel to bezpieczeństwo. Już teraz wiemy, że jest pewne małe, ale jednak niezerowe prawdopodobieństwo zniszczenia Ziemi, czy to supernowa czy coś innego. Dodatkowo za x lat Słońce nam przygaśnie i się rozszerzy. Z naszej perspektywy jest to czas odległy, ale z perspektywy "wiecznej" AI już nie. Więc celem może być rozwój technologiczny pozwalający przetrwać, przenieść się gdzieś albo obronić, etc. Jeśli nie będzie wroga, wydaje się to mało prawdopodobne. My robiliśmy to głównie z lenistwa, zaniedbania, braku wiedzy. AI taka nie będzie (nie będzie, prawda? Prawda!?! ) Wow, ciekawie pesymistyczne stwierdzenie. Wiem, że Elon nie dotrzyma obietnic z terminami, ale jednak ja sam mam zamiar dożyć! Niech i w 2050. 100% prawdy. Mam wręcz przekonanie, że ponieważ do tej pory nie mamy mechanizmów wymuszających wypełnianie praw Asimova przez AI (właściwie żadnych), to z trenowaniem AI będzie jak z wychowywaniem dziecka, jak rodzic wychowa taki człowiek urośnie. Oczywiście w bardzo dużym uproszczeniu, rodzice trudnych dzieci coś o tym wiedzą. No i mam nadzieję, że przetrwamy bunt AI-owego nastolatka To może być ten moment, o którym pisze @Mariusz Błoński, "bo tak".
  9. Nie wiem czy mogę się zgodzić z wnioskiem. Jak wspomniałeś, Po pierwsze nawet teraz to nie "jedyny" nam znany powód. Po drugie, niekoniecznie zniszczenia jak wspomniałem wyżej, celem AI może być "ochrona" ludzkości (jak w I, Robot). Jeśli tylko ochrona to cywilizacja może tkwić w miejscu, Brak chorób, wydłużenie życia, ale i kontrola prokreacji i liczby ludności. Po trzecie nie znamy celu AI, więc wcale nie jest powiedziane, że jej celem będzie ekspansja.
  10. Świadomie może i tak, ale nieświadomie? Ileż to gatunków wymarło z różnych powodów? Stworzenie AI, które w jakimś momencie "zapragnie" zniszczyć lub ograniczyć ekspansję nie jest czymś niewyobrażalnym. A wtedy ewolucja biologiczna (przynajmniej na poziomie wyższym niż jednokomórkowe) niewiele będzie miała do powiedzenia. Tak samo jak to nie od dinozaurów zależało czy w Ziemię uderzy meteoryt i jakiej wielkości. Od nas nie będzie zależeć (w przypadku samoświadomej i "wrogiej" AI) co możemy z tym zrobić. "Wrogiej" może być też jak w "I, Robot", czyli dbającej o ludzkość, ale nadopiekuńczej. Albo weźmy "Powrót z gwiazd" Lema (+ miks z X-menów ), co jeśli AI zamiast nas jawnie zabijać doprowadzi po prostu do modyfikacji żywności w taki sposób, że ludzie stracą ochotę na ryzykowanie, podróże kosmiczne, agresję, itp. Nie będziemy "widzieli sensu" w odkrywaniu i rozprzestrzenianiu naszego życia gdzie indziej. Tutaj będzie dobrze. Także nie jest to jakaś aberracja
  11. Z całym twoim postem się zgadzam oprócz Masz, ale na temat procesu, którego działania nie do końca rozumiemy. Jeśli zmieni się rozumienie procesu to argument może być bez sensu. Po prostu Ty uważasz, że to argument, a ja, że hipoteza, no, albo argument oparty na obserwacji procesu i jego modelu, który tylko powierzchownie go odzwierciedla.
  12. Komuś chyba humanista na odcisk nadepnął Jest z tym bardzo duży problem, w medycynie, biologii, a w psychologii to już w ogóle, to się zgadza, ale nie tyle brakuje im "całej" matematyki co logiki i narzędzi statystycznych. Raz, że mało kto na serio sensownie podchodzi do tematu organizacji, przeprowadzania i dokumentowania wyników w odpowiedniej formie ponad to co wymaga "instrukcja", to jeszcze same wnioski wyciągane z tych badań potrafią jeżyć włosy na głowie. Wiem, bo na co dzień mam do czynienia m.in. z badaniami klinicznymi. Nie oznacza to jednak, że budując sobie model matematyczny na pewno mamy rację. Nie załapał kolega chyba przenośni. Narzędzia są, ale mało kto umie je stosować do siebie. Widać to np. po używaniu stwierdzeń "nie da się", "nie ma alternatyw", "to jest najbardziej optymalna metoda", itp. Na szczęście zawsze znajdzie się ktoś kto tego nie wie i to zrobi
  13. W przeliczeniu na masę to faktycznie. Pytanie czy taki korek jest wielokrotnego użytku? Nasiąknie, zabierają go i co potem? Gdyby proces był łatwo odwracalny i narzędzie możliwe do zamontowania na statku to byłby w sumie niezły patent. EDIT: bo jak nie, to takim korkiem trzeba by np. palić na statkach zamiast mazutu
  14. Nie wyjaśnia to jednak jak twoje solitony wpływają na neurony. Akcje, w postaci "wykonawczych" impulsów nerwowych przekazywanych do efektora np. do ręki, są wykonywane jednak, a przynajmniej tak się wydaje, przez neurony. W takim wypadku jak solitony wpływają na wygenerowanie impulsu nerwowego? Czegoś tu brakuje
  15. Przyznam, że nie wgniotło mnie to jakoś w fotel. Rozumiem, że te 4 gramy to już wszystko co może wchłonąć na tej powierzchni? Jakieś porównanie do innych materiałów?
  16. Dokładnie, ale jaki mechanizm znajduje akurat te rejony i okolice? Zauważmy, że dzieje się to na 2 sposoby. Nasz mózg potrafi ignorować informacje, które "uznaje za" nieistotne, oraz potrafi je usunąć po czasie, ale pytanie brzmi jak znajduje to co trzeba wyciąć? Bardzo słuszna uwaga. Akurat przeczytałem, i papier Jarka jak i cytowany przez niego artykuł o neuronach. Masz rację, moje odpowiedzi nie są dokładnie związane z tym procesem, niepotrzebnie dałem się ponieść polemice z Tobą Mylne wrażenie. Model teoretyczny jest jak najbardziej potrzebny, ale pod warunkiem, że jego efektem jest prawidłowe odwzorowanie odpowiedniego procesu. Nie uważam, że należy próbować odwzorowywać neuron ("i okolice") 1:1, bo natura ma swoje biologiczne ograniczenia. Jak napisałem, z niektórymi teoretykami jest taki problem, że czasami wpadną w jakieś swoje minimum lokalne funkcji, które nawet sprawdza się w jakimś zakresie, ale przez to, że nie widzą w około innego rozwiązania to myślą, że to już minimum globalne, które akurat jest gdzieś indziej. Backpropagation w takiej postaci jaka jest obecnie stosowana w ANN jest IMHO minimum lokalnym. Korzystamy, bo nie umiemy inaczej. Co nie oznacza, że inni nie szukają i nie znajdą alternatyw. Są alternatywy i będą nowe, wbrew temu co kolega mówi. Prowokację pominę. Podsumowując, nowy model Jarka może usprawnić proces uczenia, ale imho nie wyskakuje z tej lokalnego minimum
  17. @peceed, moja wypowiedź jest w zamiarze jak najbardziej neutralna, ale chyba za bardzo jesteś zafiksowany na rozwiązaniach, które niekoniecznie są poprawne. Nie mówiąc o modelu teoretycznym. Do tego, do wszystkich, żeby dyskutować o uczeniu sieci trzeba uzgodnić o jakim uczeniu mówimy, bo to nie jest jeden i ten sam proces. No i co chcemy osiągnąć, idealnie odzwierciedlony model ludzkiego mózgu (który nie jest doskonały), czy mózg "idealny", który np. pamięta wszystko? No i jeśli ludzkiego, to Pana Józka, czy Hawkinga? Nieprawda. Poruszanie się po gradientach musi być szybkie, bo nie znamy (znamy, znamy) innej metody na uczenie sieci. Zmieniamy wagi w setkach czy tysiącach epok, a w każdej x razy i to wszystko razy wszystkie neurony (pomińmy na razie wszystkie optymalizacje jak lora itp. bo one działają wybiórczo poświęcając jakość). Więc żeby przyśpieszyć uczenie musieliśmy wymyślić jak je przyśpieszyć, a nie, że to odzwierciedla dopasowanie do mózgu. W którym momencie niby? W którym momencie procesu uczenia "jakiś" sygnał wraca po wszystkich neuronach z powrotem wzmacniając lub osłabiając połączenia? I o jaką "wartość"? Owszem, jest sygnał, który przez kanały wraca, ale wolno i selektywnie, ale nie wiemy dlaczego tędy, a nie tamtędy. Nie zdobyło, bo to nie taki sam sygnał co w inferencji. Popraw mnie jeśli się mylę, ale spekulowano, że jest związany bardziej z utrwalaniem pamięci (z krótko do długotrwałej), a nie z uczeniem właściwym. Patrz moje pytanie wyżej, o czym chcemy rozmawiać? Nie wiemy jak zdefiniowany jest sukces, na jakiej podstawie wybierana jest ścieżka, która wzmocni dany rejon. Dlaczego mózg "wybiera" co pamiętać a co nie, oraz jak wybiera? Jak działa mechanizm wypierania? Jak działa mechanizm zapominania o traumatycznych wydarzeniach? Dlaczego napisałem, że kluczowym problemem jest _co_ wzmocnić, a nie _jak_. Cały problem z teoretykami polega na tym, że czasami nie zwracają uwagi na praktykę Zamykasz oczy i chcesz przesunąć rękę w lewo. Czujesz, że się nie dało, np. ściana. Próbujesz ileś razy, np. podnosisz ją delikatnie, aż w końcu się udaje. Po x próbach trafiasz ręką tam gdzie chciałeś np. na półkę. Czynność masz powtórzyć 3 razy (nie wiem, odkładasz po ciemku kubki do szafki, cokolwiek). Za 2 i kolejnymi razami robisz to już całkiem sprawnie. Nauczyłeś się tej czynności. W którym momencie w twoim mózgu wystąpiło backpropagation w takiej postaci w jakiej jest to stosowane w SNN? Twój mózg dostał sygnał od ręki, ale do neuronów czuciowych, one przekazały sygnał dalej, że "wirtualna reprezentacja przestrzeni" jest inna niż myślałeś, więc zmienia "działanie" neuronów kontrolujących twoją rękę. Aktywuje trochę inne neurony, ale za 2-3 razem "pamięta", które są prawidłowe. Ale jak? Są inne metody, a czy będę lepsze to się okaże. Mylisz chyba skutek z przyczyną, te modele są efektywne w interferencji, bo tam nie ma backpropagation! W uczeniu są ekstremalnie nieefektywne. Owszem, już nauczone, zgodnie z teorią wielkich liczb i statystyką, dość wiernie odzwierciedlają nasze "statystyczne" zachowania. Język jest modelem statystycznym, obraz (jaki znamy/doświadczamy) też, muzyka jeszcze bardziej, a te modele nie potrafią nic więcej, więc wytrenowane dość dobrze udają, że działają jak my, ale proces ich uczenia jest daleko niesatysfakcjonujący i niedoskonały. Ba, jest to proces modyfikowania połączeń bez wiedzy dlaczego tak a nie inaczej. Mózg tak nie działa. Jakoś "wie" co zapamiętać, a co jest nieistotne. Ojojoj, to byłoby szaleństwo. Generalnie to nasz mózg jak napisałeś jest centrum. Kontroluje wszystko, każde uderzenie serca, zastawki, obkurczenie naczyń krwionośnych w reakcji na zmianę temperatury, pomiar tej temperatury, poziom hormonów itd. Twierdzenie, że dodatkowo każdy rejon mózgu stara się analizować każdy ten sygnał byłoby niewybaczalnym marnotrawstwem energii! Czy jedynym to się okaże. Inną możliwością jest to, że neuron, to nie tylko "aktywator", ale coś dużo bardziej zaawansowanego. I taką sieć sam już zbudowałem i wytrenowałem. Albo jak napisał Jarek, inne neurony też mogą za to odpowiadać. Rozwiązań jest dużo. No nie! Wszystko już wynaleziono! Można się rozejść Dlatego twoje twierdzenia odczytuję trochę tak: Dodałbym tylko, że ten przepływ ładunku jest kontrolowany również przez "sygnał chemiczny".
  18. Od dawna nad tym pracuję, bo już parę lat temu doszedłem do wniosku, że błąd tkwi w samej idei back propagation (w obecnej postaci). Mózg tak nie działa, przy czym na początku też myślałem, że potrzebna jest dwukierunkowa komunikacja, ale okazuje się, że też nie do końca. Problemem jest _co_ zapamiętać, a nie _jak_. Tyle Ci powiem na razie
  19. Nie wiem, może tylko ja tak mam, ale drażni mnie ciągłe powoływanie się na Hawkinga jakby to był jakiś spec od AI albo chociaż był pierwszy w tym ostrzeganiu. Jak mądrzy ludzie rozważali takie kwestie to Hawkinga nawet w planach nie było. A jak Lem pisał swoje książki to Stephen biegał w krótkich spodenkach A jak ktoś uważa, że w 2014 to już byliśmy bliżej ASI to odpowiadam, że co roku jesteśmy bliżej O tempora! O mores! Pamiętajmy, że komputer dalej jest tak mądry jak człowiek, który go obsługuje. To nie znaczy, że do AGI/ASI mamy jeszcze daleko, ale że skoro do wbijania gwoździ zamiast młotka wybrałeś śrubokręt to nie spodziewaj się, że będzie dobrze działał Może być wiele, ale ta z tym AI podoba mi się coraz bardziej, chociażby dlatego, że Dokładnie, chociaż nie mam tu na myśli "świadomości cyfrowej", co nadzwyczajniej w świecie zaawansowane technologie, w tym AI, będą używane i w kosmosie i na innych planetach. Skoro to i ludzie coraz bardziej się od niej uzależniają i będzie ona obecna również na innych planetach. Ciekawa jest ta teoria, bo może nawet powodować, że ludzkość nie tyle wyginie co nawet nie będzie zdawać sobie sprawy z problemu. Można by sobie nawet wyobrazić, że różne AI z różnych światów będą się w stanie wykryć i komunikować, ale nie przekazywać tego swoim "ludziom" na macierzystych planetach, taki fizyczny matrix
  20. Ja na jednym egzaminie na PWr to zrobiłem wszystko dobrze, ale machnąłem się w odpowiedzi, źle postawiłem przecinek, i dostałem... 0 punktów. "To pokazuje, że Pan tego nie rozumie", takie było uzasadnienie dr Ale nie byłem wtedy w sądzie
  21. Znak czasów. Złych czasów. Nie to żebym był jakiś mściwy czy surowy, ale uczelnia powinna wywalić wszystkich z takiego pozwu. Na pewno stanowi to jakieś uchybienie w statucie uczelni, zachowania studenta itp. Wyniki ich powinny być upublicznione i pokazać co to za matoły. Jak się tego nie ukróci w zarodku to tylko będzie rosnąć, jak nowotwór
×
×
  • Dodaj nową pozycję...