Skocz do zawartości
Forum Kopalni Wiedzy

radar

Użytkownicy
  • Liczba zawartości

    2150
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    58

Ostatnia wygrana radar w dniu 1 marca

Użytkownicy przyznają radar punkty reputacji!

Reputacja

104 Wyśmienita

O radar

  • Tytuł
    Kierownik robót

Informacje szczegółowe

  • Płeć
    Nie powiem

Ostatnie wizyty

19127 wyświetleń profilu
  1. radar

    Czas na wyjście z UE?

    @Mariusz Błoński, widzisz i nie grzmisz (parafrazując)
  2. To chyba bardziej chodzi o to, że tam gdzie jest na prawdę duża kasa tam pojawia się system korupcyjny i mało kto jest zainteresowany nauką i pomaganiem pacjentowi, a jedynie zarobkami. Ot, ostatnie "newsy": https://www.science.org/content/article/bad-math-nih-researchers-didn-t-pocket-710-million-royalties-during-pandemic Sam rynek tylko "suplementów diety" tylko w Polsce to prawie 7 miliardów złotych.
  3. Dokładnie, otępienie = "sukces" A mówiąc mniej dosadnie to zbiorowo (!) ignorują fakt, że correlation does not mean causation. Też prawda. Dodatkowo bardzo łatwo "obalić" wszelkie metody leczenia alternatywnego, po które ludzie sięgają, gdy metody konwencjonalne zawodzą, bo wtedy to jest "nie wiadomo, bo to może poprzednie leczenie pomogło". Największą zbrodnią jest jednak "leczenie" nowotworów, które sprowadza się do wyniszczenia organizmu i przy okazji choroby, ale przeżywają w sumie najsilniejsi. Najgorsze jest to, że te statystyki są de facto dużo niższe niż podawane oficjalnie, bo bardzo dużo osób wyleczonych wraca po 3-5 latach z białaczką i innymi chorobami autoimmunologicznymi, "no, ale z X to Pana wyleczyliśmy, a teraz to co innego". ------- Wracają do głównego wątku Panowie. @Jarek Duda, może jakaś inspiracja https://www.nature.com/articles/s41562-023-01626-5 https://arxiv.org/html/2403.00022v1
  4. Nie wiem jaką definicję młodej Ziemi przyjmujesz, ale z opisu wnioskuję, że bardzo młodej. Obawiam się, że na tym etapie powszechne (?) erupcje ograniczały ilość światła słonecznego docierającego do powierzchni, więc raczej nie było dostępu do energii słonecznej, więc prędzej z geotermalnej, co zresztą zachodziło i zachodzi w naszym ekosystemie. Niestety ta cywilizacja rozwinęła się dopiero jak Ziemia "urosła". Z tego też powodu (gęsta atmosfera), ta cywilizacja mogła by nawet nie wiedzieć o istnieniu Księżyca, bo o ile mocne światło słoneczne się pewnie przebijało o tyle światło Księżyca niekoniecznie. No chyba, że byliby na tyle zaawansowani żeby wywnioskować to z jego grawitacyjnego wpływu na Ziemię, co zresztą utrudniało powstanie takiej cywilizacji. Ale żeby nie było, że tylko marudzę, jeśli jednak by się rozwinęła, to ich organizmy byłyby przystosowane do cięższych warunków (w tym obecność uranu), więc powinny sobie lepiej radzić w przestrzeni kosmicznej. Nie przeszkadza ani brak tlenu ani promieniowania.
  5. Tak, ale nie można generalizować. Znam wielu lekarzy, dla których to stwierdzenie byłoby bardzo niesprawiedliwe. Dla wielu z nich jednak dobro pacjenta jest na pierwszym miejscu, więc i wyniki badań są prawidłowe. Nie zmienia to jednak faktu, że niektórym brakuje podstaw "dobrej praktyki prowadzenia badań". A to jest 200% smutnej prawdy
  6. W szczególnym przypadku, jeśli wszystkie funkcje byłyby koherentne to niczym by się to nie różniło od "zwykłego" neurony z jedną funkcją. To jest oczywiście możliwe, ale raczej mało prawdopodobne. Pytanie ile z nich procentowo faktycznie będzie i czy taka optymalizacja ma sens. Problem z tą ideą jest też taki, że w procesie uczenia musiałbyś sprawdzać za każdym razem, które funkcje są (dalej) koherentne, a które (już) nie i je odpowiednio przenosić. A inne w drugą stronę, z tej nowej warstwy z powrotem. Raczej niepraktyczne. Na pewno są, na poziomie opracowywanie koncepcji, ale badania kliniczne, a potem również prace naukowe na ten temat, są przeprowadzane przez "zwykłych" lekarzy po "zwykłej" medycynie, a im już tej wiedzy brakuje. A tych badań jest cała masa i oni na niej zarabiają góry (często 2-3x więcej miesięcznie niż z kontraktu w szpitalu!) pieniędzy, więc jest czasami pokusa na to żeby wniosek się zgadzał z założeniem.
  7. Czy nazwiesz to prawami Asimova czy "responsible AI" czy jakkolwiek inaczej chodzi o to samo, o to, żeby AI nie "wymknęła się" spod kontroli. Oczywiście nie mówię o "prostych" sieciach neuronowych jakie znamy teraz, ale o "najwredniejszej" AGI. Do tego był mój komentarz. A to, że Ty nie słyszałeś, to nie znaczy, że nikt tego nie robi albo przynajmniej o tym nie dyskutuje https://www.theverge.com/2024/1/4/24025535/google-ai-robot-constitution-autort-deepmind-three-laws albo bardziej formalnie: https://go.microsoft.com/fwlink/?linkid=2257674&clcid=0x409&culture=en-us&country=us To już zostało ustalone wcześniej, albo w wątku Jarka. Ale znowu, mój komentarz odnosił się do worst case scenario. Oczywiście, że jest, ale również dobrem Dlatego "zarzut", że antropomorfizujemy jest dla mnie niepoważny, bo po pierwsze, co innego niby możemy robić jak niczego innego nie znamy, ale po drugie i najważniejsze, taki przecież jest cel, stworzyć "sztuczny mózg", sztuczną inteligencję, a jedyną jaką znamy na poważnie to my sami. Spodobał mi się ten argument z początku, każe się zastanowić nad naszymi wątpliwymi umiejętnościami. Ale ja się właśnie zastanowiłem i uważam argument za nietrafiony Żeby się "z kimś" dogadać to obie strony muszą być na to gotowe. My już potrafimy, ale to delfiny najwidoczniej nie. Oprócz widocznych objawów inteligencji delfiny nie dysponują "aparatem matematycznym" ani inżynierią. Nasz rozwój pozwolił nam porozumiewać się w sposób złożony, również abstrakcyjny, odmienny kulturowo, geograficznie, itp, ale to nie znaczy, że jest z kim gadać po drugiej stronie. Szczególnie w zakresie abstrakcji. Z AI to będzie co innego, bo i my już potrafimy się porozumiewać w sposób złożony, ale i ona już się z nami porozumiewa (tak wiem, na razie imituje), a ta na wyższym poziomie też będzie to potrafić, właśnie m.in. dzięki matematyce.
  8. Zakładając, że celem (AI jeśli o niej ciągle mówimy) jest zabezpieczenie trwania ludzkości lub samej AI to ten cel to bezpieczeństwo. Już teraz wiemy, że jest pewne małe, ale jednak niezerowe prawdopodobieństwo zniszczenia Ziemi, czy to supernowa czy coś innego. Dodatkowo za x lat Słońce nam przygaśnie i się rozszerzy. Z naszej perspektywy jest to czas odległy, ale z perspektywy "wiecznej" AI już nie. Więc celem może być rozwój technologiczny pozwalający przetrwać, przenieść się gdzieś albo obronić, etc. Jeśli nie będzie wroga, wydaje się to mało prawdopodobne. My robiliśmy to głównie z lenistwa, zaniedbania, braku wiedzy. AI taka nie będzie (nie będzie, prawda? Prawda!?! ) Wow, ciekawie pesymistyczne stwierdzenie. Wiem, że Elon nie dotrzyma obietnic z terminami, ale jednak ja sam mam zamiar dożyć! Niech i w 2050. 100% prawdy. Mam wręcz przekonanie, że ponieważ do tej pory nie mamy mechanizmów wymuszających wypełnianie praw Asimova przez AI (właściwie żadnych), to z trenowaniem AI będzie jak z wychowywaniem dziecka, jak rodzic wychowa taki człowiek urośnie. Oczywiście w bardzo dużym uproszczeniu, rodzice trudnych dzieci coś o tym wiedzą. No i mam nadzieję, że przetrwamy bunt AI-owego nastolatka To może być ten moment, o którym pisze @Mariusz Błoński, "bo tak".
  9. Nie wiem czy mogę się zgodzić z wnioskiem. Jak wspomniałeś, Po pierwsze nawet teraz to nie "jedyny" nam znany powód. Po drugie, niekoniecznie zniszczenia jak wspomniałem wyżej, celem AI może być "ochrona" ludzkości (jak w I, Robot). Jeśli tylko ochrona to cywilizacja może tkwić w miejscu, Brak chorób, wydłużenie życia, ale i kontrola prokreacji i liczby ludności. Po trzecie nie znamy celu AI, więc wcale nie jest powiedziane, że jej celem będzie ekspansja.
  10. Świadomie może i tak, ale nieświadomie? Ileż to gatunków wymarło z różnych powodów? Stworzenie AI, które w jakimś momencie "zapragnie" zniszczyć lub ograniczyć ekspansję nie jest czymś niewyobrażalnym. A wtedy ewolucja biologiczna (przynajmniej na poziomie wyższym niż jednokomórkowe) niewiele będzie miała do powiedzenia. Tak samo jak to nie od dinozaurów zależało czy w Ziemię uderzy meteoryt i jakiej wielkości. Od nas nie będzie zależeć (w przypadku samoświadomej i "wrogiej" AI) co możemy z tym zrobić. "Wrogiej" może być też jak w "I, Robot", czyli dbającej o ludzkość, ale nadopiekuńczej. Albo weźmy "Powrót z gwiazd" Lema (+ miks z X-menów ), co jeśli AI zamiast nas jawnie zabijać doprowadzi po prostu do modyfikacji żywności w taki sposób, że ludzie stracą ochotę na ryzykowanie, podróże kosmiczne, agresję, itp. Nie będziemy "widzieli sensu" w odkrywaniu i rozprzestrzenianiu naszego życia gdzie indziej. Tutaj będzie dobrze. Także nie jest to jakaś aberracja
  11. Z całym twoim postem się zgadzam oprócz Masz, ale na temat procesu, którego działania nie do końca rozumiemy. Jeśli zmieni się rozumienie procesu to argument może być bez sensu. Po prostu Ty uważasz, że to argument, a ja, że hipoteza, no, albo argument oparty na obserwacji procesu i jego modelu, który tylko powierzchownie go odzwierciedla.
  12. Komuś chyba humanista na odcisk nadepnął Jest z tym bardzo duży problem, w medycynie, biologii, a w psychologii to już w ogóle, to się zgadza, ale nie tyle brakuje im "całej" matematyki co logiki i narzędzi statystycznych. Raz, że mało kto na serio sensownie podchodzi do tematu organizacji, przeprowadzania i dokumentowania wyników w odpowiedniej formie ponad to co wymaga "instrukcja", to jeszcze same wnioski wyciągane z tych badań potrafią jeżyć włosy na głowie. Wiem, bo na co dzień mam do czynienia m.in. z badaniami klinicznymi. Nie oznacza to jednak, że budując sobie model matematyczny na pewno mamy rację. Nie załapał kolega chyba przenośni. Narzędzia są, ale mało kto umie je stosować do siebie. Widać to np. po używaniu stwierdzeń "nie da się", "nie ma alternatyw", "to jest najbardziej optymalna metoda", itp. Na szczęście zawsze znajdzie się ktoś kto tego nie wie i to zrobi
×
×
  • Dodaj nową pozycję...