Skocz do zawartości
Forum Kopalni Wiedzy

Przemek Kobel

Użytkownicy
  • Liczba zawartości

    1764
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    32

Zawartość dodana przez Przemek Kobel

  1. Jakby to ująć... jeśli nie wiadomo, jaki system zaatakowano, to znaczy, że wiadomo, jaki system zaatakowano.
  2. Jako wieczny malkontent: jeśli chcą wprowadzić algorytm weryfikujący, czy sieć działa OK, to po jaki grzyb ta sieć? Nie lepiej zostawić sam algorytm? Kolejna rzecz - nikt nie wie, jak sieć działa, czy to atakujący, czy ten co ją "nauczył", a w takim układzie jedyne czego nie wiedziałby atakujący, to z którą siecią akurat ma do czynienia (co też ma znaczenie, bo tak jak z atakami na serwery internetowe, jeśli wiemy jakie jest tam oprogramowanie i w jakiej wersji, to wiemy też jak to można zhakować, albo przynajmniej jakie próby hakowania jeszcze nie zadziałały). A tak ogólnie ta moda na maszynowe uczenie to wygląda mi na efekt postępującego rozleniwienia: po co się męczyć i kodować jakieś reguły w sieci np. systemu eksperckiego (bo to trzeba fachowca, który umie te reguły określić, a potem innego kto je zamieni w oprogramowanie), kiedy można zrobić funkcję mówiącą "źle/dobrze" i mieć nadzieję, że sieć nauczy się sama czegoś, co (tutaj nadzieja drugiego stopnia) jest tym o co nam chodziło.
  3. Tak po urlopie i poza konkursem - w języku polskim nie ma czegoś takiego jak kolor "cyjan". A jeśli chodzi o merituma, to przypomina toto pomysły producentów matryc w aparatach fotograficznych. Kiedyś bodaj Kodak próbował robić aparaty, gdzie CCD widziało kolory "drukarskie" CMY, a później Sony dorzuciło do matrycy RGB czwarty kolor szmaragdowy, czyli mniej więcej ten nieszczęsny "cyjan". https://www.dpreview.com/reviews/kodakdcs620x https://www.dpreview.com/articles/1471104084/sonyrgbeccd A jeśli chodzi o usprawnienia wyświetlaczy, moim zdaniem jest gruby problem nie z sennością, tylko widzeniem w ogóle. Jeśli kogoś nagle zapiekły oczy, kiedy spróbował po ciemku coś zobaczyć w telefonie, to wie o co chodzi.
  4. Piękna zbieżność modelu z proroctwami Ala Gore'a. No i jeszcze wyszło z modelu, więc od razu jest dowód. Słuszną linię...
  5. Jak zobaczyłem szacunkowy koszt tej technologii (vs koszt wymagany), to od razu skojarzyli mi się polscy sprzedawcy samochodów - ponieważ duży przebieg źle się sprzedaje, to wszystkie auta mają przebieg 140 tysięcy km (niezależnie od wieku).
  6. Rekurencyjna. Dokładniej się nie da, no chyba że przepełnimy stos albo coś...
  7. Protestuję. Oni nie są twórcami algorytmów (bo nie wiedzą, jakie "algorytmy" w tych ich sieciach działają), a te ich wytwory nie są inteligentne. To tak jakby personel fabryki pigmentów to byli twórcy dzieł sztuki.
  8. Jakby to ująć... e-palacze lubią przerabiać swoje gadżety na większe moce. Pojedyncze ogniwo wysokoprądowe może pociągnąć ponad 30 amperów, a jeśli kto ma fantazję, to znajdzie i takie 50-amperowe (tyle miewają nawet tanie baterie litowe formatu 26650). Przy zwarciu całkiem gruby kawał żelastwa może od takiego prądu zrobić się biały. To plus łatwopalne opary i bomba gotowa. I to wszystko przy założeniu, że samo ogniwo nie jest uszkodzone i nie zrobi czegoś takiego: A jak kto ma mocne nerwy...
  9. Miejmy nadzieję, że podczas trenowania jego AI nie pomylono "ubierania" z "zakładaniem".
  10. Z dostępnych tutaj informacji można wywnioskować jedynie tyle, że by zrewolucjonizował wojnę, bo zatopienie tego pochłaniało 10%-20% więcej załogi niż zatopienie normalnego u-boota. Ale jako uparciuch sprawdziłem - zdaje się, że podstawowy napęd tej łodzi jest elektryczny, co jak widać niewiele pomogło.
  11. Z ciekawości zajrzałem do wiki, kiedy dokładnie była Mała Epoka Lodowcowa. I bingo - 400 lat temu. A jako bonus mają tam jeszcze wykres aktywności Słońca (i przy okazji drugie bingo). Ci... naukowcy zamiast "przed rewolucją przemysłową" mogliby równie dobrze pisać "przed rozejmem w Dywilinie". Albo i nie, bo na badanie skutków tego rozejmu grantów nie będzie.
  12. https://www.techemergence.com/global-competition-rises-ai-industrial-robotics/ https://www.bloomberg.com/news/articles/2018-03-22/video-said-to-show-failure-of-uber-s-tech-in-fatal-arizona-crash
  13. Ano tego, że AI wyszkolona specjalnie do bezpiecznej jazdy i uzbrojona we wszelkiego rodzaju czujniki do widzenia w nocy oraz reagująca ponad 1000-krotnie szybciej od człowieka ani nie zareagowała szybciej, ani nie zobaczyła lepiej, ani nie okazała się bezpieczna. Bo pewnie układ pasów na jezdni skojarzył sie jej z kaszą gryczaną, albo coś w tym rodzaju (czego tak łatwo wcale nie można stwierdzić, bo gdyby się dało, to nie budowano by sieci neuronowej, tylko po prostu napisano cywilizowany algorytm). A tak naprawdę to tylko tego, że eksperci od AI popędzani przez granty, IPO albo kursy akcji, są mniej więcej tak godni zaufania jak oprych w ciemnej bramie.
  14. Ta AI jest za głupia, żeby mogła rozmawiać (zresztą jak wszystkie inne, wbrew ostatnim ogłoszeniom MS). Ale akurat w tej sytuacji człowiek by tej kobity nie zabił. Ani tu: https://www.techrepublic.com/article/robot-kills-worker-on-assembly-line-raising-concerns-about-human-robot-collaboration/ czy tu: https://www.theguardian.com/world/2015/jul/02/robot-kills-worker-at-volkswagen-plant-in-germany albo tu: https://www.independent.co.uk/news/world/asia/worker-killed-by-robot-in-welding-accident-at-car-parts-factory-in-india-10453887.html
  15. Przepraszam, ale obecne AI rozjeżdżają ludzi i nie widzą w tym problemu, więc mało mnie obchodzi co by one powiedziały. Już bardziej: gdzie się wyłącza zasilanie.
  16. Moja ulubiona iluzja wygląda mniej więcej tak: Ale gdybym nie był w stanie odróżnić kota od miski jakiejś papki, to nie wiem, czy ktoś wpuściłby mnie za kierownicę. Już prędzej na oddział detoksykacji.
  17. Jest jeszcze gorzej... http://www.labsix.org/physical-objects-that-fool-neural-nets/
  18. Czyli tyle co współczesne silniki spalinowe i mniej niż następne silniki spalinowe... https://jalopnik.com/mazdas-skyactiv-3-engine-could-be-as-clean-as-some-elec-1822516318
  19. Czyli omijanie niespodzianek to tylko domena mistrzów? Jeśli tak, to się przesiadam na pociągi (jak tylko odbiorę ten puchar). Ja wiem że gdy ktoś szarżuje, to argumenty nie trafiają, ale: czasy reakcji człowieka wynoszą od 0,15 sekundy (dotyk) do 0,25 (wzrok). Jeśli ktoś jest skupiony na danej czynności, to zareaguje... no dobrze, zacznie reagować w ciągu pół sekundy. Tutaj była sekunda czasu widoczności w kamerze, czyli jakieś 2-3 sekundy widoczności w oku (które ma większy zakres czułości niż kamerka z nagrania). Ale zaraz się dowiem czemu nie mam racji, albo że jestem nadczłowiekiem, bo zaliczyłem parę podobnych ominięć. Albo i się nie dowiem, bo wywalam tę wiadomość z RSS-a. Piłem do informacji (z pierwszego newsa o tym wypadku), że to działo się 100 metrów od przejścia. Czyli u nas teoretycznie byłoby na legalu nawet w mieście.
  20. W naszym kraju można mówić o "miejscu niedozwolonym" wyłącznie wtedy, gdy w pobliżu nie ma przejścia dla pieszych (czyli bliżej niż 100 metrów). A żeby ominąć kobitę (bo rower to może nie), to nawet nie trzeba byłoby zmieniać pasa - wystarczyłoby się nieco zbliżyć do osi jezdni. Ale, jak wiadomo, AI uczy się szybciej i lepiej niż ludzie...
  21. Puścili filmik z tego wypadku. Przez sekundę było widać kobitę z rowerem. Czas reakcji człowieka to około pół sekundy, AI nie zareagowało w ogóle. Człowiek w tym czasie zdążyłby przyhamować i przesunąć samochód przynajmniej o pół metra w lewo, AI wzięło ofiarę na prawy błotnik (ona szła w prawo). Poza tym człowiek widzi w ciemnościach o wiele lepiej niż te kamery, więc miałby nie jedną, a kilka sekund czasu. I podobno Uber używa lidaru do skanowania drogi. Jakoś tutaj nie użył.
  22. Nieprawda. Człowiek z odpowiednio dużym doświadczeniem potrafi wyczuć że ktoś na drodze albo obok chce zrobić coś nietypowego. Nawet w broszurach dla kursantów na prawko są obrazki, żeby szczególnie uważać kiedy na chodniku są dzieci (ja bym jeszcze dorzucił sarenki w rejonie pobocza).
  23. A ja kiedyś widziałem ciekawy wariant systemu SMT, po którym (ważne: jak dla mnie) dość łatwo się poprawiało i którego błędów można było się spodziewać w charakterystycznych miejscach. Inaczej niż w oficjalnej charakterystyce takiego czegoś: https://en.wikipedia.org/wiki/Statistical_machine_translation Bo ci, co muszą pracować na tekstach częściowo tłumaczonych przez AI to mają przerąbane - taki system uczy się na robocie poprzednich tłumaczy (a ci rzadko kiedy są naprawdę dobrzy). Efekt jest taki, że w jego produktach mamy kumulację wszystkich wtop wszystkich poprzedników. Do tego dochodzi ta jego sztuczna "inteligencja" powodująca, że system próbuje robić "po człowiekowemu" odmiany i szyki zdań. Efekt końcowy jest taki, że trzeba to potem diabelnie długo poprawiać, żeby przypominało jakieś sensowne zdanie. I jest to robota za darmo, bo wg. maszyny np. 60% tłumaczenia już zrobiła.
×
×
  • Dodaj nową pozycję...