Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja odtworzyła PAC-MANa. W przyszłości nauczy się praw fizyki oglądając YouTube'a?

Rekomendowane odpowiedzi

Stworzony przez NVIDIĘ algorytm sztucznej inteligencji GameGAN był w stanie samodzielnie stworzyć grę PAC-MAN. System nie miał dostępu do kodu gry. Zaprezentowano mu jedynie 50 000 fragmentów wideo. Na tej podstawie sztuczna inteligencja samodzielnie stworzyła w pełni funkcjonalną warstwę graficzną PAC-MANa.

PAC-MAN to jedna z najpopularniejszych gier komputerowych. Ta klasyka wirtualnej rozrywki powstała przed 40 laty w Japonii. Podbiła świat w czasach salonów gier i automatów.

Osiągnięcie inżynierów NVIDII oznacza, że nawet bez znajomości podstawowych zasad rozgrywki ich algorytm jest w stanie samodzielnie je zrekonstruować oraz stworzyć własną grę. GameGAN to pierwsza sieć neuronowa, która wykorzystuje technologię GAN (generatywne sieci współzawodniczące) do stworzenia gry. GAN korzysta z dwóch niezależnych sieci neuronowych. Jedna to dyskryminator, druga zwana jest generatorem. Obie współzawodniczą ze sobą.

Zwykle sieci neuronowe uczą się np. rozpoznawać koty na zdjęciach dzięki przeanalizowaniu olbrzymiej liczby zdjęć kotów. Metoda ta jest po pierwsze czasochłonna, po drugie zaś wymaga, by wszystkie użyte do treningu zdjęcia zostały ręcznie prawidłowo oznaczone przez człowieka. Dopiero po analizie olbrzymiej bazy danych sieć jest w stanie rozpoznać kota na zdjęciu, z którym wcześniej nie miała do czynienia. GAN wymaga znacznie mniej czasu i pracy. w tej koncepcji generator stara się stworzyć zdjęcie kota jak najbardziej przypominającego kota, a dyskryminator przegląda zdjęcia kotów i decyduje, które jest prawdziwe, a które fałszywe. W wyniku tego współzawodnictwa generator tworzy coraz doskonalsze zdjęcia, a dyskryminator coraz lepiej rozpoznaje koty.

Teraz po raz pierwszy technika taka została użyta do stworzenia nadającego się do użycia funkcjonalnego layoutu gry. Chcieliśmy sprawdzić, czy sztuczna inteligencja jest w stanie nauczyć się reguł obowiązujących w środowisku jedynie patrząc na przebieg gry. I to jej się udało, mówi główny autor projektu Seung-Wook Kim.

Osiągnięcie inżynierów NVIDII oznacza, że autorzy gier będą mogli wykorzystać sztuczną inteligencję do szybszego i łatwiejszego tworzenie kolejnych jej etapów, a badacze sztucznej inteligencji będą łatwiej mogli stworzyć symulatory do treningu autonomicznych systemów. W przyszłości w ten sposób mogą powstać systemy sztucznej inteligencji, które samodzielnie – tylko na podstawie nagrań wideo – nauczą się przepisów ruchu drogowego czy zasad fizyki. GameGAN to pierwszy krok w tym kierunku, dodaje Sanja Fidler, dyrektor laboratorium NVIDII w Toronto.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Od razu pomyślałam o odkrywaniu zasad fizyki, ale też np. odkrywania kodu źródłowego techniki przeciwnika zastosowanej np. na polu walki.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, Ergo Sum napisał:

Od razu pomyślałam o odkrywaniu zasad fizyki

Takie z założenia wymagają dostępu do eksperymentów. Na zasadzie że ktoś kto zna prawa fizyki musi stworzyć nowe doświadczenie które je weryfikuje. Bez tego odtworzona zostanie hipoteza jak mogą wyglądać prawa fizyki, bez możliwości weryfikacji. Z punktu widzenia maszyny to co "odkryje" nie będzie żadnymi prawami fizyki.
 

6 godzin temu, Ergo Sum napisał:

ale też np. odkrywania kodu źródłowego techniki przeciwnika zastosowanej np. na polu walki

Właśnie takie wpisy podtrzymują seksistowskie stereotypy ;)
Jest to niemożliwe, nie bylibyśmy w stanie wykryć nawet języka w którym go napisano.
A użyteczność takie odkrycia byłaby zerowa i sprowadzałaby się do wniosku "mamy przewalone".

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.05.2020 o 14:50, KopalniaWiedzy.pl napisał:

sztuczna inteligencja samodzielnie stworzyła w pełni funkcjonalną warstwę graficzną PAC-MANa

no niby fajnie, ale dalej musieli mieć dane treningowe. 

Sukces jest niepodważalny, ale GAN nie jest jakimś świętym gralem. Do tego opis GANa w artykule uważam za nieco mylący jednak :)

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
1 hour ago, peceed said:

Jest to niemożliwe, nie bylibyśmy w stanie wykryć nawet języka w którym go napisano.

Też tak mi się wydaje. Nie ma znaczenia jaki soft steruje czołgiem, a z samego wystrzelenia pocisku niewiele wynika. Parametry fizyczne są ważniejsze. Jak przeciwnik dysponujący zasobami potrzebuje poznać możliwości nowego myśliwca, to łatwiej zrobić włam i wykraść dokumentację w PDF'ach prosto od producenta. Chińczycy są podejrzewani o pozyskanie dokumentacji dotyczącej projektu F-35 z Locheed Martin.

Z kolei w cyber bezpieczeństwie, często wywiad i kontrwywiad uzyskuje często pełen dostęp do skompilowanych środków ataku i narzędzi, które można zdekompilować i zbadać. Czasem nawet pozyskują czysty kod źródłowy, na przykład wyciek The Shadow Brokers. Po za tym sam atak często jest jednorazowy i kończy się "spaleniem" środków technicznych, szczególnie jak zostanie wykryty albo ma widoczne następstwa, na przykład Stuxnet. Po za tym dobry monitoring zdarzeń na maszynach i ruchu w sieci oraz kompetentny team często pozwala na uzyskanie wystarczającej informacji na temat podatności wykorzystanych w ataku do przejęcia maszyn.

Przypomniała mi się jeszcze historia sprzed kilku lat ;)
https://www.technologyreview.com/2017/10/11/148681/israeli-spies-spied-russian-spies-spying-on-american-spy-plans-via-kaspersky-software/

Z kolei DARPA organizuje regularnie turniej, gdzie zmagają się ze sobą implementacje AI. Mają za zadanie ochronę swoich systemów i atakowanie przeciwnika bez pomocy człowieka, więc na pewno coś z tego wyniknie w przyszłości.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Sztuczna inteligencja będzie wtedy, jak będzie miał świadomość, a nie jak będzie wykonywal zaprogramowane zadania. Jak można tolerować te kłamstwa głoszone przez pseudonaukowców.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Powiało inkwizycją i zimnymi lochami ;)

Są trzy główne typy AI:
 

Quote

Artificial narrow intelligence (ANI), which has a narrow range of abilities
Artificial general intelligence (AGI), which is on par with human capabilities
Artificial superintelligence (ASI), which is more capable than a human

Artificial narrow intelligence (ANI), also referred to as weak AI or narrow AI, is the only type of artificial intelligence we have successfully realized to date. Narrow AI is goal-oriented, designed to perform singular tasks - i.e. facial recognition, speech recognition/voice assistants, driving a car, or searching the internet - and is very intelligent at completing the specific task it is programmed to do.

Źródło:
https://codebots.com/artificial-intelligence/the-3-types-of-ai-is-the-third-even-possible

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ta klasyfikacja jest wadliwa, bo miesza zakresy kompetencji z mocą. Już teraz mamy nadludzkie klasyfikatory obrazów.
General AI należy rozumieć jako zdolność do sterowania agentem humanoidalnym w ludzkim społeczeństwie i w sumie nic ponadto.
Bardzo wiele zależy od "mocy", od kiedy zaczynają się nadludzkie możliwości. Ludzie nie są tacy sami.
W sumie już teraz można by stworzyć "autystycznego mistrza szachowego".

 

I jeszcze jedno, rozwój takiego agenta zaczyna się od wjazdu na salę porodową przez tunel i strzała w tyłek / nie może pobierać informacji inaczej niż przez analogiczne do ludzkich zmysły.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, peceed napisał:

Ludzie nie są tacy sami.

Fajnie to ujęli w "I, robot" :)

"- Can robot write a symphony? Can robot turn a canvas into a beautiful masterpiece?

 - Can you?" :)

15 godzin temu, cyjanobakteria napisał:

Nie ma znaczenia jaki soft steruje czołgiem, a z samego wystrzelenia pocisku niewiele wynika. Parametry fizyczne są ważniejsze.

Dopóki mówimy o parametrach fizycznych. W niedalekiej przyszłości, a może już teraz, istotna będzie cyberwojna (z użyciem AI), a tam wykrycie  "wzoru" zachowania asap może być ważne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

5 godzin temu, radar napisał:

W niedalekiej przyszłości, a może już teraz, istotna będzie cyberwojna (z użyciem AI)

Hakowanie jest znacznie trudniejsze niż stworzenie niehakowalnej infrastruktury informatycznej, cała ta zabawa to pochodna czasów w których nie do końca stawiano bezpieczeństwo na pierwszym miejscu. Cyberwojna ma znaczenie teraz i jeszcze przez kilkanaście/dwadzieścia lat a potem nastąpi koniec, nastąpi nasycenie wyznaczane przez zdolność konsumpcji treści przez ludzi. I wtedy bezpieczeństwo będzie kolejnym krokiem w modernizacji infrastruktury. Silne AI rozminie się z cyberwojną.
Znacznie ciekawszy i skuteczniejszy będzie wywiad technologiczny z użyciem mikrorobotów, już dzisiaj szpiegowska mucha to bardziej rzeczywistość niż futurystyka.
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
42 minuty temu, Astro napisał:

No nie wiem. Całe moje wieloletnie doświadczenie i obserwacja wskazuje, że jest zupełnie przeciwnie*.

Mając porównywalne zasoby po obu "stronach" atakowanie jest skazane na porażkę. Obecnie na poziomie biznesowym może wyglądać to inaczej, ale w sytuacji kiedy bezpieczeństwo zacznie być cenione (w znaczeniu klienci będą chcieli je sfinansować) haking odejdzie do lamusa: po prostu wiadomo jak zrobić całkowicie bezpieczny hardware i software na poziomie systemowym, co ważne wiadomo od dosyć dawna (i nie, nie chodzi o  "wystarczy robić tak, aby było dobrze" ;) ).

W sytuacji kiedy do walki wejdzie AI zabawa i tak się skończy: obrońca będzie równie dobry jak napastnik i wszystkie luki zostaną naprawione nawet przy obecnym sprzęcie (to podejście "wystarczy robić tak, aby było dobrze"). Cyberwojna to gra błędów.

 

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Astro napisał:

Znaczy sądzisz pan, że ja płacę za mało w swoim systemie bankowości? Tak to odbieram, bo nie inaczej.

Tak. Koszty opracowania systemów informatycznych są współdzielone przez różne branże, potrzeby jednej nie wprowadzą nagle nowej jakości. Ale akurat branża bankowa wciąż może płacić tyle, że "było zrobione dobrze".

3 godziny temu, Astro napisał:

Ty tu jeszcze siedzisz na FORUM zamiast zgarniać grube gigadolary?

Przecież  klienci nie chcą płacić tych gigadolarów!

3 godziny temu, Astro napisał:
3 godziny temu, peceed napisał:

Cyberwojna to gra błędów.

Nie. To tylko przedłużenie wykazywania kto ma dłuższą fujarkę*

Aż boję spytać co w takim razie kolega rozumie pod pojęciem "testy penetracyjne".
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
9 hours ago, peceed said:

Hakowanie jest znacznie trudniejsze niż stworzenie niehakowalnej infrastruktury informatycznej

Nie chcę Cię martwić, ale jest dokładnie odwrotnie ;) Co nie oznacza, że włamy są proste. Średni poziom się podnosi w miarę dojrzewania narzędzi i coraz lepszej automatyzacji. Ludzie natomiast dalej popełniają te same błędy. Niedawno oglądałem tutorial na YT z tego roku, więc świeży i deweloper tłumaczący zagadnienie wprowadził kilka podatności w ciągu kilkunastu minut.

9 hours ago, peceed said:

cała ta zabawa to pochodna czasów w których nie do końca stawiano bezpieczeństwo na pierwszym miejscu

W mało jakiej branży infosec jest na pierwszym miejscu. Chociaż teraz jest ogólnie lepiej. Nowe protokoły sieciowe nie są projektowane w oparciu o zaufanie, szyfrowanie jest w standardzie i tak dalej. Duże korporacje kładą nacisk na bezpieczeństwo, patrz Google, MS, ale w małych firmach mało kogo interesuje bezpieczeństwo, bo klient płaci za features a nie bezpieczeństwo.

7 hours ago, peceed said:

Mając porównywalne zasoby po obu "stronach" atakowanie jest skazane na porażkę.

Nie zgadzam się z tym. Defensywa ma trudniej, bo muszą zabezpieczyć wszystko, za to atakującemu wystarczy jedna luka albo jeden pracownik, który zainstaluje malware z linku w emailu. Atakujący najczęściej wyszuka najsłabsze ogniwo i tam uderzy. Żeby szanse były równe, defensywa musiała by mieć więcej zasobów niż atakujący. Do tego to zawsze wygląda jak nierówna walka, bo zwykłych ludzi cyber bezpieczeństwo mało interesuje. Chcą odbębnić robotę i iść do domu. W przypadku programistów może 1/10 się interesuje bezpieczeństwem, ludzie w innych działach w biurze jeszcze mniej.

Z resztą co to są porównywalne zasoby? Mogę sobie kupić u-locka z wyższej półki od Kryptonite za 100 euro, a złodziej szlifierką kątową na akumulator z promocji w Castoramie za ułamek tej kwoty przetnie zabezpieczenie w 2-3 minuty.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
45 minut temu, cyjanobakteria napisał:

Nie chcę Cię martwić, ale jest dokładnie odwrotnie ;)

Nie chcę Cię zmartwić, ale jest dokładnie odwrotnie do twojego odwrotnie ;)
Weźmy coś takiego: https://en.wikipedia.org/wiki/Capability-based_addressing
Rzuca się w oczy dosyć duża 40 letnia przerwa od ostatnich prób na serio (bo i432 traktuję jako podejście serio do problemu).,
To można rozszerzyć na wszystkie zasoby, również pliki (taki drm na sterydach).

51 minut temu, cyjanobakteria napisał:

Defensywa ma trudniej, bo muszą zabezpieczyć wszystko, za to atakującemu wystarczy jedna luka albo jeden pracownik

Patrzę pod kątem całkowicie nowych systemów zaprojektowanych z myślą o bezpieczeństwie, a nie starym software/sprzęcie.

55 minut temu, cyjanobakteria napisał:

który zainstaluje malware z linku w emailu

Nie ma prawa mieć prawa :P W hipotetycznym systemie pracownik może być agentem chińskiego mosadu ( ;) ),a i tak nie będzie w stanie wysłać zastrzeżonych danych, inaczej niż robiąc aparatem zdjęcia ekranu.
Bezpieczeństwo trzeba budować od dołu, najpierw odpowiedni sprzęt, a potem system, a na końcu software. Naprawdę nie chodziło mi o intela, windows i c++.

 

Godzinę temu, cyjanobakteria napisał:

Ludzie natomiast dalej popełniają te same błędy. Niedawno oglądałem tutorial na YT z tego roku, więc świeży i deweloper tłumaczący zagadnienie wprowadził kilka podatności w ciągu kilkunastu minut.

To oznacza że model tworzenia oprogramowania nie jest właściwy. Powinno się pisać do takich bibliotek aby zrobienie podatności było wyczynem, nawet po przeszkoleniu w NSA. Osobiście widzę tylko jeden problem: ludziom trudno zaakceptować potencjalnie mniejszą wydajność bezpiecznych systemów.


 

1 godzinę temu, cyjanobakteria napisał:

Z resztą co to są porównywalne zasoby?

Ściśle chodziło mi to, że jeśli z jednej i drugiej strony posadzimy tak samo kompetentne (sprytne) osoby, to software nie będzie miał luk z którymi poradzą sobie napastnicy.
Oczywiście realia rynku są takie, że przeciwko code monkey staje gorilla.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Jestem pewien, że w ciągu 20 lat problemy cyberbezpieczeństwa nie znikną ze sceny IT, a co będzie dalej, nie podejmuję się wróżenia. Ostatnio słyszałem o ransomware, które instaluje VirtualBox i konfiguruje maszynę wirtualną z Windows XP z której uruchamia się w celu ominięcia antywirusa na W10 ;) Teoretycznie można dużo zrobić lepiej, ale rzeczywistość jest ponura. Nawet wprowadzanie zwykłego IPv6 idzie siermiężnie. Dopiero od kilku ostatnich lat trochę przyśpieszyło. Dopóki nie ma absolutnej konieczności, a NAT nadal działa, wszyscy zwlekają.

Pracownik nie ma prawa mieć prawa instalować malware, ale zawsze są wyjątki. Po za tym admin IT też może próbować zainstalować malware na prawach administratora, bo ludzie są tylko ludźmi. Nawet najlepszy next-gen antywirus może być wyłączony albo nie działać. Wszystko się non-stop zmienia w IT i nawet osoby siedzące w branży mają problem, nie nadążają i nie ogarniają nowinek i zagrożeń, jakie powodują nowe technologie.

11 hours ago, cyjanobakteria said:

Z resztą co to są porównywalne zasoby? Mogę sobie kupić u-locka z wyższej półki od Kryptonite za 100 euro, a złodziej szlifierką kątową na akumulator z promocji w Castoramie za ułamek tej kwoty przetnie zabezpieczenie w 2-3 minuty.

Tak sobie jeszcze pomyślałem, że szlifierka na akumulator bije u-lock Kryptonite, ale gazrurka z tej samej Castoramy bije szlifierkę i jej operatora ;)

9 hours ago, peceed said:

Oczywiście realia rynku są takie, że przeciwko code monkey staje gorilla.

Teraz właśnie tak jest. Realia są takie, że w firmie jest 1 pracownik infosec na 100, a do tego w dziale IT na każdego przypada nawet kilkaset sztuk sprzętu wliczając w to elektrozłom typu telefony, drukarki, ekrany i tak dalej. Może w przyszłości AI będzie tak zaawansowane, że wszystko będzie się konfigurowało i zarządzało samo, ale wtedy będzie można obciąć dział IT i deweloperski do prawie zera. Może wtedy będzie w miarę bezpieczniej ;)

IOT to jest ciekawa przypadek relatywnie nowej technologi, która była w powijakach kilka lat temu i kompletnie na bakier z cyberbezpieczeństwem na tylu poziomach, że nie wiadomo, gdzie zacząć to opisywać.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, cyjanobakteria napisał:

Tak sobie jeszcze pomyślałem, że szlifierka na akumulator bije u-lock Kryptonite, ale gazrurka z tej samej Castoramy bije szlifierkę i jej operatora ;)

A to jakiś problem żeby U-Locka pokryć widią albo - w wersji dla oszczędnych - korundem? :P
 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Ciekawy pomysł, ale nie słyszałem o takich u-lockach. Widziałem niedawno w necie u-lock Altor SAF, który tłumaczy się jako Strong as F*** ;) Rdzeń jest ukryty w warstwie aluminium, która jest na tyle gruba, że standardowe tarcze do cięcia nie sięgają. Złodziej musiałby zastosować szerszą tarczę albo wycinać aluminium, plus mieć zapasowe akumulatory. Do tego kształt powoduje niszczenie tarcz. Minusem jest cena, waga i wymiary, czyli klasyka: albo jest tanio i wygodnie albo drogo i ciężko, ale bezpiecznie ;)

SAF-lock-in-hands-cb3ad45.jpg?webp=true&

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, cyjanobakteria napisał:

Minusem jest cena, waga i wymiary

Wygląda na to że waga i wymiary to nie bug, to feature.
Główna zaleta takiej kłódki to odstraszenie złodziei, nie sądzę aby rowery kradziono na zamówienie więc zawsze jest lepszy cel obok.
Następnym logicznym etapem rozwoju są kłódkorowery: zniszczenie kłódki będzie tożsame ze zniszczeniem samego roweru.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
18 hours ago, peceed said:

Wygląda na to że waga i wymiary to nie bug, to feature.

To jest bardziej nieunikniony efekt uboczny. Jako rowerzysta nie jestem zainteresowany posiadaniem jak najcięższej kłódki, tylko takiej, której nie da się przeciąć w łatwy sposób, a to oznacza konieczność grubej warstwy twardego materiału. Ciekawe jaką twardość ma materia neutronowa. Podejrzewam, że wysoką, ale ma też i niepożądane cechy :)

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)
3 godziny temu, cyjanobakteria napisał:

Jako rowerzysta nie jestem zainteresowany posiadaniem jak najcięższej kłódki, tylko takiej, której nie da się przeciąć w łatwy sposób, a to oznacza konieczność grubej warstwy twardego materiału.

Widiowy pałąk powinien wystarczyć: nie ma materiałów które są w stanie taki łatwo przeciąć. 

 

 

3 godziny temu, cyjanobakteria napisał:

Ciekawe jaką twardość ma materia neutronowa.

W relacji do masy mniejszą niż zwykła materia, na oko 4 - 5 rzędów wielkości.

Edytowane przez peceed

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, peceed napisał:

Widiowy pałąk powinien wystarczyć: nie ma materiałów które są w stanie taki łatwo przeciąć. 

Widia jest bardzo krucha. Cios młotkiem i kasza. Bardziej jakiś dziwny kompozyt  typu gips zbrojony kewlarem :D, Ale sądzę, że problem jest jednak nierozwiązywalny - SAF jest najlepszym przykładem. 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 hours ago, peceed said:

W relacji do masy mniejszą niż zwykła materia, na oko 4 - 5 rzędów wielkości.

To mnie nie pocieszyłeś, ale ma za to wysoką wytrzymałość na kompresję ze względu na zakaz Pauliego, więc nożyce odpadają ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, Jajcenty napisał:

Widia jest bardzo krucha. Cios młotkiem i kasza.

To akurat nie jest problemem. Można stosować warstwy. Widia/stal. Takie przekładańce są bardzo mocne. Albo korund/aluminium w wersji light.
Korundowe kule zatopione w aluminium były stosowane jako wypełniacze w radzieckich czołgach.


Jest inny problem. Uświadomiłem sobie (analizując swój pomysł na zabezpieczenie się przed Spectre/Meltown, LOL), że wielu sytuacjach łatwiej po prostu wyciąć to do czego się przypięliśmy. Jeśli u-lock przestanie być najsłabszym ogniwem systemu bezpieczeństwa, dalsze jego poprawianie nie ma sensu. 

 

W dniu 28.05.2020 o 17:07, cyjanobakteria napisał:

Widziałem niedawno w necie u-lock Altor SAF, który tłumaczy się jako Strong as F*** ;)

To wygląda na poważny problem... a nie żadne "Strong". Uro-lock ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
50 minutes ago, peceed said:

Jeśli u-lock przestanie być najsłabszym ogniwem systemu bezpieczeństwa, dalsze jego poprawianie nie ma sensu.

Zabawa w kotka i myszkę, czyli klasyka cyber i nie tylko bezpieczeństwa ;)

Przestępcy myślą grafami, przynajmniej ci profesjonalni. Na każdym kroku najczęściej jest kilka opcji. Jeżeli chcą ukraść rower, to zrobią rozpoznanie i wybiorą najprostszą metodę. Ci poniżej nie są tytanami intelektu, ale nadrabiają za to bezczelnością i jest ich kilkoro. Nieprofesjonalna robota, ale rower ukradli, chociaż pewnie policja ich zgarnęła.

W przypadku Altor SAF prawie na pewno łatwiej zaatakować ogrodzenie, zwłaszcza jak ma się szlifierkę. Można tez poczekać i dać w łeb rowerzyście, ale to już inna kwalifikacja czynu, więc rower musi być bardzo dobry. U mnie w zeszłym roku zaczęli napadać rowerzystów na dobrych rowerach z włókna węglowego na popularnych trasach, gdzie dużo osób trenuje na porządnym sprzęcie. Spychali ludzi z drogi vanem i ukradli co najmniej jeden rower w ten sposób, ale ataków było więcej.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...