Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Musk i DeepMind nie chcą pracować nad robotami bojowymi

Recommended Posts

Podczas International Joint Conference On Artificial Intelligence, która odbywa się właśnie w Sztokholmie, Future of Life Insitute zaprezentował dokument, którego sygnatariusze zobowiązali się do nieprowadzenia prac nad śmiercionośnymi autonomicznymi systemami bojowymi. Dokument podpisało ponad 160 organizacji i ponad 2400 osób. Wśród sygnatariuszy znajdziemy m.in. google'owskie DeepMind u jego założyciele czy Elona Muska. DeepMind to twórca algorytmów sztucznej inteligencji, które pokonały człowieka w go.

My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę. Moralnym uzasadnieniem takiego stanowiska jest przekonanie, że decyzja o odebraniu życia nie może zostać podjęta przez maszynę, za którą to decyzję odpowiedzialni będą inni lub nikt. Argument praktyczny zaś brzmi: wprowadzenie do użytku śmiercionośnej, autonomicznej broni, która będzie wybierała cele bez interwencji człowieka, będzie miało destabilizujący efekt zarówno na państwa jak i na poszczególnych ludzi, czytamy w oświadczeniu.

My, niżej podpisani, wzywamy rządy do stworzenia międzynarodowego prawa zabraniającego istnienia autonomicznych systemów bojowych. [...] nie będziemy nigdy uczestniczyli ani wspierali rozwoju, wytwarzania, handlu ani użycia śmiercionośnych autonomicznych systemów bojowych. Wzywamy firmy technologiczne, organizacje, liderów politycznych i społecznych oraz prawodawców i wszystkich innych ludzi do przyłączenia się do nas.

Niezależnie od powyższego apelu 26 państw wezwało do nałożenia światowego zakazu tworzenia śmiercionośnych autonomicznych systemów bojowych. Państwa te to Algieria, Argentyna, Austria, Boliwia, Brazylia, Chile, Chiny, Kolumbia, Kostaryka, Kuba, Dżibuti, Ekwador, Egipt, Ghana, Gwatemala, Watykan, Irak, Meksyk, Nikaragua, Panama, Pakistan, Peru, Palestyna, Uganda, Wenezuela i Zimbabwe.

Wśród instytucji podpisanych pod zobowiązaniem znajdziemy University College London, Europejskie Stowarzyszenie Sztucznej Inteligencji, portugalski Universidade NOVA czy Polskie Stowarzyszenie Sztucznej Inteligencji. Apel podpisało wielu naukowców zajmujących się robotami, informatyką i sztuczną inteligencją. Znajdziemy tam uczonych z Uniwersytetu w Montrealu, Uniwersytetu Nowej Południowej Walii, New York University, MIT, Uniwersytetu Kalifornijskiego, Cornell University i wielu innych szacownych instytycji naukowo-badawczych.


« powrót do artykułu

Share this post


Link to post
Share on other sites
19 godzin temu, wilk napisał:

Nie oni, to kto inny.

Dobrze że chociaż niektórzy nie chcą tego robić.

Share this post


Link to post
Share on other sites
2 godziny temu, Sławko napisał:

Dobrze że chociaż niektórzy nie chcą tego robić.

Tylko widzisz, problem jest taki, jak wspomniałem (albo też ktoś inny) już tutaj kiedyś. Dopóki zajmowałby się tym sektor cywilny, to „ludzie” mieliby jakiś wpływ na to, co powstanie. A tak zajmie się tym budżet wojskowy i czarne supertajne projekty i jedynie zobaczymy przy okazji któregoś konfliktu już gotowe takie autonomiczne roboty, wraz z niewiadomej jakości oprogramowaniem.

To że takie maszyny powstaną to raczej pewne, jak nie Amerykanie, to Rosjanie czy Chińczycy kiedyś zbudują i oni takich skrupułów mieć nie będą. A tak szlak byłby przetarty.

Share this post


Link to post
Share on other sites

Założę się, że o stosowaniu takich systemów dowiemy się, gdy one już będą działały od 20-30 lat. Tylko oficjalnie cały czas będzie, że to niby człowiek podjął decyzję a system tylko wykonał rozkaz.

Kiedy znajdzie się pierwszy, który się do tego przyzna nagle okaże się, że wszyscy z tego korzystali od dawna i nigdy nie stracili przewagi na polu walki.

Share this post


Link to post
Share on other sites
15 godzin temu, wilk napisał:

To że takie maszyny powstaną to raczej pewne, jak nie Amerykanie, to Rosjanie czy Chińczycy kiedyś zbudują i oni takich skrupułów mieć nie będą.

Teoretycznie można by postulować dopisanie autonomicznych systemów bojowych do tych samych porozumień, które zakazują np. produkcji i używania broni chemicznej czy biologicznej. Ja się zastanawiam, czy my chcemy AI czy nie? Bo jak chcemy i uważamy, że AI rozwiąże wszystkie nasze problemy, będzie za nas pracować, a co najważniejsze będzie za nas myśleć :), to zakaz wytwarzania takiej broni znacznie opóźni nadejście tej wielkiej szczęśliwości. 

Share this post


Link to post
Share on other sites
1 godzinę temu, pogo napisał:

Założę się, że o stosowaniu takich systemów dowiemy się, gdy one już będą działały od 20-30 lat.

W kosmitów też wierzysz? :)

Technologie wojskowe bo do tych zapewne się odnosisz mają inne wymagania (na jakość i kompatybilność) i w związku z tym wojskowa technologia jest obecnie opóźniona o jakieś 10 lat (zależy od kraju) względem cywilnej.

W celach wojskowych zasadniczo nie można sobie pozwolić na ładowanie czegoś co jest niesprawdzone.

Edited by thikim

Share this post


Link to post
Share on other sites
4 godziny temu, Jajcenty napisał:

dopisanie autonomicznych systemów bojowych

Tia, tylko czy obejmie to także autonomiczne systemy takie jak Phalanx (okręty), Trophy (czołgi) i inne. ;) Wątpię, by coś takiego dopisali. Obecne obostrzenia dotyczące broni ABC, min, bomb kasetowych, białego fosforu i in. wynikają z masowości lub niehumanitarności zastosowanego środka. Autoboty grozić mogą jedynie błędami w oprogramowaniu lub wysoką skutecznością w zabijaniu. Chociaż… z drugiej strony pamiętamy historię karabinów wyborowych (ale nie pamiętam(y) nazwy…), które po oznaczeniu celu same go śledziły, obliczały trajektorię, kompensację temperatury i wiatru, by w końcu samodzielnie oddać jak najlepszy strzał (zadaniem strzelca było tylko wyrażenie chęci likwidacji celu).

Share this post


Link to post
Share on other sites
W dniu 18.07.2018 o 23:43, KopalniaWiedzy.pl napisał:

My, podpisani poniżej, uznajemy, że decyzja o odebraniu życia człowiekowi nigdy nie powinna być podejmowana przez maszynę

vs.

Cytat

W trosce o byt i przyszłość naszej Ojczyzny,

odzyskawszy w 1989 roku możliwość suwerennego i demokratycznego stanowienia o Jej losie,

my, Naród Polski - wszyscy obywatele Rzeczypospolitej,

zarówno wierzący w Boga

będącego źródłem prawdy, sprawiedliwości, dobra i piękna,

jak i nie podzielający tej wiary,

a te uniwersalne wartości wywodzący z innych źródeł,

równi w prawach i w powinnościach wobec dobra wspólnego - Polski,

wdzięczni naszym przodkom za ich pracę, za walkę o niepodległość okupioną ogromnymi ofiarami, za kulturę zakorzenioną w chrześcijańskim dziedzictwie Narodu i ogólnoludzkich wartościach,

nawiązując do najlepszych tradycji Pierwszej i Drugiej Rzeczypospolitej,

zobowiązani, by przekazać przyszłym pokoleniom wszystko, co cenne z ponad tysiącletniego dorobku,

złączeni więzami wspólnoty z naszymi rodakami rozsianymi po świecie,

świadomi potrzeby współpracy ze wszystkimi krajami dla dobra Rodziny Ludzkiej,

pomni gorzkich doświadczeń z czasów, gdy podstawowe wolności i prawa człowieka były w naszej Ojczyźnie łamane,

pragnąc na zawsze zagwarantować prawa obywatelskie, a działaniu instytucji publicznych zapewnić rzetelność i sprawność,

w poczuciu odpowiedzialności przed Bogiem lub przed własnym sumieniem,

ustanawiamy Konstytucję Rzeczypospolitej Polskiej

jako prawa podstawowe dla państwa

 

Share this post


Link to post
Share on other sites

@thikim

Źle mnie zrozumiałeś. Chodzi mi o to, że takie technologie będą stosowane od 20-30 lat w momencie gdy oficjalnie się o nich dowiemy. Jak powstaną za 50 lat, to dowiemy się o nich za 70-80 itd... 

Share this post


Link to post
Share on other sites
W dniu 20.07.2018 o 12:50, pogo napisał:

Założę się, że o stosowaniu takich systemów dowiemy się, gdy one już będą działały od 20-30 lat.

Ja zmniejszyłbym ten okres (20-30 lat) bo...

W dniu 20.07.2018 o 12:50, pogo napisał:

Kiedy znajdzie się pierwszy, który się do tego przyzna nagle okaże się, że wszyscy z tego korzystali od dawna i nigdy nie stracili przewagi na polu walki.

... się nie przyzna tylko oponenci postarają się pokazać jakiej technologii użył.

Pierwszy będzie kozłem ofiarnym aby reszta, już oficjalnie, mogła pokazać i rozwijać swoje technologie.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Firma Samsung Electronics poinformowała o stworzeniu pierwszego modułu High Bandwidth Memory (HBM) zintegrowanego z modułem obliczeniowym wykorzystującym sztuczną inteligencję – HBM-PIM. Architektura processing-in-memory (PIM) umieszczona wewnątrz wysokowydajnych modułów pamięci ma służyć przede wszystkim przyspieszeniu przetwarzania danych w centrach bazodanowych, systemach HPC (High Performance Computing) oraz aplikacjach mobilnych.
      Nasz HBM-PIM to pierwsze programowalne rozwiązanie PIM przeznaczone dla różnych zastosowań z wykorzystaniem sztucznej inteligencji. Planujemy rozszerzenie współpracy z dostawcami rozwiązań z zakresu sztucznej inteligencji, dzięki czemu będziemy mogli zaproponować coraz bardziej zaawansowane rozwiązania korzystające z PIM, stwierdził wiceprezes Samsunga, Kwangil Park.
      Większość współczesnych systemów komputerowych bazuje na architekturze von Neumanna, zgodnie z którą dane są przechowywane i przetwarzane w osobnych układach. Taka architektura wymaga ciągłego przesyłania informacji pomiędzy układami, przez co – szczególnie w systemach operujących na olbrzymich zestawach danych – powstaje wąskie gardło spowalniające pracę całego systemu komputerowego.
      Architektura HBM-PIM zakłada wykorzystanie modułu przetwarzania danych w miejscu, w którym dane się znajdują. Uzyskano to poprzez umieszczenie wewnątrz każdego modułu pamięci silnika SI zoptymalizowanego pod kątem współpracy z układami DRAM. W ten sposób umożliwiono równoległe przetwarzanie danych i zminimalizowano potrzebę ich przesyłania.
      Samsung informuje, że po połączeniu HBM-PIM z obecnym już na rynku rozwiązaniem HBM2 Aquabolt pozwoliło na dwukrotne zwiększenie wydajności systemu przy jednoczesnym 70-procentowym spadku zapotrzebowania na energię. Koreańczycy podkreślają, że HBM-PIM nie wymaga żadnych zmian sprzętowych ani programowych, zatem łatwo można je zastosować w już istniejących systemach.
      HBM-PIM zapewnia imponujący wzrost wydajności przy jednoczesnym olbrzymim spadku zapotrzebowania na energię w kluczowych rozwiązaniach SI, zatem z zainteresowaniem oczekujemy na możliwość sprawdzenia jego wydajności w rozwiązywaniu problemów nad którymi pracujemy w Argonne, stwierdził Rick Stevens, dyrektor ds. obliczeniowych, środowiskowych i nauk biologicznych w Argonne National Laboratory.
      Szczegóły HBM-PIM zostaną zaprezentowane 22 lutego podczas International Solid-State Circuits Virtual Conference (ISSCC).

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dependowirusy, czyli parwowirusy „stowarzyszone” z adenowirusami (AAV) to bardzo przydatne narzędzia w terapii genowej. Mogą one bowiem przenosić DNA do wnętrza komórki, a ponadto są nieszkodliwe dla człowieka. Dlatego też korzysta się z nich jako z nośnika informacji genetycznej potrzebne do zwalczania chorób.
      Istnieją jednak poważne ograniczenia, które powodują, że w chwili obecnej ich użycie jest mocno limitowane i nie u wszystkich pacjentów można je wykorzystać, zatem nie wszyscy mogą zostać poddani terapii genowej.
      Pierwsze z tych ograniczeń to ograniczana zdolność AAV do przyczepiania się do komórek. Ograniczenie drugie to ludzki układ odpornościowy. Szacuje się, że 50–70% ludzi jest odpornych na zakażenie AAV, gdyż już wcześniej zetknęli się z jakąś formą tego wirusa. W ich przypadku terapie genowe nie zadziałają, gdyż układ odpornościowy zdąży zniszczyć wirusa zanim ten wniknie do komórki, przekazując jej materiał genetyczny potrzebny do prowadzenia terapii. Z tego też powodu jednym z ważniejszych pól badań nad terapiami genowymi są próby oszukania układu odpornościowego.
      Doktor George Church z Uniwersytetu Harvard we współpracy z Google Research i Dyno Therapeutics wykorzystał technikę głębokiego uczenia się do zaprojektowania bardzo zróżnicowanych wariantów kapsydu (płaszcza białkowego) wirusa AAV. Naukowcy skupili się na sekwencjach genomu wirusa, które kodują kluczowy segment protein odgrywający kluczową rolę w infekcji docelowych komórek oraz w rozpoznawaniu wirusa przez układ odpornościowy.
      Specjaliści wykazali, ze dzięki wykorzystaniu sztucznej inteligencji możliwe jest zaprojektowanie olbrzymiej liczby zróżnicowanych kapsydów, które później można poddać testom pod kątem ich zdolności do uniknięcia ataku ze strony układu odpornościowego. Naukowcy wyszli od niewielkiej ilości danych na temat kapsydu, by docelowo uzyskać 200 000 wariantów.
      Nasze badania jasno pokazują, że maszynowe uczenie się pozwala na zaprojektowanie olbrzymiej liczby wariantów, znacznie większej niż istnieje w naturze. Wciąż udoskonalamy naszą technikę, by nie tylko stworzyć nośniki, które poradzą sobie z problemem ataku ze strony układy odpornościowego, ale będą też bardziej efektywnie i selektywnie przyczepiały się do wybranych rodzajów tkanek, mówi doktor Eric Kelsic, dyrektor i współzałożyciel firmy Dyno Therapeutics.
      Z artykułu opublikowanego na łamach Nature dowiadujemy się, że wstępna ocena zaprojektowanych przez sztuczną inteligencję kapsydów wykazała, że niemal 60% może się sprawdzić. To znaczny. postęp. Obecnie do różnicowania kapsydów wykorzystuje się przypadkową mutagenezę, gdzie odsetek przydatnych kapsydów jest mniejszy niż 1%.
      Im bardziej odbiegniemy od naturalnego wyglądu AAV, tym większe prawdopodobieństwo, że układ odpornościowy go nie rozpozna, dodaje doktor Sam Sinai, drugi z założycieli Dyno Therapeutics, który stał na czele zespołu prowadzącego modelowanie komputerowe. Kluczem do odniesienia sukcesu jest jednak wyprodukowanie kapsydu, który w sposób stabilny przeniesie ładunek DNA. Tradycyjne metody uzyskiwania takiego kapsydu są bardzo czaso- i zasobochłonne, a w ich wyniku utrzymujemy bardzo mało przydatnych kapsydów. Tutaj zaś możemy szybko uzyskiwać dużą różnorodność kapsydów AAV, które są bazą do udoskonalanie terapii genowych dostępnych dla większej liczby osób".

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Firma SpaceX przeprowadziła drugi test rakiety Starship, która w przyszłości ma zawieźć astronautów na Marsa. Test Starship SN9 przebiegł podobnie jak przeprowadzona przed 2 miesiącami próba Starship SN8. Wszystko przebiegało zgodnie z planem do czasu lądowania, kiedy to eksplozja zamieniła pojazd w kulę ognia.
      Najnowszy pojazd SpaceX wystartował wczoraj o godzinie 19:25 czasu polskiego. Pięćdziesięciometrowa rakieta sprawowała się jak należy, lot przebiegał prawidłowo, bez zakłóceń przeprowadzono sekwencyjne wyłączenie wszystkich trzech silników Raptor. Starship osiągnął zakładaną wysokość 10 kilometrów i obrócił się na bok tak, jak będzie to miało miejsce podczas jego powrotu w ziemską atmosferę. Niedługo później pojawiły się kłopoty.
      Gdy ponownie odpalono silniki, które miały ustawić pojazd w pozycji pionowej, jeden z silników najprawdopodobniej nie uruchomił się prawidłowo. Starship uderzył w ziemię pod kątem i eksplodował.
      Test zakończył się więc podobnie, jak próba z grudnia, jednak nie można wykluczyć, że tym razem przyczyny rozbicia rakiety były inne.
      Federalna Administracja Lotnicza (FAA), która reguluje starty rakiet, oświadczyła, że będzie nadzorowała śledztwo w sprawie katastrofy. Mimo, że był to testowy lot bezzałogowy, zostanie przeprowadzone śledztwo, którego celem będzie określenie głównej przyczyny problemu oraz wypracowanie przyszłych działań zwiększających bezpieczeństwo całego programu prowadzonego przez firmę, czytamy w oficjalnym komunikacie.
      Warto tutaj przypomnieć, że przed testem doszło do nieporozumień pomiędzy FAA a SpaceX. W ubiegłym tygodniu firma Muska przygotowała Starship SN9 do testu, napełniła zbiorniki i była gotowa do jego przeprowadzenia. Jednak zgoda na wykonanie testu nie nadchodziła. Musk wyraził swoją frustrację na Twitterze, stwierdzając, że coś jest nie tak z zespołem, który ze strony FAA nadzoruje SpaceX. Stosowane przez nich przepisy zostały opracowane na potrzeby prowadzenia kilku testów rocznie, z rządowych stanowisk startowych, za pomocą jednorazowych rakiet. W tym tempie ludzkość nigdy nie poleci na Marsa.
      FAA wydała zgodę na test dopiero w poniedziałek po południu. Niedługo potem dowiedzieliśmy się, skąd wynikała zwłoka. Okazało się, że grudniowy test Starship SN8 był... samowolką SpaceX. Odbył się on bez zgody FAA. SpaceX poprosiła o zgodę na start, mimo że nie wykazała, iż fala ciśnieniowa wywołana ewentualną eksplozją nie będzie groźna dla osób postronnych. W tej sytuacji FAA nie wydała zgody na test, a SpaceX mimo wszystko przeprowadziła test.
      Nawet, gdyby tamten test był w pełni udany, to takie postępowanie oznaczało naruszenie licencji SpaceX. A udany nie był i doszło do eksplozji. FAA zażądała od SpaceX przeprowadzenia śledztwa, w tym przeglądu zasad bezpieczeństwa, procesu podejmowania decyzji oraz dyscypliny tego procesu, dowiadujemy się z oświadczenia FAA. Firmie nakazano również zaprzestanie testów zagrażających ludziom, do czasu, aż nie spełni ona wymagań stawianych przez FAA. Koncern Muska dostosował się do tych żądań, otrzymał więc zgodę na wczorajszy test. FAA uznaje kwestię grudniowego startu za zakończoną i nie będzie wyciągała dalszych konsekwencji.
      Jak widzimy, SpaceX może liczyć na wyjątkową przychylność urzędników. Jared Zambrano-Stout, były pracownik w biurze ds. komercyjnych usług transportu kosmicznego w  FAA mówi, że był zaskoczony oświadczeniem FAA. SpaceX naruszyła warunki licencji i wygląda na to, że nie poniesie żadnych konsekwencji, stwierdził zdumiony. Zambrano-Stout, który jest obecnie jednym z dyrektorów w firmie prawniczej Meeks, Butera and Israel mówi, że nie zna żadnego innego przypadku, by FAA nie udzieliła zgody na start i by jakakolwiek firma przeprowadziła start bez zgody FAA.
      Zadaniem FAA nie jest zapobieganie startom. Wręcz przeciwnie. Ich zadaniem jest umożliwienie przeprowadzania startów, stwierdza. Myślę, że nie znajdziemy przypadku, by FAA przed grudniem ubiegłego roku kiedykolwiek nie zezwoliła SpaceX na zrobienie tego, co firma chciała, dodaje. Stosowane przez FAA zasady mają na celu upewnienie się, że osoby postronne nie zostaną poszkodowane.
      Obecnie firma SpaceX regularnie świadczy usługi wysyłania satelitów na orbitę i dostarczania zaopatrzenia na Międzynarodową Stację Kosmiczną. Przeprowadziła też dwukrotne loty załogowe na zlecenie NASA, a na bieżący rok planowane są kolejne loty.
      Wiele osób sceptycznie podchodzi jednak do zapowiedzi Muska, który twierdzi, że w ciągu najbliższych lat wyśle ludzi na Marsa. Elon Musk znany jest z niedotrzymywania terminów. Można tutaj przypomnieć, że w 2019 rkou twierdził, że już w tym samym roku odbędzie się pierwszy test Starship na dużej wysokości, a pierwsze loty orbitalne będą miały miejsce w na początku roku 2020. Zamiast tego firma zanotowała serię porażek, spowodowanych nieprawidłowym spawaniem.
      SpaceX przygotowała już Starship SN10. Widać ją zresztą na stanowisku startowym na poniższym filmie. Jej test test może odbyć się jeszcze w bieżącym miesiącu.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Google zagroził zbanowaniem całej Australii, a Facebook zapowiada, że usunie ze swojego news feeda treści z australijskich mediów. Wszystko dlatego, że parlament Australii toczy debatę na temat ustawy, zgodnie z którą firmy takie jak Google i Facebook zostałyby zobowiązane do zapłaty autorom za treści, które wykorzystują. Ustawa przewiduje, że jeśli strony nie doszłyby do porozumienia ws. stawek, koncerny internetowe musiałyby płacić stawki określone w ustawie.
      Dyrektor Google Australia, Mel Silva, poinformowała, że ustawa taka stanowiłaby „niebezpieczny precedens”, a sama firma przedstawiła rządowi ultimatum, w którym grozi, że przestanie świadczyć swoje usługi na terenie Australii.
      Prawo do nieograniczonego linkowania pomiędzy witrynami to podstawa działania wyszukiwarki, jeśli nowe przepisy weszłyby w życie działanie wyszukiwarki byłoby związane z olbrzymim ryzykiem finansowym i operacyjnym i nie mielibyśmy innego wyjścia, niż zaprzestanie oferowania usług Google Search na terenie Australii, stwierdziła Silva podczas przesłuchań przed Senatem. Dodała przy tym, że firma jest skłonna do płacenia mediom za tworzone przez nich treści i podała przykład około 450 tego typu umów, jakie Google podpisało z firmami na całym świecie.
      Premier Australii Scott Morrison oświadczył, ze jego rząd nie będzie reagował na groźby. Niech wszystko będzie jasne. To Australia określa, co można robić na terenie Australii. Takie decyzje są podejmowane przez nasz parlament i przez nasz rząd. Tak to działa w Australii. Ci, którzy się z tym zgadzają, są przez nas chętnie widziani.
      Najlepszym dowodem na to, że sprawy zaszły za daleko jest fakt, że prywatna firma, korzystając ze swojej monopolistycznej decyzji, próbuje zastraszać suwerenne państwo, mówi Chris Cooper, dyrektor organizacji Reset Australia, która stara się o uregulowanie działalności koncernów technologicznych.
      Z kolei przedstawiciele australijskiego Facebooka stwierdzili, że jeśli nowe przepisy zostaną uchwalone, to nie tylko media, ale również zwykli Australijczycy nie będą mogli umieszczać w news feedzie odnośników do australijskich mediów. Josh Machin, dyrektor ds. polityki w Facebook Australia powiedział podczas przesłuchania przed parlamentem, że w feedzie przeciętnego użytkownika informacje z mediów stanowią jedynie 5% treści i Facebook nie odnosi z nich zbyt dużych korzyści finansowych.
      Słowa te skomentował Dan Stinton dyrektor australijskiej wersji Guardiana, który stwierdził, że informacje prasowe angażują użytkowników Facebooka, powodują, że ci dłużej w serwisie pozostają, klikają, więc dziwić mogą słowa Machina twierdzącego, że nie przynosi to serwisowi korzyści materialnych.
      Niezależny senator Rex Patrick porównał odpowiedź Google'a z reakcją Chin, które zagroziły Australii wojną handlową, gdyby australijskie władze prowadziły śledztwo ws. wybuchu pandemii COVID-19. Wy nie usiłujecie chronić praw użytkowników do wyszukiwania. Wy usiłujecie chronić swoje konto bankowe, stwierdził Patrick.
      Przeciwnicy narzucenia regulacji twierdzą, że bronią wolnego internetu. Jednak Dan Stinton zwraca uwagę, że wolny internet, o którym mówią, przestał istnieć wiele lat temu i obecnie jest zdominowany przez kilka wielkich amerykańskich korporacji. Sinton dodaje, że z Facebooka korzysta 17 milionów Australijczyków, a z Google'a – 19 milionów. O tym, co Australijczycy robią w internecie decydują algorytmy tych firm, stwierdza Stinton. Smaczku całemu sporowi dodaje fakt, że przedstawiciele Google'a przyznali, iż w ramach eksperymentu celowo ukrywali w wyszukiwarce pewne treści. Zapewnili jednak, że to nie problem, gdyż były one ukrywane przed 1% australijskiej populacji.
      Nowa ustawa trafiła do parlamentu po 18-miesięcznym przeglądzie dokonanym przez Australijską Komisję ds. Konkurencji i Konsumentów. Urząd stwierdził, że monopolistyczna pozycja gigantów IT, jaką ci mają w stosunku do mediów, jest groźna dla demokracji.
      W spór włączył się rząd USA. Jego przedstawiciele wyrazili zaniepokojenie próbą regulowania na drodze ustawowej pozycji graczy rynkowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Firma DeepMind, której system sztucznej inteligencji zdobył rozgłos pokonując mistrza Go, a niedawno zapowiedział rewolucję na polu nauk biologicznych, poszła o krok dalej. Stworzyła system MuZero, który uczy się zasad gry od podstaw, bez żadnych informacji wstępnych. Celem DeepMind jest spowodowanie, by MuZero uczył się tak, jak robi to dziecko, metodą prób i błędów.
      MuZero rozpoczyna naukę reguł gry od spróbowania jakiegoś działania. Później próbuje czegoś innego. Jednocześnie sprawdza, czy jego działanie jest dozwolone i jaki jest jego skutek. Do dalszej pracy wybiera te z działań, które przynoszą najlepszy rezultat. W szachach będzie to doprowadzenie do szach-mata, w Pac-Manie zaś połknięcie kropki. Następnie algorytm tak zmienia swoje działania by pożądane rezultaty osiągnąć najniższym kosztem. Taki sposób nauki, poprzez obserwację, jest idealną metodą w przypadku SI. Chcemy bowiem zadać sztucznej inteligencji pytania i poprosić o rozwiązywanie problemów, których nie można łatwo zdefiniować. Ponadto w świecie rzeczywistym, gdzie nie obowiązują stałe i jasne reguły gry, SI co chwila będzie napotykała na przeszkody, z którymi musi sobie poradzić.
      Obecnie MuZero uczy się kompresji wideo. W przypadku AlphaZero nauczenie się tego zadania byłoby bardzo kosztowne, mówią autorzy algorytmu. Już teraz zastanawiają się nad wdrożeniem MuZero do nauczenia się jazdy samochodem. Myślą też o zaprzęgnięciu algorytmu do projektowania białek. Przypomnijmy, że siostrzany algorytm AlphaFold udowodnił ostatnio, że świetnie sobie radzi z zawijaniem białek. MuZero mógłby zaś projektować białka od podstaw. Dzięki temu, mając do dyspozycji np. szczegółową wiedzę o wirusie czy bakterii, którą białko ma niszczyć, byłby w stanie zaprojektować nowe lekarstwa.
      MuZero, dzięki jednoczesnemu uczeniu się reguł gry i udoskonalaniu swoich działań pracuje znacznie bardziej ekonomicznie, niż jego poprzednicy stworzeni przez DeepMind. Radzi sobie świetnie nawet wówczas, gdy twórcy celowo ograniczą jego możliwości. Podczas nauki zasad Pac-Mana, gdy na każdy rozważany ruch MuZero mógł przeprowadzić nie więcej niż 7 symulacji skutków swoich działań – co jest liczbą zdecydowanie zbyt małą, by rozważyć wszystkie opcje – algorytm i tak całkiem dobrze sobie poradził.
      Twórcy MuZero mówią, że taki system potrzebuje sporych mocy obliczeniowych, by nauczyć się zasad. Gdy jednak już je pozna, podejmowanie kolejnych decyzji wymaga już tak niewielu obliczeń, że całe działania mogą być przeprowadzone na smartfonie. Jednak nawet nauka nie jest bardzo wymagająca. MuZero nauczył się od podstaw zasad Pac-Mana w ciągu 2-3 tygodni, korzystając przy tym z jednego GPU, mówi Julian Schrittwieser, jeden ze współautorów algorytmu.
      Jednym z elementów powodujących, że wymagania MuZero są nieduże w porównaniu z innymi systemami jest fakt, iż algorytm bierze pod uwagę tylko elementy istotne w procesie podejmowania decyzji. Wiedza, że parasol ochroni cię przed deszczem jest bardziej użyteczna, niż umiejętność modelowania ruchu kropel wody w powietrzu, czytamy w oświadczeniu DeepMind.
      Celem twórców MuZero jest spowodowanie, by ich system potrafił odrzucić wszystko to, co w danym momencie nie jest potrzebne, by skupił się na kwestiach istotnych. Mówią tutaj o dziecku, które po zaledwie kilkukrotnym doświadczeniu jest w stanie generalizować wiedzę na dany temat i połączyć np. kroplę wody z potężnym wodospadem, widząc powiązanie pomiędzy nimi.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...