Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Pracownicy Google'a krytykują umowę z Pentagonem

Recommended Posts

Na początku swojej działalności Google przyjęło znane motto „Don't be evil”. Jak przyznaje jego pomysłodawca, motto miało być m.in. formą przytyku do konkurencji, która, w Google'a, źle traktowała swoich użytkowników. Niektórzy z pracowników koncernu najwyraźniej wzięła sobie hasło o nieczynieniu zła do serca i zrezygnowali w proteście przeciwko podpisaniu przez Google'a umowy z Pentagonem. Z pracy w Google'u zrezygnowało około 10 osób, które chciały w ten sposób zaprotestować przeciwko wsparciu przez wyszukiwarkowego giganta programu pilotażowego o nazwie Project Maven. To program, który zakłada wykorzystanie sztucznej inteligencji na polu walki.

W ramach umowy pomiędzy Google'em a Pentagonem koncern opracuje technologie przyspieszające automatyczną interpretację obrazów z dronów. Mają być one sprawniej klasyfikowane jako ludzie i inne obiekty. Osoby, które zrezygnowały w związku z tym z pracy mówią, że podpisanie takiego kontraktu oznacza naruszenie zasad etycznych firmy.

Z pracy zrezygnowało niewiele osób, ale ponad 4000 pracowników Google'a podpisało petycję, w której sprzeciwiają się udziałowi Google'a w projektach Pentagonu, chcąc wypowiedzenia wspomnianej umowy i domagają się wprowadzenia zasad wprost zabraniających firmie udziału w przyszłych projektach wojskowych.

Osoby, które zrezygnowały z pracy skarżą sie, że kierownictwo firmy w ostatnich czasach prowadzi mniej przejrzystą politykę i mniej słucha sugestii pracowników. W pewnym momencie zdałem sobie sprawę, że wiedząc to, co wiem, nie mogę z czystym sumieniem polecić komuś pracy w Google'u. Stwierdziłem też, że skoro nie mógłbym nikomu polecić pracy tutaj, to co sam tutaj robię?, mówi jeden z byłych już pracowników.

Pracownicy nie są jedynymi zaniepokojonymi zaangażowaniem Google'a w projekty militarne. International Committee for Robot Arms Control wystosował list otwarty, w którym wzywa Google'a do wycofania się z prac nad Project Maven i do wsparcia projektu międzynarodowego traktatu zakazującego rozwijania autonomicznych systemów bojowych. Zdaniem tej organizacji zaangażowanie Google'a przyspieszy rozwój w pełni autonomicznej broni. Jesteśmy też głęboko zaniepokojeni możliwym zintegrowaniem posiadanym przez Google'a danych na temat internautów z wywiadowczymi danymi wojskowymi i z wykorzystaniem tak połączonych informacji do zabijania konkretnych osób, czytamy w apelu.

Zaangażowanie się Google'a w amerykańskie projekty wojskowe każe też zadać sobie pytanie o posiadane przezeń dane dotyczące użytkowników w innych krajach. Jeśli zostaną one użyte w celach wojskowych, to z pewnością ucierpi na tym zaufanie do Google'a.

Musiałem sobie przypomnieć, że decyzje Google'a nie są moimi decyzjami. Nie odpowiadam za to, co oni robią. Jednak czuję się odpowiedzialny, gdy pomagam w czymś, z czym się nie zgadzam, mówi jeden z pracowników, którzy zrezygnowali z pracy w Google'u.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Google podsumowało jedną z najbardziej długotrwałych wojen, jaką stoczyło ze szkodliwym oprogramowaniem. W ciągu ostatnich trzech lat firma usunęła ponad 1700 aplikacji zarażonych różnymi odmianami szkodliwego kodu o nazwie Bread (Joker).
      Jego twórcy byli wyjątkowo uparci. Zwykle autorzy szkodliwego kodu przestają go wgrywać do Play Store gdy tylko zostanie on wykryty przez Google'a. Przestępcy stojący za Bread'em nie poddali się tak łatwo. Działali przez ponad trzy lata i co tydzień przygotowywali nową wersję szkodliwego kodu.
      Przez te trzy lata stosowali tę samą technikę – wprowadzali w kodzie serię niewielkich zmian, licząc na to, że uda się oszukać stosowane przez Google'a mechanizmy obronne. Zwykle się nie udawało, ale czasami przestępcy odnosili sukces. Na przykład we wrześniu ubiegłego roku ekspert ds. bezpieczeństwa, Aleksejs Kurpins znalazł w Play Store 24 różne aplikacje zarażone Jokerem. W październiku inny ekspert znalazł kolejną aplikację, a kilka dni później Trend Micro poinformował o odkryciu kolejnych 29 kolejnych zarażonych programów. Później znajdowano kolejne, w tym arkusze kalkulacyjne Google Docs.
      Jednak w większości wypadków mechanizmy Google'a działały dobrze i zablokowały ponad 1700 aplikacji, które miały zostać umieszczone w Play Store. Jak dowiadujemy się z wpisu na oficjalnym blogu, w pewnym momencie hakerzy użyli niemal każdej znanej techniki, by ukryć kod. Zwykle przestępcy posługiwali się jednorazowo 3–4 wariantami szkodliwego kodu. Jednak pewnego dnia próbowali wgrać aplikacja zarażone w sumie 23 odmianami kodu.
      Najbardziej skuteczną techniką zastosowaną przez twórców szkodliwego kodu było wgranie najpierw czystej aplikacji do Play Store, a następnie rozbudowywanie jej za pomocą aktualizacji zawierających już szkodliwy kod. Przestępcy nie ograniczali się jedynie do tego. Umieszczali na YouTube filmy z recenzjami, które miały zachęcić internautów do instalowania szkodliwych aplikacji.
      Jak informuje Google, twórcy Breada działali dla korzyści finansowych. Pierwsze wersje ich szkodliwego kodu miały za zadanie wysyłać SMS-y premium, z których przestępcy czerpali korzyści. Gdy Google zaostrzył reguły dotyczące korzystania przez androidowe aplikacje z SMS-ów, przestępcy przerzucili się na WAP fraud. Telefon ofiary łączył się za pomocą protokołu WAP i dokonywał opłat, którymi obciążany był rachunek telefoniczny. Ten typ ataku był popularny na na przełomie pierwszego i drugiego dziesięciolecia bieżącego wieku. Później praktycznie przestał być stosowany. Nagle, w roku 2017, wystąpił prawdziwy wysyp szkodliwego kodu, który znowu korzystał z tej techniki. Jak twierdzi Google, twórcy Breada byli najbardziej upartą i wytrwałą grupą przestępczą, która używała WAP fraud.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Marcin Sieniek, Scott Mayer McKinney, Shravya Shetty i inni badacze z Google Health opublikowali na łamach Nature artykuł, w którym dowodzą, że opracowany przez nich algorytm sztucznej inteligencji lepiej wykrywa raka piersi niż lekarze.
      Nowotwory piersi, pomimo szeroko zakrojonych programów badań, wciąż pozostają drugą głównych przyczyn zgonów na nowotwory wśród kobiet. Każdego roku na całym świecie wykonuje się dziesiątki milionów badań obrazowych, ale problemem wciąż pozostaje zbyt wysoki odsetek diagnoz fałszywych pozytywnych i fałszywych negatywnych. To z jednej strony naraża zdrowe osoby na stres i szkodliwe leczenie, a z drugiej – w przypadku osób chorych – opóźnia podjęcie leczenia, co często niesie ze sobą tragiczne skutki.
      Umiejętności lekarzy w zakresie interpretacji badań obrazowych znacznie się od siebie różnią i nawet w wiodących ośrodkach medycznych istnieje spore pole do poprawy. Z problemem tym mogłyby poradzić sobie algorytmy sztucznej inteligencji, które już wcześniej wielokrotnie wykazywały swoją przewagę nad lekarzami.
      Wspomniany algorytm wykorzystuje techniki głębokiego uczenia się. Najpierw go trenowano, a następnie poddano testom na nowym zestawie danych, których nie wykorzystywano podczas treningu.
      W testach wykorzystano dane dotyczące dwóch grup pacjentek. Jedna z nich to mieszkanki Wielkiej Brytanii, które w latach 2012–2015 poddały się badaniom mammograficznym w jednym z dwóch centrów medycznych. Kobiety co trzy lata przechodziły badania mammograficzne. Do badań wylosowano 10% z nich. Naukowcy mieli więc tutaj do dyspozycji dane o 25 856 pacjentkach. Było wśród nich 785, które poddano biopsji i 414 u których zdiagnozowano nowotwór w ciągu 39 miesięcy od pierwszego badania.
      Drugą grupę stanowiło 3097 Amerykanek będących w latach 2001–2018 pacjentkami jednego z akademickich centrów medycznych. U 1511 z nich wykonano biopsje, a u 686 zdiagnozowano nowotwór w ciągu 27 miesięcy od badania.
      Losy wszystkich kobiet były śledzone przez wiele lat, zatem wiadomo było, które z pań ostatecznie zachorowały.
      Zadaniem sztucznej inteligencji było postawienie diagnoz na podstawie mammografii. Następnie wyniki uzyskane przez SI porównano z diagnozami lekarskimi. Okazało się, że sztuczna inteligencja radziła sobie znacznie lepiej. Liczba fałszywych pozytywnych diagnoz postawionych przez SI była o 5,7% niższa dla pacjentek z USA i o 1,2% niższa u pacjentek z Wielkiej Brytanii. SI postawiła też mniej fałszywych negatywnych diagnoz. Dla USA było to 9,4% mniej, a dla Wielkiej Brytanii – 2,7% mniej. Wyniki uzyskane przez sztuczną inteligencję były o tyle bardziej imponujące, że algorytm diagnozował wyłącznie na podstawie badań mammograficznych, podczas gdy lekarze mieli też do dyspozycji historię pacjenta.
      Teraz autorzy algorytmu będą próbowali wykorzystać go podczas badań klinicznych. Ich celem jest spowodowanie, by algorytm sztucznej inteligencji został dopuszczony do użycia w medycynie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Francuski urząd ds. konkurencji nałożył na Google'a grzywnę w wysokości 150 milionów euro. Koncern został ukarany za zachowania antykonkurencyjne oraz niejasne zasady Google Ads.
      Google naruszył swoją dominującą pozycję na rynku reklamy w wyszukiwarkach poprzez niejasne i trudne do zrozumienia zasady korzystania z platformy Google Ads oraz zastosowanie ich w sposób nieuczciwy i przypadkowy, stwierdzili urzędnicy. Na amerykańską firmę nałożono obowiązek wyjaśnienia zasad działania Google Ads i właściwego uzyskania zgody użytkowników na prezentowanie im spersonalizowanych reklam. Firma ma również przedstawić jasne procedury zawieszania kont oraz opracować procedury informowania, zapobiegania, wykrywania i postępowania w razie wykrycia naruszenia regulaminu Google Ads.
      Przedstawiciele koncernu zapowiedzieli, że odwołają się od decyzji.
      Wiele europejskich krajów bacznie przygląda się działalności amerykańskich gigantów IT. Firmy takie jak Google, Facebook, Apple czy Amazon są wielokrotnie krytykowane za płacenie zbyt niskich podatków. Nie dalej jak we wrześniu bieżącego roku Google porozumiał się z władzami Francji i zgodził się zapłacić niemal miliard euro grzywny w ramach ugody w sprawie do oszustwa podatkowe. Z kolei w styczniu bieżącego roku francuski urząd odpowiedzialny za ochronę danych ukarał koncern grzywną w wysokości 50 milionów euro za naruszenie europejskich przepisów dotyczących prywatności.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Południowokoreański mistrz Go Lee Sedol, który zdobył ogólnoświatowy rozgłos w 2016 roku po słynnym meczu ze sztuczną inteligencją, odszedł na emeryturę. Przypomnijmy, że w 2016 roku sztuczna inteligencja o nazwie AlphaGo pokonała Lee Sedola stosunkiem 4:1. Wcześniej program rozgromił innych graczy w Go, a Sedol był jedynym, któremu udało się z nim wygrać partię.
      Sedol, który wkrótce skończy 37 lat, oświadczył, że rezygnuje z profesjonalnej kariery w Go, gdyż w związku z olbrzymimi postępami sztucznej inteligencji, nie może być czołowym graczem, nawet gdyby był najlepszym z ludzi. "Nawet gdybył był numerem jeden, to będzie ktoś, kogoś nie będę w stanie pokonać", powiedział Sedol w wywiadzie dla agencji prasowej Yonhap.
      Lee Sedol pozostaje jedynym człowiekiem, któremu udało się pokonać AlphaGo. Mistrz uważa, że wygrał dzięki błędowi w oprogramowaniu AlphaGo. Podczas meczu, który odbył się 13 marca 2016 roku grający białymi Lee wykonał nietypowy 78. ruch. Wprawił on AlphaGo w zakłopotanie i system wykonał bardzo słaby ruch 79., który niespodziewanie dał Sedolowi przewagę. Ten jej nie zmarnował i po jakimś czasie AlphaGo poddał partię.
      Specjaliści uznają ruch 78. za „błyskotliwy, boski”, jednak sam Sedol twierdzi, że wygrał partię, gdyż AlphaGo nie potrafił prawidłowo zareagować na jego nietypowe zagrania. Mój ruch 78. nie był zagraniem, na który należało reagować bezpośrednio. Takie błędy zdarzają się w programie Fine Art (to chiński program komputerowy do gry w Go). Fine Art jest trudny do pokonania, nawet jeśli ma handicap 2 kamieni. Jeśli jednak przegrywa, to w bardzo dziwaczny sposób. To błąd w oprogramowaniu, wyjaśnia Sedol.
      Mistrz przyznaje, że był sfrustrowany po pierwszych trzech przegranych partiach. Rzadko czytam w internecie informacje na swój temat. Byłem jednak ciekaw, jak bardzo źle ludzie mówią o mnie po tym, jak przegrałem trzy pierwsze partie. Z zaskoczeniem zauważyłem, że niewiele osób mnie krytykowało. Szczerze mówiąc, już przed rozpoczęciem meczu czułem, że mogę przegrać. Ludzie z DeepMind Technologies byli od samego początku bardzo pewni swego, przyznaje.
      Co ciekawe, jeszcze w grudniu Lee planuje zmierzyć się z kolejnym systemem sztucznej inteligencji grającym w Go. Program HanDol, opracowany w 2018 roku przez firmę NHN Entertainment Corp. już wygrał z 5 czołowymi graczami z Korei Południowej.
      Nadchodzący mecz Lee Sedol rozpocznie z przewagą dwóch kamieni, które zostaną ustawione na planszy przed rozpoczęciem gry. Kolejne handikapy będą ustalane w zależności od wyniku pierwszej partii. Sądzę, że nawet z przewagą dwóch kamieni przegram z HanDolem. Ostatnio nie czytuję informacji ze świata Go. Chcę w spokoju przygotować się go rozgrywki i zrobię co w mojej mocy, stwierdza Sedol.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowy bot wyposażony w sztuczną inteligencję wygrywa z ludźmi w grze, w której role i motywacje poszczególnych graczy są trzymane w tajemnicy, należy więc się ich domyślić.
      Słyszeliśmy już o wielu systemach sztucznej inteligencji, które są w stanie pokonać ludzi. Komputery od dawna radzą sobie z nami w szachach, przed trzema laty program AlphaGo pokonał profesjonalnych graczy w go, a niedawno informowaliśmy o oprogramowaniu, które wygrywa z ludźmi w wieloosobowym pokerze. Są również algorytmy biorące udział w rozgrywkach zespół kontra zespół. Jednak we wszystkich wspomnianych rodzajach gier od początku wiadomo, kto jest przeciwnikiem, a kto sojusznikiem.
      W przyszłym miesiącu podczas Conference on Neutral Information Processing Systems naukowcy z MIT zaprezentują DeepRole, pierwszego wygrywającego wieloosobowe gry, w których początkowo nie wiadomo, kto jest przeciwnikiem, a kto sojusznikiem. System wyposażono w mechanizmy, które na podstawie częściowych danych obserwacyjnych pozwalają ocenić, jaką rolę odgrywają poszczególni gracze. Następnie program gra tak, by jego drużyna odniosła zwycięstwo.
      DeepRole zmierzył się z ludźmi w online'owej wersji gry „The Resistance: Avalon”. To rozgrywka pomiędzy dwoma grupami: członkami ruchu oporu i rządowymi szpiegami. Gracze muszą domyślić się, kto do jakiej drużyny należy, a jednocześnie starać się ukryć swoje rolę przed innymi. DeepRole rozegrał ponad 4000 rund i bezsprzecznie wykazał swoją wyższość nad ludzkimi graczami. Jeśli zastąpisz człowieka botem, to twój zespół będzie częściej wygrywał. Boty są lepszymi partnerami, mówi główny autor algorytmu, Jack Serrino.
      Prace nad DeepRole to część większego projektu, w ramach którego modelowany jest sposób podejmowania decyzji przez ludzi. Ma to pomóc w stworzeniu robotów, które lepiej będą rozumiały ludzi i z nimi współpracowały.
      Ludzie uczą się i współpracują z innymi. To pozwala nam osiągać cele, których nie możemy osiągnąć w pojedynkę. Gry takie jak „Avalon” dobrze oddają dynamikę codziennych ludzkich interakcji. Niezależnie od tego, czy jesteśmy pierwszy dzień w przedszkolu czy w nowej pracy, określamy, kto jest z nami i z kim będziemy współpracowali, mówi inny z autorów, Max Kleiman-Weiner.
      DeepRole wykorzystuje algorytm o nazwie „counterfactual regret minimization” (CFR), którego uczy się wielokrotnie grając przeciwko samemu sobie. W każdym momencie rozgrywki CFR tworzy drzewo decyzyjne, opisujące potencjalne ruchy każdego z graczy. Na jego podstawie algorytm uczy się, które działania zwiększają, a które zmniejszają szanse na wygraną. W końcu opracowuje optymalną strategię, która w najgorszym przypadku pozwala mu zremisować.
      CFR dobrze sprawdza się w takich grach jak poker, gdzie działania każdego z graczy są widoczne. Jednak w „The Resistance” nie zawsze wiemy, kto jaką rolę odgrywa i jaką decyzję podejmuje. Dlatego też bot musi brać pod uwagę większą liczbę możliwości podczas tworzenia drzewa decyzyjnego dla każdego graczy. Gdy w czasie rozgrywki gracz podejmie wystarczająco dużo działań niezgodnych z założonym przez DeepRole drzewem decyzyjnym, algorytm uznaje, że pomylił się co do przynależności gracza i uznaje, że ten odgrywa inną rolę. Po pewnym czasie potrafi z dużym prawdopodobieństwem określić rolę każdego z graczy i dostosować do tego swoje zachowanie, by zwiększyć szanse swojej drużyny. Na przykład jeśli misja dwuosobowa się nie uda, inni gracze wiedzą, że jeden z jej uczestników jest szpiegiem. Wówczas bot, gdy przyjdzie jego kolej na podjęcie decyzji, najprawdopodobniej nie zaproponuje tych osób do kolejnej misji, obawiając się, że jedna z nich będzie jej szkodziła, wyjaśniają twórcy programu.
      Co interesujące, bot jest w stanie pokonać ludzi nawet się z nimi nie komunikując. Komunikacja pomiędzy graczami to ważny element rozgrywki, a w online'owej wersji „Avalona” zaimplementowano czat umożliwiający taką komunikację. DeepRole radzi sobie i bez tego. Jednak w najbliższym czasie jego twórcy chcą go wyposażyć w bardzo proste możliwości komunikacyjne, jak określenie, który z graczy jest po dobrej, a który po złej stronie. Być może w przyszłości boty wykorzystujące sztuczną inteligencję będą radziły sobie w grach, wymagających zaawansowanych umiejętności komunikacyjnych, takich jak gra „Werewolf”.
      Język to kolejna granica. Jednak tutaj trzeba pokonać wiele barier, stwierdzają autorzy bota.

      « powrót do artykułu
×
×
  • Create New...