Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Naukowcy z teksańskiego Instytutu Badań nad Grupami Zbrojnymi (Institute for the Study of Violent Groups - ISVG), opracowali program komputerowy, którego zadaniem jest analiza doniesień prasowych i odgadywanie, jaka grupa stoi za konkretnym atakiem czy zamachem terrorystycznym.

Oprogramowanie napisano w języku Python. Analizuje ono doniesienia i wychwytuje takie informacje, jak np. użyta broń, rodzaj celu, taktyka ataku. Na tej podstawie stara się określić, jaka grupa jest odpowiedzialna za zamach.

Prace nad oprogramowaniem, wykorzystującym techniki sztucznej inteligencji, trwały przez 18 miesięcy, i brali w nich udział naukowcy z Rice University. Program korzysta z olbrzymiej bazy danych, w której specjaliści z ISVG na bieżąco umieszczają wszelkie informacje o działających grupach zbrojnych.

Pierwszy prawdziwy test program przeszedł niedawno, analizując dane dotyczące ataku na hotele w Bombaju.

Natychmiast po atakach specjaliści wprowadzili do komputerów kilka informacji. Oprogramowanie poznało więc używaną broń (karabiny maszynowe, granaty, materiały wybuchowe), cel (miejsca publiczne) oraz taktykę (bezpośredni atak, ostrzał, zasadzka). Co ciekawe, programu nie poinformowano, gdzie nastąpił atak. Na podstawie dostępnych informacji stwierdził on, że za zamachem mogą stać następujące organizacje: Al-Kaida, Tygrysy-Wyzwoliciele Tamilskiego Eelamu (Sri Lanka), Hamas (Palestyna), partyzantka czeczeńska lub Zjednoczony Front Wyzwolenia Assamu (Indie). Odpowiedź była więc oczywista i, jak pokazała przyszłość, w stu procentach prawdziwa.

Share this post


Link to post
Share on other sites

Oby nie okazało się, że CIA zacznie stosować tę metodę jako "złoty środek", a grupy zaczną się pod siebie wzajemnie podszywać... ::) Chociaż przyznać trzeba, że koncepcja tej technologii brzmi bardzo ciekawie.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Specjaliści z google'owskiego Project Zero poinformowali o znalezieniu licznych złośliwych witryn, które atakują użytkowników iPhone'ów wykorzystując w tym celu nieznane wcześniej dziury. Wiadomo, że witryny te działają od co najmniej 2 lat i każdego tygodnia są odwiedzane tysiące razy. Wystarczy wizyta na takiej witrynie, by doszło do ataku i instalacji oprogramowania szpiegującego, stwierdzają specjaliści.
      Przeprowadzona analiza wykazała, że ataki przeprowadzane są na 5 różnych sposobów, a przestępcy wykorzystują 12 różnych dziur, z czego 7 znajduje się w przeglądarce Safari. Każdy z ataków pozwala na uzyskanie uprawnień roota na iPhone, dzięki czemu może np. niezauważenie zainstalować dowolne oprogramowanie. Przedstawiciele Google'a zauważyli, że ataki służyły głównie do kradzieży zdjęć i informacji, śledzenia lokalizacji urządzenia oraz kradzież haseł do banku. Wykorzystywane przez przestępców błędy występują w iOS od 10 do 12.
      Google poinformowało Apple'a o problemie już w lutym. Firmie z Cupertino dano jedynie tydzień na poprawienie błędów. Tak krótki czas – zwykle odkrywcy dziur dają twórcom oprogramowania 90 dni na przygotowanie poprawek – pokazuje jak poważne były to błędy. Apple zdążyło i sześć dni później udostępniło iOS 12.1.4 dla iPhone'a 5S oraz iPad Air.
      AKTUALIZACJA:
      Z medialnych doniesień wynika, że za atakiem stoją chińskie władze, a ich celem była głównie mniejszość ujgurska. W ramach tej samej kampanii atakowano też urządzenia z systemem Android i Windows, jednak przedstawiciele Project Zero poinformowali jedynie o atakach na iOS-a. Google nie odniósł się do najnowszych rewelacji. Microsoft oświadczył, że bada doniesienia o ewentualnych dziurach.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W grudniu ubiegłego roku Stany Zjednoczone oficjalnie ujawniły, że wpadły na trop dużej operacji hakerskiej prowadzonej przez rząd Chin. Celem operacji była kradzież własności intelektualnej zachodnich przedsiębiorstw. Amerykańskie władze nie zdradziły nazw zaatakowanych firm, ale dziennikarze dowiedzieli się, że chodziło m.in. o IBM- i Hewlett Packarda.
      Teraz reporterzy Reutersa odkryli, że co najmniej sześć innych firm również padło ofiarą hakerów pracujących dla chińskiego rządu. Są to Fujitsu, Tata Consultancy Services, NTT Data, Dimension Data, Computer Sciences Corporation i DXC Technology. Okazało się również, że wśród ofiar hakerów są też klienci wcześniej wymienionych firm, a wśród nich szwedzki Ericsson, system rezerwacji podróży Sabre czy amerykańska stocznia Huntington Ingalls Industries, która buduje okręty na zlecenie US Navy.
      Większość z wymienionych powyżej przedsiębiorstw albo odmawia komentarza, albo zapewnia, że jej infrastruktura jest dobrze zabezpieczona. Przedstawiciele Sabre poinformowali, że w 2015 roku doszło do incydentu z zakresu cyberbezpieczeństwa, ale żadne dane podróżnych nie zostały ukradzione. Z kolei rzecznik prasowa Huntington Ingalls stwierdziła, że jej firma jest pewna, iż nie utraciła żadnych danych za pośrednictwem HPE czy DXC.
      Rząd w Pekinie oczywiście również wszystkiemu zaprzecza. Rząd Chin nigdy w żaden sposób nie brał udziału, ani nie wspierał żadnej osoby parającej się kradzieżą tajemnic handlowych, oświadczyło chińskie MSZ.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja, jako system samouczący się i samodzielnie podejmujący decyzje, nie mieści się w ramach dotychczasowych, obowiązujących w Polsce, zasad prawnych. Należy podjąć w tej kwestii pilne kroki - przekonuje prawnik, prof. Marek Świerczyński.
      W ocenie ekspertów komputery nadal działają wolniej niż ludzki mózg. Natomiast w ostatnich latach prace nad zaawansowanymi systemami sztucznej inteligencji (AI) przyspieszyły w zaskakującym tempie. Tworzone przez ekspertów algorytmy powodują, że systemy te są w stanie same się uczyć i wcielać w życie czasem trudne do przewidzenia decyzje. Niesie to wyzwania związane z prawem.
      Obowiązujące przepisy zostały stworzone z myślą o człowieku. Jednak algorytmy sztucznej inteligencji stały się już zdolne, na przykład, do samodzielnego zawierania umów - opowiada w rozmowie z PAP prawnik i konsultant Rady Europy w dziedzinie nowych technologii, prof. Marek Świerczyński z Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie.
      Ekspert twierdzi, że systemy AI są w stanie wyrządzić szkody. Ponadto sztuczna inteligencja zaczęła tworzyć dobra intelektualne. To wszystko rodzi konsekwencje natury prawnej.
      Stąd pojawiły się postulaty przyznania AI podmiotowości prawnej, uznania jej za tzw. elektroniczną osobę prawną - opowiada. Czy taki kierunek jest słuszny? Czy to sama AI powinna brać odpowiedzialność za swoje czyny i decyzje?
      Zasadniczym wyzwaniem prawnym jest dookreślenie podmiotu odpowiedzialnego. Użytkownik, wytwórca systemu AI, producent oprogramowania, osoba wprowadzająca dany system AI do obrotu – to podmioty, które mogłyby ponieść odpowiedzialność. Próby przypisania odpowiedzialności samej AI nie wydają się być jednak prawnie racjonalne i efektywne - mówi prof. Świerczyński. I dodaje, że taki kierunek prawodawstwa należy interpretować, jako próbę uniknięcia odpowiedzialności przez twórców AI.
      W ocenie prof. Świerczyńskiego Polska nie jest przygotowana pod względem prawnym do coraz bardziej zaawansowanych systemów AI. Przepisy już teraz wymagają dostosowania. AI jako system samouczący się i samodzielnie podejmujący decyzje mające określone konsekwencje prawne nie mieści się w ramach dotychczasowych zasad prawnych, dotyczących umów czy odpowiedzialności odszkodowawczej - uważa prawnik. I dodaje, że brak dostosowania prawa będzie prowadzić do pogorszenia sytuacji osób poszkodowanych przez działania AI.
      Kluczowe jest - według eksperta - prowadzenie działań legislacyjnych od razu w wymiarze międzynarodowym, tak aby przepisy prawne były spójne ze sobą w różnych krajach.
      Dlatego ważne są prace dostosowawcze prowadzone na forum Rady Europy, w których biorę udział jako konsultant. 17 maja br. na konferencji w Helsinkach Komitet Ministrów Rady Europy postanowił o rozpoczęciu pracy nad konwencją o sztucznej inteligencji - informuje prof. Świerczyński. Kwestie te były również przedmiotem dyskusji na konferencji w Warszawie (pt. "Prawo i sztuczna inteligencja") zorganizowanej 27 maja br. przez UKSW oraz Instytut Badawczy - Ośrodek Przetwarzania Informacji (IB - OPI).
      Ze względu na brak jednolitych regulacji prawnych związanych z AI sprawy sądowe rozpatrywane są w różny sposób w zależności od kraju. Interesującą kwestią jest, na przykład, rozstrzyganie o odpowiedzialności za szkodę spowodowaną przez autonomiczne samochody.
      W Polsce odpowiedzialny będzie posiadacz pojazdu na zasadzie ryzyka. Producent czy autor systemów sterowania, w tym opartych na AI, będzie z odpowiedzialności zwolniony - wyjaśnia ekspert. Jednak jego zdaniem utrzymanie tych zasad nie jest prawidłowe.
      Krąg osób, odpowiedzialnych podmiotów powinien ulec poszerzeniu, zależnie od rodzaju AI i jej wpływu na wypadek - uważa ekspert.
      Co ciekawe, tworzone przez AI teksty czy piosenki nie podlegają ochronie prawnej. Zasada jest taka, że twórcą może być tylko człowiek. I tak powinno pozostać. Można ewentualnie dopuścić ochronę takich utworów na podstawie prawa autorskiego, za podmiot praw autorskich uznając osobę fizyczną lub prawną, która zainicjowała ich stworzenie przez AI - mówi prawnik. I wskazuje, że takie rozwiązania przyjęto m.in. Wielkiej Brytanii i Nowej Zelandii.
      Komitet Współpracy Prawnej Rady Europy zajmuje się obecnie kwestią wykorzystania AI w sądownictwie. Przygotowuje on wytyczne w tej kwestii dla państw członkowskich.
      W projektowanych wytycznych przyjmujemy, że algorytmy mają przede wszystkim ułatwiać pracę sędziom, ale ich nie zastąpią. Przykładowo AI może być przydatna przy przygotowywaniu tych fragmentów rozstrzygnięcia, które mają charakter bardziej techniczny - wskazuje ekspert. Sztuczna inteligencja mogłaby ewentualnie zastąpić arbitrów.
      Dotyczyłoby to prostszych spraw, w których wyrok zostaje wydany na podstawie dokumentów, np. faktur, a które wymagają szybkiego rozstrzygnięcia - mówi.
      Zdaniem prof. Świerczyńskiego pomarzyć możemy o superobiektywnej AI. Algorytm, na podstawie którego będzie ona działać, oparty będzie o różnego rodzaju dane, które nie zawsze muszą być wiarygodne.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja pomaga w diagnozowaniu stresu pourazowego (PTSD) u weteranów, analizując ich głos. W najnowszym numerze pisma Depression and Anxiety doniesiono, że opracowany na Uniwersytecie Nowojorskim (NYU) system sztucznej inteligencji potrafi z 89-procentową trafnością odróżnić osoby z PTSD od osób zdrowych.
      Wyniki naszych badań wskazują, że cechy charakterystyczne mowy mogą zostać wykorzystane do zdiagnozowania choroby. Chcemy by w najbliższej przyszłości nasz system, po jego udoskonaleniu i uzyskaniu odpowiednich zgód, trafił do codziennej praktyki klinicznej, mówi jeden z głównych autorów badań, dziekan Wydziału Psychiatrii, profesor Charles R. Marmar.
      Szacuje się, że ponad 70% dorosłych doświadcza w jakimś momencie życia traumy, a odsetek osób z PTSD jest w niektórych krajach szacowany nawet na 12% dorosłej populacji. Osoby cierpiące na zespół stresu pourazowego doświadczają, gdy zetką się z bodźcem przypominającym o traumie, silnego trwałego stresu.
      PTSD diagnozuje się podczas wywiadu klinicznego, jednak jest to metoda podatna na błędy. Dlatego też specjaliści od dawna poszukują obiektywnego fizycznego markera PTSD. Jego znalezienie nie jest jednak łatwe.
      Autorzy najnowszych badań stworzyli algorytm wykorzystujący metodę nauczania random forest, która pozwala klasyfikować np. osoby na podstawie dostępnych przykładów. W ten sposób, działając najpierw na treningowej bazie danych, sztuczna inteligencja udoskonala swoje modele i metody podejmowania decyzji.
      Najpierw naukowcy nagrali standardowy wielogodzinny wywiad diagnostyczny CAPS (Clinician-Administered PTSD Scale). Zarejestrowano wywiady z 53 weteranami z Iraku i Afganistanu, u których stwierdzono PTSD oraz z 78 weteranami, u których choroba nie występowała. Następnie materiał dźwiękowy został przetworzony przez oprogramowanie firmy SRI International, tej samej, która opracowała apple'owską Siri, a program wyodrębnił z nagrań 40 526 cech, które następnie były analizowane pod kątem występowania wzorców.
      Sztuczna inteligencja była w stanie powiązać poszczególne cechy z PTSD. Były wśród nich na przykład mniej wyraźna mowa czy pozbawiony życia metaliczny ton głosu. Wcześniej wiedziano o tych dwóch cechach, ale były one jedynie anegdotycznie uznawane za pomocne w diagnostyce. Diagnoza PTSD na podstawie głosu może o tyle mieć uzasadnienie, że teoria dotycząca przyczyn zespołu stresu pourazowego mówi, iż traumatyczne wydarzenia zmieniają połączenia między neuronami odpowiedzialnymi za przetwarzanie emocji i oraz za napięcie mięśniowe, co może wpływać na sposób artykulacji.
      Mowa jest atrakcyjnym kandydatem dla automatycznego systemu diagnostycznego, gdyż może być ona mierzona i badana w sposób tani, nieinwazyjny i zdalny, mówi główny autor badań, profesor Adam D. Brown. Możliwości analizy głosu stosowane w obecnych badaniach nad PTSD pokrywają się z możliwościami naszem platformy analitycznej SenSay Analytics. Oprogramowanie to analizuje słowa, częstotliwość, rytm, ton oraz cechy charakterystyczne artykulacji i na tej podstawie wyciąga wnioski co do stanu mówiącego, w tym co do jego stanu emocjonalnego, uczuciowego, poznawczego, zdrowotnego, zdrowia psychicznego i zdolności komunikacyjnych, dodaje Dimitra Vergyri z SRI International.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gang cyberprzestępców, który stworzył listę 50 000 menedżerów, za pomocą której usiłuje wyłudzać pieniądze, zmienił taktykę na bardziej niebezpieczną dla potencjalnych ofiar.
      Istnienie grupy nazwanej London Blue jako pierwsi zauważyli specjaliści z firmy Agari. Grupa stworzyła listę 50 000 menedżerów i początkowo rozsyłała fałszywe informacje, podpisane nazwiskami z tej listy, próbując przekonać pracowników firm do przelania firmowych pieniędzy na wskazane konto. Przestępcy działają w Nigerii, Wielkiej Brytanii i innych krajach. Teraz specjaliści donoszą o zmianie taktyki.
      Dotychczas oszuści używali tymczasowych adresów e-mail z bezpłatnych serwisów pocztowych i do potencjalnych ofiar wysyłali listy podpisane nazwiskiem znanego im meneżera. Teraz ich e-maile już nie tylko są podpisane nazwiskiem menedżera, ale w ich nagłówkach znajdują się podrobione adresy e-mail wyglądające jak adresy używane przez firmę będącą celem ataku.
      Przestępcy początkowo prowadzili korespondencję z ofiarą, by zdobyć jej zaufanie, a następnie domagali się pieniędzy. Teraz informują potencjalne ofiary, że ich firma przejmuje inne przedsiębiorstwo lub z innym przedsiębiorstwem się łączy i w związku tym musi z góry przelać na wskazane konto 30% zaplanowanej transakcji. Zwykle chcą, by przelano 80 000 dolarów.
      Celem przestępców stał się też szef Agari. Ściśle ich monitorujemy. Wiedzieliśmy, że przygotowują kolejne ataki, że ich celem jest m.in. nasz dyrektor oraz inni menedżerowie z Kalifornii. Byliśmy więc w stanie śledzić cały przebieg ataku. Od etapu jego przygotowywania do wykonania. Obserwowaliśmy, jak testują skrzynkę, którą chcieli wykorzystać podczas ataku i dwie i pół godziny po testach e-mail od nich dotarł do naszego szefa, mówią eksperci z Agari.
      Pierwsza runda ataków London Blue była skierowana przeciwko firmom w Europie Zachodniej i USA. Teraz przestępcy atakują przede wszystkim przedsiębiorstwa w Azji Południowo-Wschodniej i Australii.
      London Blue to grupa nigeryjska, ale jej członkowie mieszkają m.in. w Wielkiej Brytanii, Turcji, Egipcie i Kanadzie. Dla niektórych z nich to zawód. Możemy obserwować, jak dzielą się zadaniami. Wielu z nich trafia do grupy w bardzo młodym wieku i początkowo są praktykantami. Zaczynają od bardzo prostych zadań, później działają samodzielnie, w końcu mogą nadzorować innych. To fascynująca struktura, stwierdzają eksperci.

      « powrót do artykułu
×
×
  • Create New...