Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Policja rezygnuje z trudnych śledztw, bo tak radzi algorytm

Recommended Posts

Brytyjska policja wykorzystuje specjalny algorytm, który informuje śledczych, które sprawy można rozwiązać. Okazało się, że jednostki, które korzystają z tego algorytmu, prowadzą śledztwa w mniej niż połowie spraw, jakie do nich trafiają. Reszta jest od razu umarzana, gdyż algorytm stwierdza, że i tak nie uda się ich rozwiązać.

Stosowanie algorytmu oszczędza czas i pieniądze, ale rodzi obawy o to, że policja w ogóle nie zajmuje się sprawami, które – wbrew temu co stwierdził algorytm – można by rozwiązać.

Obecnie algorytm używany jest wyłącznie w przypadku bójek i innych zakłóceń porządku publicznego, jednak niewykluczone, że w przyszłości będzie stosowany też do innych rodzajów przestępstw.

Zwykle, gdy policja dowiaduje się o przestępstwie, na miejsce wysyłani są śledczy, którzy zbierają dane i na ich podstawie, opierając się na własnym doświadczeniu, decydują, czy dalej prowadzić sprawę. Jednak w ostatnich latach wskutek zmian w sposobie raportowania, brytyjska policja ma do czynienia ze znacznie większą liczbą zgłaszanych przestępstw.

Stąd też pomysł na wykorzystanie Evidence Based Investigation Tool (EBIT), algorytmu, który ocenia prawdopodobieństwo rozwiązania sprawy. Jest on od roku używany przez policję z Kent, gdzie pobicia i zakłócenia porządku publicznego stanowią około 30% zgłaszanych przestępstw.

Jak informuje sama policja, przed wprowadzeniem EBIT funkcjonariusze prowadzili śledztwa w około 75% zgłaszanych spraw. Od czasu gdy używają EBIT odsetek prowadzonych śledztw spadł do 40%. Policjanci chcieliby prowadzić śledztwo w każdej sprawie i złapać sprawcę. Jeśli jednak analiza możliwości rozwiązania sprawy wskazuje, że śledztwo nie ma szans powodzenia, może lepiej użyć zasobów w innych, bardziej obiecujących, śledztwach, mówi Ben Linton z Metropolitan Police.

Autorem EBIT jest Kent McFadzien z University of Cambridge. Trenował on swój program na próbce tysięcy napadów i zakłóceń porządku publicznego. Zidentyfikował osiem czynników decydujących o tym, czy sprawa może zostać rozwiązana, takich jak np. obecność świadków, nagrań z kamer przemysłowych czy znajomość nazwiska potencjalnego przestępcy. Jednak, jako że czynniki takie mogą się zmieniać, EBIT każdego dnia umieszcza w spisie spraw możliwych do rozwiązania jedną lub dwie takie sprawy, których rozwiązanie ocenia jako mało prawdopodobne. Policjanci nie wiedzą, które to sprawy, gdyż algorytm nie informuje ich o szczegółowej ocenie, wymienia tylko sprawy możliwe do rozwiązania. W ten sposób algorytm jest ciągle testowany i trenowany.

Istnieją jednak obawy, że jako iż EBIT jest trenowany na już zakończonych śledztwach, pojawiające się błędy mogą być w nim wzmacniane. Jeśli na przykład w jakimś regionie nie ma kamer przemysłowych, algorytm może uznawać sprawy z tego regionu za trudne lub niemożliwe do rozwiązania, przez co mieszkańcy regionu będą poszkodowani, gdyż policja nie zajmie się przestępstwami mającymi tam miejsce.

Jeśli trenujemy algorytm na historycznych danych dotyczących aresztowań i zgłoszeń przestępstw, wszelkie odchylenia i dysproporcje będą trafiały do algorytmu, który będzie się ich uczył i je wzmacniał, ostrzega Joshua Loftus z Uniwersytetu Stanforda.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Ciekawe gdzie można nabyć algorytm prognozujący, czy policja zajmie się właśnie planowanym przestępstwem?

Share this post


Link to post
Share on other sites

Idealny algorytm dla naszej policji, nie masz naocznych świadków, nagrania z kamery HD, danych osobowych sprawcy włącznie z numerem PESEL, to spi...aj, bo faszyści mają prawo bić kobiety.

No chyba, że jak posłanka Joanna Scheuring-Wielgus powiesisz buciki na bramie kościoła w proteście przeciw pedofilii, to wtedy pełna mobilizacja. Algorytm pokaże, że w 100% można wykryć sprawcę.

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl.
      Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności?
      W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia.
      Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich.
      Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych.
      Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm?
      Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy.
      Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin.
      Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła.
      Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature.
      Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych.
      Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji?
      Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Algorytmy sztucznej inteligencji znacznie lepiej niż ludzie przewidują, którzy ze skazanych popełnią w przyszłości przestępstwo. Przeprowadzone właśnie badania pokazują, że programy takie jak COMPAS mogą być niezwykle przydatnym narzędziem dla sędziów i innych pracowników systemu sprawiedliwości i więziennictwa.
      Co prawda ludzie w warunkach testowych również radzą sobie z tym zadaniem dobrze i gdy znają kilka podstawowych zmiennych, to nawet osoba bez odpowiedniego przygotowania jest w stanie, w kontrolowanym środowisku, dorównać złożonym narzędziom oceny ryzyka, mówią naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley.
      Jednak zupełnie inaczej ma się sprawa z rzeczywistymi wydarzeniami i problemami, z którymi mierzy się wymiar sprawiedliwości. Tutaj zmiennych jest olbrzymia liczba. A przeprowadzone właśnie badania wykazały, że algorytmy potrafią nawet z 90-procentową trafnością przewidzieć, który z podsądnych zostanie w przyszłości zatrzymany za inne przestępstwo. Ludzie potrafią to ocenić ze znacznie niższą, bo zaledwie 60-procentową trafnością.
      Ocena ryzyka od dawna jest częścią procesu podejmowania decyzji w sądownictwie kryminalnym. Ostatnio toczą się dyskusje na temat wykorzystywania narzędzi opierających się na algorytmach komputerowych. Nasze badania wykazały, że w sytuacji rzeczywistych przypadków karnych algorytmy sztucznej inteligencji dokonują często lepszej oceny ryzyka niż ludzie. Wyniki te są zgodne z wieloma innymi badaniami porównującymi wyniki uzyskiwane przez narzędzia statystyczne z wynikami uzyskiwanymi przez ludzi, mówi Jennifer Skeem, psycholog specjalizującą się w przestępczości kryminalnej.
      Sprawdzone narzędzia do oceny ryzyka mogą pomóc sędziom i innym pracownikom wymiaru sprawiedliwości w podejmowaniu lepszych decyzji. Na przykład narzędzia te mogą sędziemu wskazać, który ze skazanych stwarza niewielkie ryzyko i w związku z tym można go przedterminowo zwolnić z więzienia. Oczywiście, podobnie jak inne narzędzia, także i te do oceny ryzyka, muszą zostać połączone z rozsądną polityką oraz muszą być nadzorowane przez człowieka, dodaje Sharad Goel z Uniwersytetu Stanforda, statystyk specjalizujący się w dziedzinie nauk społecznych.
      Lepsze narzędzia do oceny ryzyka są niezwykle potrzebne, szczególnie w USA. Stany Zjednoczone mają bowiem największy na świecie odsetek liczby uwięziony i największą na świecie liczbę osób w więzieniach. Od lat toczy się tam dyskusja na temat zmiany tego stanu rzeczy, ale trzeba zrównoważyć to z potrzebą zapewnienia bezpieczeństwa. Ocena, którego z więźniów można bez ryzyka wypuścić, jest więc niezwykle istotna.
      Narzędzia do oceny ryzyka są w USA bardzo szeroko rozpowszechnione w medycynie, bankowości czy szkolnictwie wyższym. Od dawna też używane są w miarze sprawiedliwości. Jednak w 2018 roku Dartmouth College przeprowadzono badania, w których poddano w wątpliwość skuteczność takich narzędzi. Wynikało z nich bowiem, że i ludzie i algorytmy równie dobrze (z 66% trafnością) oceniają ryzyko. Badania były szeroko komentowane i wiele osób stwierdziło, że w takiej sytuacji nie powinno się używać algorytmów.
      Autorzy najnowszych badań powtórzyli badania przeprowadzone przez Dartmouth i stwierdzili, że posługiwano się podczas nich ograniczonym zestawem danych. Wzięto bowiem pod uwagę jedynie płeć oskarżonych, ich wiek, przestępstwo z które zostali ostatnio skazani oraz całą ich wcześniejszą kartotekę policyjną. Tymczasem sędziowie mają do dyspozycji znacznie więcej informacji. Korzystają z dokumentów ze śledztwa, opinii adwokatów, zeznań ofiar, na ich ocenę wpływa zachowanie i sposób bycia sprawców oraz ofiar. To często są informacje nie mające wpływu na ryzyko recydywy, są niespójne, z łatwością mogą powodować błędną ocenę, wyjaśniają autorzy najnowszych badań.
      Dlatego też rozszerzyli zestaw danych, którymi posługiwali się badacze z Dartmouth. Do wykorzystanych przez nich czynników, dodali 10 nowych, takich jak informacje o zatrudnieniu, zażywaniu używek czy zdrowiu psychicznym. Zmieniono też metodologię. Po każdym z eksperymentów nie mówiono ludziom, których wyniki porównywano z maszyną, czy dokonali dobrej oceny. Sędziowie nie mają przecież informacji o tym, czy osoba, której skrócili karę, popełni w przyszłości przestępstwo.
      Wyniki pokazały, że w takiej sytuacji, gdy zasady eksperymentu bardziej odpowiadają rzeczywistości, ludzie wypadają znacznie gorzej niż algorytm COMPAS. Takie narzędzia mogą być więc przydatnym uzupełnieniem pracy sędziów, kuratorów, lekarzy i innych osób, które mają wpływ na decyzję o wcześniejszym zwolnieniu przestępcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Używanie marihuany zwiększa podatność na pojawianie się fałszywych wspomnień. Świadkowie i podejrzani, którzy znajdują się pod wpływem konopi indyjskich z większym prawdopodobieństwem podają podczas przesłuchania nieprawdziwe informacje, co może prowadzić do fałszywych oskarżeń. Takie wnioski płyną z badań przeprowadzonych na Uniwersytecie w Maastricht.
      Już wcześniejsze badania wykazywały, że tetrahydrokannabinol (THC), główny składnik psychoaktywny konopii indyjskich, prowadzi do zaburzeń pamięci. Tym razm naukowcy z Maastricht, Lilian Kloft i Jan Ramaekers badali związki pomiędzy THC a pojawianiem się fałszywych wspomnień. W eksperymentach wzięły udział 64 zdrowe osoby, które okazjonalnie paliły marihuanę.
      Podczas każdego z eksperymentów badani wdychali dym, który albo pochodził z konopi, albo był placebo. Zaraz po tym wykonywali zadania pamięciowe, które powtarzali tydzień później.
      Podczas pierwszego eksperymentu badanym pokazano 15 związanych ze sobą słów. Okazało się, że osoby, które wdychały dym z THC częściej niż osoby wdychające placebo twierdziły, że na liście były też wyrazy, których w rzeczywistości tam nie było. Dwa kolejne testy przeprowadzono za pomocą zestawu do rzeczywistości wirtualnej. Podczas jednego uczestnicy byli świadkami bójki na stacji kolejowej, podczas drugiego postawiono ich w roli osób oskarżonych o popełnienie przestępstwa.
      Natychmiast po tym, jak zobaczyli oba scenariusze, badani odpowiadali na pytania naukowców, którzy dostarczali im fałszywych informacji zadając wysoce sugestywne pytania oraz przedstawiając zeznania innych – również wirtualnych – świadków. Również i tutaj okazało się, że osoby będące pod wpływem THC częściej wytwarzały fałszywe wspomnienia. Jednak gdy badania powtórzono tydzień później, gdy środek psychoaktywny zniknął z organizmu badanych, różnicy pomiędzy obiema grupami nie zauważono.
      Radzimy policjantom i śledczym, by odkładali przesłuchania ludzi będących pod wpływem konopi indyjskich do czasu, aż ludzie ci wytrzeźwieją. Osoby takie powinny być traktowane jako grupy niepewne w śledztwie, podobnie jak dzieci czy osoby starsze, napisali autorzy badań.
      Ze szczegółami badań można zapoznać się na łamach PNAS. Obecnie Koft i Ramaekers badają wpływ MDMA na pojawianie się fałszywych wspmnień.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykańscy urzędnicy zastanawiają się, czy wszcząć formalne dochodzenie w sprawie... samodzielnie przyspieszających samochodów Tesli. Do Narodowej Administracji Bezpieczeństwa Ruchu Drogowego (NHTSA) wpłynął wniosek o przyjrzenie się 500 000 pojazdów tej marki.
      Autorzy dokumentu proszą o zbadanie Model S z lat 2012–2019, Model X z lat 2016–2019 oraz Model 3 z lat 2018–2019. Powołują się przy tym na 127 skarg dotyczących 123 pojazdów, jakie wpłynęły do NHTSA. Nagłe niespodziewane przyspieszenia miały przyczynić się do 110 wypadków, w których rannych zostały 52 osoby.
      W wielu takich doniesieniach jest mowa o tym, że samochód nagle przyspieszał, gdy użytkownik próbował zaparkować w garażu lub na jezdni. W jednym przypadku właściciel Model S 85D z 2015 roku donosi, że wysiadł z samochodu, zamknął go, gdy nagle pojazd przyspieszył i uderzył w zaparkowany przed nim samochód. Z kolei kierowca z Pennsylwanii skarży się, że parkował pod szkołą, kiedy pojazd zaczął szybciej jechać, przejechał przez krawężnik i zatrzymał się na łańcuchu. Właścicielka tesli z Massachusetts opisuje, jak zbliżała się do swojego garażu, a samochód przyspieszył, przejechał przez zamknięte drzwi i zatrzymał sie na ścianie.
      To nie jedyne skargi na pojazdy Tesli. W maju ubiegłego roku Tesla wydała poprawkę do oprogramowania zarządzajęcego akumulatorami, gdyż w wyniku błędu istniało ryzyko ich pożaru. We wrześniu właściciele 2000 takich pojazdów złożyli wniosek, by Tesla wymieniła samochody, a nie ograniczała się do poprawki w oprogramowaniu. NHTSA wciąż rozważa ten wniosek. Ponadto w ubiegłym tygodniu NHTSA poinformowała, że prowdzi śledztwo w sprawie wypadku z 29 grudnia, kiedy to tesla wjechała w zaparkowany wóz strażacki. Śmierć poniósł pasażer samochodu.  To 14. śledztwo prowadzone w ramach specjalnego programu NHTSA powołanego do badania wypadków mających miejsce, gdy włączony jest Autopilot lub inny zaawansowany mechanizm wspomagający kierowcę.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Koroner Philip Barlow poinformował Southwark Coroner's Court, że mniej więcej w listopadzie przyszłego roku przeprowadzi śledztwo, które ma odpowiedzieć na pytanie, czy do śmierci 9-letniej Elli Kissi-Debrah przyczyniły się zaniedbania ze strony rządu Wielkiej Brytanii. Dziewczynka zmarła nagle w 2013 roku.
      Gdy Ella miała 7 lat zaczęła rozwijać się u niej ciężka astma o nietypowym przebiegu i dziewczynka często trafiała do szpitala. Zmarła 15 lutego 2013 roku. W 2014 roku koroner stwierdził, że przyczyną śmierci była ostra niewydolność oddechowa i ciężka astma. Jednak gdy na jaw wyszły nowe fakty, sąd unieważnił śledztwo i nakazał wszczęcie kolejnego. Tym razem nie będzie to standardowe śledztwo koronera, które ma odpowiedzieć na pytania kiedy, gdzie i jak zmarła Elli. Koroner ma też zbadać, czy państwo wywiązało się ze swoich obowiązków.
      Podczas wystąpienia przed sądem Barlow mówił, że istnieją uzasadnione przesłanki, by stwierdzić, że państwo ma obowiązek chronienia życia poprzez zapobieganie zanieczyszczeniu powietrza, że doszło do przekroczenia poziomów zanieczyszczeń przewidzianych zarówno prawem krajowym jak i unijnym oraz, że Stephen Holgate z Southampton University dostarczył dowodów, iż zanieczyszczone powietrze mogło przyczynić się do śmierci dziewczynki.
      Mamy więc obowiązek, złamanie przypisów i związek przyczynowo-skutkowy. Wstępnie uważam, że w grę wchodzi tutaj Artykuł 2, poinformował sąd Barlow. Miał na myśli Artykuł 2. Europejskiej Konwencji Praw Człowieka, na którego podstawie można rozpocząć śledztwo, jeśli państwo zaniedba obowiązku zapewnienia obywatelowi bezpieczeństwa. Już wiadomo, że strona rządowa będzie starała się przeciwstawić prowadzeniu śledztwa pod tym kątem.
      Z raportu Royal College of Physicians wiemy, że każdego roku w Wielkiej Brytanii z powodu zanieczyszczenia powietrza umiera około 40 000 osób. Jednak nigdy wcześniej nie zdarzyło się, by śmierć konkretnej osoby była oficjalnie łączona z zanieczyszczeniem.
      Barlow oświadczył, że w czasie śledztwa będzie badane, czy zanieczyszczenie powietrza przyczyniło się do śmierci dziecka, w jaki w roku 2013 monitorowano jakość powietrza oraz jakie kroki zostały podjęte, by zmniejszyć zanieczyszczenie. Badane będą działania lokalnego Wydziału Ochrony Środowiska, Wydziału Żywności i Obszarów Wiejskich, Wydziału Transportu, rady miasta, biura burmistrza Londynu oraz Transport for London. Nowe śledztwo nie obejmie zaś działań pogotowia i szpitala, które zajmowały się Ellą w dniu jej śmierci.
      Zgodnie z brytyjskim prawem koroner musi wszcząć oficjalne śledztwo m.in. w przypadku gwałtownej i niespodziewanej śmierci. Każdego roku w Anglii i Walii koronerzy prowadzą około 30 000 śledztw, w tym w kilkuset przypadkach zaangażowane są sądy.

      « powrót do artykułu
×
×
  • Create New...