Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' recydywa' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 1 wynik

  1. Algorytmy sztucznej inteligencji znacznie lepiej niż ludzie przewidują, którzy ze skazanych popełnią w przyszłości przestępstwo. Przeprowadzone właśnie badania pokazują, że programy takie jak COMPAS mogą być niezwykle przydatnym narzędziem dla sędziów i innych pracowników systemu sprawiedliwości i więziennictwa. Co prawda ludzie w warunkach testowych również radzą sobie z tym zadaniem dobrze i gdy znają kilka podstawowych zmiennych, to nawet osoba bez odpowiedniego przygotowania jest w stanie, w kontrolowanym środowisku, dorównać złożonym narzędziom oceny ryzyka, mówią naukowcy z Uniwersytetu Stanforda i Uniwersytetu Kalifornijskiego w Berkeley. Jednak zupełnie inaczej ma się sprawa z rzeczywistymi wydarzeniami i problemami, z którymi mierzy się wymiar sprawiedliwości. Tutaj zmiennych jest olbrzymia liczba. A przeprowadzone właśnie badania wykazały, że algorytmy potrafią nawet z 90-procentową trafnością przewidzieć, który z podsądnych zostanie w przyszłości zatrzymany za inne przestępstwo. Ludzie potrafią to ocenić ze znacznie niższą, bo zaledwie 60-procentową trafnością. Ocena ryzyka od dawna jest częścią procesu podejmowania decyzji w sądownictwie kryminalnym. Ostatnio toczą się dyskusje na temat wykorzystywania narzędzi opierających się na algorytmach komputerowych. Nasze badania wykazały, że w sytuacji rzeczywistych przypadków karnych algorytmy sztucznej inteligencji dokonują często lepszej oceny ryzyka niż ludzie. Wyniki te są zgodne z wieloma innymi badaniami porównującymi wyniki uzyskiwane przez narzędzia statystyczne z wynikami uzyskiwanymi przez ludzi, mówi Jennifer Skeem, psycholog specjalizującą się w przestępczości kryminalnej. Sprawdzone narzędzia do oceny ryzyka mogą pomóc sędziom i innym pracownikom wymiaru sprawiedliwości w podejmowaniu lepszych decyzji. Na przykład narzędzia te mogą sędziemu wskazać, który ze skazanych stwarza niewielkie ryzyko i w związku z tym można go przedterminowo zwolnić z więzienia. Oczywiście, podobnie jak inne narzędzia, także i te do oceny ryzyka, muszą zostać połączone z rozsądną polityką oraz muszą być nadzorowane przez człowieka, dodaje Sharad Goel z Uniwersytetu Stanforda, statystyk specjalizujący się w dziedzinie nauk społecznych. Lepsze narzędzia do oceny ryzyka są niezwykle potrzebne, szczególnie w USA. Stany Zjednoczone mają bowiem największy na świecie odsetek liczby uwięziony i największą na świecie liczbę osób w więzieniach. Od lat toczy się tam dyskusja na temat zmiany tego stanu rzeczy, ale trzeba zrównoważyć to z potrzebą zapewnienia bezpieczeństwa. Ocena, którego z więźniów można bez ryzyka wypuścić, jest więc niezwykle istotna. Narzędzia do oceny ryzyka są w USA bardzo szeroko rozpowszechnione w medycynie, bankowości czy szkolnictwie wyższym. Od dawna też używane są w miarze sprawiedliwości. Jednak w 2018 roku Dartmouth College przeprowadzono badania, w których poddano w wątpliwość skuteczność takich narzędzi. Wynikało z nich bowiem, że i ludzie i algorytmy równie dobrze (z 66% trafnością) oceniają ryzyko. Badania były szeroko komentowane i wiele osób stwierdziło, że w takiej sytuacji nie powinno się używać algorytmów. Autorzy najnowszych badań powtórzyli badania przeprowadzone przez Dartmouth i stwierdzili, że posługiwano się podczas nich ograniczonym zestawem danych. Wzięto bowiem pod uwagę jedynie płeć oskarżonych, ich wiek, przestępstwo z które zostali ostatnio skazani oraz całą ich wcześniejszą kartotekę policyjną. Tymczasem sędziowie mają do dyspozycji znacznie więcej informacji. Korzystają z dokumentów ze śledztwa, opinii adwokatów, zeznań ofiar, na ich ocenę wpływa zachowanie i sposób bycia sprawców oraz ofiar. To często są informacje nie mające wpływu na ryzyko recydywy, są niespójne, z łatwością mogą powodować błędną ocenę, wyjaśniają autorzy najnowszych badań. Dlatego też rozszerzyli zestaw danych, którymi posługiwali się badacze z Dartmouth. Do wykorzystanych przez nich czynników, dodali 10 nowych, takich jak informacje o zatrudnieniu, zażywaniu używek czy zdrowiu psychicznym. Zmieniono też metodologię. Po każdym z eksperymentów nie mówiono ludziom, których wyniki porównywano z maszyną, czy dokonali dobrej oceny. Sędziowie nie mają przecież informacji o tym, czy osoba, której skrócili karę, popełni w przyszłości przestępstwo. Wyniki pokazały, że w takiej sytuacji, gdy zasady eksperymentu bardziej odpowiadają rzeczywistości, ludzie wypadają znacznie gorzej niż algorytm COMPAS. Takie narzędzia mogą być więc przydatnym uzupełnieniem pracy sędziów, kuratorów, lekarzy i innych osób, które mają wpływ na decyzję o wcześniejszym zwolnieniu przestępcy. « powrót do artykułu
×
×
  • Dodaj nową pozycję...