Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' algorytm'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 2 results

  1. Brytyjska policja wykorzystuje specjalny algorytm, który informuje śledczych, które sprawy można rozwiązać. Okazało się, że jednostki, które korzystają z tego algorytmu, prowadzą śledztwa w mniej niż połowie spraw, jakie do nich trafiają. Reszta jest od razu umarzana, gdyż algorytm stwierdza, że i tak nie uda się ich rozwiązać. Stosowanie algorytmu oszczędza czas i pieniądze, ale rodzi obawy o to, że policja w ogóle nie zajmuje się sprawami, które – wbrew temu co stwierdził algorytm – można by rozwiązać. Obecnie algorytm używany jest wyłącznie w przypadku bójek i innych zakłóceń porządku publicznego, jednak niewykluczone, że w przyszłości będzie stosowany też do innych rodzajów przestępstw. Zwykle, gdy policja dowiaduje się o przestępstwie, na miejsce wysyłani są śledczy, którzy zbierają dane i na ich podstawie, opierając się na własnym doświadczeniu, decydują, czy dalej prowadzić sprawę. Jednak w ostatnich latach wskutek zmian w sposobie raportowania, brytyjska policja ma do czynienia ze znacznie większą liczbą zgłaszanych przestępstw. Stąd też pomysł na wykorzystanie Evidence Based Investigation Tool (EBIT), algorytmu, który ocenia prawdopodobieństwo rozwiązania sprawy. Jest on od roku używany przez policję z Kent, gdzie pobicia i zakłócenia porządku publicznego stanowią około 30% zgłaszanych przestępstw. Jak informuje sama policja, przed wprowadzeniem EBIT funkcjonariusze prowadzili śledztwa w około 75% zgłaszanych spraw. Od czasu gdy używają EBIT odsetek prowadzonych śledztw spadł do 40%. Policjanci chcieliby prowadzić śledztwo w każdej sprawie i złapać sprawcę. Jeśli jednak analiza możliwości rozwiązania sprawy wskazuje, że śledztwo nie ma szans powodzenia, może lepiej użyć zasobów w innych, bardziej obiecujących, śledztwach, mówi Ben Linton z Metropolitan Police. Autorem EBIT jest Kent McFadzien z University of Cambridge. Trenował on swój program na próbce tysięcy napadów i zakłóceń porządku publicznego. Zidentyfikował osiem czynników decydujących o tym, czy sprawa może zostać rozwiązana, takich jak np. obecność świadków, nagrań z kamer przemysłowych czy znajomość nazwiska potencjalnego przestępcy. Jednak, jako że czynniki takie mogą się zmieniać, EBIT każdego dnia umieszcza w spisie spraw możliwych do rozwiązania jedną lub dwie takie sprawy, których rozwiązanie ocenia jako mało prawdopodobne. Policjanci nie wiedzą, które to sprawy, gdyż algorytm nie informuje ich o szczegółowej ocenie, wymienia tylko sprawy możliwe do rozwiązania. W ten sposób algorytm jest ciągle testowany i trenowany. Istnieją jednak obawy, że jako iż EBIT jest trenowany na już zakończonych śledztwach, pojawiające się błędy mogą być w nim wzmacniane. Jeśli na przykład w jakimś regionie nie ma kamer przemysłowych, algorytm może uznawać sprawy z tego regionu za trudne lub niemożliwe do rozwiązania, przez co mieszkańcy regionu będą poszkodowani, gdyż policja nie zajmie się przestępstwami mającymi tam miejsce. Jeśli trenujemy algorytm na historycznych danych dotyczących aresztowań i zgłoszeń przestępstw, wszelkie odchylenia i dysproporcje będą trafiały do algorytmu, który będzie się ich uczył i je wzmacniał, ostrzega Joshua Loftus z Uniwersytetu Stanforda. « powrót do artykułu
  2. Opracowany na University of Michigan algorytm przewyższa ludzi w identyfikowaniu fałszywych informacji, tzw. fake news. Podczas testów algorytmu okazało się, że jest on w stanie wyłapać aż 76% fałszywych informacji. W przypadku ludzi efektywność wynosi 70%. Ponadto wykorzystywany przez algorytm mechanizm analizy lingwistycznej może zostać użyty do zidentyfikowania fake newsów nawet w przypadku, gdy są one zbyt świeże, by można było skonfrontować je z innymi źródłami. Profesor Rada Mihalcea, która stworzyła wspomniany algorytm, mówi, że przyda się on na przykład witrynom, które są zalewane fałszywymi informacjami po to, by generować kliknięcia lub manipulować opinią publiczną. Szczególną ważną rolę do odegrania mogą mieć w agregatorach treści, gdzie pracownicy takich witryn mogą nie być w stanie na czas wyłapać fałszywych informacji pobranych z innych witryn czy serwisów społecznościowych. Ponadto obecnie najczęściej weryfikuje się fake newsy poprzez ich skonfrontowanie z wieloma źródłami przez człowieka. To powolna metoda i zanim taka fałszywa informacja zostanie obnażona, wiele osób zdąży ją przeczytać, a do sprostowania większość z nich nigdy nie dotrze. Analiza lingwistyczna, polegająca na wyłapywaniu charakterystycznych zwrotów, struktur gramatycznych, słownictwa czy interpunkcji, działa szybciej niż ludzie i może znaleźć znacznie szersze zastosowanie. Narzędzie tego typu może np. nadawać poszczególnym informacjom rangę, informując czytelnika o ich wiarygodności. Może też posłużyć do oznaczenia treści, którą następnie pracownicy serwisu czy agregatora muszą sprawdzić. Profesor Mihalcea mówi, że obecnie istnieje sporo algorytmów służących analizie lingwistycznej. Problemem w opracowaniu wykrywacza fake newsów nie było zbudowanie algorytmu, ale znalezienie odpowiedniego zestawu danych, na których algorytm ten może być uczony. Algorytm taki nie może być np. trenowany z użyciem treści satyrycznych, które często opowiadają nieprawdziwe historie, jednak w szczególny sposób, który nie jest przydatny do nauki wykrywania fake newsów. Zespół Mihalcei stworzył więc własny zestaw fake newsów i przy pomocy dużej grupy ochotników dokonał czegoś na kształt inżynierii wstecznej, by przeanalizować, jak prawdziwa informacja może z czasem zostać przerobiona na typowy fake news. W ten bowiem sposób powstaje większość krążących po internecie fałszywych informacji. Początkowo naukowcy zwrócili się do społeczności Amazon Mechanical Turk i znaleźli tam chętne osoby, które na pieniądze stworzyły z krótkich prawdziwych informacji ich fałszywe wersje, naśladując przy tym styl prawdziwych informacji. Uczeni zebrali 500 par takich prawdziwych i fałszywych informacji,; oznaczyli je odpowiednio i wykorzystali je podczas nauki algorytmu. W końcu pobrali z internetu zestaw prawdziwych oraz fałszywych informacji i za jego pomocą je sprawdzali. Okazało się, że algorytm charakteryzuje się trafnością dochodzącą do 76 procent. « powrót do artykułu
×