Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Fake newsy rozpowszechniają się głównie z winy społecznościówek, nie ich użytkowników

Rekomendowane odpowiedzi

Badania przeprowadzone pod kierunkiem naukowców z University of Southern California dowodzą, że za rozpowszechnianie się fałszywych informacji – fake newsów – jest w głównej mierze odpowiedzialna struktura serwisów społecznościowych, a nie nieświadomość indywidualnych użytkowników. Platformy społecznościowe, poprzez nagradzanie konkretnych zachowań, powodują, że 15% osób zwyczajowo przekazujących informacje odpowiada za rozpowszechnianie 30–40% fake newsów.

Zwykle sądzi się, że to użytkownicy, którzy nie potrafią krytycznie podejść do napotkanej informacji są głównymi odpowiedzialnymi za szerzenie dezinformacji. Jednak badania przeprowadzone na ponad 2400 użytkowników Facebooka wykazały, że to sama platforma ponosi główną odpowiedzialność.

Naukowcy zadali sobie pytanie, co motywuje użytkowników serwisów społecznościowych. Z ich analiz wynika, że – podobnie jak gry wideo – platformy społecznościowe posługują się systemem nagród, który zachęca użytkowników do jak najdłuższego pozostania w serwisie oraz umieszczania i udostępniania informacji. System ten stworzono tak, by użytkownicy, którzy często zamieszczają i przekazują dalej informacje, szczególnie te najbardziej sensacyjne, mieli jak największe zasięgi. Przykuwanie uwagi jak największej liczby osób to ich nagroda.

Bazujący na nagrodzie system uczenia się powoduje, że użytkownicy wyrabiają sobie nawyk przekazywania dalej tych informacji, które przyciągają uwagę innych. Gdy taki nawyk się wyrobi, użytkownik automatycznie przekazuje dalej informację na podstawie bodźców pochodzących z samej platformy społecznościowej, bez krytycznego do niej podejścia i rozważania możliwości, że rozsiewa fake newsy, stwierdzają autorzy badań.

Nasze badania wykazały, że fałszywe informacje rozpowszechniają się nie z powodu jakichś deficytów występujących u użytkowników. Przyczyną naprawdę jest sama struktura serwisów społecznościowych, mówi profesor psychologii Wendy Wood.

Wyrobione zwyczaje użytkowników mediów społecznościowych są większym czynnikiem napędowym dla fake newsów niż indywidualne cechy każdego użytkownika. Co prawda z wcześniejszych badań wiemy, że niektórzy ludzie nie przetwarzają informacji w sposób krytyczny, a inni są motywowani już wcześniej posiadanymi poglądami, co również wpływa na ich możliwość rozpoznania fałszywych informacji. Jednak wykazaliśmy, że struktura nagrody w mediach społecznościowych odgrywa większą rolę w rozprzestrzenianiu fake newsów niż te cechy osobnicze, dodaje Gizem Ceylan, która stała na czele grupy badawczej.

W badaniach wzięło udział 2476 użytkowników Facebooka w wieku od 18 do 89 lat. Ich zadaniem było m.in. wypełnienie ankiety bazującej na procesie podejmowania decyzji. Zajmowało to około 7 minut. Naukowcy ze zdumieniem zauważyli, że sam sposób, w jaki osoby te używały mediów społecznościowych mógł 2-, a nawet 3-krotnie, zwiększać liczbę rozprzestrzenianych przez nich fake newsów. Sposób używania platformy miał silniejszy wpływ na rozpowszechnianie nieprawdziwych informacji niż ich poglądy polityczne czy brak krytycznego podejścia. Okazało się, że osoby, które często używały platformy społecznościowej rozsiewały 6-krotnie więcej fake newsów niż osoby rzadko jej używające oraz nowi użytkownicy. Takie zachowania są wzmacniane przez algorytmy, które – na podstawie zaangażowania użytkownika – nadają priorytet kolejnym treściom, jakie mu podsuwają.

Naukowcy przeprowadzili też eksperyment, w ramach którego sprawdzali, czy zmiana systemu nagród w mediach społecznościowych mogłaby doprowadzić do spadku popularności fake newsów. Okazało się, że gdy użytkownicy byli nagradzani za udostępnianie prawdziwych informacji a nie informacji najpopularniejszych – jak to ma miejsce obecnie – liczba rozpowszechnianych prawdziwych informacji zwiększyła się dwukrotnie. Z badań wynika zatem, że nawet wyrobiony odruch dalszego przekazywania informacji nie musi oznaczać, że przekazywane będą fake newsy. System nagrody na mediach społecznościowych można zbudować tak, by promował on informacje prawdziwe, a nie te najbardziej popularne, czyli najbardziej sensacyjne. Stworzenie takiego systemu to najlepszy sposób na powstrzymanie rozprzestrzeniania się fake newsów. Wyniki badań zostały opublikowane na łamach PNAS.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Przecież to tylko fragment sprawy oparty jedynie o badania użytkowników.
W ogóle nie poruszono tu kwestii tego jak Facebook gotowy jest opublikować najgorszy scam za kasę - w stylu: wpłać 100 zł dostaniesz 200 zł.
Nie odniesiono się do informacji jakie wyniosła z FB sygnalistka które dowodziły że algorytm celowo wysyła ludziom pewne treści bazując na tym że reakcje są silniejsze na treści z którymi się nie zgadzamy.
Facebook po mistrzowsku trenuje miliardy ludzi jak psy. Inni też, ale FB trzeba przyznać osiągnął i większą skalę i większe umiejętności w tym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tekst bardzo dobrze analizuje tę kwestię "fragment sprawy" (trudno żeby się odnosił do wszystkich aspektów. Badanie jest sensowne - właśnie dlatego, że dotyczy pewnego szczegółu. Wnioski są całkowicie zgodne z tym co opisywałam w prasie już wiele lat temu (choć oczywiście było to opisywanie intuicyjne).

Problem jednak nie dotyczy tylko mediów społecznościowych. Ten system jest także powszechnie panującym na Wikipedii. Rzekomo istniejący tam system ekspercki bazuje nie na rzeczywistej wiedzy, ale na rankingu budowanym podobnie jak system lajkowania na Facebooku. W rzeczywistości wzmocnienie mają ci użytkownicy i ich treści, które najsprytniej używają systemu nagród. To bardzo podobne do lajków.

Tak budowane systemy pseudoeksperckie generują treści żenująco niskie - z czego słynie Wikipedia, Facebook (w zakresie fakenewsów) i setki innych mediów.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok, zgoda. W tym fragmencie.
Ale nigdy nie zestawiłbym wikipedii z facebookiem mimo iż pewne podobieństwa mogą zachodzić.
Tak jak np. na ukraińskiej wikipedii informacje o rzezi wołyńskiej są nawet nie szczątkowe ale po prostu zakłamane.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Opracowany na University of Michigan algorytm przewyższa ludzi w identyfikowaniu fałszywych informacji, tzw. fake news. Podczas testów algorytmu okazało się, że jest on w stanie wyłapać aż 76% fałszywych informacji. W przypadku ludzi efektywność wynosi 70%. Ponadto wykorzystywany przez algorytm mechanizm analizy lingwistycznej może zostać użyty do zidentyfikowania fake newsów nawet w przypadku, gdy są one zbyt świeże, by można było skonfrontować je z innymi źródłami.
      Profesor Rada Mihalcea, która stworzyła wspomniany algorytm, mówi, że przyda się on na przykład witrynom, które są zalewane fałszywymi informacjami po to, by generować kliknięcia lub manipulować opinią publiczną.
      Szczególną ważną rolę do odegrania mogą mieć w agregatorach treści, gdzie pracownicy takich witryn mogą nie być w stanie na czas wyłapać fałszywych informacji pobranych z innych witryn czy serwisów społecznościowych. Ponadto obecnie najczęściej weryfikuje się fake newsy poprzez ich skonfrontowanie z wieloma źródłami przez człowieka. To powolna metoda i zanim taka fałszywa informacja zostanie obnażona, wiele osób zdąży ją przeczytać, a do sprostowania większość z nich nigdy nie dotrze.
      Analiza lingwistyczna, polegająca na wyłapywaniu charakterystycznych zwrotów, struktur gramatycznych, słownictwa czy interpunkcji, działa szybciej niż ludzie i może znaleźć znacznie szersze zastosowanie. Narzędzie tego typu może np. nadawać poszczególnym informacjom rangę, informując czytelnika o ich wiarygodności. Może też posłużyć do oznaczenia treści, którą następnie pracownicy serwisu czy agregatora muszą sprawdzić.
      Profesor Mihalcea mówi, że obecnie istnieje sporo algorytmów służących analizie lingwistycznej. Problemem w opracowaniu wykrywacza fake newsów nie było zbudowanie algorytmu, ale znalezienie odpowiedniego zestawu danych, na których algorytm ten może być uczony.
      Algorytm taki nie może być np. trenowany z użyciem treści satyrycznych, które często opowiadają nieprawdziwe historie, jednak w szczególny sposób, który nie jest przydatny do nauki wykrywania fake newsów.
      Zespół Mihalcei stworzył więc własny zestaw fake newsów i przy pomocy dużej grupy ochotników dokonał czegoś na kształt inżynierii wstecznej, by przeanalizować, jak prawdziwa informacja może z czasem zostać przerobiona na typowy fake news. W ten bowiem sposób powstaje większość krążących po internecie fałszywych informacji.
      Początkowo naukowcy zwrócili się do społeczności Amazon Mechanical Turk i znaleźli tam chętne osoby, które na pieniądze stworzyły z krótkich prawdziwych informacji ich fałszywe wersje, naśladując przy tym styl prawdziwych informacji. Uczeni zebrali 500 par takich prawdziwych i fałszywych informacji,; oznaczyli je odpowiednio i wykorzystali je podczas nauki algorytmu.
      W końcu pobrali z internetu zestaw prawdziwych oraz fałszywych informacji i za jego pomocą je sprawdzali. Okazało się, że algorytm charakteryzuje się trafnością dochodzącą do 76 procent.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...