Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Algorytm lepiej wykrywa fake newsy niż człowiek

Rekomendowane odpowiedzi

Opracowany na University of Michigan algorytm przewyższa ludzi w identyfikowaniu fałszywych informacji, tzw. fake news. Podczas testów algorytmu okazało się, że jest on w stanie wyłapać aż 76% fałszywych informacji. W przypadku ludzi efektywność wynosi 70%. Ponadto wykorzystywany przez algorytm mechanizm analizy lingwistycznej może zostać użyty do zidentyfikowania fake newsów nawet w przypadku, gdy są one zbyt świeże, by można było skonfrontować je z innymi źródłami.

Profesor Rada Mihalcea, która stworzyła wspomniany algorytm, mówi, że przyda się on na przykład witrynom, które są zalewane fałszywymi informacjami po to, by generować kliknięcia lub manipulować opinią publiczną.

Szczególną ważną rolę do odegrania mogą mieć w agregatorach treści, gdzie pracownicy takich witryn mogą nie być w stanie na czas wyłapać fałszywych informacji pobranych z innych witryn czy serwisów społecznościowych. Ponadto obecnie najczęściej weryfikuje się fake newsy poprzez ich skonfrontowanie z wieloma źródłami przez człowieka. To powolna metoda i zanim taka fałszywa informacja zostanie obnażona, wiele osób zdąży ją przeczytać, a do sprostowania większość z nich nigdy nie dotrze.

Analiza lingwistyczna, polegająca na wyłapywaniu charakterystycznych zwrotów, struktur gramatycznych, słownictwa czy interpunkcji, działa szybciej niż ludzie i może znaleźć znacznie szersze zastosowanie. Narzędzie tego typu może np. nadawać poszczególnym informacjom rangę, informując czytelnika o ich wiarygodności. Może też posłużyć do oznaczenia treści, którą następnie pracownicy serwisu czy agregatora muszą sprawdzić.

Profesor Mihalcea mówi, że obecnie istnieje sporo algorytmów służących analizie lingwistycznej. Problemem w opracowaniu wykrywacza fake newsów nie było zbudowanie algorytmu, ale znalezienie odpowiedniego zestawu danych, na których algorytm ten może być uczony.

Algorytm taki nie może być np. trenowany z użyciem treści satyrycznych, które często opowiadają nieprawdziwe historie, jednak w szczególny sposób, który nie jest przydatny do nauki wykrywania fake newsów.

Zespół Mihalcei stworzył więc własny zestaw fake newsów i przy pomocy dużej grupy ochotników dokonał czegoś na kształt inżynierii wstecznej, by przeanalizować, jak prawdziwa informacja może z czasem zostać przerobiona na typowy fake news. W ten bowiem sposób powstaje większość krążących po internecie fałszywych informacji.

Początkowo naukowcy zwrócili się do społeczności Amazon Mechanical Turk i znaleźli tam chętne osoby, które na pieniądze stworzyły z krótkich prawdziwych informacji ich fałszywe wersje, naśladując przy tym styl prawdziwych informacji. Uczeni zebrali 500 par takich prawdziwych i fałszywych informacji,; oznaczyli je odpowiednio i wykorzystali je podczas nauki algorytmu.

W końcu pobrali z internetu zestaw prawdziwych oraz fałszywych informacji i za jego pomocą je sprawdzali. Okazało się, że algorytm charakteryzuje się trafnością dochodzącą do 76 procent.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co jeśli ten artykuł to fake news? ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kwestia wiarygodności dotychczasowego autorytetu: zaufania. To samo info podane np. w TVP, byłoby już podejrzane.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, KopalniaWiedzy.pl napisał:

Analiza lingwistyczna, polegająca na wyłapywaniu charakterystycznych zwrotów, struktur gramatycznych, słownictwa czy interpunkcji, działa szybciej niż ludzie i może znaleźć znacznie szersze zastosowanie.

Ludzie potrafią się przystosować :)

Zaczną kopiować normalne artykuły zmieniając jedno czy dwa słowa :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A jaki był procent fałszywych wykryć w porównaniu z ludźmi?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, thikim napisał:

Zaczną kopiować normalne artykuły zmieniając jedno czy dwa słowa

Wtedy część która porównuje z już istniejącymi danymi wykryje je jako fake newsy.

 

13 godzin temu, KopalniaWiedzy.pl napisał:

Ponadto wykorzystywany przez algorytm mechanizm analizy lingwistycznej może zostać użyty do zidentyfikowania fake newsów nawet w przypadku, gdy są one zbyt świeże, by można było skonfrontować je z innymi źródłami.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, Afordancja napisał:

Wtedy część która porównuje z już istniejącymi danymi wykryje je jako fake newsy.

No to powodzenia życzę. To już AI. A zapomniałem - AI jeszcze nie istnieje :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, thikim napisał:

No to powodzenia życzę. To już AI. A zapomniałem - AI jeszcze nie istnieje

 

hm... nie bardzo rozumiem o co Ci chodzi. Machine learning już isnieje. Systemy do rozpoznawania plagiatów istnieją  Która informacja w internecie szybciej się znalazła istnieje. 

Czyli na moje, to jeżeli coś jest plagiatem, późniejszym, ale są jeżeli na przykład w jednym czasowniki są bez nie (na szybko wymyślam), a  w drugim z nie. Prawdopodobieństwo fake newsa rośnie. Lub też zmienione są "Dwa trzy słowa" to też fake news.  Tu nie trzeba wiele AI, zwykła "statystyka".

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Badania przeprowadzone pod kierunkiem naukowców z University of Southern California dowodzą, że za rozpowszechnianie się fałszywych informacji – fake newsów – jest w głównej mierze odpowiedzialna struktura serwisów społecznościowych, a nie nieświadomość indywidualnych użytkowników. Platformy społecznościowe, poprzez nagradzanie konkretnych zachowań, powodują, że 15% osób zwyczajowo przekazujących informacje odpowiada za rozpowszechnianie 30–40% fake newsów.
      Zwykle sądzi się, że to użytkownicy, którzy nie potrafią krytycznie podejść do napotkanej informacji są głównymi odpowiedzialnymi za szerzenie dezinformacji. Jednak badania przeprowadzone na ponad 2400 użytkowników Facebooka wykazały, że to sama platforma ponosi główną odpowiedzialność.
      Naukowcy zadali sobie pytanie, co motywuje użytkowników serwisów społecznościowych. Z ich analiz wynika, że – podobnie jak gry wideo – platformy społecznościowe posługują się systemem nagród, który zachęca użytkowników do jak najdłuższego pozostania w serwisie oraz umieszczania i udostępniania informacji. System ten stworzono tak, by użytkownicy, którzy często zamieszczają i przekazują dalej informacje, szczególnie te najbardziej sensacyjne, mieli jak największe zasięgi. Przykuwanie uwagi jak największej liczby osób to ich nagroda.
      Bazujący na nagrodzie system uczenia się powoduje, że użytkownicy wyrabiają sobie nawyk przekazywania dalej tych informacji, które przyciągają uwagę innych. Gdy taki nawyk się wyrobi, użytkownik automatycznie przekazuje dalej informację na podstawie bodźców pochodzących z samej platformy społecznościowej, bez krytycznego do niej podejścia i rozważania możliwości, że rozsiewa fake newsy, stwierdzają autorzy badań.
      Nasze badania wykazały, że fałszywe informacje rozpowszechniają się nie z powodu jakichś deficytów występujących u użytkowników. Przyczyną naprawdę jest sama struktura serwisów społecznościowych, mówi profesor psychologii Wendy Wood.
      Wyrobione zwyczaje użytkowników mediów społecznościowych są większym czynnikiem napędowym dla fake newsów niż indywidualne cechy każdego użytkownika. Co prawda z wcześniejszych badań wiemy, że niektórzy ludzie nie przetwarzają informacji w sposób krytyczny, a inni są motywowani już wcześniej posiadanymi poglądami, co również wpływa na ich możliwość rozpoznania fałszywych informacji. Jednak wykazaliśmy, że struktura nagrody w mediach społecznościowych odgrywa większą rolę w rozprzestrzenianiu fake newsów niż te cechy osobnicze, dodaje Gizem Ceylan, która stała na czele grupy badawczej.
      W badaniach wzięło udział 2476 użytkowników Facebooka w wieku od 18 do 89 lat. Ich zadaniem było m.in. wypełnienie ankiety bazującej na procesie podejmowania decyzji. Zajmowało to około 7 minut. Naukowcy ze zdumieniem zauważyli, że sam sposób, w jaki osoby te używały mediów społecznościowych mógł 2-, a nawet 3-krotnie, zwiększać liczbę rozprzestrzenianych przez nich fake newsów. Sposób używania platformy miał silniejszy wpływ na rozpowszechnianie nieprawdziwych informacji niż ich poglądy polityczne czy brak krytycznego podejścia. Okazało się, że osoby, które często używały platformy społecznościowej rozsiewały 6-krotnie więcej fake newsów niż osoby rzadko jej używające oraz nowi użytkownicy. Takie zachowania są wzmacniane przez algorytmy, które – na podstawie zaangażowania użytkownika – nadają priorytet kolejnym treściom, jakie mu podsuwają.
      Naukowcy przeprowadzili też eksperyment, w ramach którego sprawdzali, czy zmiana systemu nagród w mediach społecznościowych mogłaby doprowadzić do spadku popularności fake newsów. Okazało się, że gdy użytkownicy byli nagradzani za udostępnianie prawdziwych informacji a nie informacji najpopularniejszych – jak to ma miejsce obecnie – liczba rozpowszechnianych prawdziwych informacji zwiększyła się dwukrotnie. Z badań wynika zatem, że nawet wyrobiony odruch dalszego przekazywania informacji nie musi oznaczać, że przekazywane będą fake newsy. System nagrody na mediach społecznościowych można zbudować tak, by promował on informacje prawdziwe, a nie te najbardziej popularne, czyli najbardziej sensacyjne. Stworzenie takiego systemu to najlepszy sposób na powstrzymanie rozprzestrzeniania się fake newsów. Wyniki badań zostały opublikowane na łamach PNAS.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
      W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
      Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
      Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
      Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
      Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
      Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
      Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy denerwujemy się, że nasz domowy pecet uruchamia się za długo, pewnym pocieszeniem może być informacja, iż w porównaniu z eksperymentalnymi komputerami kwantowymi jest on demonem prędkości. Uczeni pracujący nad tego typu maszynami spędzają każdego dnia wiele godzin na ich odpowiedniej kalibracji.
      Komputery kwantowe, a raczej maszyny, które w przyszłości mają się nimi stać, są niezwykle czułe na wszelkie zewnętrzne zmiany. Wystarczy, że temperatura otoczenia nieco spadnie lub wzrośnie, że minimalnie zmieni się ciśnienie, a maszyna taka nie będzie prawidłowo pracowała. Obecnie fizycy kwantowi muszą każdego dnia sprawdzać, jak w porównaniu z dniem poprzednim zmieniły się warunki. Później dokonują pomiarów i ostrożnie kalibrują układ kwantowy - mówi profesor Frank Wilhelm-Mauch z Uniwersytetu Kraju Saary. Dopuszczalny margines błędu wynosi 0,1%, a do ustawienia jest około 50 różnych parametrów. Kalibracja takiej maszyny jest zatem niezwykle pracochłonnym przedsięwzięciem.
      Wilhelm-Mauch i jeden z jego doktorantów zaczęli zastanawiać się na uproszczeniem tego procesu. Stwierdzili, że niepotrzebnie skupiają się na badaniu zmian w środowisku. Istotny jest jedynie fakt, że proces kalibracji prowadzi do pożądanych wyników. Nie jest ważne, dlaczego tak się dzieje. Uczeni wykorzystali algorytm używany przez inżynierów zajmujących się mechaniką konstrukcji. Dzięki niemu możliwe było zmniejszenie odsetka błędów poniżej dopuszczalnego limitu 0,1% przy jednoczesnym skróceniu czasu kalibracji z 6 godzin do 5 minut. Niemieccy naukowcy nazwali swoją metodologię Ad-HOC (Adaptive Hybrid Optimal Control) i poprosili kolegów z Uniwersytetu Kalifornijskiego w Santa Barbara o jej sprawdzenie. Testy wypadły pomyślnie.
      W przeciwieństwie do metod ręcznej kalibracji nasza metoda jest całkowicie zautomatyzowana. Naukowiec musi tylko wcisnąć przycisk jak w zwykłym komputerze. Później może pójść zrobić sobie kawę, a maszyna kwantowa sama się wystartuje - mówi Wilhelm-Mauch.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dziennikarskie śledztwo przeprowadzone przez The Wall Street Journal wykazało, że Facebook podzielił użytkowników na kategorie i jednym pozwala na więcej niż innym. Wbrew temu, co twierdzą przedstawiciele serwisu, koncern nie stosuje tych samych zasad dla wszystkich. Znani użytkownicy platformy społecznościowej zostali zwolnieni z przestrzegania niektórych lub wszystkich jej zasad.
      Mowa tutaj o używanym przez Facebooka programie XCheck. Początkowo jego celem było zwiększenie jakości kontroli nad przestrzeganiem zasad Facebooka przez znanych posiadaczy kont w serwisie. XCheck zajmował się celebrytami, politykami czy dziennikarzami. Jednak z czasem przerodził się on w parasol ochronny nad kilkoma milionami wybranych kont. Niektóre z tych kont są wyłączone spod jakiejkolwiek kontroli zasad przestrzegania standardów Facebooka inne zaś mogą publikować materiały, za które zwykli użytkownicy są upominani czy blokowani.
      Z dokumentów, do których dostęp uzyskali dziennikarze, wynika, że w 2019 roku wykonany przez Facebooka poufny wewnętrzny audyt wykazał istnienie problemu. Nie robimy tego, o czym publicznie zapewniamy. Ci ludzie, w przeciwieństwie do całej reszty, mogą naruszać nasze standardy nie ponosząc żadnych konsekwencji, czytamy w poufnym raporcie. Skutek takich działań Facebooka jest taki, że słynny piłkarz Neymar mógł opublikować nagie zdjęcia kobiety, która oskarżyła go o gwałt, a z uprzywilejowanych kont rozsiewano nieprawdziwe informacje o rzekomym ukrywaniu przez Hillary Clinton istnienia pedofilskiego kręgu czy o tym, jakoby prezydent Trump miał nazwać wszystkich uchodźców „zwierzętami”.
      Od tamtej pory jest tylko gorzej. W 2020 roku parasolem ochronnym Facebooka objętych było 5,8 miliona kont.
      Facebook dokładnie wie, że XCheck stanowi poważny problem, że pozwala na naruszanie standardów. Jednak nic z tym nie robi. Teraz serwis może mieć poważny problem, gdyż ktoś wyniósł poufne dokumenty i co najmniej część z nich przekazał Komisji Giełd i Papierów Wartościowych oraz Kongresowi.
      Zawartość umieszczona na Facebooku przez przeciętnego użytkownika podlega sprawdzeniu przez algorytmy, które pilnują, by użytkownicy nie naruszali zasad. Jeśli algorytmy uznają, że zasady zostały naruszone, treści są ukrywane lub usuwane. Czasami materiał oznaczony przez algorytmy trafia do przeglądu dokonywanego przez moderatorów zatrudnianych przez firmy zewnętrzne, współpracujące z Facebookiem.
      Jednak inaczej jest w przypadku kont, którymi zajmuje się XCheck. System ten został przygotowany tak, by – jak opisano w poufnych dokumentach Facebooka – zminimalizować szkody PR-owe, do jakich mogłoby dojść, gdyby niesłusznie ocenzurowano treści opublikowane przez wpływowe osoby. Jeśli XCheck stwierdzi, że treści takie mogą naruszać standardy, nie są one usuwane. Trafiają do osobnego systemu przeglądu, dokonywanego przez lepiej przeszkolonych etatowych pracowników.
      Wiadomo, że wielu pracowników Facebooka mogło dodawać użytkowników do XCheck, a ze wspomnianego audytu wynika, że w 2019 roku robiło tak co najmniej 45 zespołów znajdujących się w  firmie. Wewnętrzny podręcznik obsługi XCheck mówi, że należy tam dodawać konta „warte rozpowszechniania”, „wpływowe lub popularne” czy „ryzykowne pod względem PR”.
      Widocznym skutkiem takich działań było np. postępowanie Neymara, brazylijskiej gwiazdy piłki nożnej, który w 2019 roku został oskarżony o gwałt. W odpowiedzi Neymar opublikował na Facebooku i Instagramie m.in. korespondencje pomiędzy sobą a oskarżycielką, w tym nazwisko oskarżycielki i jej nagie zdjęcia. Standardowe procedury Facebooka przewidują skasowanie takich zdjęć. Jednak konto Neymara znajduje się pod parasolem ochronnym XCheck. Z tego też system na ponad dobę uniemożliwił moderatorom usunięcie wideo opublikowanego przez Neymara. Audyt wykazał również, że 56 milionów użytkowników mogło zobaczyć zdjęcia, które Facebook określił jako „porno z zemsty”, a wideo zostało udostępnione ponad 6000 razy wraz z komentarzami nieprzychylnymi kobiecie.
      Zasady Facebooka mówią, że publikacja nagich zdjęć powinna kończyć się nie tylko ich usunięciem, ale również usunięciem konta osoby, która je umieściła. Po tym, jak sprawie Neymara przyjrzało się kierownictwo, zdecydowaliśmy się na pozostawienie jego konta. To wyraźne odejście od naszych zasad, czytamy w audycie Facebooka.
      Wydaje się, że Facebook nie panuje nad XCheck. Parasol ochronny otwarto nad tak duża liczbą kont, że nikt nie jest w stanie ręcznie sprawdzać zastrzeżeń zgłaszanych przez algorytmy, a pracownicy wciąż dodają nowe konta. Z dokumentów wynika, że na razie Facebook planuje opracowanie zasad postępowania w przypadku poważnych naruszeń dokonywanych przez ludzi chronionych przez XCheck. Jednak będzie to robione z założeniem, że właściciele takich kont mieli „dobre intencje” i przyjęta zostanie zasada „niewinny, póki nie udowodni mu się winy”. To nadal całkowicie inne zasady postępowania, niż te dotyczące wszystkich innych użytkowników.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W lutym Facebook zaczął usuwać posty, w których twierdzono, że koronawirus SARS-CoV-2 jest dziełem człowieka. Działanie takie było częścią kampanii mającej na celu usuwanie fałszywych stwierdzeń na temat COVID-19 i szczepionek. Posty automatycznie usuwano, a użytkownik, który wielokrotnie takie treści publikował, narażał się na blokadę konta. Teraz Facebook znosi zakaz i pozwala na publikowanie informacji o tym, że SARS-CoV-2 został stworzony przez ludzi.
      W świetle toczącego się śledztwa dotyczącego pochodzenia COVID-19 oraz po konsultacjach z ekspertami ds. zdrowia publicznego, zdecydowaliśmy, że nie będziemy więcej blokowali twierdzeń, jakoby COVID-19 był dziełem człowieka. Będziemy nadal współpracować z ekspertami by dotrzymywać kroku zmieniającej się naturze pandemii i aktualizować naszą politykę w miarę, jak pojawiają się nowe fakty i trendy, oświadczyli przedstawiciele Facebooka.
      Do zmiany polityki Facebooka doszło po tym, jak The Wall Street Journal poinformował, że amerykańskie służby specjalne zdobyły wskazówki sugerujące, iż wirus mógł wydostać się z laboratorium. Zdaniem służb, w listopadzie 2019 roku trzech pracowników Instytutu Wirologii w Wuhan trafiło do szpitala z objawami podobnymi do grypy.
      Facebook z jednej strony poluzował algorytmy ograniczające wolność wypowiedzi, z drugiej zaś strony, tego samego dnia, zaczął ostrzej traktować użytkowników, którzy regularnie rozpowszechniają fałszywe informacje.
      Zgodnie z nowymi zasadami, jeśli posty jakiegoś użytkownika zostaną wielokrotnie oznaczone jako fałszywe, Facebook usunie wszystkie jego posty, nawet te, które jako fałszywe nie były oznaczone. Ponadto użytkownicy, którzy mają w ulubionych profile rozpowszechniające fałszywe informacje, będą przed tymi profilami ostrzegani za pomocą wyskakujących okienek.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...