Znajdź zawartość
Wyświetlanie wyników dla tagów ' ban' .
Znaleziono 2 wyniki
-
Użytkownicy zbanowani za zachowanie z jednej platformy społecznościowej, często pojawiają się na innej, gdzie zachowują się jeszcze gorzej, jeszcze bardziej agresywnie. Do takich wniosków doszedł międzynarodowy zespół naukowy, który przeprowadził badania Understanding the Effect of Deplatforming on Social Networks. Grupa naukowa złożona ze specjalistów z Binghamton University, Boston University, University College London i Instytutu Informatyki im. Maxa Plancka, opracowała metodę identyfikacji użytkowników na różnych platformach. Dzięki niej mogli przyjrzeć się, co dzieje się z użytkownikami zbanowanymi z Reddita czy Twittera, którzy zaczęli korzystać z kont na platformach Gab i Parler, gdzie treści nie są tak ściśle moderowane. Autorzy badań zauważyli, że użytkownicy tacy, mimo iż mają potencjalnie znacznie mniejszą publiczność, są na tych platformach znacznie bardziej aktywni i bardziej toksyczni. Nie możesz po prostu zbanować tych ludzi i stwierdzić, że to zadziałało. Oni nie znikają. Idą w inne miejsca. Wyrzucenie ich ma pozytywny wpływ na platformę, na której byli, jednak zauważyliśmy, że na platformach, na którego przechodzą, ich zachowanie się pogarsza, stwierdza profesor Jeremy Blackburn. Uczeni przeanalizowali 29 milionów postów z platformy Gab, która została uruchomiona w 2016 roku i ma około 4 milionów użytkowników. Za pomocą stworzonego przez siebie narzędzia naukowcy zauważyli, że 59% (1152 z 1961) użytkowników Twittera założyło konto na Gab już po tym, jak byli ostatni raz aktywni na Twitterze. W przypadku Reddita 76% (3958 z 5216) założyło konto na Gab po tym, jak Reddit ich zbanował. Autorzy badań porównali treści publikowane na Twitterze, Reddicie i Gab przez tych samych użytkowników. Zauważyli, że po przeniesieniu na Gab stali się oni bardziej toksyczni i bardziej aktywni. Naukowcy mówią, że co prawda przejście agresywnych użytkowników z platformy większej na mniejszą może być postrzegane, jako coś korzystnego, niekoniecznie jednak jest to prawda. Zmniejszenie zasięgu oddziaływania takich osób to prawdopodobnie dobra rzecz, ale sam zasięg jest przeceniany. Fakt, że jakieś konto obserwuje 100 000 osób nie oznacza, że te osoby naprawdę popierają właściciela tego konta. Najbardziej wierni fani, być może grupy, którymi należy najbardziej się martwić, są prawdopodobnie skłonni do zmiany platformy, by nadal obserwować takiego człowieka. Jego zasięg zostaje co prawda zredukowany, ale zwiększa się intensywność okazywania mu poparcia. To jak zamiana ilości w jakość. Powstaje więc pytanie, czy gorzej jest gdy większa liczba osób czyta agresywne treści, czy też, gdy zwiększa się intensywność ekstremalnych poglądów w mniejszej grupę osób?, zastanawia się Blackburn. W ramach drugich badań A Large Open Dataset from the Parler Social Network, Blackburn wraz z uczonymi z New York University, University of Illinois i resztą wcześniejszego zespołu, przyjrzał się podobnemu zjawisku, wykorzystując platformę Parler. Uczeni przeanalizowali 183 miliony postów z lat 2018–2021 oraz metadane 13,25 miliona profili użytkowników. Niezależnie od tego, co mówią przedstawiciele Parlera, jest to platforma używana głównie przez białych, prawicowych, chrześcijańskich zwolenników Donalda Trumpa. Nie dziwi więc fakt, że duży skok popularności – gdy zapisało się około miliona nowych użytkowników – miał miejsce w okolicach wyborów w roku 2020. Później w czasie ataku na Kapitol znowu wzrosła popularność tej platformy. Widzimy, że służy ona do organizowania się i przekazywania instrukcji dotyczących protestów, stwierdza Blackburn. Naukowcy nie są pewni, czy banowanie użytkowników jest właściwą drogą zapobiegania rozprzestrzenianiu się skrajnych lub niebezpiecznych poglądów. Co zaś może nią być? Reddit ma możliwość „cichego banowania”, które polega na tym, że sprawiający problemy użytkownik może nadal publikować posty i wydaje mu się, że wszystko jest w porządku, tymczasem jego wpisów nikt nie widzi. Społeczeństwo nie może ignorować takich rzeczy, ale najprostsze rozwiązania nie działają. Musimy wymyślić bardziej kreatywny sposób i nie wyrzucać takich ludzi na margines, ale może popchnąć ich w bardziej pozytywny kierunku lub przynajmniej spowodować, by każdy wiedział, kim jest dana osoba. Dobre rozwiązanie leży gdzieś pomiędzy banowaniem wszystkich, a całkowicie swobodnym dostępem, mówi Blackburn. « powrót do artykułu
-
W lutym Facebook zaczął usuwać posty, w których twierdzono, że koronawirus SARS-CoV-2 jest dziełem człowieka. Działanie takie było częścią kampanii mającej na celu usuwanie fałszywych stwierdzeń na temat COVID-19 i szczepionek. Posty automatycznie usuwano, a użytkownik, który wielokrotnie takie treści publikował, narażał się na blokadę konta. Teraz Facebook znosi zakaz i pozwala na publikowanie informacji o tym, że SARS-CoV-2 został stworzony przez ludzi. W świetle toczącego się śledztwa dotyczącego pochodzenia COVID-19 oraz po konsultacjach z ekspertami ds. zdrowia publicznego, zdecydowaliśmy, że nie będziemy więcej blokowali twierdzeń, jakoby COVID-19 był dziełem człowieka. Będziemy nadal współpracować z ekspertami by dotrzymywać kroku zmieniającej się naturze pandemii i aktualizować naszą politykę w miarę, jak pojawiają się nowe fakty i trendy, oświadczyli przedstawiciele Facebooka. Do zmiany polityki Facebooka doszło po tym, jak The Wall Street Journal poinformował, że amerykańskie służby specjalne zdobyły wskazówki sugerujące, iż wirus mógł wydostać się z laboratorium. Zdaniem służb, w listopadzie 2019 roku trzech pracowników Instytutu Wirologii w Wuhan trafiło do szpitala z objawami podobnymi do grypy. Facebook z jednej strony poluzował algorytmy ograniczające wolność wypowiedzi, z drugiej zaś strony, tego samego dnia, zaczął ostrzej traktować użytkowników, którzy regularnie rozpowszechniają fałszywe informacje. Zgodnie z nowymi zasadami, jeśli posty jakiegoś użytkownika zostaną wielokrotnie oznaczone jako fałszywe, Facebook usunie wszystkie jego posty, nawet te, które jako fałszywe nie były oznaczone. Ponadto użytkownicy, którzy mają w ulubionych profile rozpowszechniające fałszywe informacje, będą przed tymi profilami ostrzegani za pomocą wyskakujących okienek. « powrót do artykułu
- 14 odpowiedzi