Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Ban to nie sposób na skrajne poglądy. Usunięci z mediów społecznościowych są bardziej toksyczni

Rekomendowane odpowiedzi

Użytkownicy zbanowani za zachowanie z jednej platformy społecznościowej, często pojawiają się na innej, gdzie zachowują się jeszcze gorzej, jeszcze bardziej agresywnie. Do takich wniosków doszedł międzynarodowy zespół naukowy, który przeprowadził badania Understanding the Effect of Deplatforming on Social Networks.

Grupa naukowa złożona ze specjalistów z Binghamton University, Boston University, University College London i Instytutu Informatyki im. Maxa Plancka, opracowała metodę identyfikacji użytkowników na różnych platformach. Dzięki niej mogli przyjrzeć się, co dzieje się z użytkownikami zbanowanymi z Reddita czy Twittera, którzy zaczęli korzystać z kont na platformach Gab i Parler, gdzie treści nie są tak ściśle moderowane.

Autorzy badań zauważyli, że użytkownicy tacy, mimo iż mają potencjalnie znacznie mniejszą publiczność, są na tych platformach znacznie bardziej aktywni i bardziej toksyczni. Nie możesz po prostu zbanować tych ludzi i stwierdzić, że to zadziałało. Oni nie znikają. Idą w inne miejsca. Wyrzucenie ich ma pozytywny wpływ na platformę, na której byli, jednak zauważyliśmy, że na platformach, na którego przechodzą, ich zachowanie się pogarsza, stwierdza profesor Jeremy Blackburn.

Uczeni przeanalizowali 29 milionów postów z platformy Gab, która została uruchomiona w 2016 roku i ma około 4 milionów użytkowników. Za pomocą stworzonego przez siebie narzędzia naukowcy zauważyli, że 59% (1152 z 1961) użytkowników Twittera założyło konto na Gab już po tym, jak byli ostatni raz aktywni na Twitterze. W przypadku Reddita 76% (3958 z 5216) założyło konto na Gab po tym, jak Reddit ich zbanował.

Autorzy badań porównali treści publikowane na Twitterze, Reddicie i Gab przez tych samych użytkowników. Zauważyli, że po przeniesieniu na Gab stali się oni bardziej toksyczni i bardziej aktywni. Naukowcy mówią, że co prawda przejście agresywnych użytkowników z platformy większej na mniejszą może być postrzegane, jako coś korzystnego, niekoniecznie jednak jest to prawda.

Zmniejszenie zasięgu oddziaływania takich osób to prawdopodobnie dobra rzecz, ale sam zasięg jest przeceniany. Fakt, że jakieś konto obserwuje 100 000 osób nie oznacza, że te osoby naprawdę popierają właściciela tego konta. Najbardziej wierni fani, być może grupy, którymi należy najbardziej się martwić, są prawdopodobnie skłonni do zmiany platformy, by nadal obserwować takiego człowieka. Jego zasięg zostaje co prawda zredukowany, ale zwiększa się intensywność okazywania mu poparcia. To jak zamiana ilości w jakość. Powstaje więc pytanie, czy gorzej jest gdy większa liczba osób czyta agresywne treści, czy też, gdy zwiększa się intensywność ekstremalnych poglądów w mniejszej grupę osób?, zastanawia się Blackburn.

W ramach drugich badań A Large Open Dataset from the Parler Social Network, Blackburn wraz z  uczonymi z New York University, University of Illinois i resztą wcześniejszego zespołu, przyjrzał się podobnemu zjawisku, wykorzystując platformę Parler. Uczeni przeanalizowali 183 miliony postów z lat 2018–2021 oraz metadane 13,25 miliona profili użytkowników. Niezależnie od tego, co mówią przedstawiciele Parlera, jest to platforma używana głównie przez białych, prawicowych, chrześcijańskich zwolenników Donalda Trumpa. Nie dziwi więc fakt, że duży skok popularności – gdy zapisało się około miliona nowych użytkowników – miał miejsce w okolicach wyborów w roku 2020. Później w czasie ataku na Kapitol znowu wzrosła popularność tej platformy. Widzimy, że służy ona do organizowania się i przekazywania instrukcji dotyczących protestów, stwierdza Blackburn.

Naukowcy nie są pewni, czy banowanie użytkowników jest właściwą drogą zapobiegania rozprzestrzenianiu się skrajnych lub niebezpiecznych poglądów. Co zaś może nią być? Reddit ma możliwość „cichego banowania”, które polega na tym, że sprawiający problemy użytkownik może nadal publikować posty i wydaje mu się, że wszystko jest w porządku, tymczasem jego wpisów nikt nie widzi.

Społeczeństwo nie może ignorować takich rzeczy, ale najprostsze rozwiązania nie działają. Musimy wymyślić bardziej kreatywny sposób i nie wyrzucać takich ludzi na margines, ale może popchnąć ich w bardziej pozytywny kierunku lub przynajmniej spowodować, by każdy wiedział, kim jest dana osoba. Dobre rozwiązanie leży gdzieś pomiędzy banowaniem wszystkich, a całkowicie swobodnym dostępem, mówi Blackburn.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie uważam, że to źle że się radykalizują na innych platformach. W efekcie taka platforma staje się bardziej "śmierdząca", inni to widzą i zostaje tam tylko radykalny margines. Generalnie cierpi na tym całe środowisko marginesu, jak i twórcy tej drugiej platformy którzy przymykają oko na hejtera.
Inne sprawa że banowanie nie jest  dobre, ani też cichy ban. Celem nie jest zablokować hejtera albo go zmienić. A w zaproponowanych formach w ogóle brak tego typu myślenia. Jeśli widzimy że kary nie są skuteczne, to może zastanówmy się na zupełnie alternatywną formą - np. nad ... nagrodami za bycie dobrym człowiekiem ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
10 godzin temu, Ergo Sum napisał:

nagrodami za bycie dobrym człowiekiem ?

A to jakoś mierzalne jest? Kto będzie decydował? Wolność słowa ma swoją cenę. Banowanie, cenzura to tylko plaster mający ukryć problem. Czy można kogoś zmienić, czy ludzie się zmieniają?  Otóż tak, np. rozległy udar wiele zmienia. W pozostałych przypadkach nic się nie da zrobić - debil skonfrontowany z faktami nie przyjmie ich do wiadomości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, Jajcenty said:

Kto będzie decydował?

Mi kilka razy sugerowano na tym forum, że tacy jak ja nie powinni mieć prawa wypowiadania się. Przoduje w tym głównie koleżanka Ergo i Animator :) Predyspozycje są, zdaje się, w niektórych kręgach ugruntowane.

 

1 hour ago, Jajcenty said:

W pozostałych przypadkach nic się nie da zrobić - debil skonfrontowany z faktami nie przyjmie ich do wiadomości.

Ale czasami można ich zepchnąć z Mt. Stupid. Muszą tylko zajść sprzyjające okoliczności :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Cenię swobodę wypowiedzi i wolność słowa.

Banuję tylko i wyłącznie za używanie argumentów ad personam - jednak czynię to konsekwentnie bez wyjątków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Brak konkretów, "agresywny", "toksyczny", "niebezpieczny pogląd" - a co to znaczy? Skrajne poglądy, ojej? Jeżeli ktoś mówi do rzeczy i to co mówi ma potencjał prawdy, to nie ma znaczenia jakiego języka używa, agresywnego, toksycznego, prawicowego czy lewicowego. Rozumiem, że skrajne poglądy to antyszczepionkowcy i należy ich banować? Jeśli ktoś obraża "uczucia religijne" należy banować?

Po co jest forum "anonimów"? Do wyżycia się czy do przedstawienia swoich poglądów, a może propagowania określonych informacji? Już sam fakt, że komentatorzy są dość anonimowi, to znaczy, że taki ma być sens fora, to znaczy, z jakiegoś powodu jest ta anonimowość. Jeżeli ktoś chciałby przekazać własny przepis na ciasto, to będzie skłonny pisać to bardziej publicznie, a jeżeli chce przekazać informacje tajne, niejawne, to będzie starał się ukryć maksymalnie swoje dane osobowe. W systemach demokratycznych, jeśli ktoś chce się wyżyć i powiedzieć co myśli o konkretnych osobach publicznych czy partii, jest to po środku, ale na wszelki wypadek zakryje się nickiem czy pseudonimem, w zależności od języka jakiego użyje.

Idąc tym tokiem rozumowania, sprawa jest prosta do rozwiązania: im więcej anonimowości, tym więcej powinno być wolności (braku cenzury). Jeżeli ktoś tworzy forum, to od początku powinien zadać pytanie na ile ma być anonimowe i to powinien być punkt zaczepienia do tworzenia jego zasad.

Sprawa jednak jest bardziej skomplikowana, ponieważ na powyższą regułę, nakładają się dwa ograniczenia:

(1) Prawo. Jeżeli ktoś łamie prawo, np. grożąc innym, to nawet na maksymalnie anonimowym forum, musi się liczyć z konsekwencjami. Tu znowu zależy, czy administrator jest prawnie odpowiedzialny za treść czy nie. Jeżeli jest, to musi usuwać takie posty, banować. Osobiście uważam, że admin nie powinien ponosić żadnej odpowiedzialności za czyjeś słowa. To tak jakby wynajmujący komuś lokal miał odpowiadać za hałas, jaki wywołuje jego lokator, bzdura.

(2) Poglądy admina. W normalnym kraju mam prawo zabić obcego na moim terytorium, jeżeli ostrzeżenia, żeby się wynosił, nie pomogą. Czy to ksiądz, czy ktoś tęczowy, to ode mnie zależy kogo zapraszam. Tak samo admin może banować, jeśli ktoś mu się nie podoba. To oznacza, że zarówno FB jak i YT mogą banować tylko dlatego, że im się nie podoba dany pogląd prezentowany na ich platotformie. Wszelkie utyskiwania tzw. wolnościowców (np. z Konfederacji), że to cenzura, że żyjemy w Orwellu, komunizmie, są żałosne. To co jednak komplikuje sytuacje w przypadku tych mediów, to ich regulamin, który tak naprawdę jest nieprecyzyjny. I w tym kontekście jest spore pole do poprawy - np. można by kazać tym mediom tak skonstruować regulamin, żeby było jasne od początku, że nie można na nim publikować treści antyszczepionkowych, pochwalać teorii spiskowych itd. Gdyby to było od początku jasne, to reguły gry od początku byłyby bardziej sprawiedliwe. Obecnie każdy kto opiera się mainsteamowi zwyczajnie ryzykuje, że zostanie wywalony, z dnia na dzień.

Nakładając obydwa ograniczenia na regułę podstawową, którą wyżej opisałem, dostajemy dość klarowną odpowiedź na pytania jak admin ma się zachować. Im forum jest bardziej anonimowe, tym powinno dawać więcej wolności słowa przy ograniczeniu prawa i poglądów admina.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Badania Maika Larooija i Pettera Törnberga z Uniwersytetu w Amsterdamie pokazują, że negatywny wpływ na społeczeństwo i polaryzacja w mediach społecznościowych nie wynikają wyłącznie z działania algorytmów, lecz mogą być zakorzenione w samej strukturze i dynamice platform. Nadzieje na to, że media społecznościowe staną się platformami prawdziwej debaty i wymiany poglądów rozwiały się już dawno. Coraz więcej dowodów wskazuje, że w praktyce sprzyjają one wzmacnianiu już posiadanych poglądów, polaryzacji, koncentracji wpływu w rękach wąskiej elity oraz nadreprezentacji głosów skrajnych. Larooij i Törnberg postanowili sprawdzić, czy zmiany w architekturze platform mogą ograniczyć te zjawiska.

      Chcąc uniknąć ograniczeń badań obserwacyjnych wynikających z angażowania ochotników, naukowcy stworzyli model, w którym udział wzięły boty utworzone w oparciu o ChatGPT-4o mini. Funkcjonowały one w uproszczonym środowisku przypominającym sieć społecznościową. Każdy z botów posiadał szczegółowy profil zbudowany na podstawie danych z American National Election Studies. Boty mogły publikować posty, udostępniać cudze treści i obserwować innych.

      Mimo prostoty, w modelu pojawiły się znane z rzeczywistości zjawiska: boty miały tendencję do obserwowania tych profili, z którymi dzieliły poglądy, a te boty, które wygłaszały bardziej radykalne opinie miały więcej obserwujących. To pokazuje, że nawet w bardzo uproszczonym środowisku społecznym istnieje tendencja do kierowania większej uwagi na radykałów, zatem do coraz większej polaryzacji. Sądziliśmy, że polaryzacja jest czymś napędzanym przez algorytmy platform społecznościowych, że platformy celowo tak zostały zaprojektowane, żeby maksymalizować zaangażowanie, żeby wkurzyć użytkownika. Dlatego zaprojektowaliśmy najprostszą z możliwych platform, a mimo to uzyskaliśmy takie wyniki – stwierdzają autorzy badań.

      Badacze postanowili przetestować sześć scenariuszy, które miały zaradzić występowaniu niekorzystnych zjawisk i poprawić jakość debaty publicznej. Pierwszy polegał na wyświetlaniu postów w porządku chronologicznym, podczas drugiego ograniczono widoczność postów o dużej liczbie udostępnień, a w trzecim promowano wpisy o przeciwnym zabarwieniu politycznym. Czwarty scenariusz polegał na preferowaniu treści o korzystnych cechach (jak np. empatia czy logiczne argumentowanie), w scenariuszu piątym ukryto statystyki postów i użytkowników, a w szóstym usunięto z systemu rekomendacji biogramy użytkowników. Mimo to znowu uzyskano niekorzystne wyniki. To sugeruje, że wynikają one z jakiegoś podstawowego zjawiska związanego z zachowaniem, z umieszczeniem postów, udostępnianiem ich, obserwowaniem innych – komentują naukowcy.
      Największy wpływ na działania botów miało chronologiczne wyświetlanie postów. Posty mniej popularne zyskały więcej uwagi. Paradoksalnie jednak doprowadziło to do wzmocnienia ekstremistycznego przekazu. Być może radykalne treści bardziej wyróżniały się na neutralnym tle innych postów. Również ograniczenie wyświetlania najpopularniejszych postów skutkowało zwiększeniem uwagi skierowanej na posty mniej popularne, ale nie miało to wpływu na żadne inne elementy. Podsuwanie użytkownikom postów o odmiennych poglądach politycznych nie wpłynęło na zachowania botów. Nadal angażowały się one w interakcje z wpisami zgodnymi z ich poglądami. Potwierdza to wnioski z innych badań pokazujące, że sama prezentacja odmiennych poglądów nie wystarcza, by przeciwnik brał je pod uwagę.
      Pewien pozytywny skutek miało promowanie postów wysokiej jakości. Zmniejszyło ono zaangażowanie botów po własnej stronie ideologicznej i w niewielkim stopniu zwiększyło zaangażowanie po stronie przeciwnej. Jednocześnie jednak doprowadziło to do zwiększenia nierówności w odbiorze postów - boty zaczęły zwracać uwagę na wysokiej jakości posty tworzone przez „elitę”.
      Ukrywanie statystyk postów i statystyk użytkowników skutkowało jedynie nieznacznym wzrostem uwagi w kierunku mniej popularnych postów i użytkowników. Jednostronne zaangażowanie ideologiczne nie uległo zmianie.
      Symulacja pokazała, że nawet bez skomplikowanych algorytmów optymalizujących zaangażowanie, podstawowe mechanizmy działania mediów społecznościowych mogą prowadzić do tych samych patologii, co w prawdziwych serwisach. Kluczowy okazał się mechanizm sprzężenia zwrotnego między emocjonalnie nacechowanym zaangażowaniem a wzrostem sieci kontaktów.
      Udostępnienia treści nie tylko zwiększały zasięg sieci danego użytkownika, ale też przyciągały nowych obserwujących, co w kolejnych iteracjach wzmacniało widoczność podobnych treści i użytkowników. W ten sposób utrwalała się polaryzacja, nierówny rozkład uwagi i przewaga głosów skrajnych.
      Badania sugerują, że popularne wyjaśnienie problemów mediów społecznościowych poprzez „winę algorytmów” jest uproszczone. Algorytmy mogą pogłębiać zjawiska, ale ich źródła tkwią głębiej — w sposobie, w jaki platformy są zaprojektowane do nagradzania i reprodukowania emocjonalnych interakcji. To oznacza, że kosmetyczne zmiany w logice rekomendacji czy układzie interfejsu prawdopodobnie nie wystarczą. Jeśli celem jest stworzenie przestrzeni sprzyjającej konstruktywnej wymianie poglądów, konieczne może być gruntowne przeprojektowanie mechaniki widoczności i interakcji, nawet kosztem spadku zaangażowania czy liczby aktywnych użytkowników.

      Autorzy podkreślają, że ich symulacja ma charakter wstępny i nie uwzględnia czynników takich jak doświadczenie użytkownika czy biznesowa opłacalność platform. Niemniej metoda generatywnej symulacji społecznej otwiera nowe możliwości testowania hipotetycznych scenariuszy w kontrolowanych warunkach. Choć wiąże się to z wyzwaniami — od kalibracji wyników po ryzyko stronniczości modeli — może być cennym narzędziem do badania tego, co naprawdę napędza dynamikę życia społecznego w sieci.
      Rozwiązanie problemów polaryzacji napędzanej przez platformy społecznościowe może wymagać odważnych, strukturalnych reform. Nie chodzi tylko o naprawianie algorytmów, ale o zmianę samej logiki, według której platformy społecznościowe kształtują i nagradzają ludzkie interakcje. To być może jedyne rozwiązanie, które daje realną szansę na poprawę jakości debaty publicznej online.
      Wyniki badań zostały opublikowane w serwisie arXiv.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przez lata uważano, że jedynie silnie zaangażowani politycznie, a jednocześnie mniej wykształceni odbiorcy informacji medialnych, przedkładają potwierdzenie własnych poglądów nad prawdę. Innymi słowy, że wierzą w informacje potwierdzające ich poglądy, niezależnie od tego, czy są prawdziwe. W ostatnich latach zaczęły się ukazywać badania, które wykazały, że konsumenci informacji – bez względu nad wykształcenie – przedkładają poglądy nad prawdę. W 2021 roku jedno z badań wykazało nawet, że wiarygodność informacji była oceniana czterokrotnie wyżej wówczas, gdy informacja potwierdzała poglądy odbiorcy. Nowe badania przynoszą więcej szczegółów na ten temat i pokazują, w jakim stopniu ludzie są skłonni poświęcić prawdę dla ideologii.
      W czasie naszych badań obserwowaliśmy, że większą odgrywa polityczne samookreślenie niż prawda. Widzieliśmy to po obu stronach sporu politycznego, nawet u ludzi, którzy dobrze wypadali w testach racjonalnego rozumowania. Zdziwiło nas, jak szeroko rozpowszechnione to zjawisko. Ludzie bardzo mocno angażują się, by nie poznać niewygodnej prawdy, mówi główny autor badań, doktor Michael Schwalbe z Wydziału Psychologii w School of Humanities and Sciences na Uniwersytecie Stanforda.
      Co interesujące, zjawisko to jest bardziej widoczne w przypadku prawdziwych informacji niż fałszywych, co oznacza, że ludzie z większym prawdopodobieństwem odrzucą prawdziwe informacje jeśli przeczą ich poglądom, niż zaakceptują fałszywe informacje, potwierdzające ich poglądy.
      Wszyscy uważają, że to problem, który ich nie dotyczy. Twierdzą, że w ich przypadku jest inaczej. Jednak jak wykazują kolejne badania, to zjawisko stale występujące w całym spektrum poglądów politycznych i niezależny od wykształcenia. Problemem nie jest tutaj sama dezinformacja, a filtry, które zbudowaliśmy w naszym mózgu, mówi profesor Geoffrey L. Cohen.
      Autorzy badań mówią, że ich wyniki różnią się od badań wcześniejszych, ze względu na inną metodologię. Na przykład wcześniejsze badania korzystały z prawdziwych nagłówków prasowych, a Cohen i Schwalbe stworzyli własne nagłówki. Ponadto podczas wcześniejszych badań osoby biorące w nich udział miały wgląd w to, z jakich mediów pochodziły prezentowane im nagłówki i informowano ich, jaki jest cel badań. Uczeni ze Stanforda nie zdradzili, co naprawdę badają. Poinformowali badanych, że chodzi o kwestie związane z pamięcią i komunikacją, wykorzystali też pytania dotyczące tych właśnie zagadnień, by badani nie domyślili się prawdziwego celu eksperymentu.
      Cohen i Schwalbe prowadzili swoje badania w 2020 roku, podczas wcześniejszych wyborów, które Donald Trump przegrał z Joe Bidenem. Zespół naukowy przedstawił badanym fałszywe nagłówki prasowe, na przykład Trump pokonał arcymistrza szachowego czy Trump, przebrany za papieża, wziął udział prywatnej orgii z okazji Halloween. Okazało się, że obie strony sporu politycznego bardziej wierzyły w fałszywe informacje potwierdzające ich poglądy, niż w prawdziwe informacje przeczące ich poglądom.
      Naukowcy zauważyli, że jednym z głównych powodów odrzucania prawdy na rzecz własnej ideologii, jest coraz silniejsze skupienie się na mediach przedstawiających jeden punkt widzenia oraz przekonanie o obiektywizmie i braku tendencyjności po własnej stronie sporu politycznego w porównaniu ze stroną przeciwną. Innymi słowy, im kto więcej konsumował informacji z mediów prezentujących jego punkt widzenia i im bardziej był przekonany, że jego strona sporu politycznego jest obiektywna, tym bardziej odrzucał niewygodną prawdę na rzecz potwierdzenia swoich poglądów. Sytuację pogarsza zamykanie się we własnych bańkach informacyjnych w mediach społecznościowych.
      Schwalbe i Cohen mówią, że problemu tego nie rozwiąże walka z fałszywymi informacjami, gdyż ludzie odrzucają prawdziwe informacje, które nie potwierdzają ich poglądów. Zdaniem uczonych, ważną rolę mogłoby odegrać nauczenie ludzi nieco intelektualnej skromności. Uświadomienie konsumentom informacji, że rozum może ich zwodzić i nauczenie ich kwestionowania swojego punktu widzenia, gdyż nie jest on jedynym słusznym i prawdziwym.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Częste sprawdzanie mediów społecznościowych przez nastolatków jest powiązane ze zmianami w mózgach, decydującymi o tym, jak młodzi ludzie reagują na otoczenie – informują autorzy jednego z pierwszych długoterminowych badań nad używaniem nowoczesnych technologii a rozwojem układu nerwowego nastolatków. Z badań, których wyniki opublikowano na łamach JAMA Pediatrics wynika, że dzieci, które często sprawdzają media społecznościowe, stają się nadwrażliwe na opinie rówieśników, mówi profesor Eva Telzer z University of North Carolina at Chapel Hill.
      Większość nastolatków zaczyna używać mediów społecznościowych w jednym z najważniejszych w ludzkim życiu momentów rozwoju mózgu, przypomina współautor badań Mitch Prinstein. Wczesne lata nastoletnie to okres intensywnego rozwoju i organizacji mózgu. Pod względem intensywności ustępuje on jedynie wczesnemu dzieciństwu. W tym czasie silnie rozwijają się m.in. regiony związane z reakcją na nagrody i kary społeczne.
      Autorzy badań przez trzy lata śledzili losy 169 uczniów. Na początku badań każdy z nich określił, jak często korzysta z Facebooka, Instagrama i Snapchata. Rozpiętość odpowiedzi wahała się od „mniej niż raz dziennie” do „ponad 20 razy dziennie”. Co roku uczestnikom przeprowadzano badania za pomocą funkcjonalnego rezonansu magnetycznego (fMRI), w czasie których wypełniali zadania związane z interakcją na platformach społecznościowych i reakcjami ich rówieśników. Obrazowanie fMRI pozwoliło na obserwowanie, które regiony mózgu są aktywowane pod wpływem społecznych nagród i jak reakcja taka zmienia się w czasie.
      U osób, które w wieku 12 lat sprawdzały swoje profile społecznościowe więcej niż 15 razy na dobę, w kolejnych trzech latach pojawił się inny wzorzec reakcji mózgu niż u ich rówieśników rzadziej korzystających z mediów społecznościowych. Mózgi takich osób coraz bardziej skupiały się na mediach społecznościowych i coraz silnej reagowały na wyrażane w nich opinie. Młodzi ludzie stawali się nadwrażliwi.
      Autorzy badań nie wiedza, co to oznacza dla przyszłości takich osób. Może to powodować, że ludzie ci będą coraz bardziej wrażliwi na opinie innych i zjawisko to utrzyma się też w dorosłości. Skądinąd wiemy, że częste używanie mediów społecznościowych może prowadzić do zachowań kompulsywnych i uzależnień. Nie można jednak wykluczyć, że zaobserwowane zmiany to adaptacje pomagające radzić sobie w coraz bardziej cyfrowym świecie. Nie wiemy, czy to dobrze czy źle. Jeśli mózg w ten sposób dostosowuje się do cyfrowej przestrzeni, pomaga nastolatkom odnaleźć się w świecie, w którym żyją, może być to bardzo dobre zjawisko. Jeśli jednak będzie to prowadziło do uzależnień i zachowań kompulsywnych oraz zmniejszy możliwość angażowania się w prawidłowe relacje społeczne, to źle, mówi Telzer.
      Specjaliści przyznają, że powyższe badania to ważny krok w kierunku lepszego zrozumienia wpływu mediów społecznościowych i cyfryzacji na mózg nastolatka oraz konsekwencje dla jego dorosłego życia. Ze względu na stopień złożoności mózgu, trudno jest badać i obrazować wszystkie zachodzące w nim procesy. Dlatego też potrzeba jeszcze wielu badań, zarówno obserwacyjnych jak i eksperymentalnych, zanim jednoznacznie będziemy mogli odpowiedzieć na wiele pytań trapiących i specjalistów, i rodziców.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Chłopcy i dziewczęta mogą w różnym wieku odczuwać negatywne skutki używania platform społecznościowych, wynika z badań przeprowadzonych przez międzynarodową grupę ekspertów. Z badań opublikowanych na łamach Nature Communications wynika, że u dziewcząt negatywny związek pomiędzy używaniem platform społecznościowych a satysfakcją z życia pojawia się w wieku 11-13 lat, u chłopców zaś w wieku 14-15 lat. Ponadto zwiększająca się częstotliwość używania mediów społecznościowych jest też wskaźnikiem mniejszego zadowolenia z życia w wieku 19 lat.
      Wyniki badań sugerują, że wrażliwość na oddziaływanie mediów społecznościowych może być powiązana ze zmianami rozwojowymi, prawdopodobnie ze zmianami w strukturach mózgu lub z dojrzewaniem, które u chłopców zachodzi później niż u dziewcząt. W przypadku obu zaś płci używanie mediów społecznościowych jest powiązane ze spadkiem satysfakcji z własnego życia w wieku 19 lat. Tutaj, jak uważają badacze, rolę mogą odgrywać czynniki społeczne, gdyż w tym wieku wiele osób opuszcza dom by udać się na studia lub rozpoczyna pracę, co czyni je bardziej wrażliwymi na negatywne oddziaływania zewnętrzne.
      Media społecznościowe doprowadziły u młodych ludzi do olbrzymiej zmiany sposobu spędzania czasu, wymiany informacji i interakcji z innymi. Naukowców interesuje wpływ mediów społecznościowych na dobrostan ich użytkowników. Autorzy omawianych badań sprawdzali związek pomiędzy używaniem mediów społecznościowych a satysfakcją z własnego życia. Zidentyfikowali dzięki temu kluczowe okresy dojrzewania, kiedy to media społecznościowe są powiązane ze spadkiem satysfakcji z życia. Uczeni zauważyli też, że nastolatkowie, którzy są mniej zadowoleni z życia, częściej używają mediów społecznościowych.
      Związek pomiędzy mediami społecznościowymi a dobrostanem jest bardzo złożony. Zmiany w naszych organizmach, takiej jak rozwój mózgu i dojrzewanie oraz nasze otoczenie społeczne wydają się powodować, że w pewnych okresach życia jesteśmy bardziej wrażliwi, mówi główna autorka badań, doktor Amy Orben z University of Cambridge.
      Profesor Andrzej Przybylski, dyrektor ds. badań w Oxford Internet Institute dodaje, że obecnie ilość czasu, jaką przy mediach społecznościowych spędzają młodzi ludzie to tajemnica zarówno dla badaczy, jak i dla rodziców. Tutaj nie chodzi o to, że media społecznościowe są dobre lub złe. Chodzi o to, co interesuje młodych ludzi, dlaczego ich używają i jak się one wpisują w szerszy obraz życia rodzinnego.
      Naukowcy chcą zidentyfikować krytyczne momenty w życiu, w których nastolatki są najbardziej narażone na negatywne oddziaływanie mediów społecznościowych. To pozwoli bowiem na postawienie wielu interesujących pytań. Żeby dowiedzieć się, kto może być najbardziej podatny na wpływ mediów społecznościowych potrzebujemy badań łączących obiektywne dane behawioralne z pomiarami rozwoju biologicznego i poznawczego. Dlatego też wzywamy platformy społecznościowe, by w większym stopniu dzieliły się swoimi danymi z naukowcami, dodaje Przybylski.
      Autorzy badań przeanalizowali dane dotyczące około 84 000 Brytyjczyków w wieku od 10 do 80 lat. Wśród nich było 17 400 osób w wieku 10–21 lat w przypadku których uczeni dysponowali również indywidualnymi danymi długoterminowymi.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W lutym Facebook zaczął usuwać posty, w których twierdzono, że koronawirus SARS-CoV-2 jest dziełem człowieka. Działanie takie było częścią kampanii mającej na celu usuwanie fałszywych stwierdzeń na temat COVID-19 i szczepionek. Posty automatycznie usuwano, a użytkownik, który wielokrotnie takie treści publikował, narażał się na blokadę konta. Teraz Facebook znosi zakaz i pozwala na publikowanie informacji o tym, że SARS-CoV-2 został stworzony przez ludzi.
      W świetle toczącego się śledztwa dotyczącego pochodzenia COVID-19 oraz po konsultacjach z ekspertami ds. zdrowia publicznego, zdecydowaliśmy, że nie będziemy więcej blokowali twierdzeń, jakoby COVID-19 był dziełem człowieka. Będziemy nadal współpracować z ekspertami by dotrzymywać kroku zmieniającej się naturze pandemii i aktualizować naszą politykę w miarę, jak pojawiają się nowe fakty i trendy, oświadczyli przedstawiciele Facebooka.
      Do zmiany polityki Facebooka doszło po tym, jak The Wall Street Journal poinformował, że amerykańskie służby specjalne zdobyły wskazówki sugerujące, iż wirus mógł wydostać się z laboratorium. Zdaniem służb, w listopadzie 2019 roku trzech pracowników Instytutu Wirologii w Wuhan trafiło do szpitala z objawami podobnymi do grypy.
      Facebook z jednej strony poluzował algorytmy ograniczające wolność wypowiedzi, z drugiej zaś strony, tego samego dnia, zaczął ostrzej traktować użytkowników, którzy regularnie rozpowszechniają fałszywe informacje.
      Zgodnie z nowymi zasadami, jeśli posty jakiegoś użytkownika zostaną wielokrotnie oznaczone jako fałszywe, Facebook usunie wszystkie jego posty, nawet te, które jako fałszywe nie były oznaczone. Ponadto użytkownicy, którzy mają w ulubionych profile rozpowszechniające fałszywe informacje, będą przed tymi profilami ostrzegani za pomocą wyskakujących okienek.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...