Znajdź zawartość
Wyświetlanie wyników dla tagów 'dezinformacja' .
Znaleziono 3 wyniki
-
Badacze z Instytutu Rozwoju Człowieka im. Maxa Plancka przeprowadzili metaanalizę, której celem było określenie, jakie osoby są najbardziej podatne na nieprawdziwe informacje i dlaczego. Naukowcy wzięli pod uwagę między innymi takie czynniki jak wiek, wykształcenie, poglądy polityczne czy zdolność do analitycznego myślenia. Z ich analizy wynika, że osoby lepiej wykształcone równie łatwo jak mniej wykształcone ulegają fake newsom, a osoby starsze lepiej niż młodsze odróżniają informacje nieprawdziwe od prawdziwych. Około 5 miliardów ludzi korzysta obecnie z mediów społecznościowych, a rozpowszechniane w nich nieprawdziwe informacje – szczególnie w czasie wyborów – stanowią coraz większy problem. Zjawisko ulegania takim fałszywym informacjom jest przedmiotem intensywnych badań naukowych. Doktorant Mubashir Sultan wraz z kolegami przeprowadzili metaanalizę badań dotyczących mieszkańców USA i ich podatności na nieprawdziwe informacje. Uczeni chcieli sprawdzić, jaki wpływ na ocenę wiarygodności informacji mają takie czynniki jak poziom edukacji, płeć, wiek, poglądy polityczne, identyfikacja polityczna, zdolność do analitycznego myślenia czy rozumowanie umotywowane. Badacze nie zauważyli, by poziom edukacji wpływał na zdolność do odróżniania informacji fałszywych od prawdziwych. Jest to sprzeczne z rozpowszechnionym mniemaniem, jakoby osoby lepiej wyedukowane były mniej podatne na manipulacje. Równie nieprawdziwe, a może nawet bardziej, okazało się przekonanie dotyczące wieku. Starsze osoby są często uważane za bardziej podatne na fake newsy. Tymczasem analiza wykazała, że jest wręcz przeciwnie. Lepiej niż osoby młodsze potrafią odróżnić fałszywe nagłówki od prawdziwych. Pewną rolę odgrywała identyfikacja polityczna. Zwolennicy partii Republikańskiej łatwiej ulegali dezinformacji i częściej niż zwolennicy Demokratów uważali fałszywe nagłówki za prawdziwe. Generalnie jednak ludzie mają tendencję do uważania za prawdziwe tych informacji, które potwierdzają ich własne poglądy i odrzucania informacji przeciwnych. Szczególnie podatne na taką dezinformację są zaś osoby o... lepszych zdolnościach analitycznych. O ile bowiem osoby takie lepiej radzą sobie z dezinformacją w ogóle, łatwiej niż inni odróżniają fałszywe nagłówki prasowe od prawdziwych, to tam, gdzie dotyczy to kwestii politycznych, ich poglądów, radzą sobie gorzej. Dzieje się tak, gdyż uruchamiają wówczas mechanizm rozumowania umotywowanego, które ma chronić ich poglądy, wartości i tożsamość polityczną. Jednak najsilniejszy wpływ na ocenę czy informacja jest prawdziwa, czy fałszywa, miała jej powtarzalność. Jeśli badani widzieli już wcześniej jakiś nagłówek prasowy, to częściej uznawali go za prawdziwy niż w przypadku nagłówków, których nie widzieli. To pokazuje, jak niebezpieczne jest powtarzalne wystawienie na dezinformację, szczególnie w mediach społecznościowych. Metaanaliza została wykonana na podstawie surowych danych z 31 eksperymentów naukowych przeprowadzonych w USA w latach 2006–2023. W badaniach tych wzięło udział łącznie 11 561 osób w wieku od 18 do 88 lat. Analiza to część szerzej zakrojonego programu badawczego nad dynamiką środowisk internetowych. Celem programu jest zrozumienie, w jaki sposób cyberprzestrzeń wpływa na postawy i zachowania ludzi. « powrót do artykułu
- 28 odpowiedzi
-
- wykształcenie
- wiek
-
(i 3 więcej)
Oznaczone tagami:
-
Papież Franciszek paradujący po Watykanie w białej, puchowej kurtce od Balenciagi, Donald Trump uciekający przed policją, Władimir Putin za kratkami. To tylko kilka z licznych przykładów zdjęć, które obiegły Internet w ciągu ostatnich miesięcy. Wszystkie mają jedną cechę wspólną – przedstawiają wydarzenia, które nigdy nie miały miejsca. Internet, jaki znamy, czeka rewolucja, a być może już jesteśmy jej naocznymi świadkami. Rozwój technologii chyba jeszcze nigdy nie wiązał się ze zmianami na taką skalę. Mowa o sztucznej inteligencji, czyli AI, która już teraz budzi zarówno fascynację, jak i niepokój. Spreparowane zdjęcia znanych osób obiegają sieć Generatywne narzędzia oparte na sztucznej inteligencji rozwinęły się w ostatnich miesiącach tak bardzo, że mówi się o przełomie. Prawdopodobnie każdy choć raz słyszał takie nazwy jak ChatGPT, Midjourney, DALL-E czy Stable Diffusion. To tylko wierzchołek góry lodowej, bo szum związany z AI jest na tyle duży, że zarówno małe, jak i wielkie przedsiębiorstwa poddają się modzie (i obietnicy zysków), wypuszczając własne aplikacje. Coraz więcej ekspertów zwraca jednak uwagę na to, jak niebezpieczna staje się moda na AI. Już teraz możemy zaobserwować jej wpływ na to, jak postrzegamy rzeczywistość. Przykładowo, poniższe „zdjęcie” zostało wygenerowane za pomocą narzędzia Midjourney i umieszczone na platformie Reddit: Grafika została prędko pochwycona i podbiła wszystkie media społecznościowe. I choć od początku było wiadomo, że została wygenerowana przez AI, to wiele osób zapomniało wspomnieć o tym fakcie, udostępniając ją dalej. Tak narodził się Balenciaga Pope, w którego prawdziwość uwierzyła duża część internautów. Papież Franciszek w kurtce Balenciagi jest bardziej zabawny niż szkodliwy, ale nie jest jedynym przykładem viralowego zdjęcia, na które nabrało się wiele osób, a które zostało najzwyczajniej w świecie spreparowane. Podobny los podzieliły między innymi obrazy przedstawiające Donalda Trumpa w pomarańczowym kombinezonie więziennym czy Władimira Putina klękającego przed Xi Jinpingiem, przewodniczącym Chińskiej Republiki Ludowej. Dlaczego problem dezinformacji staje się tak poważny? Spreparowane obrazy przedstawiające twarze znanych osób nie są niczym nowym w Internecie. Przerabianie zdjęć stało się możliwe już wtedy, gdy powstały narzędzia do obróbki graficznej (z Adobe Photoshopem na czele). Jest jednak różnica między standardowym przerabianiem zdjęć a generowaniem ich za pomocą AI. O ile obsługa programów graficznych (z zadowalającymi rezultatami) wymaga posiadania pewnych umiejętności, o tyle generowanie zdjęć i obrazów za pomocą AI jest darmowe oraz banalnie łatwe. Narzędzia korzystają z promptów, czyli tekstowych podpowiedzi. Wystarczy więc odpowiednio opisać to, co chce się uzyskać, a sztuczna inteligencja wygeneruje obraz na podstawie zapytania. Sprawia to, że właściwie każdy jest dziś w stanie generować treści, które są realistyczne, a jednocześnie nie mają nic wspólnego z rzeczywistością. Sianie dezinformacji, propagandy i rozpowszechnianie kłamstw nigdy nie było tak łatwe, a z drugiej strony – w przyszłości możemy mieć też problem z wiarą we wszystkie wiadomości ze względu na wyuczoną nieufność w stosunku do treści generowanych przez AI. Warto zaznaczyć, że nie tylko sfalsyfikowane zdjęcia stanowią niebezpieczeństwo związane z szerzeniem dezinformacji i „fake newsów”. Rozwój AI dotyka każdego medium. W przyszłości prawdopodobnie trzeba będzie zastanawiać się dwa razy nie tylko nad autentycznością zdjęć, ale i filmów oraz ludzkich głosów. Już teraz możliwe jest wkładanie w usta znanych osób wypowiedzi, które nigdy nie padły. Brzmi to dystopijnie, ale trzeba przyznać jedno – internauci nigdy nie zawodzą, a memy z prezydentami kłócącymi się przy grach wideo to prawdopodobnie najśmieszniejsze, co wynikło z całej tej sytuacji. Moda na AI groźna także z innych powodów Łatwość, z jaką będzie można tworzyć i rozprzestrzeniać materiały propagandowe i dezinformację, to z pewnością jeden z najważniejszych problemów, z którymi będą musieli zmierzyć się wszyscy ludzie korzystający z sieci. AI stanowi jednak również inne zagrożenia. W sklepach Play czy App Store znajdziemy masę aplikacji mobilnych używających sztucznej inteligencji: wirtualnych asystentów, czatboty, filtry upiększające albo zmieniające twarze. Aplikacje te są teraz szczególnie rozchwytywane, ponieważ „boom” na AI trwa w najlepsze. Wiele z nich to jednak w rzeczywistości tylko fasady udające autentyczne narzędzia. Moda na AI ułatwia bowiem oszustom i przestępcom rozprzestrzenianie złośliwego oprogramowania, dlatego dziś czujność jest szczególnie ważna. Warto pamiętać, by uważnie czytać opinie i komentarze na temat każdej aplikacji, którą planujemy pobrać na swoje urządzenie. Dobrze też podjąć dodatkowe środki ostrożności. Tani VPN niestety nie zapewni nam wystarczającej ochrony i nie uchroni przed pobraniem szkodliwego oprogramowania, dlatego rozsądniej jest zainwestować z porządną wirtualną sieć prywatną. Wśród „AI-sceptyków” niepokój budzi również etyka związana z ulepszaniem tej technologii, a właściwie jej brak, gdy mowa na przykład o trenowaniu sieci neuronowych. Narzędzia takie jak ChatGPT czy Midjourney nie tworzą treści z powietrza – zanim zostały wypuszczone na rynek, trenowano je na tysiącach gigabajtów materiałów umieszczonych w Internecie. Obecnie trwa spór o to, czy takie praktyki powinny być w ogóle legalne, jako że twórcy tych materiałów (w tym graficy, pisarze i inni artyści) nigdy nie wyrazili zgody na użyczenie wyników swojej pracy do trenowania systemów mogących ich w przyszłości nawet zastąpić. Jak na razie pewne jest jedno: musimy nauczyć się poważnie zastanawiać nad tym, czy to, co widzimy, na pewno jest autentyczne. « powrót do artykułu
-
- dezinformacja
- zdjęcia
-
(i 1 więcej)
Oznaczone tagami:
-
Fałszywe wspomnienia są bardziej rozpowszechnione niż dotąd sądzono. Wystarczy podzielić się wspomnieniem z innymi ludźmi, porozmawiać o nim, a już dochodzi do swego rodzaju skażenia – przekonuje zespół dr Helen Paterson z Uniwersytetu w Sydney. Fałszywe wspomnienie to przypominanie sobie wydarzeń bądź szczegółów wydarzenia, które nigdy nie miały miejsca. Moje badania koncentrują się na tym, jak ludzie mogą doprowadzić do wzajemnej kontaminacji wspomnień, zwyczajnie o nich rozmawiając. Świadek, który rozmawia o wydarzeniu z drugim świadkiem, z dużym prawdopodobieństwem wciela podawane przez niego mylące informacje do własnego wspomnienia przebiegu zdarzeń. Kiedy dochodzi do takiego skażenia śladu pamięciowego, świadek często nie potrafi odróżnić wiernych [pierwotnych] i nieścisłych [zmodyfikowanych] wspomnień lub jest to dla niego bardzo trudne. Doktor Paterson podkreśla, że najskuteczniejszym mechanizmem tworzenia fałszywych wspomnień jest właśnie rozmowa ze współświadkiem. Opisywane wtedy dane są wykorzystywane z większym prawdopodobieństwem niż informacje zawarte w sugerujących pytaniach czy relacjach mediów z nieścisłościami lub przekłamaniami. Co więcej, nasze badanie pokazało, że zanieczyszczenia pamięci występowały nawet wtedy, gdy ludzi ostrzeżono, że będą narażeni na kontakt z dezinformacją rozpowszechnianą przez innych świadków. Australijczycy zaznaczają, że choć policjanci starają się odseparowywać świadków przestępstwa i powstrzymywać ich od rozmów, w sądach zabrania im się przysłuchiwać wcześniejszym i późniejszym zeznaniom, a prawnicy, przynajmniej australijscy, mogą zakwestionować czyjąś relację, jeśli świadek wcześniej przedyskutował zdarzenia z innymi, w praktyce trudno sprostać temu idealnemu scenariuszowi.
- 4 odpowiedzi
-
- dezinformacja
- rozmowa
-
(i 3 więcej)
Oznaczone tagami: