Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Media społecznościowe napędzają polaryzację przez swą strukturę, nie algorytmy

Rekomendowane odpowiedzi

Badania Maika Larooija i Pettera Törnberga z Uniwersytetu w Amsterdamie pokazują, że negatywny wpływ na społeczeństwo i polaryzacja w mediach społecznościowych nie wynikają wyłącznie z działania algorytmów, lecz mogą być zakorzenione w samej strukturze i dynamice platform. Nadzieje na to, że media społecznościowe staną się platformami prawdziwej debaty i wymiany poglądów rozwiały się już dawno. Coraz więcej dowodów wskazuje, że w praktyce sprzyjają one wzmacnianiu już posiadanych poglądów, polaryzacji, koncentracji wpływu w rękach wąskiej elity oraz nadreprezentacji głosów skrajnych. Larooij i Törnberg postanowili sprawdzić, czy zmiany w architekturze platform mogą ograniczyć te zjawiska.

Chcąc uniknąć ograniczeń badań obserwacyjnych wynikających z angażowania ochotników, naukowcy stworzyli model, w którym udział wzięły boty utworzone w oparciu o ChatGPT-4o mini. Funkcjonowały one w uproszczonym środowisku przypominającym sieć społecznościową. Każdy z botów posiadał szczegółowy profil zbudowany na podstawie danych z American National Election Studies. Boty mogły publikować posty, udostępniać cudze treści i obserwować innych.

Mimo prostoty, w modelu pojawiły się znane z rzeczywistości zjawiska: boty miały tendencję do obserwowania tych profili, z którymi dzieliły poglądy, a te boty, które wygłaszały bardziej radykalne opinie miały więcej obserwujących. To pokazuje, że nawet w bardzo uproszczonym środowisku społecznym istnieje tendencja do kierowania większej uwagi na radykałów, zatem do coraz większej polaryzacji. Sądziliśmy, że polaryzacja jest czymś napędzanym przez algorytmy platform społecznościowych, że platformy celowo tak zostały zaprojektowane, żeby maksymalizować zaangażowanie, żeby wkurzyć użytkownika. Dlatego zaprojektowaliśmy najprostszą z możliwych platform, a mimo to uzyskaliśmy takie wyniki – stwierdzają autorzy badań.

Badacze postanowili przetestować sześć scenariuszy, które miały zaradzić występowaniu niekorzystnych zjawisk i poprawić jakość debaty publicznej. Pierwszy polegał na wyświetlaniu postów w porządku chronologicznym, podczas drugiego ograniczono widoczność postów o dużej liczbie udostępnień, a w trzecim promowano wpisy o przeciwnym zabarwieniu politycznym. Czwarty scenariusz polegał na preferowaniu treści o korzystnych cechach (jak np. empatia czy logiczne argumentowanie), w scenariuszu piątym ukryto statystyki postów i użytkowników, a w szóstym usunięto z systemu rekomendacji biogramy użytkowników. Mimo to znowu uzyskano niekorzystne wyniki. To sugeruje, że wynikają one z jakiegoś podstawowego zjawiska związanego z zachowaniem, z umieszczeniem postów, udostępnianiem ich, obserwowaniem innych – komentują naukowcy.

Największy wpływ na działania botów miało chronologiczne wyświetlanie postów. Posty mniej popularne zyskały więcej uwagi. Paradoksalnie jednak doprowadziło to do wzmocnienia ekstremistycznego przekazu. Być może radykalne treści bardziej wyróżniały się na neutralnym tle innych postów. Również ograniczenie wyświetlania najpopularniejszych postów skutkowało zwiększeniem uwagi skierowanej na posty mniej popularne, ale nie miało to wpływu na żadne inne elementy. Podsuwanie użytkownikom postów o odmiennych poglądach politycznych nie wpłynęło na zachowania botów. Nadal angażowały się one w interakcje z wpisami zgodnymi z ich poglądami. Potwierdza to wnioski z innych badań pokazujące, że sama prezentacja odmiennych poglądów nie wystarcza, by przeciwnik brał je pod uwagę.

Pewien pozytywny skutek miało promowanie postów wysokiej jakości. Zmniejszyło ono zaangażowanie botów po własnej stronie ideologicznej i w niewielkim stopniu zwiększyło zaangażowanie po stronie przeciwnej. Jednocześnie jednak doprowadziło to do zwiększenia nierówności w odbiorze postów - boty zaczęły zwracać uwagę na wysokiej jakości posty tworzone przez „elitę”.

Ukrywanie statystyk postów i statystyk użytkowników skutkowało jedynie nieznacznym wzrostem uwagi w kierunku mniej popularnych postów i użytkowników. Jednostronne zaangażowanie ideologiczne nie uległo zmianie.

Symulacja pokazała, że nawet bez skomplikowanych algorytmów optymalizujących zaangażowanie, podstawowe mechanizmy działania mediów społecznościowych mogą prowadzić do tych samych patologii, co w prawdziwych serwisach. Kluczowy okazał się mechanizm sprzężenia zwrotnego między emocjonalnie nacechowanym zaangażowaniem a wzrostem sieci kontaktów.

Udostępnienia treści nie tylko zwiększały zasięg sieci danego użytkownika, ale też przyciągały nowych obserwujących, co w kolejnych iteracjach wzmacniało widoczność podobnych treści i użytkowników. W ten sposób utrwalała się polaryzacja, nierówny rozkład uwagi i przewaga głosów skrajnych.

Badania sugerują, że popularne wyjaśnienie problemów mediów społecznościowych poprzez „winę algorytmów” jest uproszczone. Algorytmy mogą pogłębiać zjawiska, ale ich źródła tkwią głębiej — w sposobie, w jaki platformy są zaprojektowane do nagradzania i reprodukowania emocjonalnych interakcji. To oznacza, że kosmetyczne zmiany w logice rekomendacji czy układzie interfejsu prawdopodobnie nie wystarczą. Jeśli celem jest stworzenie przestrzeni sprzyjającej konstruktywnej wymianie poglądów, konieczne może być gruntowne przeprojektowanie mechaniki widoczności i interakcji, nawet kosztem spadku zaangażowania czy liczby aktywnych użytkowników.

Autorzy podkreślają, że ich symulacja ma charakter wstępny i nie uwzględnia czynników takich jak doświadczenie użytkownika czy biznesowa opłacalność platform. Niemniej metoda generatywnej symulacji społecznej otwiera nowe możliwości testowania hipotetycznych scenariuszy w kontrolowanych warunkach. Choć wiąże się to z wyzwaniami — od kalibracji wyników po ryzyko stronniczości modeli — może być cennym narzędziem do badania tego, co naprawdę napędza dynamikę życia społecznego w sieci.

Rozwiązanie problemów polaryzacji napędzanej przez platformy społecznościowe może wymagać odważnych, strukturalnych reform. Nie chodzi tylko o naprawianie algorytmów, ale o zmianę samej logiki, według której platformy społecznościowe kształtują i nagradzają ludzkie interakcje. To być może jedyne rozwiązanie, które daje realną szansę na poprawę jakości debaty publicznej online.

Wyniki badań zostały opublikowane w serwisie arXiv.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Naprawdę ktoś robił badania dotyczące emocji i zmian postaw na...podstawie botów? Serio? LLMy przewidują jedno słowo po drugim na postawie tego jakie słowa i w jakiej kolejności występowały w tym tekście, którym uczono owy model językowy. LLMy nie myślą, nie analizują znaczenia słów, a już na pewno nie mają emocji. Mogą jedynie odtwarzać coś co już się działo czyli jakoś tam uwzględniać emocje, które były wyrażane w tekstach użytych do uczenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, gorzynsk napisał:

Naprawdę ktoś robił badania dotyczące emocji i zmian postaw na...podstawie botów? Serio?

Skoro eksperymenty na botach skutkowały tymi samymi zjawiskami, co działania ludzkie, to może ich wykorzystanie jest uprawnione? Może nie jesteśmy ani tak wyjątkowi, ani tak skomplikowani, jak chcielibyśmy o sobie myśleć.

  • Lubię to (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, gorzynsk napisał:

Naprawdę ktoś robił badania dotyczące emocji i zmian postaw na...podstawie botów? Serio?

Ciekawe użycie nieuprawnionego argumentu "ad hominem" do bota AI :)

W moim odczuciu eksperyment ujawnił podstawowe mechanizmy uzależnienia. Mechanizmy tak podstawowe, że można je odnaleźć nawet w przyrodzie nieożywionej. Żeby pozbawić platformy takich zjawisk trzeba by zmienić naturę ludzką. Ale jeśli to faktycznie ten powód - sprawa jest prosta. Zaangażować, albo płacić ekspertom działającym jak dziennikarze, tworzący alternatywne ciekawe materiały, z tematów zupełnie nie przylegających do powszechnej dyskusji. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, Ergo Sum napisał:

Ciekawe użycie nieuprawnionego argumentu "ad hominem" do bota AI :)

Nie bardzo rozumiem gdzie tu argument ad hominem? Obraziłem bota?

Dla mnie to nie jest eksperyment tylko analiza uśrednionych zachowań ludzi, których wypowiedzi w internecie zostały użyte do uczenia modelu. Nie da się w ten sposób przetestować czegoś co wcześniej nie miało miejsca i nie zostało przedstawione modelowi w procesie uczenia. Model tylko szuka w sobie odpowiedzi na pytanie "co człowiek kiedyś napisał na tak zadanie pytanie". To "myślenie" AI, którym tak się chwalą firmy AI to też zadawanie kolejnych pytań o to jaka była statystycznie najczęstsza odpowiedź na kolejne i kolejne pytanie. A jak odpowiedzi nie było w zbiorze do nauki to LLM coś zmyśli co nazywa się halucynacjami. LLMy nie myślą, nie mają wyobraźni, nie mają emocji. To nie jest jeszcze ten rodzaj AI, który opisywała fantastyka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 godziny temu, Mariusz Błoński napisał:

Może nie jesteśmy ani tak wyjątkowi, ani tak skomplikowani, jak chcielibyśmy o sobie myśleć.

Zdecydowanie. Do przeciętnego ludzia nie trzeba tak wielu parametrów; wzbudzić szybko współczucie/ gniew/ nienawiść to dziś banalna sztuka. W rozumieniu tego bardzo pomogły nam właśnie systemy AI, choć oczywiście bardziej kumaci osiągali to wcześniej równie szybko. ;) 

3 godziny temu, gorzynsk napisał:

Model tylko szuka w sobie odpowiedzi na pytanie "co człowiek kiedyś napisał na tak zadanie pytanie".

Gratuluję znajomości działania "algorytmów AI" (tak, to nie jest cynizm, bo zwyczajne szyderstwo :)). Myślę, że ostatni "Nobelek" w zakresie fizyki - choć kontrowersyjny dla wielu - dobrze oddaje to, o co chodzi. Ogrom danych treningowych może porażać przeciętnego Nowaka, ale naprawdę w internecie nie zadano wszystkich możliwych pytań, i dłuuugo się to jeszcze nie zdarzy. :P

3 godziny temu, gorzynsk napisał:

A jak odpowiedzi nie było w zbiorze do nauki to LLM coś zmyśli co nazywa się halucynacjami.

A wiesz jak często LUDZIE oszukują? :) Częściej niż Ci się wydaje, a nawet zdecydowanie częściej. LLM-y to "tylko" pochodna naszego "funkcjonowania".

P.S. Na marginesie. Bardziej nawiedzajcie się "społecznościówkami", łatwiej będzie was prowadzać na smyczy; w końcu wystarczą komendy typu "siad" i "waruj"... Nawet nie wiecie jak to już się dzieje... ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Częste sprawdzanie mediów społecznościowych przez nastolatków jest powiązane ze zmianami w mózgach, decydującymi o tym, jak młodzi ludzie reagują na otoczenie – informują autorzy jednego z pierwszych długoterminowych badań nad używaniem nowoczesnych technologii a rozwojem układu nerwowego nastolatków. Z badań, których wyniki opublikowano na łamach JAMA Pediatrics wynika, że dzieci, które często sprawdzają media społecznościowe, stają się nadwrażliwe na opinie rówieśników, mówi profesor Eva Telzer z University of North Carolina at Chapel Hill.
      Większość nastolatków zaczyna używać mediów społecznościowych w jednym z najważniejszych w ludzkim życiu momentów rozwoju mózgu, przypomina współautor badań Mitch Prinstein. Wczesne lata nastoletnie to okres intensywnego rozwoju i organizacji mózgu. Pod względem intensywności ustępuje on jedynie wczesnemu dzieciństwu. W tym czasie silnie rozwijają się m.in. regiony związane z reakcją na nagrody i kary społeczne.
      Autorzy badań przez trzy lata śledzili losy 169 uczniów. Na początku badań każdy z nich określił, jak często korzysta z Facebooka, Instagrama i Snapchata. Rozpiętość odpowiedzi wahała się od „mniej niż raz dziennie” do „ponad 20 razy dziennie”. Co roku uczestnikom przeprowadzano badania za pomocą funkcjonalnego rezonansu magnetycznego (fMRI), w czasie których wypełniali zadania związane z interakcją na platformach społecznościowych i reakcjami ich rówieśników. Obrazowanie fMRI pozwoliło na obserwowanie, które regiony mózgu są aktywowane pod wpływem społecznych nagród i jak reakcja taka zmienia się w czasie.
      U osób, które w wieku 12 lat sprawdzały swoje profile społecznościowe więcej niż 15 razy na dobę, w kolejnych trzech latach pojawił się inny wzorzec reakcji mózgu niż u ich rówieśników rzadziej korzystających z mediów społecznościowych. Mózgi takich osób coraz bardziej skupiały się na mediach społecznościowych i coraz silnej reagowały na wyrażane w nich opinie. Młodzi ludzie stawali się nadwrażliwi.
      Autorzy badań nie wiedza, co to oznacza dla przyszłości takich osób. Może to powodować, że ludzie ci będą coraz bardziej wrażliwi na opinie innych i zjawisko to utrzyma się też w dorosłości. Skądinąd wiemy, że częste używanie mediów społecznościowych może prowadzić do zachowań kompulsywnych i uzależnień. Nie można jednak wykluczyć, że zaobserwowane zmiany to adaptacje pomagające radzić sobie w coraz bardziej cyfrowym świecie. Nie wiemy, czy to dobrze czy źle. Jeśli mózg w ten sposób dostosowuje się do cyfrowej przestrzeni, pomaga nastolatkom odnaleźć się w świecie, w którym żyją, może być to bardzo dobre zjawisko. Jeśli jednak będzie to prowadziło do uzależnień i zachowań kompulsywnych oraz zmniejszy możliwość angażowania się w prawidłowe relacje społeczne, to źle, mówi Telzer.
      Specjaliści przyznają, że powyższe badania to ważny krok w kierunku lepszego zrozumienia wpływu mediów społecznościowych i cyfryzacji na mózg nastolatka oraz konsekwencje dla jego dorosłego życia. Ze względu na stopień złożoności mózgu, trudno jest badać i obrazować wszystkie zachodzące w nim procesy. Dlatego też potrzeba jeszcze wielu badań, zarówno obserwacyjnych jak i eksperymentalnych, zanim jednoznacznie będziemy mogli odpowiedzieć na wiele pytań trapiących i specjalistów, i rodziców.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Stała struktury subtelnej (α) to być może najważniejsza ze stałych we wszechświecie. Opisuje siłę oddziaływań elektromagnetycznych i jest kombinacją trzech podstawowych stałych przyrody – ładunku elektronu, stałej Plancka i prędkości światła. Istnieje wiele metod pomiaru tej stałej. Zwykle pomiary takie są dokonywane pośrednio, poprzez pomiar innych właściwości fizycznych i obliczenie na tej podstawie wartości α. Na Uniwersytecie Technicznym w Wiedniu (TU Wien) przeprowadzono eksperyment, w trakcie którego udało się po raz pierwszy bezpośrednio zmierzyć wartość stałej struktury subtelnej.
      Stała struktury subtelnej opisuje siłę oddziaływań elektromagnetycznych. Wskazuje, z jaką siłą naładowane cząstki, takie jak elektrony, reagują z polem magnetycznym. Jej wartość wynosi 1/137, gdyby była nieco inna – powiedzmy 1/136 – świat, jaki znamy, nie mógłby istnieć Atomy miałyby inne rozmiary, wszystkie procesy chemiczne przebiegałyby inaczej, inaczej też przebiegałyby reakcje termojądrowe w gwiazdach. Co interesujące, naukowcy spierają się o to, czy stała struktury subtelnej jest rzeczywiście stałą, czy też w ciągu miliardów lat jej wartość uległa niewielkim zmianom.
      Większość ważnych stałych fizycznych to wartości wymiarowe, wyrażane w konkretnych jednostkach, na przykład prędkość światła wyrażamy w metrach na sekundę. Stała struktury subtelnej jest inna. Nie ma tutaj jednostek, to po prostu liczba. Jest to stała bezwymiarowa, wyjaśnia profesor Andrei Pimenow z Instytutu Fizyki Ciała Stałego na TU Wien.
      Pimenov oraz jego koledzy z TU Wien i naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles przeprowadzili pierwszy eksperyment, podczas którego możliwe było dokonanie bezpośrednich pomiarów wartości stałej struktury subtelnej.
      Światło lasera jest spolaryzowane liniowo, oscyluje wertykalnie. Gdy podczas eksperymentu trafia na dysk z materiału o grubości liczonej w nanometrach, jego polaryzacja ulega zmianie. Samo w sobie nie jest to niczym niezwykłym. Wiele materiałów powoduje zmianę polaryzacji światła laserowego. Dzięki interakcji fotonów z polem elektromagnetycznym można polaryzację można obracać. Przy silnych polach magnetycznych i w niskich temperaturach pojawia się kwantowy efekt Halla, a zmiany polaryzacji są proporcjonalne do stałej struktury subtelnej. Jednak konieczność używania silnego pola magnetycznego powoduje, że trzeba uwzględnić je w równaniach opisujących α, co utrudnia przygotowanie eksperymentu.
      Podczas ostatniego eksperymentu naukowcy wykorzystali światło terahercowego lasera, które nakierowali na cienki dysk izolatora topologicznego o wzorze chemicznym (Cr0.12Bi0.26Sb0.62)2Te3. Materiał zawiera chrom, ma więc wbudowane pole magnetyczne. Gdy naukowcy przyjrzeli się zmianie polaryzacji światła po przejściu przez dysk okazało się, że doszło do skokowej, a nie płynnej, zmiany kąta polaryzacji i wynosiła ona tyle, ile wartość α. Stała struktury subtelnej jest tutaj natychmiast widoczna jako kąt, cieszy się Pimenov.
      I mimo że pomiary te nie dały tak dokładnego wyniku, jak pomiary pośrednie, to – jak podkreśla Pimenov – główną korzyścią jest tutaj możliwość otrzymania podstawowej stałej fizycznej z bezpośredniego eksperymentu, a nie poleganie na innych pomiarach i precyzji kalibracji sprzętu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
      Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
      Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
      To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
      Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Chłopcy i dziewczęta mogą w różnym wieku odczuwać negatywne skutki używania platform społecznościowych, wynika z badań przeprowadzonych przez międzynarodową grupę ekspertów. Z badań opublikowanych na łamach Nature Communications wynika, że u dziewcząt negatywny związek pomiędzy używaniem platform społecznościowych a satysfakcją z życia pojawia się w wieku 11-13 lat, u chłopców zaś w wieku 14-15 lat. Ponadto zwiększająca się częstotliwość używania mediów społecznościowych jest też wskaźnikiem mniejszego zadowolenia z życia w wieku 19 lat.
      Wyniki badań sugerują, że wrażliwość na oddziaływanie mediów społecznościowych może być powiązana ze zmianami rozwojowymi, prawdopodobnie ze zmianami w strukturach mózgu lub z dojrzewaniem, które u chłopców zachodzi później niż u dziewcząt. W przypadku obu zaś płci używanie mediów społecznościowych jest powiązane ze spadkiem satysfakcji z własnego życia w wieku 19 lat. Tutaj, jak uważają badacze, rolę mogą odgrywać czynniki społeczne, gdyż w tym wieku wiele osób opuszcza dom by udać się na studia lub rozpoczyna pracę, co czyni je bardziej wrażliwymi na negatywne oddziaływania zewnętrzne.
      Media społecznościowe doprowadziły u młodych ludzi do olbrzymiej zmiany sposobu spędzania czasu, wymiany informacji i interakcji z innymi. Naukowców interesuje wpływ mediów społecznościowych na dobrostan ich użytkowników. Autorzy omawianych badań sprawdzali związek pomiędzy używaniem mediów społecznościowych a satysfakcją z własnego życia. Zidentyfikowali dzięki temu kluczowe okresy dojrzewania, kiedy to media społecznościowe są powiązane ze spadkiem satysfakcji z życia. Uczeni zauważyli też, że nastolatkowie, którzy są mniej zadowoleni z życia, częściej używają mediów społecznościowych.
      Związek pomiędzy mediami społecznościowymi a dobrostanem jest bardzo złożony. Zmiany w naszych organizmach, takiej jak rozwój mózgu i dojrzewanie oraz nasze otoczenie społeczne wydają się powodować, że w pewnych okresach życia jesteśmy bardziej wrażliwi, mówi główna autorka badań, doktor Amy Orben z University of Cambridge.
      Profesor Andrzej Przybylski, dyrektor ds. badań w Oxford Internet Institute dodaje, że obecnie ilość czasu, jaką przy mediach społecznościowych spędzają młodzi ludzie to tajemnica zarówno dla badaczy, jak i dla rodziców. Tutaj nie chodzi o to, że media społecznościowe są dobre lub złe. Chodzi o to, co interesuje młodych ludzi, dlaczego ich używają i jak się one wpisują w szerszy obraz życia rodzinnego.
      Naukowcy chcą zidentyfikować krytyczne momenty w życiu, w których nastolatki są najbardziej narażone na negatywne oddziaływanie mediów społecznościowych. To pozwoli bowiem na postawienie wielu interesujących pytań. Żeby dowiedzieć się, kto może być najbardziej podatny na wpływ mediów społecznościowych potrzebujemy badań łączących obiektywne dane behawioralne z pomiarami rozwoju biologicznego i poznawczego. Dlatego też wzywamy platformy społecznościowe, by w większym stopniu dzieliły się swoimi danymi z naukowcami, dodaje Przybylski.
      Autorzy badań przeanalizowali dane dotyczące około 84 000 Brytyjczyków w wieku od 10 do 80 lat. Wśród nich było 17 400 osób w wieku 10–21 lat w przypadku których uczeni dysponowali również indywidualnymi danymi długoterminowymi.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      NCBJ koordynuje polski udział w największym w dotychczasowej historii przedsięwzięciu astronomii obserwacyjnej. W polu widzenia teleskopu budowanego w Chile znajdzie się jednorazowo obszar 40-krotnie większy od tarczy Księżyca. Obserwacje zaplanowane na 10 lat dostarczą m.in. danych o obiektach zmiennych. Naukowcy z NCBJ działający w ramach zespołu ASTROdust już dziś przygotowują algorytmy, które wzbogacą zestaw informacji pozyskanych z obserwacji.
      We współczesnej astrofizyce i kosmologii obserwacyjnej bardzo istotną rolę pełnią duże przeglądy nieba. Największym obecnie tego typu przeglądem w zakresie optycznym jest SDSS (ang. Sloan Digital Sky Survey), pokrywający ok. 35% całej sfery niebieskiej i obejmujący głównie Wszechświat lokalny. Dalej – czy też głębiej, jak mówią astronomowie – z pokryciem wynoszącym ~1/3 obszaru obejmowanego przez SDSS, sięga powstający obecnie DES (ang. Dark Energy Survey). Przeglądy te mają jednak podstawową wadę – są statyczne, pokazują obiekty w jednym momencie obserwacji. Nie ujmują one wielu informacji o obiektach zmiennych, których Wszechświat jest pełen – kwazarach, gwiazdach, asteroidach. Lukę w obserwacjach zmiennego Wszechświata ma wypełnić nowy międzynarodowy projekt Legacy Survey of Space and Time (LSST), realizowany w budowanym właśnie Obserwatorium Very Rubin (Vera Rubin Observatory) w Chile. Przegląd, do którego obserwacje mają się rozpocząć już w 2024 roku, przez 10 lat co trzy dni będzie skanował obszar 18 000 stopni kwadratowych południowego nieba. Dzięki temu stanie się nie tylko najgłębszym istniejącym katalogiem, ale też stworzy unikalny film pokazujący, jak będzie zmieniało się niebo w tym okresie.
      Żaden przegląd nie zawiera wszystkich informacji, jakich potrzebujemy, żeby w pełni zrozumieć obserwowane obiekty. LSST będzie tzw. przeglądem fotometrycznym, dostarczającym obrazu nieba w sześciu filtrach optycznych. Jeśli będziemy potrzebowali dodatkowych informacji – np. widm spektroskopowych albo danych zebranych w podczerwieni - będziemy musieli poszukać ich gdzie indziej albo prowadzić dodatkowe obserwacje. Warto jednak wiedzieć z góry, w jakich sytuacjach takie dodatkowe dane będą niezbędne. Badacze z Narodowego Centrum Badań Jądrowych, pod kierunkiem doktoranta Gabriele'a Riccio i jego promotorki prof. Katarzyny Małek, we współpracy z naukowcami z innych międzynarodowych ośrodków postawili sobie pytanie: jak dobrze możemy zmierzyć fizyczne własności galaktyk, korzystając wyłącznie z danych LSST i jak możemy ten pomiar poprawić? W tym celu naukowcy stworzyli symulowany katalog najbardziej typowych galaktyk we Wszechświecie - galaktyk aktywnych gwiazdotwórczo, obserwowanych w przedziale przesunięcia ku czerwieni 0 < z < 2,5 (czyli aż do 11 mld lat świetlnych od nas), tak jak będzie widział je LSST. Symulacje oparto o prawdziwe dane 50 000 galaktyk, zaobserwowanych w ramach przeglądu HELP (ang. Herschel Extragalactic Legacy Project). Dane HELP, zawierające pomiary galaktyk w szerokim zakresie widma od ultrafioletu, przez optykę, do dalekiej podczerwieni, pozwalają mierzyć własności fizyczne galaktyk bardzo dokładnie. Pytanie brzmi: na ile będzie to możliwe, jeśli będziemy mieli do dyspozycji wyłącznie dane LSST?
      Badacze skupili się na takich parametrach, jak całkowita masa gwiazdowa, masa pyłu, całkowita jasność galaktyki w podczerwieni czy tempo powstawania gwiazd w galaktyce. Parametry wyznaczone z symulowanych obserwacji porównano z parametrami wyznaczonymi na podstawie danych obserwacyjnych z katalogu HELP. Okazało się, że podstawowe parametry charakteryzujące część gwiazdową galaktyki, takie jak masa gwiazdowa, będziemy mierzyć bardzo dokładnie. Natomiast wartości parametrów związanych z zapyleniem galaktyki, czyli na przykład tłumienie pyłu czy tempo powstawania nowych gwiazd w otoczeniu chmur pyłowych, wyznaczone wyłącznie na podstawie danych LSST, będą przeszacowane. Co gorsza, stopień przeszacowania zależy od odległości galaktyki od nas. Nie jest to całkiem zaskakujące, bo zarówno procesy gwiazdotwórcze w galaktykach, jak i powiązaną z nimi emisję pyłu najlepiej obserwować w podczerwieni, który to zakres nie będzie dostępny dla LSST. Wiedząc jednak, jakiego błędu się spodziewać, naukowcy byli w stanie zaproponować poprawki, jakie trzeba będzie stosować w pracy z rzeczywistymi danymi LSST. Zespół ASTROdust, pod kierownictwem prof. Katarzyny Małek, wraz z międzynarodowymi współpracownikami z Francji i Chile rozpoczął prace nad zaimplementowaniem tych poprawek w ogólnodostępnych narzędziach umożliwiających modelowanie galaktyk. Praca ta, dotycząca użycia masy gwiazdowej jako wskazówki niezbędnej do wyznaczenia wartości tłumienia pyłu w ultrafioletowym zakresie widma galaktyki, pomoże w poprawnym opisie podstawowych parametrów fizycznych analizowanych galaktyk.
      Badania zespołu ASTROdust to tylko jedna z wielu aktywności naukowców z polskich instytucji, które planowane są w ramach polskiego udziału w Obserwatorium Very Rubin i projekcie LSST. Obecnie w skład polskiego konsorcjum LSST wchodzą: NCBJ jako jednostka koordynująca, UJ, UMK, UW, CAMK PAN oraz CFT PAN. W ramach polskiego wkładu własnego planowana jest m.in. budowa lokalnego centrum danych w Polsce - mówi prof. Agnieszka Pollo kierująca Zakładem Astrofizyki NCBJ i jednocześnie projektem polskiego konsorcjum LSST. Grupa zainteresowanych w Polsce ciągle rośnie, a lista afiliowanych naukowców liczy kilkadziesiąt osób. Wszyscy jesteśmy podekscytowani projektem i nie możemy się doczekać tych petabajtów danych oraz badań i licznych publikacji na ich podstawie. To dane, jakich jeszcze nie było, więc i szansa na zupełnie nowe, nieoczekiwane odkrycia. Ale będą też i wyzwania logistyczne: jak radzić sobie z ogromnymi zbiorami danych? Jak adaptować do nich metody uczenia maszynowego? A wreszcie - jak pokazała omawiana wyżej praca Riccio et al. (2021) - dane LSST same w sobie nie zawsze wystarczą.
      LSST będzie kluczowym elementem układanki wielu zestawów danych – wyjaśnia dr hab. Katarzyna Małek z Zakładu Astrofizyki NCBJ. Co prawda dane pozyskane w ramach LSST będą bardzo dokładne i bardzo szczegółowe, jednak nadal będą to tylko optyczne dane fotometryczne. Będziemy musieli je uzupełniać danymi z innych obserwatoriów - na przykład pozyskanymi przy pomocy teleskopów Europejskiego Obserwatorium Południowego (ESO), wystrzelonego 25 grudnia 2021 roku Teleskopu Jamesa Webba (JWST) albo teleskopu SALT (ang. Southern African Large Telescope), na którym polscy astronomowie mają prawo do 10% czasu obserwacyjnego. Dlatego staramy się teraz dobrze zaplanować nasze miejsce w tej układance.
      Badania astronomiczne i astrofizyczne należą do grupy badań podstawowych, które przede wszystkim poszerzają naszą wiedzę o świecie i prawach nim rządzących. Dzięki badaniom LSST spodziewamy się lepiej zrozumieć naturę materii i energii we Wszechświecie i zweryfikować podstawowe prawa fizyki" – tłumaczy profesor Pollo. "Obserwacje będą też dotyczyć naszej bezpośredniej kosmicznej okolicy - w ramach przeglądu prowadzony będzie monitoring asteroid bliskich Ziemi, co znacząco zwiększy szanse wczesnego wykrycia potencjalnie niebezpieczniej dla nas asteroidy. Od jeszcze bardziej praktycznej strony - dane zebrane przez LSST, bezprecedensowo duże i złożone, będą wymagały rozwinięcia wyrafinowanych metod i algorytmów uczenia maszynowego, które potem zapewne znajdą zastosowanie także i w narzędziach wykorzystywanych w naszym codziennym życiu.
      Informacje o projekcie LSST:
      Legacy Survey of Space and Time (LSST) to międzynarodowy projekt obserwacyjny, który będzie realizowany za pomocą teleskopu o średnicy 8,4 m w Obserwatorium Very Rubin (Vera C. Rubin Observatory), umiejscowionym 2 682 m n.p.m. na górze Cerro Pachón w Chile. Teleskop o polu widzenia ponad 9 stopni kwadratowych (obserwujący jednorazowo ok. 40 razy większy obszar nieba niż tarcza Księżyca w pełni) w ciągu 10 lat mapowania całego południowego nieba dostarczy ok. 500 petabajtów danych w formie zdjęć oraz danych liczbowych – wartości strumieni fotometrycznych. Szacuje się, że w ciągu tygodnia będzie zbierał tyle danych, ile obejmuje cały przegląd SDSS! Główne projekty realizowane w ramach LSST skupione będą na: badaniu ciemnej materii i ciemnej energii, poszukiwaniu bliskich asteroid potencjalnie zagrażających Ziemi (tzw. Near Earth Objects, NEO), badaniu zmienności obiektów kosmicznych oraz mapowaniu Drogi Mlecznej.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...