
Media społecznościowe napędzają polaryzację przez swą strukturę, nie algorytmy
dodany przez
KopalniaWiedzy.pl, w Psychologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Częste sprawdzanie mediów społecznościowych przez nastolatków jest powiązane ze zmianami w mózgach, decydującymi o tym, jak młodzi ludzie reagują na otoczenie – informują autorzy jednego z pierwszych długoterminowych badań nad używaniem nowoczesnych technologii a rozwojem układu nerwowego nastolatków. Z badań, których wyniki opublikowano na łamach JAMA Pediatrics wynika, że dzieci, które często sprawdzają media społecznościowe, stają się nadwrażliwe na opinie rówieśników, mówi profesor Eva Telzer z University of North Carolina at Chapel Hill.
Większość nastolatków zaczyna używać mediów społecznościowych w jednym z najważniejszych w ludzkim życiu momentów rozwoju mózgu, przypomina współautor badań Mitch Prinstein. Wczesne lata nastoletnie to okres intensywnego rozwoju i organizacji mózgu. Pod względem intensywności ustępuje on jedynie wczesnemu dzieciństwu. W tym czasie silnie rozwijają się m.in. regiony związane z reakcją na nagrody i kary społeczne.
Autorzy badań przez trzy lata śledzili losy 169 uczniów. Na początku badań każdy z nich określił, jak często korzysta z Facebooka, Instagrama i Snapchata. Rozpiętość odpowiedzi wahała się od „mniej niż raz dziennie” do „ponad 20 razy dziennie”. Co roku uczestnikom przeprowadzano badania za pomocą funkcjonalnego rezonansu magnetycznego (fMRI), w czasie których wypełniali zadania związane z interakcją na platformach społecznościowych i reakcjami ich rówieśników. Obrazowanie fMRI pozwoliło na obserwowanie, które regiony mózgu są aktywowane pod wpływem społecznych nagród i jak reakcja taka zmienia się w czasie.
U osób, które w wieku 12 lat sprawdzały swoje profile społecznościowe więcej niż 15 razy na dobę, w kolejnych trzech latach pojawił się inny wzorzec reakcji mózgu niż u ich rówieśników rzadziej korzystających z mediów społecznościowych. Mózgi takich osób coraz bardziej skupiały się na mediach społecznościowych i coraz silnej reagowały na wyrażane w nich opinie. Młodzi ludzie stawali się nadwrażliwi.
Autorzy badań nie wiedza, co to oznacza dla przyszłości takich osób. Może to powodować, że ludzie ci będą coraz bardziej wrażliwi na opinie innych i zjawisko to utrzyma się też w dorosłości. Skądinąd wiemy, że częste używanie mediów społecznościowych może prowadzić do zachowań kompulsywnych i uzależnień. Nie można jednak wykluczyć, że zaobserwowane zmiany to adaptacje pomagające radzić sobie w coraz bardziej cyfrowym świecie. Nie wiemy, czy to dobrze czy źle. Jeśli mózg w ten sposób dostosowuje się do cyfrowej przestrzeni, pomaga nastolatkom odnaleźć się w świecie, w którym żyją, może być to bardzo dobre zjawisko. Jeśli jednak będzie to prowadziło do uzależnień i zachowań kompulsywnych oraz zmniejszy możliwość angażowania się w prawidłowe relacje społeczne, to źle, mówi Telzer.
Specjaliści przyznają, że powyższe badania to ważny krok w kierunku lepszego zrozumienia wpływu mediów społecznościowych i cyfryzacji na mózg nastolatka oraz konsekwencje dla jego dorosłego życia. Ze względu na stopień złożoności mózgu, trudno jest badać i obrazować wszystkie zachodzące w nim procesy. Dlatego też potrzeba jeszcze wielu badań, zarówno obserwacyjnych jak i eksperymentalnych, zanim jednoznacznie będziemy mogli odpowiedzieć na wiele pytań trapiących i specjalistów, i rodziców.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Stała struktury subtelnej (α) to być może najważniejsza ze stałych we wszechświecie. Opisuje siłę oddziaływań elektromagnetycznych i jest kombinacją trzech podstawowych stałych przyrody – ładunku elektronu, stałej Plancka i prędkości światła. Istnieje wiele metod pomiaru tej stałej. Zwykle pomiary takie są dokonywane pośrednio, poprzez pomiar innych właściwości fizycznych i obliczenie na tej podstawie wartości α. Na Uniwersytecie Technicznym w Wiedniu (TU Wien) przeprowadzono eksperyment, w trakcie którego udało się po raz pierwszy bezpośrednio zmierzyć wartość stałej struktury subtelnej.
Stała struktury subtelnej opisuje siłę oddziaływań elektromagnetycznych. Wskazuje, z jaką siłą naładowane cząstki, takie jak elektrony, reagują z polem magnetycznym. Jej wartość wynosi 1/137, gdyby była nieco inna – powiedzmy 1/136 – świat, jaki znamy, nie mógłby istnieć Atomy miałyby inne rozmiary, wszystkie procesy chemiczne przebiegałyby inaczej, inaczej też przebiegałyby reakcje termojądrowe w gwiazdach. Co interesujące, naukowcy spierają się o to, czy stała struktury subtelnej jest rzeczywiście stałą, czy też w ciągu miliardów lat jej wartość uległa niewielkim zmianom.
Większość ważnych stałych fizycznych to wartości wymiarowe, wyrażane w konkretnych jednostkach, na przykład prędkość światła wyrażamy w metrach na sekundę. Stała struktury subtelnej jest inna. Nie ma tutaj jednostek, to po prostu liczba. Jest to stała bezwymiarowa, wyjaśnia profesor Andrei Pimenow z Instytutu Fizyki Ciała Stałego na TU Wien.
Pimenov oraz jego koledzy z TU Wien i naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles przeprowadzili pierwszy eksperyment, podczas którego możliwe było dokonanie bezpośrednich pomiarów wartości stałej struktury subtelnej.
Światło lasera jest spolaryzowane liniowo, oscyluje wertykalnie. Gdy podczas eksperymentu trafia na dysk z materiału o grubości liczonej w nanometrach, jego polaryzacja ulega zmianie. Samo w sobie nie jest to niczym niezwykłym. Wiele materiałów powoduje zmianę polaryzacji światła laserowego. Dzięki interakcji fotonów z polem elektromagnetycznym można polaryzację można obracać. Przy silnych polach magnetycznych i w niskich temperaturach pojawia się kwantowy efekt Halla, a zmiany polaryzacji są proporcjonalne do stałej struktury subtelnej. Jednak konieczność używania silnego pola magnetycznego powoduje, że trzeba uwzględnić je w równaniach opisujących α, co utrudnia przygotowanie eksperymentu.
Podczas ostatniego eksperymentu naukowcy wykorzystali światło terahercowego lasera, które nakierowali na cienki dysk izolatora topologicznego o wzorze chemicznym (Cr0.12Bi0.26Sb0.62)2Te3. Materiał zawiera chrom, ma więc wbudowane pole magnetyczne. Gdy naukowcy przyjrzeli się zmianie polaryzacji światła po przejściu przez dysk okazało się, że doszło do skokowej, a nie płynnej, zmiany kąta polaryzacji i wynosiła ona tyle, ile wartość α. Stała struktury subtelnej jest tutaj natychmiast widoczna jako kąt, cieszy się Pimenov.
I mimo że pomiary te nie dały tak dokładnego wyniku, jak pomiary pośrednie, to – jak podkreśla Pimenov – główną korzyścią jest tutaj możliwość otrzymania podstawowej stałej fizycznej z bezpośredniego eksperymentu, a nie poleganie na innych pomiarach i precyzji kalibracji sprzętu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Chłopcy i dziewczęta mogą w różnym wieku odczuwać negatywne skutki używania platform społecznościowych, wynika z badań przeprowadzonych przez międzynarodową grupę ekspertów. Z badań opublikowanych na łamach Nature Communications wynika, że u dziewcząt negatywny związek pomiędzy używaniem platform społecznościowych a satysfakcją z życia pojawia się w wieku 11-13 lat, u chłopców zaś w wieku 14-15 lat. Ponadto zwiększająca się częstotliwość używania mediów społecznościowych jest też wskaźnikiem mniejszego zadowolenia z życia w wieku 19 lat.
Wyniki badań sugerują, że wrażliwość na oddziaływanie mediów społecznościowych może być powiązana ze zmianami rozwojowymi, prawdopodobnie ze zmianami w strukturach mózgu lub z dojrzewaniem, które u chłopców zachodzi później niż u dziewcząt. W przypadku obu zaś płci używanie mediów społecznościowych jest powiązane ze spadkiem satysfakcji z własnego życia w wieku 19 lat. Tutaj, jak uważają badacze, rolę mogą odgrywać czynniki społeczne, gdyż w tym wieku wiele osób opuszcza dom by udać się na studia lub rozpoczyna pracę, co czyni je bardziej wrażliwymi na negatywne oddziaływania zewnętrzne.
Media społecznościowe doprowadziły u młodych ludzi do olbrzymiej zmiany sposobu spędzania czasu, wymiany informacji i interakcji z innymi. Naukowców interesuje wpływ mediów społecznościowych na dobrostan ich użytkowników. Autorzy omawianych badań sprawdzali związek pomiędzy używaniem mediów społecznościowych a satysfakcją z własnego życia. Zidentyfikowali dzięki temu kluczowe okresy dojrzewania, kiedy to media społecznościowe są powiązane ze spadkiem satysfakcji z życia. Uczeni zauważyli też, że nastolatkowie, którzy są mniej zadowoleni z życia, częściej używają mediów społecznościowych.
Związek pomiędzy mediami społecznościowymi a dobrostanem jest bardzo złożony. Zmiany w naszych organizmach, takiej jak rozwój mózgu i dojrzewanie oraz nasze otoczenie społeczne wydają się powodować, że w pewnych okresach życia jesteśmy bardziej wrażliwi, mówi główna autorka badań, doktor Amy Orben z University of Cambridge.
Profesor Andrzej Przybylski, dyrektor ds. badań w Oxford Internet Institute dodaje, że obecnie ilość czasu, jaką przy mediach społecznościowych spędzają młodzi ludzie to tajemnica zarówno dla badaczy, jak i dla rodziców. Tutaj nie chodzi o to, że media społecznościowe są dobre lub złe. Chodzi o to, co interesuje młodych ludzi, dlaczego ich używają i jak się one wpisują w szerszy obraz życia rodzinnego.
Naukowcy chcą zidentyfikować krytyczne momenty w życiu, w których nastolatki są najbardziej narażone na negatywne oddziaływanie mediów społecznościowych. To pozwoli bowiem na postawienie wielu interesujących pytań. Żeby dowiedzieć się, kto może być najbardziej podatny na wpływ mediów społecznościowych potrzebujemy badań łączących obiektywne dane behawioralne z pomiarami rozwoju biologicznego i poznawczego. Dlatego też wzywamy platformy społecznościowe, by w większym stopniu dzieliły się swoimi danymi z naukowcami, dodaje Przybylski.
Autorzy badań przeanalizowali dane dotyczące około 84 000 Brytyjczyków w wieku od 10 do 80 lat. Wśród nich było 17 400 osób w wieku 10–21 lat w przypadku których uczeni dysponowali również indywidualnymi danymi długoterminowymi.
« powrót do artykułu -
przez KopalniaWiedzy.pl
NCBJ koordynuje polski udział w największym w dotychczasowej historii przedsięwzięciu astronomii obserwacyjnej. W polu widzenia teleskopu budowanego w Chile znajdzie się jednorazowo obszar 40-krotnie większy od tarczy Księżyca. Obserwacje zaplanowane na 10 lat dostarczą m.in. danych o obiektach zmiennych. Naukowcy z NCBJ działający w ramach zespołu ASTROdust już dziś przygotowują algorytmy, które wzbogacą zestaw informacji pozyskanych z obserwacji.
We współczesnej astrofizyce i kosmologii obserwacyjnej bardzo istotną rolę pełnią duże przeglądy nieba. Największym obecnie tego typu przeglądem w zakresie optycznym jest SDSS (ang. Sloan Digital Sky Survey), pokrywający ok. 35% całej sfery niebieskiej i obejmujący głównie Wszechświat lokalny. Dalej – czy też głębiej, jak mówią astronomowie – z pokryciem wynoszącym ~1/3 obszaru obejmowanego przez SDSS, sięga powstający obecnie DES (ang. Dark Energy Survey). Przeglądy te mają jednak podstawową wadę – są statyczne, pokazują obiekty w jednym momencie obserwacji. Nie ujmują one wielu informacji o obiektach zmiennych, których Wszechświat jest pełen – kwazarach, gwiazdach, asteroidach. Lukę w obserwacjach zmiennego Wszechświata ma wypełnić nowy międzynarodowy projekt Legacy Survey of Space and Time (LSST), realizowany w budowanym właśnie Obserwatorium Very Rubin (Vera Rubin Observatory) w Chile. Przegląd, do którego obserwacje mają się rozpocząć już w 2024 roku, przez 10 lat co trzy dni będzie skanował obszar 18 000 stopni kwadratowych południowego nieba. Dzięki temu stanie się nie tylko najgłębszym istniejącym katalogiem, ale też stworzy unikalny film pokazujący, jak będzie zmieniało się niebo w tym okresie.
Żaden przegląd nie zawiera wszystkich informacji, jakich potrzebujemy, żeby w pełni zrozumieć obserwowane obiekty. LSST będzie tzw. przeglądem fotometrycznym, dostarczającym obrazu nieba w sześciu filtrach optycznych. Jeśli będziemy potrzebowali dodatkowych informacji – np. widm spektroskopowych albo danych zebranych w podczerwieni - będziemy musieli poszukać ich gdzie indziej albo prowadzić dodatkowe obserwacje. Warto jednak wiedzieć z góry, w jakich sytuacjach takie dodatkowe dane będą niezbędne. Badacze z Narodowego Centrum Badań Jądrowych, pod kierunkiem doktoranta Gabriele'a Riccio i jego promotorki prof. Katarzyny Małek, we współpracy z naukowcami z innych międzynarodowych ośrodków postawili sobie pytanie: jak dobrze możemy zmierzyć fizyczne własności galaktyk, korzystając wyłącznie z danych LSST i jak możemy ten pomiar poprawić? W tym celu naukowcy stworzyli symulowany katalog najbardziej typowych galaktyk we Wszechświecie - galaktyk aktywnych gwiazdotwórczo, obserwowanych w przedziale przesunięcia ku czerwieni 0 < z < 2,5 (czyli aż do 11 mld lat świetlnych od nas), tak jak będzie widział je LSST. Symulacje oparto o prawdziwe dane 50 000 galaktyk, zaobserwowanych w ramach przeglądu HELP (ang. Herschel Extragalactic Legacy Project). Dane HELP, zawierające pomiary galaktyk w szerokim zakresie widma od ultrafioletu, przez optykę, do dalekiej podczerwieni, pozwalają mierzyć własności fizyczne galaktyk bardzo dokładnie. Pytanie brzmi: na ile będzie to możliwe, jeśli będziemy mieli do dyspozycji wyłącznie dane LSST?
Badacze skupili się na takich parametrach, jak całkowita masa gwiazdowa, masa pyłu, całkowita jasność galaktyki w podczerwieni czy tempo powstawania gwiazd w galaktyce. Parametry wyznaczone z symulowanych obserwacji porównano z parametrami wyznaczonymi na podstawie danych obserwacyjnych z katalogu HELP. Okazało się, że podstawowe parametry charakteryzujące część gwiazdową galaktyki, takie jak masa gwiazdowa, będziemy mierzyć bardzo dokładnie. Natomiast wartości parametrów związanych z zapyleniem galaktyki, czyli na przykład tłumienie pyłu czy tempo powstawania nowych gwiazd w otoczeniu chmur pyłowych, wyznaczone wyłącznie na podstawie danych LSST, będą przeszacowane. Co gorsza, stopień przeszacowania zależy od odległości galaktyki od nas. Nie jest to całkiem zaskakujące, bo zarówno procesy gwiazdotwórcze w galaktykach, jak i powiązaną z nimi emisję pyłu najlepiej obserwować w podczerwieni, który to zakres nie będzie dostępny dla LSST. Wiedząc jednak, jakiego błędu się spodziewać, naukowcy byli w stanie zaproponować poprawki, jakie trzeba będzie stosować w pracy z rzeczywistymi danymi LSST. Zespół ASTROdust, pod kierownictwem prof. Katarzyny Małek, wraz z międzynarodowymi współpracownikami z Francji i Chile rozpoczął prace nad zaimplementowaniem tych poprawek w ogólnodostępnych narzędziach umożliwiających modelowanie galaktyk. Praca ta, dotycząca użycia masy gwiazdowej jako wskazówki niezbędnej do wyznaczenia wartości tłumienia pyłu w ultrafioletowym zakresie widma galaktyki, pomoże w poprawnym opisie podstawowych parametrów fizycznych analizowanych galaktyk.
Badania zespołu ASTROdust to tylko jedna z wielu aktywności naukowców z polskich instytucji, które planowane są w ramach polskiego udziału w Obserwatorium Very Rubin i projekcie LSST. Obecnie w skład polskiego konsorcjum LSST wchodzą: NCBJ jako jednostka koordynująca, UJ, UMK, UW, CAMK PAN oraz CFT PAN. W ramach polskiego wkładu własnego planowana jest m.in. budowa lokalnego centrum danych w Polsce - mówi prof. Agnieszka Pollo kierująca Zakładem Astrofizyki NCBJ i jednocześnie projektem polskiego konsorcjum LSST. Grupa zainteresowanych w Polsce ciągle rośnie, a lista afiliowanych naukowców liczy kilkadziesiąt osób. Wszyscy jesteśmy podekscytowani projektem i nie możemy się doczekać tych petabajtów danych oraz badań i licznych publikacji na ich podstawie. To dane, jakich jeszcze nie było, więc i szansa na zupełnie nowe, nieoczekiwane odkrycia. Ale będą też i wyzwania logistyczne: jak radzić sobie z ogromnymi zbiorami danych? Jak adaptować do nich metody uczenia maszynowego? A wreszcie - jak pokazała omawiana wyżej praca Riccio et al. (2021) - dane LSST same w sobie nie zawsze wystarczą.
LSST będzie kluczowym elementem układanki wielu zestawów danych – wyjaśnia dr hab. Katarzyna Małek z Zakładu Astrofizyki NCBJ. Co prawda dane pozyskane w ramach LSST będą bardzo dokładne i bardzo szczegółowe, jednak nadal będą to tylko optyczne dane fotometryczne. Będziemy musieli je uzupełniać danymi z innych obserwatoriów - na przykład pozyskanymi przy pomocy teleskopów Europejskiego Obserwatorium Południowego (ESO), wystrzelonego 25 grudnia 2021 roku Teleskopu Jamesa Webba (JWST) albo teleskopu SALT (ang. Southern African Large Telescope), na którym polscy astronomowie mają prawo do 10% czasu obserwacyjnego. Dlatego staramy się teraz dobrze zaplanować nasze miejsce w tej układance.
Badania astronomiczne i astrofizyczne należą do grupy badań podstawowych, które przede wszystkim poszerzają naszą wiedzę o świecie i prawach nim rządzących. Dzięki badaniom LSST spodziewamy się lepiej zrozumieć naturę materii i energii we Wszechświecie i zweryfikować podstawowe prawa fizyki" – tłumaczy profesor Pollo. "Obserwacje będą też dotyczyć naszej bezpośredniej kosmicznej okolicy - w ramach przeglądu prowadzony będzie monitoring asteroid bliskich Ziemi, co znacząco zwiększy szanse wczesnego wykrycia potencjalnie niebezpieczniej dla nas asteroidy. Od jeszcze bardziej praktycznej strony - dane zebrane przez LSST, bezprecedensowo duże i złożone, będą wymagały rozwinięcia wyrafinowanych metod i algorytmów uczenia maszynowego, które potem zapewne znajdą zastosowanie także i w narzędziach wykorzystywanych w naszym codziennym życiu.
Informacje o projekcie LSST:
Legacy Survey of Space and Time (LSST) to międzynarodowy projekt obserwacyjny, który będzie realizowany za pomocą teleskopu o średnicy 8,4 m w Obserwatorium Very Rubin (Vera C. Rubin Observatory), umiejscowionym 2 682 m n.p.m. na górze Cerro Pachón w Chile. Teleskop o polu widzenia ponad 9 stopni kwadratowych (obserwujący jednorazowo ok. 40 razy większy obszar nieba niż tarcza Księżyca w pełni) w ciągu 10 lat mapowania całego południowego nieba dostarczy ok. 500 petabajtów danych w formie zdjęć oraz danych liczbowych – wartości strumieni fotometrycznych. Szacuje się, że w ciągu tygodnia będzie zbierał tyle danych, ile obejmuje cały przegląd SDSS! Główne projekty realizowane w ramach LSST skupione będą na: badaniu ciemnej materii i ciemnej energii, poszukiwaniu bliskich asteroid potencjalnie zagrażających Ziemi (tzw. Near Earth Objects, NEO), badaniu zmienności obiektów kosmicznych oraz mapowaniu Drogi Mlecznej.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.