Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Jak zważyć galaktyki na potrzeby największych przeglądów nieba?
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Badania Maika Larooija i Pettera Törnberga z Uniwersytetu w Amsterdamie pokazują, że negatywny wpływ na społeczeństwo i polaryzacja w mediach społecznościowych nie wynikają wyłącznie z działania algorytmów, lecz mogą być zakorzenione w samej strukturze i dynamice platform. Nadzieje na to, że media społecznościowe staną się platformami prawdziwej debaty i wymiany poglądów rozwiały się już dawno. Coraz więcej dowodów wskazuje, że w praktyce sprzyjają one wzmacnianiu już posiadanych poglądów, polaryzacji, koncentracji wpływu w rękach wąskiej elity oraz nadreprezentacji głosów skrajnych. Larooij i Törnberg postanowili sprawdzić, czy zmiany w architekturze platform mogą ograniczyć te zjawiska.
Chcąc uniknąć ograniczeń badań obserwacyjnych wynikających z angażowania ochotników, naukowcy stworzyli model, w którym udział wzięły boty utworzone w oparciu o ChatGPT-4o mini. Funkcjonowały one w uproszczonym środowisku przypominającym sieć społecznościową. Każdy z botów posiadał szczegółowy profil zbudowany na podstawie danych z American National Election Studies. Boty mogły publikować posty, udostępniać cudze treści i obserwować innych.
Mimo prostoty, w modelu pojawiły się znane z rzeczywistości zjawiska: boty miały tendencję do obserwowania tych profili, z którymi dzieliły poglądy, a te boty, które wygłaszały bardziej radykalne opinie miały więcej obserwujących. To pokazuje, że nawet w bardzo uproszczonym środowisku społecznym istnieje tendencja do kierowania większej uwagi na radykałów, zatem do coraz większej polaryzacji. Sądziliśmy, że polaryzacja jest czymś napędzanym przez algorytmy platform społecznościowych, że platformy celowo tak zostały zaprojektowane, żeby maksymalizować zaangażowanie, żeby wkurzyć użytkownika. Dlatego zaprojektowaliśmy najprostszą z możliwych platform, a mimo to uzyskaliśmy takie wyniki – stwierdzają autorzy badań.
Badacze postanowili przetestować sześć scenariuszy, które miały zaradzić występowaniu niekorzystnych zjawisk i poprawić jakość debaty publicznej. Pierwszy polegał na wyświetlaniu postów w porządku chronologicznym, podczas drugiego ograniczono widoczność postów o dużej liczbie udostępnień, a w trzecim promowano wpisy o przeciwnym zabarwieniu politycznym. Czwarty scenariusz polegał na preferowaniu treści o korzystnych cechach (jak np. empatia czy logiczne argumentowanie), w scenariuszu piątym ukryto statystyki postów i użytkowników, a w szóstym usunięto z systemu rekomendacji biogramy użytkowników. Mimo to znowu uzyskano niekorzystne wyniki. To sugeruje, że wynikają one z jakiegoś podstawowego zjawiska związanego z zachowaniem, z umieszczeniem postów, udostępnianiem ich, obserwowaniem innych – komentują naukowcy.
Największy wpływ na działania botów miało chronologiczne wyświetlanie postów. Posty mniej popularne zyskały więcej uwagi. Paradoksalnie jednak doprowadziło to do wzmocnienia ekstremistycznego przekazu. Być może radykalne treści bardziej wyróżniały się na neutralnym tle innych postów. Również ograniczenie wyświetlania najpopularniejszych postów skutkowało zwiększeniem uwagi skierowanej na posty mniej popularne, ale nie miało to wpływu na żadne inne elementy. Podsuwanie użytkownikom postów o odmiennych poglądach politycznych nie wpłynęło na zachowania botów. Nadal angażowały się one w interakcje z wpisami zgodnymi z ich poglądami. Potwierdza to wnioski z innych badań pokazujące, że sama prezentacja odmiennych poglądów nie wystarcza, by przeciwnik brał je pod uwagę.
Pewien pozytywny skutek miało promowanie postów wysokiej jakości. Zmniejszyło ono zaangażowanie botów po własnej stronie ideologicznej i w niewielkim stopniu zwiększyło zaangażowanie po stronie przeciwnej. Jednocześnie jednak doprowadziło to do zwiększenia nierówności w odbiorze postów - boty zaczęły zwracać uwagę na wysokiej jakości posty tworzone przez „elitę”.
Ukrywanie statystyk postów i statystyk użytkowników skutkowało jedynie nieznacznym wzrostem uwagi w kierunku mniej popularnych postów i użytkowników. Jednostronne zaangażowanie ideologiczne nie uległo zmianie.
Symulacja pokazała, że nawet bez skomplikowanych algorytmów optymalizujących zaangażowanie, podstawowe mechanizmy działania mediów społecznościowych mogą prowadzić do tych samych patologii, co w prawdziwych serwisach. Kluczowy okazał się mechanizm sprzężenia zwrotnego między emocjonalnie nacechowanym zaangażowaniem a wzrostem sieci kontaktów.
Udostępnienia treści nie tylko zwiększały zasięg sieci danego użytkownika, ale też przyciągały nowych obserwujących, co w kolejnych iteracjach wzmacniało widoczność podobnych treści i użytkowników. W ten sposób utrwalała się polaryzacja, nierówny rozkład uwagi i przewaga głosów skrajnych.
Badania sugerują, że popularne wyjaśnienie problemów mediów społecznościowych poprzez „winę algorytmów” jest uproszczone. Algorytmy mogą pogłębiać zjawiska, ale ich źródła tkwią głębiej — w sposobie, w jaki platformy są zaprojektowane do nagradzania i reprodukowania emocjonalnych interakcji. To oznacza, że kosmetyczne zmiany w logice rekomendacji czy układzie interfejsu prawdopodobnie nie wystarczą. Jeśli celem jest stworzenie przestrzeni sprzyjającej konstruktywnej wymianie poglądów, konieczne może być gruntowne przeprojektowanie mechaniki widoczności i interakcji, nawet kosztem spadku zaangażowania czy liczby aktywnych użytkowników.
Autorzy podkreślają, że ich symulacja ma charakter wstępny i nie uwzględnia czynników takich jak doświadczenie użytkownika czy biznesowa opłacalność platform. Niemniej metoda generatywnej symulacji społecznej otwiera nowe możliwości testowania hipotetycznych scenariuszy w kontrolowanych warunkach. Choć wiąże się to z wyzwaniami — od kalibracji wyników po ryzyko stronniczości modeli — może być cennym narzędziem do badania tego, co naprawdę napędza dynamikę życia społecznego w sieci.
Rozwiązanie problemów polaryzacji napędzanej przez platformy społecznościowe może wymagać odważnych, strukturalnych reform. Nie chodzi tylko o naprawianie algorytmów, ale o zmianę samej logiki, według której platformy społecznościowe kształtują i nagradzają ludzkie interakcje. To być może jedyne rozwiązanie, które daje realną szansę na poprawę jakości debaty publicznej online.
Wyniki badań zostały opublikowane w serwisie arXiv.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Właśnie uruchomione Obserwatorium im. Very C. Rubin – o jego publicznym debiucie informowaliśmy tutaj – pokazało swoją moc. W ciągu zaledwie 10 godzin obserwacji, przeprowadzonych w ciągu 7 nocy, obserwatorium astronomiczne okryło 2104 nowe asteroidy, w tym 7 asteroid bliskich Ziemi, 11 asteroid trojańskich i 9 obiektów transneptunowych.
Na prezentowanym poniżej wideo możecie zobaczyć 7 nieznanych wcześniej asteroid bliskich Ziemi. To te szybko poruszające się żółto-pomarańczowe. Kolejnych 2015 obiektów to obiekty z głównego pasa asteroid, który znajduje się między Marsem a Jowiszem.
Wspomnianych 11 asteroid trojańskich (tzw. Trojańczyków) to asteroidy, które dzielą z Jowiszem orbitę wokółsłoneczną. W dwóch punktach libracyjnych Jowisza znajdują się dwie grupy asteroid. Jedna to „Grecy”, druga „Trojańczycy”. Trojańczycy gonią Greków, a w każdej z grup znajduje się szpieg strony przeciwnej. Więcej o nich znajdziecie w naszym tekście na temat misji Lucy. Mamy też w końcu 9 obiektów transneptunowych, czyli takich, które znajdują się poza orbitą Neptuna.
Powtórzmy jeszcze raz: 1 wyjątkowe obserwatorium astronomiczne, 10 godzin obserwacji i 2104 nieznane dotychczas asteroidy. Wszystkie naziemne i kosmiczne obserwatoria wykrywają około 20 000 nowych asteroid w ciągu roku. To pokazuje, jak olbrzymie możliwości ma Vera C. Rubin Observatory. A musimy pamiętać, że wciąż nie pracuje ono pełną mocą.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Dzisiaj o godzinie 17:00 czasu polskiego zostaną zaprezentowane pierwsze zdjęcia naukowe z Vera C. Rubiny Observatory, jednego z najważniejszych współczesnych obserwatoriów astronomicznych. W obserwatorium zainstalowano najpotężniejszy aparat cyfrowy, jaki kiedykolwiek powstał. Obserwatorium korzysta z Simonyi Survey Telescope, wyposażonego w jedno z największych zwierciadeł głównych, o imponującej średnicy 8,4 metra. Co więcej, jest to jedyny teleskop, w którym zwierciadło główne i trzeciorzędowe zostały zintegrowane. Te wyjątkowe instrumenty będą prowadziły największy przegląd nieba w historii.
Niezwykły teleskop ma też niezwykłą historię. Pomysł projektu, nazwanego początkowo Large Synoptic Survey Telescope, pojawił się w 2001 roku, a w roku 2007 rozpoczęły się – finansowane ze źródeł prywatnych – prace nad głównym zwierciadłem. Juz w styczniu 2008 roku pojawiły się większe pieniądze. Państwo Charles i Lisa Simonyi zadeklarowali 20 milionów dolarów, a kolejnych 10 milionów przeznaczył Bill Gates. Dwa lata później, podczas dekadalnego przeglądu projektów astronomicznych, amerykańska Narodowa Fundacja Nauki uznała LSST za naziemny instrument naukowy o największym priorytecie, a w 2014 roku organizacja uzyskała zezwolenie na sfinansowanie projektu do końca. Zaś w 2018 roku niespodziewanie na budowę obserwatorium przyznano znacznie więcej pieniędzy, niż wnioskowano. Głównymi sponsorami Vera C. Rubin Observatory są Narodowa Fundacja Nauki i Biuro ds. Nauki Departamentu Energii, a za pracę centrum odpowiedzialne jest NOIRLab oraz SLAC National Accelerator Laboratory.
Obserwatorium zbudowano w Chile na Cerro Pachón, a wysokości 2682 metrów nad poziomem morza. Jego głównym celem będzie dziesięcioletni, największy w historii przegląd nieba (Legacy Survey of Space and Time – LSST). W ciągu kilku dni obserwatorium wykona zdjęcia całego południowego nieboskłonu, dostarczając najbardziej szczegółowych jego obrazów w historii. I tak przez dziesięć lat, dzięki czemu można będzie obserwować zmiany zachodzące w przestrzeni kosmicznej. Astronomowie spodziewają się olbrzymiej liczby odkryć. Obserwatorium sfotografuje asteroidy, komety, gwiazdy zmienne czy eksplozje supernowych. Eksperci spodziewają się, że zarejestrowanych zostanie 40 miliardów obiektów.
Vera C. Rubin Observatory pozwoli lepiej zrozumieć ciemną energię i ciemną materię, przyczyni się do powstania szczegółowej mapy Układu Słonecznego wraz ze znajdującymi się w nim obiektami, zmapuje Drogę Mleczną, dzięki niemu możliwe będzie badanie obiektów zmieniających w czasie pozycję czy jasność.
Wyjątkowy ośrodek badawczy ma wyjątkową nazwę. LSST przemianowano bowiem na Obserwatorium Very C. Rubin. To pierwsze narodowe obserwatorium USA nazwane imieniem kobiety. To właśnie pionierskie badania Rubin z lat 70. dostarczyły pierwszych dowodów na istnienie ciemnej materii. To m.in. jej prace uświadomiły naukowcom, że we wszechświecie wcale nie dominuje materia widzialna. Rubin zasłużyła sobie na uznanie ciężką pracą. W 1965 roku stała się pierwszą kobietą, która otrzymała zgodę na korzystanie z Palomar Observatory, posiadające wówczas jedne z najbardziej zaawansowanych teleskopów.
Już w pierwszych latach swojej pracy zaczęła zdobywać dowody na istnienie ciemnej materii. Jej prace "były jednymi z najważniejszych odkryć naukowych ubiegłego wieku, nie tylko na polu astronomii, ale również na polu fizyki", mówi dyrektor Vera C. Rubin Observatory, Steve Kahn. Rubin była kilkukrotnie nominowana do Nagrody Nobla, ale nigdy jej nie zdobyła. Zmarła w 2016 roku.
Relację na żywo z prezentacji pierwszych zdjęć można będzie obserwować w serwisie YouTube. Na razie udostępniono fotografie wykonane podczas kalibracji instrumentów naukowych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
NASA zaprezentowała pierwsze zdjęcia pełnowymiarowego prototypu sześciu teleskopów, które w przyszłej dekadzie rozpoczną pracę w kosmicznym wykrywaczu fal grawitacyjnych. Budowane przez ekspertów z NASA teleskopy to niezwykle ważne elementy misji LISA (Laser Interferometer Space Antenna), przygotowywanej przez Europejską Agencję Kosmiczną (ESA).
W skład misji LISA będą wchodziły trzy pojazdy kosmiczne, a na pokładzie każdego z nich znajdą się po dwa teleskopy NASA. W 2015 roku ESA wystrzeliła misję LISA Pathfinder, która przetestowała technologie potrzebne do stworzenia misji LISA. Kosmiczny wykrywacz fal grawitacyjnych ma rozpocząć pracę w 2035 roku.
LISA będzie składała się z trzech satelitów, tworzących w przestrzeni kosmicznej trójkąt równoboczny. Każdy z jego boków będzie miał długość 2,5 miliona kilometrów. Na pokładzie każdego z pojazdów znajdą się po dwa identyczne teleskopy, przez które do sąsiednich satelitów wysyłany będzie impuls z lasera pracującego w podczerwieni. Promień będzie trafiał w swobodnie unoszące się na pokładzie każdego satelity pokryte złotem kostki ze złota i platyny o boku 46 mm. Teleskopy będą odbierały światło odbite od kostek i w ten sposób, z dokładnością do pikometrów – bilionowych części metra – określą odległość pomiędzy trzema satelitami. Pojazdy będą umieszczone w takim miejscu przestrzeni kosmicznej, że na kostki nie będzie mogło wpływać nic oprócz fal grawitacyjnych. Zatem wszelkie zmiany odległości będą świadczyły o tym, że przez pojazdy przeszła fala grawitacyjna. Każdy z pojazdów będzie miał na pokładzie dwa teleskopy, dwa lasery i dwie kostki.
Formacja trzech pojazdów kosmicznych zostanie umieszczona na podobnej do ziemskiej orbicie wokół Słońca. Będzie podążała za naszą planetą w średniej odległości 50 milionów kilometrów. Zasada działania LISA bazuje na interferometrii laserowej, jest więc podobna do tego, jak działają ziemskie obserwatoria fal grawitacyjnych, takie jak np. opisywane przez nas LIGO. Po co więc budowanie wykrywaczy w kosmosie, skoro odpowiednie urządzenia istnieją na Ziemi?
Im dłuższe ramiona wykrywacza, tym jest on bardziej czuły na fale grawitacyjne o długim okresie. Maksymalna czułość LIGO, którego ramiona mają długość 4 km, przypada na zakres 500 Hz. Tymczasem w przypadku LISY będzie to zakres 0,12 Hz. Kosmiczny interferometr będzie więc uzupełnienie urządzeń, które posiadamy na Ziemi, pozwoli rejestrować fale grawitacyjne, których ziemskie urządzenia nie zauważą.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.