
Po raz pierwszy udało się bezpośrednio zmierzyć stałą struktury subtelnej
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Badania Maika Larooija i Pettera Törnberga z Uniwersytetu w Amsterdamie pokazują, że negatywny wpływ na społeczeństwo i polaryzacja w mediach społecznościowych nie wynikają wyłącznie z działania algorytmów, lecz mogą być zakorzenione w samej strukturze i dynamice platform. Nadzieje na to, że media społecznościowe staną się platformami prawdziwej debaty i wymiany poglądów rozwiały się już dawno. Coraz więcej dowodów wskazuje, że w praktyce sprzyjają one wzmacnianiu już posiadanych poglądów, polaryzacji, koncentracji wpływu w rękach wąskiej elity oraz nadreprezentacji głosów skrajnych. Larooij i Törnberg postanowili sprawdzić, czy zmiany w architekturze platform mogą ograniczyć te zjawiska.
Chcąc uniknąć ograniczeń badań obserwacyjnych wynikających z angażowania ochotników, naukowcy stworzyli model, w którym udział wzięły boty utworzone w oparciu o ChatGPT-4o mini. Funkcjonowały one w uproszczonym środowisku przypominającym sieć społecznościową. Każdy z botów posiadał szczegółowy profil zbudowany na podstawie danych z American National Election Studies. Boty mogły publikować posty, udostępniać cudze treści i obserwować innych.
Mimo prostoty, w modelu pojawiły się znane z rzeczywistości zjawiska: boty miały tendencję do obserwowania tych profili, z którymi dzieliły poglądy, a te boty, które wygłaszały bardziej radykalne opinie miały więcej obserwujących. To pokazuje, że nawet w bardzo uproszczonym środowisku społecznym istnieje tendencja do kierowania większej uwagi na radykałów, zatem do coraz większej polaryzacji. Sądziliśmy, że polaryzacja jest czymś napędzanym przez algorytmy platform społecznościowych, że platformy celowo tak zostały zaprojektowane, żeby maksymalizować zaangażowanie, żeby wkurzyć użytkownika. Dlatego zaprojektowaliśmy najprostszą z możliwych platform, a mimo to uzyskaliśmy takie wyniki – stwierdzają autorzy badań.
Badacze postanowili przetestować sześć scenariuszy, które miały zaradzić występowaniu niekorzystnych zjawisk i poprawić jakość debaty publicznej. Pierwszy polegał na wyświetlaniu postów w porządku chronologicznym, podczas drugiego ograniczono widoczność postów o dużej liczbie udostępnień, a w trzecim promowano wpisy o przeciwnym zabarwieniu politycznym. Czwarty scenariusz polegał na preferowaniu treści o korzystnych cechach (jak np. empatia czy logiczne argumentowanie), w scenariuszu piątym ukryto statystyki postów i użytkowników, a w szóstym usunięto z systemu rekomendacji biogramy użytkowników. Mimo to znowu uzyskano niekorzystne wyniki. To sugeruje, że wynikają one z jakiegoś podstawowego zjawiska związanego z zachowaniem, z umieszczeniem postów, udostępnianiem ich, obserwowaniem innych – komentują naukowcy.
Największy wpływ na działania botów miało chronologiczne wyświetlanie postów. Posty mniej popularne zyskały więcej uwagi. Paradoksalnie jednak doprowadziło to do wzmocnienia ekstremistycznego przekazu. Być może radykalne treści bardziej wyróżniały się na neutralnym tle innych postów. Również ograniczenie wyświetlania najpopularniejszych postów skutkowało zwiększeniem uwagi skierowanej na posty mniej popularne, ale nie miało to wpływu na żadne inne elementy. Podsuwanie użytkownikom postów o odmiennych poglądach politycznych nie wpłynęło na zachowania botów. Nadal angażowały się one w interakcje z wpisami zgodnymi z ich poglądami. Potwierdza to wnioski z innych badań pokazujące, że sama prezentacja odmiennych poglądów nie wystarcza, by przeciwnik brał je pod uwagę.
Pewien pozytywny skutek miało promowanie postów wysokiej jakości. Zmniejszyło ono zaangażowanie botów po własnej stronie ideologicznej i w niewielkim stopniu zwiększyło zaangażowanie po stronie przeciwnej. Jednocześnie jednak doprowadziło to do zwiększenia nierówności w odbiorze postów - boty zaczęły zwracać uwagę na wysokiej jakości posty tworzone przez „elitę”.
Ukrywanie statystyk postów i statystyk użytkowników skutkowało jedynie nieznacznym wzrostem uwagi w kierunku mniej popularnych postów i użytkowników. Jednostronne zaangażowanie ideologiczne nie uległo zmianie.
Symulacja pokazała, że nawet bez skomplikowanych algorytmów optymalizujących zaangażowanie, podstawowe mechanizmy działania mediów społecznościowych mogą prowadzić do tych samych patologii, co w prawdziwych serwisach. Kluczowy okazał się mechanizm sprzężenia zwrotnego między emocjonalnie nacechowanym zaangażowaniem a wzrostem sieci kontaktów.
Udostępnienia treści nie tylko zwiększały zasięg sieci danego użytkownika, ale też przyciągały nowych obserwujących, co w kolejnych iteracjach wzmacniało widoczność podobnych treści i użytkowników. W ten sposób utrwalała się polaryzacja, nierówny rozkład uwagi i przewaga głosów skrajnych.
Badania sugerują, że popularne wyjaśnienie problemów mediów społecznościowych poprzez „winę algorytmów” jest uproszczone. Algorytmy mogą pogłębiać zjawiska, ale ich źródła tkwią głębiej — w sposobie, w jaki platformy są zaprojektowane do nagradzania i reprodukowania emocjonalnych interakcji. To oznacza, że kosmetyczne zmiany w logice rekomendacji czy układzie interfejsu prawdopodobnie nie wystarczą. Jeśli celem jest stworzenie przestrzeni sprzyjającej konstruktywnej wymianie poglądów, konieczne może być gruntowne przeprojektowanie mechaniki widoczności i interakcji, nawet kosztem spadku zaangażowania czy liczby aktywnych użytkowników.
Autorzy podkreślają, że ich symulacja ma charakter wstępny i nie uwzględnia czynników takich jak doświadczenie użytkownika czy biznesowa opłacalność platform. Niemniej metoda generatywnej symulacji społecznej otwiera nowe możliwości testowania hipotetycznych scenariuszy w kontrolowanych warunkach. Choć wiąże się to z wyzwaniami — od kalibracji wyników po ryzyko stronniczości modeli — może być cennym narzędziem do badania tego, co naprawdę napędza dynamikę życia społecznego w sieci.
Rozwiązanie problemów polaryzacji napędzanej przez platformy społecznościowe może wymagać odważnych, strukturalnych reform. Nie chodzi tylko o naprawianie algorytmów, ale o zmianę samej logiki, według której platformy społecznościowe kształtują i nagradzają ludzkie interakcje. To być może jedyne rozwiązanie, które daje realną szansę na poprawę jakości debaty publicznej online.
Wyniki badań zostały opublikowane w serwisie arXiv.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Badacze z Uniwersytetu w Tel Awiwie odkryli nowy sposób na przełączanie polaryzacji ultracienkich materiałów ferroelektrycznych. Nazwali swoją metodę „slidetroniką” – slidetronics – gdyż do przełączania dochodzi, gdy sąsiadujące warstwy atomów prześlizgują się w poprzek siebie. Slidetronika może być alternatywnym efektywnym sposobem kontrolowania miniaturowych urządzeń elektrycznych.
Możłiwość przełączania polaryzacji elektrycznej na niewielkich obszarach to kluczowy element nowoczesnych technologii. Stosuje się ją m.in. w dyskach twardych. W ostatnich latach grubość indywidualnych domen o różnej polaryzacji udało się zmniejszyć ze 100 nanometrów do skali atomów. Jednak dalsza miniaturyzacja staje się poważnym problemem, gdyż może dochodzić do długodystansowych interakcji pomiędzy różnymi domenami, która powoduje, że polaryzacja indywidualnych domen zostaje ujednolicona. W miarę zmniejszania domen magnetycznych, efekty powierzchniowe zaczynają odgrywać coraz większą rolę.
Specjaliści, by poradzić sobie z tym problemami, zaczęli rozglądać się za materiałami alternatywnymi dla krzemu, jak heksagonalny azotek boru (h-BN) czy dichalkogenki metali przejściowych (TMD). To materiały, których warstwy mogą mieć grubość atomu i jednocześnie posiadać uporządkowaną strukturę krystaliczną. Tworzy się je z nakładających się na siebie warstw utrzymywanych przez słabe oddziaływania van der Waalsa. Problem jednak w tym, że polaryzacja naturalnie uzyskiwanych jest ograniczona, gdyż materiały te mają tendencję do przyjmowania struktury centrosymetrycznej.
Badacze pracujący pod kierunkiem Moshe Ben Shaloma przełamali tę niepożądaną symetrię kontrolując kąt ułożenia dwóch sąsiadujących warstw hBN. Ułożenie, które łamie symetrię i zachowuje polaryzację to jedno z pięciu możliwych ułożeń dwuwarstwowego h-BN. Podzieliliśmy to na dwie grupy: „równoległą” i „antyrównoległą”, mówi Ben Shalom. W ułożeniu optymalnie antyrównoległym (AA+) atomy azotu z jednej warstwy spoczywają na atomach boru z drugiej. W orientacji niestabilnie równoległej (AA) wszystkie atomu azotu z obu warstw spoczywają na sobie i warstwy się odpychają. Przesuwają się względem siebie do czasu, aż stworzą tylko połowa atomów nachodzi na siebie (konfiguracja AB).
Okazało się, że takie przesunięcie warstw (AB) względem siebie pozwala na lokalne przełączanie polaryzacji. Naukowcy stwierdzili, że taka stabilna polaryzacja może być niezwykle użyteczna w dalszej miniaturyzacji nieulotnych układów pomięci. Elektrony mogą się wydajnie tunelować pomiędzy obiema warstwami i mechanizm ten można wykorzystać do szybkiego odczytu i zapisu polaryzacji.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Najbardziej precyzyjny z dotychczasowych pomiarów wartości stałej struktury subtelnej zarysowuje nowe granice dla teorii mówiących o istnieniu ciemnej materii czy ciemnej energii. Nowa wartość to nie tylko dodatkowy test Modelu Standardowego, ale i wskazówka, gdzie należy poszukiwać ciemnej materii, która wraz z ciemną energią stanowi ponad 90% masy wszechświata.
Stała struktury subtelnej to kombinacja trzech stałych fundamentalnych, stałej Plancka, ładunku elektronu oraz prędkości światła. Łącznie określają one siłę oddziaływań elektromagnetycznych, przez co stała struktury subtelnej powszechnie występuje we wszechświecie. Jako, że jest to wielkość bezwymiarowa, niezależna od systemu jednostek, jest w pewnym sensie bardziej podstawowa niż inne stałe fizyczne, których wartość zmienia się w zależności od systemu.
Niewielka wartość stałej struktury subtelnej, wynosząca około 1/137 wskazuje, że oddziaływania elektromagnetyczne są słabe. To zaś oznacza, że elektrony znajdujące się na orbitach w pewnej odległości od jądra atomu mogą tworzyć wiązania i budować molekuły. To właśnie ta ich właściwość umożliwiła powstanie gwiazd czy planet. Wielu fizyków twierdzi, że takiej a nie innej wartości stałej struktury subtelnej zawdzięczamy własne istnienie. Gdyby bowiem była ona nieco większa lub nieco mniejsza, gwiazdy nie mogłyby syntetyzować cięższych pierwiastków, takich jak np. węgiel. Życie w znanej nam postaci by więc nie istniało.
Dotychczasowe pomiary stałej struktury subtelnej umożliwiły prowadzenie precyzyjnych testów zależności pomiędzy cząstkami elementarnymi. Zależności te są opisane równaniami, tworzącymi Model Standardowy. Każda niezgodność pomiędzy przewidywaniami Modelu a obserwacjami może wskazywać na istnienie nieznanych zjawisk fizycznych.
Zwykle stałą struktury subtelnej mierzy się określając siłę odrzutu atomów absorbujących fotony. Energia kinetyczna tego odrzutu pozwala określić masę atomu. Następnie, na podstawie precyzyjnej znajomości stosunku masy atomu do elektronu, obliczamy masę elektronu. W końcu możemy określić stałą struktury subtelnej z masy elektronu oraz siły wiązań atomowych w wodorze.
Naukowcy pracujący pod kierunkiem profesor Saidy Guellati-Khelifa z Laboratoire Kastler-Brossel schłodzili atomy rubidu do temperatury kilku stopni powyżej zera absolutnego. Następnie za pomocą lasera stworzyli superpozycję dwóch stanów atomowych. Pierwszy ze stanów odpowiadał atomom odrzucanym w wyniku zaabsorbowania fotonów, drugi zaś, atomom, które nie doświadczają odrzutu. Atomy w różnych stanach różnie propagowały się wewnątrz komory próżniowej. Naukowcy dodali wówczas drugi zestaw impulsów laserowych, który doprowadził do „ponownego połączenia” obu części superpozycji.
Im większy był odrzut atomu absorbującego fotony, tym większe przesunięcie fazy względem jego własnej wersji, która nie doświadczała odrzutu. Uczeni wykorzystali tę różnicę do określenia masy atomu, z której następnie wyliczyli stałą struktury subtelnej. W ten sposób określili jej wartość na 1/137,035999206(11). Precyzja pomiaru wynosi 81 części na bilion, jest więc 2,5-krotnie większa niż poprzedni najbardziej precyzyjny pomiar wykonany w 2018 roku na Uniwersytecie Kalifornijskim w Berkeley.
Różnica pomiędzy pomiarem obecnym, a tym z Berkeley rozpoczyna się na 7. cyfrze po przecinku. To zaskoczyło francuskich naukowców, gdyż wskazuje, że albo jedne z pomiarów, albo oba, zawierają nieznany błąd. Autor pomiaru z Berkeley, Holger Müller, komentuje, że wynik uzyskany przez Francuzów potwierdza, iż elektron nie posiada mniejszych struktur i rzeczywiście jest cząstką elementarną.
Francuzi planują teraz potwierdzić wyniki swoich pomiarów korzystając z innego izotopu rubidu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Astrofizycy z Australii i Wielkiej Brytanii poinformowali, że znaleźli dowody na to, iż prawa fizyki są różne w różnych częściach wszechświata. Do takiego wniosku doszedł zespół pracujący pod kierunkiem Johna Webba z Uniwersytetu Nowej Południowej Walii.
Naukowcy badali stałą struktury subtelnej, która jest podstawową stałą fizyczną. Opisuje ona siłę oddziaływań elektromagnetycznych i oznaczana jest jako α. Okazuje się, że wielkość ta wcale nie jest stała.
Uczeni wykorzystali teleskop VLT w Chile oraz teleskop Kecka z Hawajów. Za ich pomocą sprawdzili, w jaki sposób światło z 300 galaktyk położonych w odległości 12 miliardów lat świetlnych jest absorbowane przez atomy pyłu międzygwiezdnego.
Jako że oba teleskopy znajdują się na różnych półkulach Ziemi, muszą być zwrócone w różnych kierunkach.
Porównanie danych z urządzeń wykazało znaczne różnice. Gdy za pomocą teleskopu Kecka patrzymy na północ, to α odległych galaktyk jest średnio mniejsza. Gdy patrzymy na te galaktyki na południe za pomocą VLT - α jest większa - mówi Julian King z University of New South Wales. Różnica jest niewielka, rzędu 1/100 000, ale naukowcy nie wykluczają, że poza horyzontem, który jesteśmy w stanie obserwować, może być ona znacznie większa.
Profesor Webb mówi, że istnieje oś, wzdłuż której alfa ulega zmianie. Sam fakt, że stała struktury subtelnej okazała się zmienną, świadczy o tym, że prawa pozwalające na istnienie życia na Ziemie nie muszą dopuszczać jego pojawienia się w innych obszarach kosmosu. Tam życie może powstawać według całkowicie innych zasad.
Astrofizyk Scott Croom, który nie był zaangażowany w opisywane badania, doradza ostrożność. Mówi, że twierdzenia jego kolegów są rewolucyjne i jeśli się potwierdzą będzie to "fantastyczna rzecz", jednak konieczne są mocne dowody na poparcie ich słów. Przypomina, że podczas tego typu obserwacji łatwo o błędy i już w przeszłości okazywało się, że wiele z obiecujących odkryć okazało się niewypałami, gdyż uzyskane dane zostały zafałszowane przez nieznane wcześniej błędy.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.