
Oligopeptydy rozwiązaniem problemu przechowywania informacji
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Uczeni z University of Manchester i Australian National University (ANU) stworzyli magnes składający się z pojedynczej molekuły, który przechowuje zapisane w nim informacje w najwyższej temperaturze ze wszystkich tego rodzajów pamięci. Tego typu molekuły charakteryzuje niezwykle duża pojemność zapisu, nawet 100-krotnie większa niż limit współczesnych technologii. W przyszłości tego typu molekuły mogą zostać wykorzystane do zbudowania pamięci kwantowych czy w spintronice.
Nowa molekuła zachowuje zapisane w niej dane w temperaturze 100 kelwinów, czyli -173 stopni Celsjusza. Jej stworzenie to znaczący krok naprzód w porównaniu z wcześniejszymi „molekularnymi magnesami”, które przechowywały dane w temperaturze 80 kelwinów (-193 stopnie Celsjusza). Oczywiście temperatura potrzebna do pracy wspomnianej molekuły jest znacznie niższa od temperatury pokojowej czy temperatur możliwych do uzyskania za pomocą standardowych urządzeń chłodniczych. Jednak, na co warto zwrócić uwagę, jest to temperatura znacząco wyższa od temperatury ciekłego azotu (77 kelwinów, -196 stopni Celsjusza).
Ciekły azot jest łatwo dostępnym chłodziwem, więc dla koncernów wykorzystujących olbrzymie bazy danych, jak Google, Microsofot, Meta czy Amazon, jego użycie nie powinno stanowić problemu. Natomiast korzyści z zastosowania wspomnianej molekuły mogą być olbrzymie. Dość wspomnieć, że teoretycznie pozwala ona przechować ponad 3TB na powierzchni 1 cm2. To na przykład pół miliona filmików z TikToka czy 3600 płyt CD z muzyką zapisanych na dysku twardym wielkości znaczka pocztowego.
Pamięci magnetyczne są wykorzystywane od dziesięcioleci. Obecnie używane dyski twarde przechowują dane poprzez namagnesowanie niewielkich regionów składających się z wielu atomów, które współdziałają w podtrzymaniu zapisanych danych. Chemiczne molekuły magnetyczne nie potrzebują pomocy sąsiadów, by zachować zapisane w nich dane. To stwarza okazję do zbudowania z nich układów pamięci o olbrzymiej gęstości zapisu. Jednak problemem jest tutaj fakt, że do przechowania tego zapisu wymagają one bardzo niskich temperatur. Badacze z Manchesteru zaprezentowali molekułę, której można zapewnić odpowiednie warunki za pomocą tak powszechnie dostępnego chłodziwa jak ciekły azot.
Kluczem do sukcesu jest tutaj unikatowa struktura złożona z atomu dysprozu umieszczonego między dwoma atomami azotu. Te trzy atomu układają się niemal w linii prostej. Taka architektura zwiększa zdolność materiału do generowania i utrzymania pola magnetycznego. O tym wiadomo było nie od dzisiaj. Dopiero teraz jednak udało się to zrealizować w praktyce.
Zwykle gdy dysproz jest związany jedynie z 2 atomami azotu, powstaje molekuła o zagiętym, nieregularnym kształcie. Uczeni z Manchesteru dodali do całości alken, który łączy się z atomem dysprozu, utrzymując pożądany kształt całości.
Naukowcy z ANU są twórcami analizy numerycznej i nowego modelu opisującego zachowanie się tego typu molekuł. Na ich podstawie uczeni z Manchesteru będą teraz pracowali nad jeszcze lepszymi magnesami molekularnymi.
Źródło: Soft magnetic hysteresis in a dysprosium amide–alkene complex up to 100 kelvin, https://www.nature.com/articles/s41586-025-09138-0
« powrót do artykułu -
przez KopalniaWiedzy.pl
Przez lata uważano, że jedynie silnie zaangażowani politycznie, a jednocześnie mniej wykształceni odbiorcy informacji medialnych, przedkładają potwierdzenie własnych poglądów nad prawdę. Innymi słowy, że wierzą w informacje potwierdzające ich poglądy, niezależnie od tego, czy są prawdziwe. W ostatnich latach zaczęły się ukazywać badania, które wykazały, że konsumenci informacji – bez względu nad wykształcenie – przedkładają poglądy nad prawdę. W 2021 roku jedno z badań wykazało nawet, że wiarygodność informacji była oceniana czterokrotnie wyżej wówczas, gdy informacja potwierdzała poglądy odbiorcy. Nowe badania przynoszą więcej szczegółów na ten temat i pokazują, w jakim stopniu ludzie są skłonni poświęcić prawdę dla ideologii.
W czasie naszych badań obserwowaliśmy, że większą odgrywa polityczne samookreślenie niż prawda. Widzieliśmy to po obu stronach sporu politycznego, nawet u ludzi, którzy dobrze wypadali w testach racjonalnego rozumowania. Zdziwiło nas, jak szeroko rozpowszechnione to zjawisko. Ludzie bardzo mocno angażują się, by nie poznać niewygodnej prawdy, mówi główny autor badań, doktor Michael Schwalbe z Wydziału Psychologii w School of Humanities and Sciences na Uniwersytecie Stanforda.
Co interesujące, zjawisko to jest bardziej widoczne w przypadku prawdziwych informacji niż fałszywych, co oznacza, że ludzie z większym prawdopodobieństwem odrzucą prawdziwe informacje jeśli przeczą ich poglądom, niż zaakceptują fałszywe informacje, potwierdzające ich poglądy.
Wszyscy uważają, że to problem, który ich nie dotyczy. Twierdzą, że w ich przypadku jest inaczej. Jednak jak wykazują kolejne badania, to zjawisko stale występujące w całym spektrum poglądów politycznych i niezależny od wykształcenia. Problemem nie jest tutaj sama dezinformacja, a filtry, które zbudowaliśmy w naszym mózgu, mówi profesor Geoffrey L. Cohen.
Autorzy badań mówią, że ich wyniki różnią się od badań wcześniejszych, ze względu na inną metodologię. Na przykład wcześniejsze badania korzystały z prawdziwych nagłówków prasowych, a Cohen i Schwalbe stworzyli własne nagłówki. Ponadto podczas wcześniejszych badań osoby biorące w nich udział miały wgląd w to, z jakich mediów pochodziły prezentowane im nagłówki i informowano ich, jaki jest cel badań. Uczeni ze Stanforda nie zdradzili, co naprawdę badają. Poinformowali badanych, że chodzi o kwestie związane z pamięcią i komunikacją, wykorzystali też pytania dotyczące tych właśnie zagadnień, by badani nie domyślili się prawdziwego celu eksperymentu.
Cohen i Schwalbe prowadzili swoje badania w 2020 roku, podczas wcześniejszych wyborów, które Donald Trump przegrał z Joe Bidenem. Zespół naukowy przedstawił badanym fałszywe nagłówki prasowe, na przykład Trump pokonał arcymistrza szachowego czy Trump, przebrany za papieża, wziął udział prywatnej orgii z okazji Halloween. Okazało się, że obie strony sporu politycznego bardziej wierzyły w fałszywe informacje potwierdzające ich poglądy, niż w prawdziwe informacje przeczące ich poglądom.
Naukowcy zauważyli, że jednym z głównych powodów odrzucania prawdy na rzecz własnej ideologii, jest coraz silniejsze skupienie się na mediach przedstawiających jeden punkt widzenia oraz przekonanie o obiektywizmie i braku tendencyjności po własnej stronie sporu politycznego w porównaniu ze stroną przeciwną. Innymi słowy, im kto więcej konsumował informacji z mediów prezentujących jego punkt widzenia i im bardziej był przekonany, że jego strona sporu politycznego jest obiektywna, tym bardziej odrzucał niewygodną prawdę na rzecz potwierdzenia swoich poglądów. Sytuację pogarsza zamykanie się we własnych bańkach informacyjnych w mediach społecznościowych.
Schwalbe i Cohen mówią, że problemu tego nie rozwiąże walka z fałszywymi informacjami, gdyż ludzie odrzucają prawdziwe informacje, które nie potwierdzają ich poglądów. Zdaniem uczonych, ważną rolę mogłoby odegrać nauczenie ludzi nieco intelektualnej skromności. Uświadomienie konsumentom informacji, że rozum może ich zwodzić i nauczenie ich kwestionowania swojego punktu widzenia, gdyż nie jest on jedynym słusznym i prawdziwym.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Teleskop Webba (JWST) od kilku tygodni przysyła wspaniałe zdjęcia przestrzeni kosmicznej. JWST może pracować nawet przez 20 lat i w tym czasie będzie badał też egzoplanety. Dzięki olbrzymiej czułości, dostarczy niedostępnych dotychczas informacji o świetle docierającym z ich atmosfer, co pozwoli określenie ich składu, historii i poszukiwanie śladów życia. Jednak, jak się okazuje, teleskop jest tak doskonały, że obecnie stosowane narzędzia mogą niewłaściwe interpretować przesyłane dane.
Grupa naukowców z MIT opublikowała na łamach Nature Astronomy artykuł, w którym informuje, że obecnie używane przez astronomów narzędzia do interpretacji danych ze światła mogą dawać niewłaściwe wyniki w przypadku JWST. Chodzi konkretnie o modele nieprzezroczystości, narzędzia opisujące, jak światło wchodzi w interakcje z materią w zależności od jej właściwości. Mogą one wymagać znacznych zmian, by dorównać precyzji danym z JWST. Jeśli nie zostaną odpowiednio dostosowane to – jak ostrzegają autorzy badań – informacje dotyczące takich właściwości atmosfer egzoplanet jak temperatura, ciśnienie i skład mogą różnić się od rzeczywistych o cały rząd wielkości.
Z punktu widzenia nauki istnieje olbrzymia różnica, czy np. woda stanowi 5% czy 25% składu. Obecne modele nie są w stanie tego odróżnić, stwierdza profesor Julien de Wit. Obecnie używany przez nas model interpretujące dane ze spektrum światła nie przystaje precyzją i jakością do danych, jakie napływają z Teleskopu Webba. Musimy rozwiązać ten problem, wtóruje mu student Prajwal Niraula.
Nieprzezroczystość określa, na ile łatwo foton przechodzi przez badany ośrodek, jak jest absorbowany czy odbijany. Interakcje te zależą też od temperatury i ciśnienia ośrodka. De Wit mówi, że obecnie używany najdoskonalszy model badania nieprzezroczystości bardzo dobrze się sprawdził w przypadku takich instrumentów jak Teleskop Hubble'a. Teraz jednak weszliśmy na kolejny poziom precyzji danych. Wykorzystywany przez nas sposób ich interpretacji nie pozwoli nam wyłapać drobnych subtelności, które mogą decydować np. o tym, czy planeta nadaje się dla życia czy nie.
Uczeni z MIT po analizie najpowszechniej używanego obecnie modelu nieprzezroczystości stwierdzili, że jego wykorzystanie do danych z Webba spowoduje, iż trafimy na „barierę precyzji”. Model ten nie będzie na tyle dokładny, by stwierdzić, czy temperatura na planecie wynosi 27 czy 327 stopni Celsjusza, a stężenie jakiegoś gazu w atmosferze to 5 czy 25 procent.
Wit i jego zespół uważają, że aby poprawić obecnie używane modele konieczne będzie przeprowadzenie więcej badań laboratoryjnych, obliczeń teoretycznych oraz poszerzenie współpracy pomiędzy specjalistami z różnych dziedzin, szczególnie astronomami i ekspertami od spektroskopii.
Możemy wiele zrobić, jeśli będziemy dobrze rozumieli, jak światło wchodzi w interakcje z materią. Dobrze rozumiemy warunki panujące wokół Ziemi. Jednak tam, gdzie mamy do czynienia z innymi typami atmosfery, wszystko się zmienia. A teraz dysponujemy olbrzymią ilością danych o coraz lepszej jakości, więc istnieje ryzyko błędnej interpretacji, wyjaśnia Niraula.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Z Teleskopu Webba na Ziemię zaczęły trafiać pierwsze zdjęcia przestrzeni kosmicznej oraz dane spektroskopowe. Gdy będziemy oglądać fascynujące obrazy warto pamiętać, że pochodzą one z urządzenia, które znajduje się niemal 3000 razy dalej od Ziemi niż Teleskop Hubble'a. Warto więc dowiedzieć się, jak do nas trafiły.
Znaczna odległość Webba od Ziemi oznacza, że sygnał musi przebyć długą drogę, zanim do nas trafi, a cały system komunikacyjny musi działać naprawdę dobrze, gdyż nie przewiduje się misji serwisowych do Webba. Jeśli więc komunikacja zawiedzie, będziemy mieli w przestrzeni kosmicznej całkowicie bezużyteczny najdoskonalszy teleskop w idealnym stanie.
Teleskop Kosmiczny Jamesa Webba (JWST) jest pierwszą misją kosmiczną, która wykorzystuje pasmo Ka do przesyłania tak dużej ilości danych. Już na etapie projektowania zdecydowano o wykorzystaniu Ka, części większego pasma K.
Webb wysyła na Ziemię dane w paśmie o częstotliwości 25,9 Ghz, a prędkość transmisji może dochodzić do 28 Mb/s. Tak duża prędkość jest niezbędna, gdyż JWST może zebrać do 57 GB danych na dobę, chociaż rzeczywista ilość danych będzie zależała od zaplanowanych obserwacji. Dla porównania, Teleskop Hubble'a (HST) zbiera każdej doby nie więcej niż 2 GB danych.
Pasmo Ka wybrano, gdyż kanałem tym można przesłać więcej danych niż powszechnie wykorzystywanymi w komunikacji kosmicznej pasmami X (7–11 GHz) czy S (2–4 GHz). Dodatkowo przeciwko wykorzystaniu pasma X przemawiał fakt, że antena pracująca w tym zakresie musiałaby być na tyle duża, że teleskop miałby problemy z utrzymaniem wysokiej stabilności, niezbędnej do prowadzenia obserwacji.
Szybki transfer danych jest niezbędny na potrzeby przesyłania informacji naukowych. Webb korzysta też z dwóch kanałów pasma S. Jeden z nich, o częstotliwości 2.09 GHz to kanał odbiorczy, pracujący z prędkością 16 kb/s. Służy on do wysyłania do teleskopu poleceń dotyczących zaplanowanych obserwacji oraz przyszłych transmisji danych. Za pomocą zaś drugiego kanału, 2.27 GHz, pracującego w tempie 40 kb/s, Webb przysyła na Ziemię informacje dane inżynieryjne, w tym informacje o kondycji poszczególnych podzespołów.
Łączność pomiędzy Ziemią a teleskopem nie jest utrzymywana przez 24 godziny na dobę. Dlatego też JWST musi przechowywać dane na pokładzie, zanim je nam przyśle. Magazynem danych jest 68-gigabajtowy dysk SSD, którego 3% pojemności zarezerwowano na dane inżynieryjne. Gdy już Webb prześle dane na Ziemię, oczekuje na potwierdzenie, że dotarły i wszystko z nimi w porządku. Dopiero po potwierdzeniu może wykasować dane z dysku, by zrobić miejsce na kolejne informacje. Specjaliści z NASA spodziewają się, że za 10 lat pojemność dysku, z powodu oddziaływania promieniowania kosmicznego, zmniejszy się do około 60 GB.
Dane z Teleskopu Webba są odbierane na Ziemi przez Deep Space Network. DSN korzysta z trzech kompleksów anten znajdujących się w pobliżu Canberry, Madrytu i Barstow w Kalifornii. Z DNS korzysta wiele innych misji, w tym Parker Solar Probe, TESS czy Voyagery. Dlatego też JWST musi dzielić się z nimi ograniczonym czasem korzystania z anten. Wszystko to wymaga starannego planowania. Czas, w którym dana misja będzie mogła korzystać z anten DSN jest planowany z wyprzedzeniem sięgającym 12-20 tygodni. Wyjątkiem była sytuacja, gdy Teleskop Webba przygotowywał się do pracy, rozkładał poszczególne podzespoły, uruchamiał instrumenty, gdy były one sprawdzane i kalibrowane. Większość z tych czynności wymagała komunikacji w czasie rzeczywistym, wówczas więc Webb miał pierwszeństwo przed innymi misjami.
Inżynierowie pracujący przy systemie komunikacji przykładali szczególną uwagę do jego niezawodności. Wiedzieli, że jeśli oni popełnią błąd, cała praca kolegów z innych zespołów pójdzie na marne. System komunikacji musi działać idealnie. Dlatego też wybrali znane rozwiązanie i odrzucili co najmniej dwie propozycje wykorzystania eksperymentalnej komunikacji laserowej.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Gdy na początku XX wieku naukowcy zaczęli wykorzystywać elektrody do rejestrowania aktywności mózgu, zauważyli sygnały, które nazwali „falami mózgowymi”. Od tamtej pory są one przedmiotem intensywnych badań. Wiemy, że fale są przejawem zsynchronizowanej aktywności neuronów, a zmiany w intensywności fal reprezentują zmniejszającą się i zwiększającą aktywność grup neuronów. Powstaje pytanie, czy i w jaki sposób fale te uczestniczą w przekazywaniu informacji.
Kwestię tę postanowił rozstrzygnąć doktorant Tal Dalal z Multidyscyplinarnego Centrum Badań nad Mózgiem na Uniwersytecie Bar-Ilan. Z artykułu opublikowanego na łamach Cell Reports [PDF] dowiadujemy się, że badacze zmienili poziom synchronizacji fal mózgowych w obszarze przekazywania informacji. Następnie sprawdzili, jak wpłynęło to na przekazanie informacji i jak została ona zrozumiana przez obszar mózgu, do którego dotarła.
Badacze skupili się na części mózgu zawiadującej układem węchowym. Charakteryzuje się ona bowiem silną aktywnością fal mózgowych, a za ich synchronizację odpowiada w tym regionie szczególny typ neuronów. Uczeni wykorzystali metody optogenetyczne, pozwalające na włączanie i wyłączanie aktywności neuronów za pomocą impulsów światła. Dzięki temu mogli obserwować, w jaki sposób włączenie i wyłączenie synchronizacji w jednym regionie wpływało na przekazywanie informacji do innego obszaru mózgu.
Manipulacji dokonywano w miejscu (nazwijmy je regionem początkowym), w którym dochodzi do wstępnego przetwarzania informacji z układu węchowego. Stamtąd informacja, zsynchronizowana lub niezsynchronizowana, trafiała do kolejnego obszaru (region II), gdzie odbywa się jej przetwarzanie na wyższym poziomie.
Naukowcy odkryli, że zwiększenie synchronizacji neuronów w regionie początkowym prowadziło do znaczącej poprawy tempa transmisji i przetwarzania informacji w regionie II. Gdy zaś poziom synchronizacji zmniejszono, do regionu II trafiała niepełna informacja.
Naukowcy dokonali też niespodziewanego odkrycia. Ze zdumieniem zauważyliśmy, że aktywowanie neuronów odpowiedzialnych za synchronizację, prowadziło do spadku ogólnej aktywności w regionie początkowym, więc można się było spodziewać, że do regionu II trafi mniej informacji. Jednak fakt, że dane wyjściowe zostały lepiej zsynchronizowane kompensował zmniejszoną aktywność, a nawet zapewniał lepszą transmisję, mówi Dalal.
Autorzy badań doszli więc do wniosku, że synchronizacja jest niezwykle ważna dla przekazywania i przetwarzania informacji. To zaś może wyjaśniać, dlaczego zmniejszenie poziomu synchronizacji neuronów, co objawia się mniejszą intensywnością fal mózgowych, może prowadzić do deficytów poznawczych widocznych np. w chorobie Alzheimera. Dotychczasowe badania pokazywały, że istnieje korelacja pomiędzy zmniejszonym poziomem synchronizacji, a chorobami neurodegeneracyjnymi, ale nie wiedzieliśmy, dlaczego tak się dzieje. Teraz wykazaliśmy, że synchronizacja bierze udział w przekazywaniu i przetwarzaniu informacji, więc to może być powód obserwowanych deficytów u pacjentów, mówi Dalal.
Badania prowadzone przez Dalala i profesora Rafiego Haddada mogą doprowadzić do pojawienia się nowych terapii w chorobach neurodegeneracyjnych. Nie można wykluczyć, że w przyszłości uda się przywrócić odpowiednią sychnchronizację fal mózgowych u chorych.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.