Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Oligopeptydy rozwiązaniem problemu przechowywania informacji

Rekomendowane odpowiedzi

Ludzkość wytwarza coraz więcej informacji. I część z nich warto jest dla przyszłych pokoleń. Jednak książki mogą spłonąć, do komputera można się włamać, płyty DVD ulegają z czasem degradacji. I mimo że technologie przechowywania danych są wciąż udoskonalane, to woda czy cyberatak mogą doprowadzić do utraty danych.

Szacuje się, że do roku 2020 globalna ilość danych cyfrowych wyniesie 44 biliony gigabajtów. To 10-krotnie więcej niż było ich w 2013 roku. Z czasem nawet chmury obliczeniowe nie będą w stanie przechowywać coraz większej ilości informacji.

Rozwiązaniem problemu może okazać się chemia i nieco tanich molekuł. Wyobraźmy sobie, że możemy całą Nowojorską Bibliotekę Publiczną zapisać w łyżeczce molekuł, mówi Brian Cafferty. To naukowiec z Uniwersytetu Harvarda, który wraz z kolegami z laboratorium profesora George'a Whitesidesa ze swojej uczelni oraz grupą profesora Milana Mrksicha z Northwestern University opracowali technikę zapisywania informacji w oligopeptydach. Tak zapisane dane można by przechowywać przez miliony lat, dostęp do danych można by uzyskać tylko przy fizycznym dostępie do nośnika, a po zapisaniu danych ich utrzymanie nie wymagałoby używania energii.

Obecnie, przynajmniej na tym etapie, nie postrzegamy naszej metody jako konkurencyjnej wobec istniejących metod zapisu danych. Ona je uzupełnia i powstaje przede wszystkim z myślą o długotrwałej archiwizacji informacji, mówi Cafferty.
Od niedawna słyszymy, że naukowcy potrafią zapisywać dane w DNA. O ile jednak DNA jest małe w porównaniu z układami scalonymi, to w świecie molekuł jest duże. Ponadto synteza DNA wymaga sporych umiejętności i dużo pracy. Jeśli mielibyśmy w ten sposób zapisywać dużą ilość danych, to musimy liczyć się z długotrwałym procesem i dużymi kosztami.

Cafferty mówi, że opracowana przezeń technika korzysta nie tyle z biologii co z chemii organicznej i analitycznej. Wykorzystano przy tym mniejsze i lżejsze molekuły. Za pomocą pojedynczego procesu syntezy można zapisać taniej i wkładając w to mniej wysiłku niż przy wykorzystaniu DNA.

Naukowcy użyli oligopeptydów, które występują powszechnie, są stabilne i mniejsze niż DNA, RNA czy białka. Oligopeptydy mają różną masę, a gdy się je wymierza można z łatwością je od siebie odróżnić, podobnie jak litery w alfabecie. Użyto przy tym, oczywiście, kodu binarnego. Na przykład litera „M” wykorzystuje 4 z 8 możliwych oligopeptydów, każdy o innej masie. Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bajtowi, w 32 można przechować cztery bajty.

Dotychczas Cafferty i jego zespół zapisali, przechowali i odczytali w oligopeptydach wykład Richarda Feynmana There is plenty of room at the bottom, zdjęcie Calude'a Shannona ojca teorii informacji oraz słynny drzeworyt Wielka fala w Kanagawie. W tej chwili zespół jest w stanie odczytywać zapisane informacje z dokładnością 99,9%. Zapis odbywa się z prędkością 8 bitów na sekundę, a odczyt z prędkością 20 bitów na sekundę. Oba czasy bez wątpienia da się znacząco poprawić. Naukowcy są też w stanie udoskonalić stabilność, pojemność oraz obniżyć cenę swoich molekuł. Na potrzeby badań wykorzystywali bowiem specjalnie tworzone molekuły. Jednak, jak zapewniają, w przyszłości właściciele archiwów będą mogli kupować standardowe molekuły, a ich cena może wynosić 1 cent za molekuły pozwalające na przechowanie ponad 10 MB danych.

W odpowiednich warunkach oligopeptydy są stabilne przez setki lub tysiące lat, stwierdzają autorzy badań. Mogą przetrwać bez światła i powietrza, w wysokiej temperaturze i niskiej wilgotności. Dostęp do tak zarchiwizowanych informacji byłby możliwy tylko przy fizycznym dostępie do nośnika, a informacje, w razie prób ich zaburzenia czy zniszczenia, łatwo odzyskać metodami chemicznymi.

Cafferty przewiduje, że w przyszłości, dzięki olbrzymiej pojemności oligopeptydów mogą powstać archiwa, które na niewielkiej przestrzeni będą przechowywały gigantyczne ilości informacji, całość zaś będzie tania, stabilna i nie będzie zużywała prądu.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Trochę polecę w stronę SF.

Mając do dyspozycji możliwość tak kompaktowego zapisu informacji, rożne koncepcje przychodzą człowiekowi do głowy.

Można by sobie wyobrazić że Sonda von Neumanna przypominała by kosmiczne ziarenko. Połączenie biotechnologii - zapis informacji (software) i nanotechnologii - odczyt, interpretacja i wykonanie zapisanego programu (hardware).

Dodajmy do tego żagiel słoneczny i otrzymujemy coś na kształt niełupka mniszka pospolitego (dmuchawiec) rozsiewający się po galaktyce.

 

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tam popełniliście błąd w artykule, Shannon nie był ojcem teorii informacji, tylko teorii ilości informacji. To bardzo ważne rozróżnienie.

@krzysztof B7QkDkW Myślałem o czymś podobnym. Tylko w mojej wizji było jeszcze powielanie informacji, zjadanie napotkanej materii i rozszerzanie się takie tzw. "szarej masy" zawierającej informacje. I w tej szarej masie miałoby odbywać się również całe życie, bo chodzi o odtworzenie życia w małej skali, żeby uciekać przed entropią... Grubszy temat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe dlaczego chcą przechowywać dużo informacji na tysiące lat, skoro po globalnym kataklizmie wiele z przechowywanych informacji będzie bezużyteczna. Tak samo będzie wielce prawdopodobne, że nikt jej nie odczyta. Bo czy teraz szukamy zapisanych informacji we wszystkim co badamy? Super inteligentna forma przekazu informacji będzie opierała się raczej na ujawnieniu informacji bez potrzeby odczytu. To co teraz mamy wymaga dużego skomplikowania. Przykładowo malowidła na ścianie w jaskini są bez problemu odczytane i zinterpretowane. A weźmy nawet płytę CD i dajmy komuś z lasu w Amazonii. Potnie, zrobi wisiorki i będzie mu w tym ładnie. Taki sam sens mają te molekuły. Zresztą tak jak każda forma złożona. Ma to chyba tylko sens jeżeli założymy ciągłość tzw cywilizacji. Wtedy przecież możemy na bierząco przez tysiąc lat robić kopie i archiwizować. Odczytamy tylko my.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bitowi, w 32 można przechować cztery bity."

Chodzi oczywiście o bajty, a nie bity.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 5.05.2019 o 13:21, Rowerowiec napisał:

Ciekawe dlaczego chcą przechowywać dużo informacji na tysiące lat, skoro po globalnym kataklizmie wiele z przechowywanych informacji będzie bezużyteczna. Tak samo będzie wielce prawdopodobne, że nikt jej nie odczyta. Bo czy teraz szukamy zapisanych informacji we wszystkim co badamy? ... Przykładowo malowidła na ścianie w jaskini są bez problemu odczytane i zinterpretowane....Odczytamy tylko my.

Przepraszam, za odkopanie tematu, ale nadrabiam zaległości :)

Będzie bardzo użyteczna, choćby do informacji jak wyglądało nasze życie i nasza wiedza coby nie odkrywać koła na nowo.

I tak, szukamy informacji we wszystkim co badamy, tylko problem polega właśnie na tym, że nie mamy jak. Tak samo z rysunkami na skale, my je interpretujemy (po swojemu), a nie odczytujemy. Odczytujemy np. hieroglify dzięki Kamieniowi z Rosetty, to była instrukcja. W przyszłości również ktoś znajdzie taką instrukcję jak odczytać te oligopeptydy i voila!

Mnie ciekawi, dlaczego zamykają się w kodzie binarnym skoro mogliby użyć "dowolnie" wyższego kodu? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Przez lata uważano, że jedynie silnie zaangażowani politycznie, a jednocześnie mniej wykształceni odbiorcy informacji medialnych, przedkładają potwierdzenie własnych poglądów nad prawdę. Innymi słowy, że wierzą w informacje potwierdzające ich poglądy, niezależnie od tego, czy są prawdziwe. W ostatnich latach zaczęły się ukazywać badania, które wykazały, że konsumenci informacji – bez względu nad wykształcenie – przedkładają poglądy nad prawdę. W 2021 roku jedno z badań wykazało nawet, że wiarygodność informacji była oceniana czterokrotnie wyżej wówczas, gdy informacja potwierdzała poglądy odbiorcy. Nowe badania przynoszą więcej szczegółów na ten temat i pokazują, w jakim stopniu ludzie są skłonni poświęcić prawdę dla ideologii.
      W czasie naszych badań obserwowaliśmy, że większą odgrywa polityczne samookreślenie niż prawda. Widzieliśmy to po obu stronach sporu politycznego, nawet u ludzi, którzy dobrze wypadali w testach racjonalnego rozumowania. Zdziwiło nas, jak szeroko rozpowszechnione to zjawisko. Ludzie bardzo mocno angażują się, by nie poznać niewygodnej prawdy, mówi główny autor badań, doktor Michael Schwalbe z Wydziału Psychologii w School of Humanities and Sciences na Uniwersytecie Stanforda.
      Co interesujące, zjawisko to jest bardziej widoczne w przypadku prawdziwych informacji niż fałszywych, co oznacza, że ludzie z większym prawdopodobieństwem odrzucą prawdziwe informacje jeśli przeczą ich poglądom, niż zaakceptują fałszywe informacje, potwierdzające ich poglądy.
      Wszyscy uważają, że to problem, który ich nie dotyczy. Twierdzą, że w ich przypadku jest inaczej. Jednak jak wykazują kolejne badania, to zjawisko stale występujące w całym spektrum poglądów politycznych i niezależny od wykształcenia. Problemem nie jest tutaj sama dezinformacja, a filtry, które zbudowaliśmy w naszym mózgu, mówi profesor Geoffrey L. Cohen.
      Autorzy badań mówią, że ich wyniki różnią się od badań wcześniejszych, ze względu na inną metodologię. Na przykład wcześniejsze badania korzystały z prawdziwych nagłówków prasowych, a Cohen i Schwalbe stworzyli własne nagłówki. Ponadto podczas wcześniejszych badań osoby biorące w nich udział miały wgląd w to, z jakich mediów pochodziły prezentowane im nagłówki i informowano ich, jaki jest cel badań. Uczeni ze Stanforda nie zdradzili, co naprawdę badają. Poinformowali badanych, że chodzi o kwestie związane z pamięcią i komunikacją, wykorzystali też pytania dotyczące tych właśnie zagadnień, by badani nie domyślili się prawdziwego celu eksperymentu.
      Cohen i Schwalbe prowadzili swoje badania w 2020 roku, podczas wcześniejszych wyborów, które Donald Trump przegrał z Joe Bidenem. Zespół naukowy przedstawił badanym fałszywe nagłówki prasowe, na przykład Trump pokonał arcymistrza szachowego czy Trump, przebrany za papieża, wziął udział prywatnej orgii z okazji Halloween. Okazało się, że obie strony sporu politycznego bardziej wierzyły w fałszywe informacje potwierdzające ich poglądy, niż w prawdziwe informacje przeczące ich poglądom.
      Naukowcy zauważyli, że jednym z głównych powodów odrzucania prawdy na rzecz własnej ideologii, jest coraz silniejsze skupienie się na mediach przedstawiających jeden punkt widzenia oraz przekonanie o obiektywizmie i braku tendencyjności po własnej stronie sporu politycznego w porównaniu ze stroną przeciwną. Innymi słowy, im kto więcej konsumował informacji z mediów prezentujących jego punkt widzenia i im bardziej był przekonany, że jego strona sporu politycznego jest obiektywna, tym bardziej odrzucał niewygodną prawdę na rzecz potwierdzenia swoich poglądów. Sytuację pogarsza zamykanie się we własnych bańkach informacyjnych w mediach społecznościowych.
      Schwalbe i Cohen mówią, że problemu tego nie rozwiąże walka z fałszywymi informacjami, gdyż ludzie odrzucają prawdziwe informacje, które nie potwierdzają ich poglądów. Zdaniem uczonych, ważną rolę mogłoby odegrać nauczenie ludzi nieco intelektualnej skromności. Uświadomienie konsumentom informacji, że rozum może ich zwodzić i nauczenie ich kwestionowania swojego punktu widzenia, gdyż nie jest on jedynym słusznym i prawdziwym.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Webba (JWST) od kilku tygodni przysyła wspaniałe zdjęcia przestrzeni kosmicznej. JWST może pracować nawet przez 20 lat i w tym czasie będzie badał też egzoplanety. Dzięki olbrzymiej czułości, dostarczy niedostępnych dotychczas informacji o świetle docierającym z ich atmosfer, co pozwoli określenie ich składu, historii i poszukiwanie śladów życia. Jednak, jak się okazuje, teleskop jest tak doskonały, że obecnie stosowane narzędzia mogą niewłaściwe interpretować przesyłane dane.
      Grupa naukowców z MIT opublikowała na łamach Nature Astronomy artykuł, w którym informuje, że obecnie używane przez astronomów narzędzia do interpretacji danych ze światła mogą dawać niewłaściwe wyniki w przypadku JWST. Chodzi konkretnie o modele nieprzezroczystości, narzędzia opisujące, jak światło wchodzi w interakcje z materią w zależności od jej właściwości. Mogą one wymagać znacznych zmian, by dorównać precyzji danym z JWST. Jeśli nie zostaną odpowiednio dostosowane to – jak ostrzegają autorzy badań – informacje dotyczące takich właściwości atmosfer egzoplanet jak temperatura, ciśnienie i skład mogą różnić się od rzeczywistych o cały rząd wielkości.
      Z punktu widzenia nauki istnieje olbrzymia różnica, czy np. woda stanowi 5% czy 25% składu. Obecne modele nie są w stanie tego odróżnić, stwierdza profesor Julien de Wit. Obecnie używany przez nas model interpretujące dane ze spektrum światła nie przystaje precyzją i jakością do danych, jakie napływają z Teleskopu Webba. Musimy rozwiązać ten problem, wtóruje mu student Prajwal Niraula.
      Nieprzezroczystość określa, na ile łatwo foton przechodzi przez badany ośrodek, jak jest absorbowany czy odbijany. Interakcje te zależą też od temperatury i ciśnienia ośrodka. De Wit mówi, że obecnie używany najdoskonalszy model badania nieprzezroczystości bardzo dobrze się sprawdził w przypadku takich instrumentów jak Teleskop Hubble'a. Teraz jednak weszliśmy na kolejny poziom precyzji danych. Wykorzystywany przez nas sposób ich interpretacji nie pozwoli nam wyłapać drobnych subtelności, które mogą decydować np. o tym, czy planeta nadaje się dla życia czy nie.
      Uczeni z MIT po analizie najpowszechniej używanego obecnie modelu nieprzezroczystości stwierdzili, że jego wykorzystanie do danych z Webba spowoduje, iż trafimy na „barierę precyzji”. Model ten nie będzie na tyle dokładny, by stwierdzić, czy temperatura na planecie wynosi 27 czy 327 stopni Celsjusza, a stężenie jakiegoś gazu w atmosferze to 5 czy 25 procent.
      Wit i jego zespół uważają, że aby poprawić obecnie używane modele konieczne będzie przeprowadzenie więcej badań laboratoryjnych, obliczeń teoretycznych oraz poszerzenie współpracy pomiędzy specjalistami z różnych dziedzin, szczególnie astronomami i ekspertami od spektroskopii.
      Możemy wiele zrobić, jeśli będziemy dobrze rozumieli, jak światło wchodzi w interakcje z materią. Dobrze rozumiemy warunki panujące wokół Ziemi. Jednak tam, gdzie mamy do czynienia z innymi typami atmosfery, wszystko się zmienia. A teraz dysponujemy olbrzymią ilością danych o coraz lepszej jakości, więc istnieje ryzyko błędnej interpretacji, wyjaśnia Niraula.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Z Teleskopu Webba na Ziemię zaczęły trafiać pierwsze zdjęcia przestrzeni kosmicznej oraz dane spektroskopowe. Gdy będziemy oglądać fascynujące obrazy warto pamiętać, że pochodzą one z urządzenia, które znajduje się niemal 3000 razy dalej od Ziemi niż Teleskop Hubble'a. Warto więc dowiedzieć się, jak do nas trafiły.
      Znaczna odległość Webba od Ziemi oznacza, że sygnał musi przebyć długą drogę, zanim do nas trafi, a cały system komunikacyjny musi działać naprawdę dobrze, gdyż nie przewiduje się misji serwisowych do Webba. Jeśli więc komunikacja zawiedzie, będziemy mieli w przestrzeni kosmicznej całkowicie bezużyteczny najdoskonalszy teleskop w idealnym stanie.
      Teleskop Kosmiczny Jamesa Webba (JWST) jest pierwszą misją kosmiczną, która wykorzystuje pasmo Ka do przesyłania tak dużej ilości danych. Już na etapie projektowania zdecydowano o wykorzystaniu Ka, części większego pasma K.
      Webb wysyła na Ziemię dane w paśmie o częstotliwości 25,9 Ghz, a prędkość transmisji może dochodzić do 28 Mb/s. Tak duża prędkość jest niezbędna, gdyż JWST może zebrać do 57 GB danych na dobę, chociaż rzeczywista ilość danych będzie zależała od zaplanowanych obserwacji. Dla porównania, Teleskop Hubble'a (HST) zbiera każdej doby nie więcej niż 2 GB danych.
      Pasmo Ka wybrano, gdyż kanałem tym można przesłać więcej danych niż powszechnie wykorzystywanymi w komunikacji kosmicznej pasmami X (7–11 GHz) czy S (2–4 GHz). Dodatkowo przeciwko wykorzystaniu pasma X przemawiał fakt, że antena pracująca w tym zakresie musiałaby być na tyle duża, że teleskop miałby problemy z utrzymaniem wysokiej stabilności, niezbędnej do prowadzenia obserwacji.
      Szybki transfer danych jest niezbędny na potrzeby przesyłania informacji naukowych. Webb korzysta też z dwóch kanałów pasma S. Jeden z nich, o częstotliwości 2.09 GHz to kanał odbiorczy, pracujący z prędkością 16 kb/s. Służy on do wysyłania do teleskopu poleceń dotyczących zaplanowanych obserwacji oraz przyszłych transmisji danych. Za pomocą zaś drugiego kanału, 2.27 GHz, pracującego w tempie 40 kb/s, Webb przysyła na Ziemię informacje dane inżynieryjne, w tym informacje o kondycji poszczególnych podzespołów.
      Łączność pomiędzy Ziemią a teleskopem nie jest utrzymywana przez 24 godziny na dobę. Dlatego też JWST musi przechowywać dane na pokładzie, zanim je nam przyśle. Magazynem danych jest 68-gigabajtowy dysk SSD, którego 3% pojemności zarezerwowano na dane inżynieryjne. Gdy już Webb prześle dane na Ziemię, oczekuje na potwierdzenie, że dotarły i wszystko z nimi w porządku. Dopiero po potwierdzeniu może wykasować dane z dysku, by zrobić miejsce na kolejne informacje. Specjaliści z NASA spodziewają się, że za 10 lat pojemność dysku, z powodu oddziaływania promieniowania kosmicznego, zmniejszy się do około 60 GB.
      Dane z Teleskopu Webba są odbierane na Ziemi przez Deep Space Network. DSN korzysta z trzech kompleksów anten znajdujących się w pobliżu Canberry, Madrytu i Barstow w Kalifornii. Z DNS korzysta wiele innych misji, w tym Parker Solar Probe, TESS czy Voyagery. Dlatego też JWST musi dzielić się z nimi ograniczonym czasem korzystania z anten. Wszystko to wymaga starannego planowania. Czas, w którym dana misja będzie mogła korzystać z anten DSN jest planowany z wyprzedzeniem sięgającym 12-20 tygodni. Wyjątkiem była sytuacja, gdy Teleskop Webba przygotowywał się do pracy, rozkładał poszczególne podzespoły, uruchamiał instrumenty, gdy były one sprawdzane i kalibrowane. Większość z tych czynności wymagała komunikacji w czasie rzeczywistym, wówczas więc Webb miał pierwszeństwo przed innymi misjami.
      Inżynierowie pracujący przy systemie komunikacji przykładali szczególną uwagę do jego niezawodności. Wiedzieli, że jeśli oni popełnią błąd, cała praca kolegów z innych zespołów pójdzie na marne. System komunikacji musi działać idealnie. Dlatego też wybrali znane rozwiązanie i odrzucili co najmniej dwie propozycje wykorzystania eksperymentalnej komunikacji laserowej.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy na początku XX wieku naukowcy zaczęli wykorzystywać elektrody do rejestrowania aktywności mózgu, zauważyli sygnały, które nazwali „falami mózgowymi”. Od tamtej pory są one przedmiotem intensywnych badań. Wiemy, że fale są przejawem zsynchronizowanej aktywności neuronów, a zmiany w intensywności fal reprezentują zmniejszającą się i zwiększającą aktywność grup neuronów. Powstaje pytanie, czy i w jaki sposób fale te uczestniczą w przekazywaniu informacji.
      Kwestię tę postanowił rozstrzygnąć doktorant Tal Dalal z Multidyscyplinarnego Centrum Badań nad Mózgiem na Uniwersytecie Bar-Ilan. Z artykułu opublikowanego na łamach Cell Reports [PDF] dowiadujemy się, że badacze zmienili poziom synchronizacji fal mózgowych w obszarze przekazywania informacji. Następnie sprawdzili, jak wpłynęło to na przekazanie informacji i jak została ona zrozumiana przez obszar mózgu, do którego dotarła.
      Badacze skupili się na części mózgu zawiadującej układem węchowym. Charakteryzuje się ona bowiem silną aktywnością fal mózgowych, a za ich synchronizację odpowiada w tym regionie szczególny typ neuronów. Uczeni wykorzystali metody optogenetyczne, pozwalające na włączanie i wyłączanie aktywności neuronów za pomocą impulsów światła. Dzięki temu mogli obserwować, w jaki sposób włączenie i wyłączenie synchronizacji w jednym regionie wpływało na przekazywanie informacji do innego obszaru mózgu.
      Manipulacji dokonywano w miejscu (nazwijmy je regionem początkowym), w którym dochodzi do wstępnego przetwarzania informacji z układu węchowego. Stamtąd informacja, zsynchronizowana lub niezsynchronizowana, trafiała do kolejnego obszaru (region II), gdzie odbywa się jej przetwarzanie na wyższym poziomie.
      Naukowcy odkryli, że zwiększenie synchronizacji neuronów w regionie początkowym prowadziło do znaczącej poprawy tempa transmisji i przetwarzania informacji w regionie II. Gdy zaś poziom synchronizacji zmniejszono, do regionu II trafiała niepełna informacja.
      Naukowcy dokonali też niespodziewanego odkrycia. Ze zdumieniem zauważyliśmy, że aktywowanie neuronów odpowiedzialnych za synchronizację, prowadziło do spadku ogólnej aktywności w regionie początkowym, więc można się było spodziewać, że do regionu II trafi mniej informacji. Jednak fakt, że dane wyjściowe zostały lepiej zsynchronizowane kompensował zmniejszoną aktywność, a nawet zapewniał lepszą transmisję, mówi Dalal.
      Autorzy badań doszli więc do wniosku, że synchronizacja jest niezwykle ważna dla przekazywania i przetwarzania informacji. To zaś może wyjaśniać, dlaczego zmniejszenie poziomu synchronizacji neuronów, co objawia się mniejszą intensywnością fal mózgowych, może prowadzić do deficytów poznawczych widocznych np. w chorobie Alzheimera. Dotychczasowe badania pokazywały, że istnieje korelacja pomiędzy zmniejszonym poziomem synchronizacji, a chorobami neurodegeneracyjnymi, ale nie wiedzieliśmy, dlaczego tak się dzieje. Teraz wykazaliśmy, że synchronizacja bierze udział w przekazywaniu i przetwarzaniu informacji, więc to może być powód obserwowanych deficytów u pacjentów, mówi Dalal.
      Badania prowadzone przez Dalala i profesora Rafiego Haddada mogą doprowadzić do pojawienia się nowych terapii w chorobach neurodegeneracyjnych. Nie można wykluczyć, że w przyszłości uda się przywrócić odpowiednią sychnchronizację fal mózgowych u chorych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas zakończonego właśnie sezonu 2021/22 ogólnopolskiej Akcji Karmnik studenci z Koła Naukowego Biologów Uniwersytetu w Białymstoku (UwB) zaobrączkowali najwięcej ptaków. Jak podkreślono w komunikacie uczelni, jeszcze jeden osobnik - i byłby okrągły tysiąc. W ich sieci ornitologiczne schwytały się też rekordowe liczby czyżów, dzwońców i grubodziobów.
      XVI edycja akcji rozpoczęła się 4 grudnia, a zakończyła wraz z lutym. Zgłosiły się liczne drużyny karmnikowe, które co 2 tygodnie prowadziły odłowy. Zaplanowano je na 4-5 oraz 18-19 grudnia, 1-2, 15-16 i 29-30 stycznia, a także na 12-13 i 26-27 lutego.
      W sieci ornitologiczne studentów z UwB wpadło 1318 ptaków, z czego 999 nie miało jeszcze obrączek. Oprócz tego odnotowano 319 kolejnych odłowów. Były to tzw. retrapy i kontrole, a więc osobniki, którym kiedyś założono obrączki przy studenckich karmnikach albo w innych miejscach.
      Ptakom sprzyjają ogródki, łagodna zima i miejska wyspa ciepła
      Wg dr. Krzysztofa Deoniziaka, opiekuna sekcji ornitologicznej Koła Naukowego Biologów, istnieje parę przyczyn, dla których w pobliżu kampusu UwB odławia się tyle ptaków. Po pierwsze, nieopodal znajdują się zarówno pozostałości, jak i nadal użytkowane duże ogrody działkowe. Ptaki mogą tu znaleźć sporo pokarmu i odpocząć podczas migracji. Po drugie, z powodu łagodnej zimy dochodzi do pewnych zaburzeń w migracjach ptaków. Brak stałej i grubej pokrywy śnieżnej nie zmusza ich do dalekiej wędrówki na zimowiska. A obszary miejskie (chociażby z powodu wspomnianych wcześniej działek i przydomowych ogrodów) są atrakcyjnym żerowiskami.
      Nie bez znaczenia jest też wpływ miejskiej wyspy ciepła. Skoro ptaki mogą przetrwać tutaj, niektórym gatunkom zwyczajnie nie kalkuluje się wędrówka na południe lub zachód kontynentu.
      Statystyki żaków z Białegostoku
      Gdy przyjrzymy się statystykom, okaże się, że Koło Naukowe Biologów UwB (Koło Naukowe Biologów UwB i przyjaciele) złapało w sieci 14 gatunków. Niekwestionowane 1. miejsce przypadło bogatkom (387). Na drugim miejscu uplasowały się czyże (273), a na trzecim dzwońce (136). Tuż za podium znalazły się zaś grubodzioby (116). Spośród liczniej reprezentowanych gatunków warto wymienić jeszcze modraszkę (64).
      Jak wspominaliśmy na początku, odłowy czyżów, dzwońców i grubodziobów okazały się rekordowe w skali kraju.
      Stali bywalcy i rzadko odławiane gatunki
      Co ciekawe, niektóre osobniki regularnie pojawiają się przy studenckich karmnikach. Pewną bogatkę zaobrączkowano, na przykład, w 2017 r., a później odłowiono ponownie aż 5-krotnie. Innym powracającym przypadkiem jest dzięcioł duży, który został zaobrączkowany w 2016 r. i wpadł w sieci ornitologiczne jeszcze 2-krotnie (rok później i w 2021 r.).
      W nasze sieci w tym sezonie wpadały również ciekawe, rzadko odławiane gatunki. Np. dwie czeczotki, które nie złapały się nigdzie indziej w Polsce, dzięcioł średni, krogulec. Były też cztery zięby - ptaki, które jeszcze kilka lat temu raczej odlatywały na południe. Teraz obserwujemy je u nas zimą i odławiamy coraz częściej, co pokazuje zachodzące zmiany klimatyczne – opowiada Anna Winiewicz, prezeska Koła Naukowego Biologów UwB.
      Podsumowanie sezonu 2021/22
      Na witrynie Akcji Karmnik można się zapoznać zarówno z wynikami zbiorczymi, jak i ze statystykami poszczególnych odłowów. W tym sezonie złapaliśmy ponad 11.000 [11.620] ptaków z 37 gatunków! Samych bogatek trafiło się ponad 4 tysiące, modraszek ponad tysiąc. Dzwoniec wylądował na czwartym miejscu, zaraz za czyżami - ponad 400 osobników obu gatunków. Piątym najchętniej przylatującym do karmnika ptakiem był grubodziób. Zabrakło dwóch grubków, aby było 400. Mieliśmy tylko dwa ptaki z zagranicy. Trafiło się parę ciekawych ptaków, jak srokosz i sroka, ale w przyszłym sezonie będą już wliczone w listę ptaków karmnikowych - podsumowano.
      W ramach Akcji Karmnik ptaki obrączkuje się pod okiem licencjonowanych obrączkarzy. Poza tym są one mierzone i opisywane. Dzięki temu można zbierać dane ujawniające skład gatunkowy i liczebność ptaków przylatujących do karmników w różnych regionach kraju.
      Dane ornitologiczne trafią do Stacji Ornitologicznej Muzeum i Instytutu Zoologii PAN w Gdańsku.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...