Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Oligopeptydy rozwiązaniem problemu przechowywania informacji

Recommended Posts

Ludzkość wytwarza coraz więcej informacji. I część z nich warto jest dla przyszłych pokoleń. Jednak książki mogą spłonąć, do komputera można się włamać, płyty DVD ulegają z czasem degradacji. I mimo że technologie przechowywania danych są wciąż udoskonalane, to woda czy cyberatak mogą doprowadzić do utraty danych.

Szacuje się, że do roku 2020 globalna ilość danych cyfrowych wyniesie 44 biliony gigabajtów. To 10-krotnie więcej niż było ich w 2013 roku. Z czasem nawet chmury obliczeniowe nie będą w stanie przechowywać coraz większej ilości informacji.

Rozwiązaniem problemu może okazać się chemia i nieco tanich molekuł. Wyobraźmy sobie, że możemy całą Nowojorską Bibliotekę Publiczną zapisać w łyżeczce molekuł, mówi Brian Cafferty. To naukowiec z Uniwersytetu Harvarda, który wraz z kolegami z laboratorium profesora George'a Whitesidesa ze swojej uczelni oraz grupą profesora Milana Mrksicha z Northwestern University opracowali technikę zapisywania informacji w oligopeptydach. Tak zapisane dane można by przechowywać przez miliony lat, dostęp do danych można by uzyskać tylko przy fizycznym dostępie do nośnika, a po zapisaniu danych ich utrzymanie nie wymagałoby używania energii.

Obecnie, przynajmniej na tym etapie, nie postrzegamy naszej metody jako konkurencyjnej wobec istniejących metod zapisu danych. Ona je uzupełnia i powstaje przede wszystkim z myślą o długotrwałej archiwizacji informacji, mówi Cafferty.
Od niedawna słyszymy, że naukowcy potrafią zapisywać dane w DNA. O ile jednak DNA jest małe w porównaniu z układami scalonymi, to w świecie molekuł jest duże. Ponadto synteza DNA wymaga sporych umiejętności i dużo pracy. Jeśli mielibyśmy w ten sposób zapisywać dużą ilość danych, to musimy liczyć się z długotrwałym procesem i dużymi kosztami.

Cafferty mówi, że opracowana przezeń technika korzysta nie tyle z biologii co z chemii organicznej i analitycznej. Wykorzystano przy tym mniejsze i lżejsze molekuły. Za pomocą pojedynczego procesu syntezy można zapisać taniej i wkładając w to mniej wysiłku niż przy wykorzystaniu DNA.

Naukowcy użyli oligopeptydów, które występują powszechnie, są stabilne i mniejsze niż DNA, RNA czy białka. Oligopeptydy mają różną masę, a gdy się je wymierza można z łatwością je od siebie odróżnić, podobnie jak litery w alfabecie. Użyto przy tym, oczywiście, kodu binarnego. Na przykład litera „M” wykorzystuje 4 z 8 możliwych oligopeptydów, każdy o innej masie. Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bajtowi, w 32 można przechować cztery bajty.

Dotychczas Cafferty i jego zespół zapisali, przechowali i odczytali w oligopeptydach wykład Richarda Feynmana There is plenty of room at the bottom, zdjęcie Calude'a Shannona ojca teorii informacji oraz słynny drzeworyt Wielka fala w Kanagawie. W tej chwili zespół jest w stanie odczytywać zapisane informacje z dokładnością 99,9%. Zapis odbywa się z prędkością 8 bitów na sekundę, a odczyt z prędkością 20 bitów na sekundę. Oba czasy bez wątpienia da się znacząco poprawić. Naukowcy są też w stanie udoskonalić stabilność, pojemność oraz obniżyć cenę swoich molekuł. Na potrzeby badań wykorzystywali bowiem specjalnie tworzone molekuły. Jednak, jak zapewniają, w przyszłości właściciele archiwów będą mogli kupować standardowe molekuły, a ich cena może wynosić 1 cent za molekuły pozwalające na przechowanie ponad 10 MB danych.

W odpowiednich warunkach oligopeptydy są stabilne przez setki lub tysiące lat, stwierdzają autorzy badań. Mogą przetrwać bez światła i powietrza, w wysokiej temperaturze i niskiej wilgotności. Dostęp do tak zarchiwizowanych informacji byłby możliwy tylko przy fizycznym dostępie do nośnika, a informacje, w razie prób ich zaburzenia czy zniszczenia, łatwo odzyskać metodami chemicznymi.

Cafferty przewiduje, że w przyszłości, dzięki olbrzymiej pojemności oligopeptydów mogą powstać archiwa, które na niewielkiej przestrzeni będą przechowywały gigantyczne ilości informacji, całość zaś będzie tania, stabilna i nie będzie zużywała prądu.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Trochę polecę w stronę SF.

Mając do dyspozycji możliwość tak kompaktowego zapisu informacji, rożne koncepcje przychodzą człowiekowi do głowy.

Można by sobie wyobrazić że Sonda von Neumanna przypominała by kosmiczne ziarenko. Połączenie biotechnologii - zapis informacji (software) i nanotechnologii - odczyt, interpretacja i wykonanie zapisanego programu (hardware).

Dodajmy do tego żagiel słoneczny i otrzymujemy coś na kształt niełupka mniszka pospolitego (dmuchawiec) rozsiewający się po galaktyce.

 

 

 

Share this post


Link to post
Share on other sites

Tam popełniliście błąd w artykule, Shannon nie był ojcem teorii informacji, tylko teorii ilości informacji. To bardzo ważne rozróżnienie.

@krzysztof B7QkDkW Myślałem o czymś podobnym. Tylko w mojej wizji było jeszcze powielanie informacji, zjadanie napotkanej materii i rozszerzanie się takie tzw. "szarej masy" zawierającej informacje. I w tej szarej masie miałoby odbywać się również całe życie, bo chodzi o odtworzenie życia w małej skali, żeby uciekać przed entropią... Grubszy temat.

Share this post


Link to post
Share on other sites

Ciekawe dlaczego chcą przechowywać dużo informacji na tysiące lat, skoro po globalnym kataklizmie wiele z przechowywanych informacji będzie bezużyteczna. Tak samo będzie wielce prawdopodobne, że nikt jej nie odczyta. Bo czy teraz szukamy zapisanych informacji we wszystkim co badamy? Super inteligentna forma przekazu informacji będzie opierała się raczej na ujawnieniu informacji bez potrzeby odczytu. To co teraz mamy wymaga dużego skomplikowania. Przykładowo malowidła na ścianie w jaskini są bez problemu odczytane i zinterpretowane. A weźmy nawet płytę CD i dajmy komuś z lasu w Amazonii. Potnie, zrobi wisiorki i będzie mu w tym ładnie. Taki sam sens mają te molekuły. Zresztą tak jak każda forma złożona. Ma to chyba tylko sens jeżeli założymy ciągłość tzw cywilizacji. Wtedy przecież możemy na bierząco przez tysiąc lat robić kopie i archiwizować. Odczytamy tylko my.

Share this post


Link to post
Share on other sites

"Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bitowi, w 32 można przechować cztery bity."

Chodzi oczywiście o bajty, a nie bity.

Share this post


Link to post
Share on other sites
W dniu 5.05.2019 o 13:21, Rowerowiec napisał:

Ciekawe dlaczego chcą przechowywać dużo informacji na tysiące lat, skoro po globalnym kataklizmie wiele z przechowywanych informacji będzie bezużyteczna. Tak samo będzie wielce prawdopodobne, że nikt jej nie odczyta. Bo czy teraz szukamy zapisanych informacji we wszystkim co badamy? ... Przykładowo malowidła na ścianie w jaskini są bez problemu odczytane i zinterpretowane....Odczytamy tylko my.

Przepraszam, za odkopanie tematu, ale nadrabiam zaległości :)

Będzie bardzo użyteczna, choćby do informacji jak wyglądało nasze życie i nasza wiedza coby nie odkrywać koła na nowo.

I tak, szukamy informacji we wszystkim co badamy, tylko problem polega właśnie na tym, że nie mamy jak. Tak samo z rysunkami na skale, my je interpretujemy (po swojemu), a nie odczytujemy. Odczytujemy np. hieroglify dzięki Kamieniowi z Rosetty, to była instrukcja. W przyszłości również ktoś znajdzie taką instrukcję jak odczytać te oligopeptydy i voila!

Mnie ciekawi, dlaczego zamykają się w kodzie binarnym skoro mogliby użyć "dowolnie" wyższego kodu? 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Podczas niedawnej konferencji Ignite 2020 Microsoft ogłosił rozpoczęciu Project HSD (Holographic Storage Device). Biorą nim udział specjaliści z laboratorium sztucznej inteligencji w Cambridge oraz inżynierowie z chmury Azure. Celem projektu jest stworzenie holograficznego systemu przechowywania informacji na potrzeby chmur.
      Zapotrzebowanie na długoterminowe przechowywanie danych w chmurach sięgnęło niespotykanego poziomu i rośnie w zetabajtach. Istniejące obecnie technologie nie pozwalają na ekonomiczne długotrwałe przechowywanie danych. Operowanie danymi w skali chmur obliczeniowych wymaga przemyślenia samych podstaw budowy wielkoskalowych systemów przechowywania informacji oraz technologii, z których są one tworzone, stwierdzili przedstawiciele Microsoftu.
      Firmowi eksperci zauważają, że obecnie używane technologie nie rozwijają się w dostatecznie szybkim tempie, by zaspokoić zapotrzebowanie. Ponadto mają problemy z wiarygodnością i stabilnością spowodowane albo obecnością mechanicznych podzespołów albo degradującymi się z czasem komórkami pamięci.
      Dlatego też w 2017 roku Microsoft rozpoczął Project Silica, w ramach którego pracuje nad holograficznym zapisem danych w szkle. Holograficzny zapis danych nie jest ograniczony do dwuwymiarowej powierzchni, pozwala wykorzystać całość nośnika.
      Hologram zajmuje niewielką część kryształu. W jednym krysztale można zaś zapisać wiele hologramów, wyjaśniają przedstawiciele koncernu z Redmond. Najnowsze osiągnięcia z dziedziny sztucznej inteligencji czy optyki pozwalają na znaczne udoskonalenie tego, co robiono dotychczas w ramach Project Silica, na którym bazuje Project HDS. Na razie, jak informuje dział Microsoft Research, udało się niemal dwukrotnie zwiększyć gęstość zapisu w hologramach. W najbliższych miesiącach powinniśmy zaś zobaczyć poprawioną kompresję i szybsze czasy dostępu.
      Przed niemal rokiem informowaliśmy, że w ramach Project Silica Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Pisaliśmy wówczas, że firma wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Przy Project HSD pracują fizycy, optycy, specjaliści od maszynowego uczenia się i systemów przechowywania danych. Jest on prowadzony przez grupę Optics for the Cloud w Microsoft Resarch Cambridge.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Technologicznego w Delft wykazali, że możliwe jest niezależne manipulowanie dwoma rodzajami magnetyzmu w atomach. Magnetyzm w atomach powstaje w wyniku orbitalnego oraz obrotowego ruchu elektronów. W tym pierwszym przypadku mowa jest o ruchu elektronu wokół jądra. Ruch obrotowy zaś to ruch elektronu wokół własnej osi. Jako, że każdy z tych rodzajów ruchu może odbywać się zgodnie z ruchem wskazówek zegara lub w stronę przeciwną, zatem może reprezentować 0 lub 1. Teoretycznie więc w atomie możemy zapisać 2 bity danych.
      "W praktyce jednak jest to niezwykle trudne, gdyż jeśli zmienimy kierunek ruchu orbitalnego, niemal zawsze zmieni się kierunek ruchu obrotowego i vice versa", mówi główny autor najnowszych badań, Sander Otte.
      Holendrzy, we współpracy z Hiszpanami i Chilijczykami dowiedli, że można odwrócić kierunek ruchu orbitalnego elektronu bez zmiany jego ruchu obrotowego. Osiągnęli to dzięki wykorzystaniu efektu Einsteina-de Haasa. Zgodnie z nim odwrócenie kierunku ruchu orbitalnego można skompensować przez niemierzalnie mały obrót środowiska. W tym przypadku był to kawałek metalu, którego część stanowi atom.
      Naukowcy wykorzystali skaningowy mikroskop tunelowy, którego próbnik może manipulować pojedynczymi atomami. Zwykle atom ma kontakt z wieloma sąsiadującymi atomami, co zaburza jego magnetyzm. Otte i jego zespół odseparowali spin od ruchu orbitalnego atomu żelaza umieszczając go na pojedynczym niemagnetycznym atomie azotu. Dzięki temu mogli manipulować ruchem orbitalnym bez wpływania na spin elektronu.
      Możliwość przechowywania bitów w pojedynczym atomie zwiększyłaby tysiące razy pojemność obecnych układów pamięci. Do tego jeszcze bardzo długa droga. Otte mówi, że w tej chwili głównym osiągnięciem, z którego naukowcy się bardzo cieszą, jest możliwość kontrolowania pojedynczych atomów oraz elektronów krążących wokół nich.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fujifilm informuje o dokonaniu technologicznego przełomu, który pozwala na stworzenie pamięci taśmowej o pojemności 400 terabajtów. Obecnie na rynku dostępne są pamięci taśmowe o pojemnościach kilkunastu do około 20 TB. Z tej formy przechowywania danych korzystają zarówno firmy jak o osoby indywidualne, które muszą archiwizować olbrzymie ilości informacji.
      Fujifilm chce osiągnąć większe pojemności dzięki zmianie używanego obecnie ferrytu baru (BaFe) na ferryt strontu (SrFe). Używane w taśmach powłoki z ferrytu baru zostały już tak bardzo zminiaturyzowane, że odczyt informacji staje się coraz mniej wiarygodny.
      Najpopularniejszym formatem napędów taśmowych jest LTO (Linear Tape-Open) opracowany przez IBM-a w latach 90. LTO-1 było pierwszą generacją taśm, w których wykorzystano powłoki z cząstek metalu. Pojemność tych taśm sięgała 100 GB. Ferryt baru został po raz pierwszy użyty w LTO-6, a taśmy te miały pojemność 2,5 TB. Fujifilm zapowiada, że ferryt strontu trafi do generacji LTO-10, która ma się ukazać na rynku za 2 lata. Taśmy będą miały pojemność 48 TB. W roku 2025 pojawią się taśmy o pojemności 96 TB, na model o pojemności 192 terabajtów będziemy musieli poczekać do 2027 roku, a w roku 2030 do sprzedaży trafią 384-terabajtowe taśmy.
      Jako, że atomy strontu są mniejsze niż atomy baru, ferryt strontu pozwoli na zapisanie większej ilości informacji na takiej samej powierzchni taśmy.
      Napędy taśmowe nie są popularne wśród użytkowników indywidualnych. Są jednak poszukiwane przez duże firmy, które muszą przechowywać olbrzymie ilości danych. Co prawda odczyt informacji z taśmy jest wolniejszy niż z dysku twardego, jednak kartridże z taśmami są tańsze i mają znacznie większą pojemność. Dlatego też czasami korzystają z nich też i osoby indywidualne, jak fotografowie czy filmowcy, którzy chcą tworzyć archiwa swojej pracy.
      Obecnie tylko 2 firmy produkują taśmy magnetyczne do przechowywania danych: Fujifilm i Sony. W 2017 roku Sony we współpracy z IBM-em stworzyło prototypową taśmę, na której można zapisać 201 gigabitów danych na cal kwadratowy. Pozwala to na wyprodukowanie taśmy po pojemności 330 TB. Produkt taki ma trafić na rynek w 2026 roku. Teraz Fujifilm informuje o osiągnięciu gęstości zapisu rzędu 224 gigabitów na cal kwadratowy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Prace nad zapisywaniem danych w szkle są prowadzone przez Microsoft Research i stanowią one część projektu, w ramach którego Microsoft opracowuje nowe technologie archiwizacji danych na potrzeby platformy Azure.
      Budujemy całkiem nowy system, poinformował dyrektor wykonawczy Microsoftu Satya Nadella podczas konferencji Ignite. W ramach Project Silica wykorzystywane jest standardowe szkło kwarcowe.
      Obecnie Warner Bros archiwizuje filmy przenosząc ich wersje cyfrowe na taśmę i dzieląc je na trzy kolory składowe. Monochromatyczne negatywy są bowiem bardziej odporne na upływ czasu niż filmy kolorowe. To kosztowny i długotrwały proces. Microsoft chce go uprościć i obniżyć jego koszty. Jeśli Project Silica okaże się skalowalny i efektywny ekonomicznie, to będzie czymś, co z chęcią zastosujemy. Jeśli dobrze sprawdzi się w naszym przypadku, sądzimy, że będzie też przydatny dla każdego, kto chce archiwizować dane, mówi Vicky Colf, dyrektor ds. technologicznych w Warner Bros.
      Microsoft wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Wybór szkła jako nośnika danych może dziwić, jednak to bardzo obiecujący materiał. Szkło może przetrwać tysiące lat. Na płytce o wymiarach 75x75x2 milimetry można zapisać ponad 75 gigabajtów danych i zostanie sporo miejsca na zapisanie informacji do korekcji błędów. Podczas testów szkło było zalewane wodą, poddawane działaniu pola magnetycznego, mikrofal, gotowane w wodzie, pieczone w temperaturze 260 stopni Celsjusza i rysowane za pomocą stalowych drapaków. Za każdym razem dane można było odczytać.
      Duża wytrzymałość szkła oznacza, że archiwa z cyfrowymi danymi będą mniej podatne na powodzie, pożary, trzęsienia ziemi, zaburzenia powodowane polem magnetycznym czy na wyłączenia prądu. Ponadto szkło zajmuje niewiele miejsca. Jego największą zaletą jest wytrzymałość. Prawdopodobnie zapisane w nim dane można będzie przechowywać przez ponad 1000 lat. Stosowane obecnie metody magnetycznego zapisu ulegają szybkiej degradacji w ciągu kilku lat, dlatego też archiwalne dane zapisane na dyskach są co jakiś czas przegrywane na kolejne urządzenia.
      Celem Project Silica nie jest stworzenie produktu dla konsumentów indywidualnych. Szklane systemy przechowywania danych mają być skierowane do firm chcących archiwizować duże ilości informacji. Nie próbujemy stworzyć czegoś, co będzie używane w domu. Pracujemy nad metodą archiwizacji w skali chmur obliczeniowych. Chcemy wyeliminować kosztowny cykl ciągłego przenoszenia i zapisywania danych. Chcemy mieć coś, co można będzie odłożyć na półkę na 50, 100 czy 1000 lat i zapomnieć o tym do czasu, aż będzie potrzebne, mówi Ant Rowstron, zastępca dyrektora laboratorium w Microsoft Research Cambridge.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowym sposobem na poznanie przyczyn spadku liczebności pszczół jest podłączenie ula do Internetu i stworzenie czegoś w rodzaju scyfryzowanej jego wersji.
      Tieto, szwedzka firma zajmująca się konsultacjami z zakresu oprogramowania komputerowego, umieściła czujniki w 2 ulach (w każdym z uli mieszka ok. 80 tys. pszczół). Pierwszego października jeden scyfryzowany ul trafił do HSB Living Lab w Göteborgu. Drugi, prototyp, znajduje się w Kalmarze, przy siedzibie firmy. Zamontowano w nim czujniki do pomiaru liczebności owadów, wilgotności, ciśnienia czy temperatury w ulu.
      Ule są podłączone do Internetu i wysyłają dane na serwer. Jak tłumaczą twórcy, oznacza to zdalny dostęp do nich w czasie rzeczywistym. Analizą zajmą się algorytmy sztucznej inteligencji. Projekt ma pomoc w zarządzaniu ulem, tworzeniu zdrowych kolonii czy zachowaniu bioróżnorodności w bezpośrednim otoczeniu.
      Mikael Ekström, który po godzinach sam zajmuje się pszczelarstwem, wyjaśnia, że dzięki technologii można lepiej monitorować liczebność pszczół, żywotność kolonii, a także ilość wytwarzanego miodu. To również świetny sposób na zilustrowanie korzyści związanych ze scyfryzowanym społeczeństwem oraz na pokazanie, jak cyfrowe rozwiązania mogą stworzyć lepsze warunki zarówno dla ludzi, jak i dla pszczół.
      Ekström ma nadzieję, że w przyszłości technologia pomoże w wykrywaniu wybuchów epidemii różnych pszczelich chorób.
      Na razie skala projektu jest niewielka, ale Tieto prowadzi już rozmowy ze Szwedzkim Krajowym Stowarzyszeniem Pszczelarzy. Wspólnie być może uda się ustalić, jak go rozszerzyć na cały kraj. Szybki rozwój technologii działa na naszą korzyść.

      « powrót do artykułu
×
×
  • Create New...