Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Oligopeptydy rozwiązaniem problemu przechowywania informacji

Recommended Posts

Ludzkość wytwarza coraz więcej informacji. I część z nich warto jest dla przyszłych pokoleń. Jednak książki mogą spłonąć, do komputera można się włamać, płyty DVD ulegają z czasem degradacji. I mimo że technologie przechowywania danych są wciąż udoskonalane, to woda czy cyberatak mogą doprowadzić do utraty danych.

Szacuje się, że do roku 2020 globalna ilość danych cyfrowych wyniesie 44 biliony gigabajtów. To 10-krotnie więcej niż było ich w 2013 roku. Z czasem nawet chmury obliczeniowe nie będą w stanie przechowywać coraz większej ilości informacji.

Rozwiązaniem problemu może okazać się chemia i nieco tanich molekuł. Wyobraźmy sobie, że możemy całą Nowojorską Bibliotekę Publiczną zapisać w łyżeczce molekuł, mówi Brian Cafferty. To naukowiec z Uniwersytetu Harvarda, który wraz z kolegami z laboratorium profesora George'a Whitesidesa ze swojej uczelni oraz grupą profesora Milana Mrksicha z Northwestern University opracowali technikę zapisywania informacji w oligopeptydach. Tak zapisane dane można by przechowywać przez miliony lat, dostęp do danych można by uzyskać tylko przy fizycznym dostępie do nośnika, a po zapisaniu danych ich utrzymanie nie wymagałoby używania energii.

Obecnie, przynajmniej na tym etapie, nie postrzegamy naszej metody jako konkurencyjnej wobec istniejących metod zapisu danych. Ona je uzupełnia i powstaje przede wszystkim z myślą o długotrwałej archiwizacji informacji, mówi Cafferty.
Od niedawna słyszymy, że naukowcy potrafią zapisywać dane w DNA. O ile jednak DNA jest małe w porównaniu z układami scalonymi, to w świecie molekuł jest duże. Ponadto synteza DNA wymaga sporych umiejętności i dużo pracy. Jeśli mielibyśmy w ten sposób zapisywać dużą ilość danych, to musimy liczyć się z długotrwałym procesem i dużymi kosztami.

Cafferty mówi, że opracowana przezeń technika korzysta nie tyle z biologii co z chemii organicznej i analitycznej. Wykorzystano przy tym mniejsze i lżejsze molekuły. Za pomocą pojedynczego procesu syntezy można zapisać taniej i wkładając w to mniej wysiłku niż przy wykorzystaniu DNA.

Naukowcy użyli oligopeptydów, które występują powszechnie, są stabilne i mniejsze niż DNA, RNA czy białka. Oligopeptydy mają różną masę, a gdy się je wymierza można z łatwością je od siebie odróżnić, podobnie jak litery w alfabecie. Użyto przy tym, oczywiście, kodu binarnego. Na przykład litera „M” wykorzystuje 4 z 8 możliwych oligopeptydów, każdy o innej masie. Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bajtowi, w 32 można przechować cztery bajty.

Dotychczas Cafferty i jego zespół zapisali, przechowali i odczytali w oligopeptydach wykład Richarda Feynmana There is plenty of room at the bottom, zdjęcie Calude'a Shannona ojca teorii informacji oraz słynny drzeworyt Wielka fala w Kanagawie. W tej chwili zespół jest w stanie odczytywać zapisane informacje z dokładnością 99,9%. Zapis odbywa się z prędkością 8 bitów na sekundę, a odczyt z prędkością 20 bitów na sekundę. Oba czasy bez wątpienia da się znacząco poprawić. Naukowcy są też w stanie udoskonalić stabilność, pojemność oraz obniżyć cenę swoich molekuł. Na potrzeby badań wykorzystywali bowiem specjalnie tworzone molekuły. Jednak, jak zapewniają, w przyszłości właściciele archiwów będą mogli kupować standardowe molekuły, a ich cena może wynosić 1 cent za molekuły pozwalające na przechowanie ponad 10 MB danych.

W odpowiednich warunkach oligopeptydy są stabilne przez setki lub tysiące lat, stwierdzają autorzy badań. Mogą przetrwać bez światła i powietrza, w wysokiej temperaturze i niskiej wilgotności. Dostęp do tak zarchiwizowanych informacji byłby możliwy tylko przy fizycznym dostępie do nośnika, a informacje, w razie prób ich zaburzenia czy zniszczenia, łatwo odzyskać metodami chemicznymi.

Cafferty przewiduje, że w przyszłości, dzięki olbrzymiej pojemności oligopeptydów mogą powstać archiwa, które na niewielkiej przestrzeni będą przechowywały gigantyczne ilości informacji, całość zaś będzie tania, stabilna i nie będzie zużywała prądu.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Trochę polecę w stronę SF.

Mając do dyspozycji możliwość tak kompaktowego zapisu informacji, rożne koncepcje przychodzą człowiekowi do głowy.

Można by sobie wyobrazić że Sonda von Neumanna przypominała by kosmiczne ziarenko. Połączenie biotechnologii - zapis informacji (software) i nanotechnologii - odczyt, interpretacja i wykonanie zapisanego programu (hardware).

Dodajmy do tego żagiel słoneczny i otrzymujemy coś na kształt niełupka mniszka pospolitego (dmuchawiec) rozsiewający się po galaktyce.

 

 

 

Share this post


Link to post
Share on other sites

Tam popełniliście błąd w artykule, Shannon nie był ojcem teorii informacji, tylko teorii ilości informacji. To bardzo ważne rozróżnienie.

@krzysztof B7QkDkW Myślałem o czymś podobnym. Tylko w mojej wizji było jeszcze powielanie informacji, zjadanie napotkanej materii i rozszerzanie się takie tzw. "szarej masy" zawierającej informacje. I w tej szarej masie miałoby odbywać się również całe życie, bo chodzi o odtworzenie życia w małej skali, żeby uciekać przed entropią... Grubszy temat.

Share this post


Link to post
Share on other sites

Ciekawe dlaczego chcą przechowywać dużo informacji na tysiące lat, skoro po globalnym kataklizmie wiele z przechowywanych informacji będzie bezużyteczna. Tak samo będzie wielce prawdopodobne, że nikt jej nie odczyta. Bo czy teraz szukamy zapisanych informacji we wszystkim co badamy? Super inteligentna forma przekazu informacji będzie opierała się raczej na ujawnieniu informacji bez potrzeby odczytu. To co teraz mamy wymaga dużego skomplikowania. Przykładowo malowidła na ścianie w jaskini są bez problemu odczytane i zinterpretowane. A weźmy nawet płytę CD i dajmy komuś z lasu w Amazonii. Potnie, zrobi wisiorki i będzie mu w tym ładnie. Taki sam sens mają te molekuły. Zresztą tak jak każda forma złożona. Ma to chyba tylko sens jeżeli założymy ciągłość tzw cywilizacji. Wtedy przecież możemy na bierząco przez tysiąc lat robić kopie i archiwizować. Odczytamy tylko my.

Share this post


Link to post
Share on other sites

"Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bitowi, w 32 można przechować cztery bity."

Chodzi oczywiście o bajty, a nie bity.

Share this post


Link to post
Share on other sites
W dniu 5.05.2019 o 13:21, Rowerowiec napisał:

Ciekawe dlaczego chcą przechowywać dużo informacji na tysiące lat, skoro po globalnym kataklizmie wiele z przechowywanych informacji będzie bezużyteczna. Tak samo będzie wielce prawdopodobne, że nikt jej nie odczyta. Bo czy teraz szukamy zapisanych informacji we wszystkim co badamy? ... Przykładowo malowidła na ścianie w jaskini są bez problemu odczytane i zinterpretowane....Odczytamy tylko my.

Przepraszam, za odkopanie tematu, ale nadrabiam zaległości :)

Będzie bardzo użyteczna, choćby do informacji jak wyglądało nasze życie i nasza wiedza coby nie odkrywać koła na nowo.

I tak, szukamy informacji we wszystkim co badamy, tylko problem polega właśnie na tym, że nie mamy jak. Tak samo z rysunkami na skale, my je interpretujemy (po swojemu), a nie odczytujemy. Odczytujemy np. hieroglify dzięki Kamieniowi z Rosetty, to była instrukcja. W przyszłości również ktoś znajdzie taką instrukcję jak odczytać te oligopeptydy i voila!

Mnie ciekawi, dlaczego zamykają się w kodzie binarnym skoro mogliby użyć "dowolnie" wyższego kodu? 

Share this post


Link to post
Share on other sites

Join the conversation

You can post now and register later. If you have an account, sign in now to post with your account.
Note: Your post will require moderator approval before it will be visible.

Guest
Reply to this topic...

×   Pasted as rich text.   Paste as plain text instead

  Only 75 emoji are allowed.

×   Your link has been automatically embedded.   Display as a link instead

×   Your previous content has been restored.   Clear editor

×   You cannot paste images directly. Upload or insert images from URL.


  • Similar Content

    • By KopalniaWiedzy.pl
      Za znalezienie luki w produktach Apple'a można będzie otrzymać do miliona dolarów. Ivan Krstic, odpowiedzialny w Apple'u za kwestie bezpieczeństwa, poinformował podczas dorocznej konferencji Black Hat, że firma zwiększa z 200 000 do 1 000 000 limit kwoty, jaką płaci za znalezione dziury. Przedsiębiorstwo chce w ten sposób zachęcić odkrywców luk, by informowali je o ich istnieniu, zamiast by sprzedawali je na czarnym rynku.
      Co więcej, program nagród nie będzie ograniczony tylko do iPhone'a ale będzie dotyczył również innych produktów, jak iPad, Mac, Apple Watch czy Apple TV.
      Dotychczas firma płaciła do 200 000 USD za informacje o dziurach, ale krytykowano ją, że to zbyt mała kwota, więc istnieje pokusa sprzedaży informacji na czarnym rynku, co negatywnie odbiłoby się na bezpieczeństwie użytkowników firmowych produktów.
      Oczywiście nie dostaniemy miliona dolarów za każdą informację o luce. Najwyższą kwotę przewidziano tylko dla znalazców najpoważniejszych najbardziej groźnych dziur. Ponadto do 500 000 dolarów zwiększono kwotę za informacje o dziurach pozwalających na nieuprawniony dostęp do danych użytkownika.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dwóch amerykańskich senatorów, demokrata Josh Hawley i republikanin Mark Warner, przygotowało projekt ustawy, której celem jest lepszy nadzór nad danymi osobowymi przechowywanymi przez wielkie koncerny. Ustawa ma zmusić Facebooka, Google'a, czy Amazona do ujawnienia ile danych osobowych przechowują oraz w jaki sposób – pośredni i bezpośredni – na nich zarabiają.
      DASHBOARD (Designing Accounting Safeguards to Help Broaden Oversight And Regulations on Data Act) dotyczyłaby przedsiębiorstw, które mają miesięcznie ponad 100 milionów unikatowych użytkowników i zobowiązybałaby je do ujawnienia szczegółów dotyczących zarabiania na danych użytkowników.
      Projekt ustawy zakłada, że raz na 90 dni wspomniane firmy miałyby obowiązek poinformowania każdego z użytkowników o szacowanej wartości danych tego użytkownika przechowywanych przez operatora.
      Gdy wielkie koncerny twierdzą, że ich produkt jest darmowy, tak naprawdę sprzedają konsumentów. Co więcej, firmy IT robią wszystko, by ukryć informacje o tym, ile warte są dane użytkownika i komu zostały sprzedane, oświadczył senator Hawley. Przez lata serwisy społecznościowe twierdziły, że ich usługi są darmowe. Jednak to nie jest prawda, użytkownik płaci za te usługi swoimi danymi, dodał senator Warner.
      Zdaniem twórców ustawy, nowe przepisy pozwolą konsumentom zrozumieć, jaka jest prawdziwa wartość ich danych, dadzą im nad nimi kontrolę i pokażą, że to co rzekomo darmowe, tak naprawdę słono kosztuje.
      Warto w tym miejscu przypomnieć, że od wielu lat pojawiają się próby powołania do życia czegoś, co można by nazwać „ekonomią danych osobowych”. To próby przekazania użytkownikom zarówno kontroli nad własnymi danymi oraz możliwości pobierania opłat za korzystanie z nich. Nad tego typu pomysłem, projektem o nazwie „Bali”, pracuje m.in. Microsoft.
      Gdyby ustawa DASHBOARD została przyjęta przez Kongres, z pewnością ułatwiłoby to powstanie „ekonomii danych osobowych”.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Polska onkologia i medycyna opiera się na zbyt malej ilości twardych danych; nie wiemy tak naprawdę, jakie są dokładnie wyniki leczenia nowotworów – powiedział PAP prof. Piotr Rutkowski, przewodniczący powołanego niedawno zespołu ds. tzw. cancer planu.
      Do 30 listopada 2019 r. zespół ds. tzw. cancer planu ma opracować Narodową Strategię Onkologiczną, której głównym celem jest poprawa wykrywalności oraz skuteczności leczenia nowotworów.
      Zdaniem prof. Piotra Rutkowskiego, chirurga Centrum Onkologii w Warszawie, zespół specjalistów ds. Narodowej Strategii Onkologicznej (wśród których są onkolodzy z centrów onkologii, jak i przedstawiciele ministerstwa zdrowia, Narodowego Funduszu Zdrowia oraz uczelni medycznych), potrzebuje przede wszystkim wiarygodnych danych.
      Polska onkologia i polska medycyna opiera się na zbyt malej ilości twardych danych i tak naprawdę nie wiemy, jakie są dokładnie wyniki leczenia, za co płaci płatnik, ale przede wszystkim jakie korzyści odnosi z tego chory. To jest niezbędne – powiedział w rozmowie z dziennikarzem PAP.
      Skutkiem braku danych o wynikach leczenia jest to – podkreślił specjalista - że pacjent nie wie, jaka jest jakość danego zabiegu, ale też płatnik tego w ogóle nie kontrolował. Wykazał to niedawno opublikowany raport Narodowego Funduszu Zdrowia "Nowotwory złośliwe. Koncentracja leczenia zabiegowego" (opracowany na podstawie danych dotyczących realizacji świadczeń medycznych w 2017 r.).
      NFZ postanowił, że powyżej pewnej liczby wykonywanych procedur za zabieg będzie płacić więcej. Okazuje się jednak, że mało ośrodków spełnia przyjęte warunki, przykładowo w jednym z nowotworów [jelita grubego – PAP] 30 ośrodków spełnia określone kryteria, a 300 innych - nie spełnia. Opublikowane w raporcie dane ujawniły zatem olbrzymie rozproszenie ośrodków zajmujących się leczeniem nowotworów – podkreślił szef zespołu ds. cancer planu.
      Chirurgią w wielu nowotworach jest podstawą leczenia. W skomplikowanych zabiegach, do jakich często zaliczane są operacje nowotworów, bardzo ważne jest zatem, żeby w danej placówce wykonywano ich jak najwięcej. Chirurdzy, którzy często je przeprowadzają, uzyskują lepsze efekty, z korzyścią dla chorego. W chirurgii onkologicznej często jest tak, że ilość faktycznie przechodzi w jakość, ale musi być również odpowiednia jakość sprawozdawania tych wyników, zarówno o liczbie wykonywanych procedur, jak też osiąganych wynikach leczenia – wyjaśnił prof. Rutkowski.
      Podkreślił, że w krajach zachodnich istnieje dobrze pojęta konkurencja między placówkami specjalizującymi się w danym typie nowotworów. Zdarza się, że znikają kliniki, które w kolejnych audytach odstawały jakościowo od innych pod względem uzyskiwanych wyników i dlatego je zamknięto. Byłem w szoku, kiedy po raz pierwszy się zetknąłem się z tym, że pewnego ośrodka po jakimś czasie już nie było. Czy można sobie wyobrazić, żeby w Polsce zamknięto jakakolwiek klinikę, bo nie spełniała kryteriów – zapytał.
      Zdaniem przewodniczącego zespołu, który ma opracować Narodową Strategię Onkologiczną, wyspecjalizowane ośrodki powinny przez dłuższy czas opiekować się pacjentem. Przykładem tego, o co nam chodzi, są tzw. Breast Cancer Units [ośrodki specjalizujące się leczeniu raka piersi – PAP]. Opieka w takich placówkach powinna być skoordynowana i kompleksowa, czyli od diagnozy poprzez leczenie skojarzone, ale również po jego zakończeniu chory musi mieć zapewnioną dalszą rehabilitację. Teraz często jest tak, że pacjent, który zachorował na nowotwór, kończy leczenie i nie ma dalszej opieki, pozostawiony jest samu sobie. Tak jest niestety w wielu ośrodkach – przyznał prof. Rutkowski.
      Dodał, że w Polsce chorych nie poddaje się rehabilitacji z tego tylko powodu, że mają oni nowotwory i koło się zamyka. Jest u nas wiele przesądów po wyleczeniu i w trakcie leczeniu nowotworów. Chodzi w tym przypadku o całościową rehabilitację, nie tylko o fizykoterapię, ale także o wsparcie psychoonkologiczne i możliwość powrotu do pracy - ale w taki sposób, żeby pacjent mógł korzystać z dalszego leczenia – wyjaśnił specjalista.
      Specjalista zwrócił uwagę, że chirurgia onkologiczna jest dynamicznie rozwijającą się specjalnością, która dotyczy również leczenia okołooperacyjnego, za pomocą napromieniania, chemioterapii i nowych terapii. Nie zawsze trzeba od razu zoperować pacjenta. Na zjazdach naukowych coraz więcej jest o leczeniu okołooperacyjnym – dodał.
      Chodzi nie tylko o leczenie, ale i nowoczesne diagnozowanie, które jest bardzo trudne. To jest kosztowne, ale przynosi też oszczędności zarówno dla pacjenta, jak i płatnika, bo gdy rozpoznanie zostanie właściwie postawione to oszczędzamy pieniądze i leczymy właściwie, bardziej skutecznie - powiedział prof. Rutkowski.
      Jako przykład podał Francję, gdzie 95 proc. mięsaków jest diagnozowanych histopatologicznie jedynie w trzech ośrodkach. Po takich specjalistycznych badaniach zmieniono rozpoznania w 40 proc. przypadków, a w 10 proc. okazało się, że wcale nie było nowotworu, czyli w co drugim przypadku chorzy powinni być leczeniu całkowicie inaczej lub w ogóle niepotrzebnie poddano ich terapii. Chodzi o przeprowadzenie pełnej diagnostyki jeszcze przed operacją, żeby wypracować właściwą strategię leczenia, chemioterapię czy radioterapię. Przecież to są wszystko koszty – podkreślił specjalista.
      W ocenie szefa zespołu ds. cancer planu, chirurgią onkologiczną nie muszą się zajmować tylko wielospecjalistyczne ośrodki: To może być mały ośrodek specjalistyczny, a także placówki uniwersyteckie, np. w Krakowie czy Warszawie. Wykonują one dobrą robotę także w zakresie chirurgii onkologicznej.
      Prof. Rutkowski uważa, że system [opieki onkologicznej – PAP] trzeba w Polsce dopiero zbudować, bo był on postawiony na głowie.
      Skoncentrowana była chemioterapia, a zdekoncentrowana chirurgia. Tymczasem powinno być odwrotnie, bo wtedy uzyskuje się największy odsetek wyleczeń. Z kolei leczenie uzupełniające i paliatywne powinno być bliżej miejsca zamieszkania pacjenta. Bez sensu jest to, żeby na standardową chemioterapię pacjent jeździł 200 km. To jest to co mam nadzieję, że się zmieni - mówił.
      Według niego świadczenia medyczne powinny być jednak rozsądnie wycenione. Duża część procedur w chirurgii generalnie wykonywana jest poniżej kosztów. To jest totalna fikcja. Dlatego szpitale nie są zainteresowane wysokojakościową chirurgią, bo ona tylko przynosi straty - podkreślił.
      Zrobiliśmy ostatnio wyliczenie – dodał - bo po raz pierwszy wzięła się za to Agencja Oceny Technologii Medycznych i Taryfikacji, która wreszcie ocenia realne koszty w chirurgii. Okazało się, że u nas - w Centrum Onkologii - koszty realne są trzy razy wyższe od tego, co płaci NFZ. Bo tak niskie są te wyceny.
      Oczekuję, że wzrosną nakłady na służbę zdrowia, ale wiele zależy od organizacji opieki. Dotąd jak nie było pieniędzy, to wszyscy markowali, jak ten system ma działać. Jeżeli pieniędzy będzie więcej, to będzie on działał sprawnie – powiedział prof. Rutkowski.
      Specjalista poinformował PAP, że pierwsze posiedzenie zespołu ds. cancer planu planowane jest na 18 czerwca 2019 r. Przewiduje się, że omawiane będą wstępne priorytety Narodowej Strategii Onkologicznej.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Międzynarodowy zespół naukowy opracował metodę przechowywania danych, która niemal nie zużywa energii. Cyfrowe dane są zapisane na nośniku magnetycznym, który nie potrzebuje zasilania. Cała metoda jest niezwykle szybka i rozwiązuje problem zwiększenia wydajności przetwarzania danych bez zwiększania poboru energii.
      Obecnie centra bazodanowe odpowiadają za 2–5 procent światowego zużycia energii. W czasie ich pracy generowane są olbrzymie ilości ciepła, które wymagają dużych ilości energii przeznaczonej na chłodzenie. Problem jest na tyle poważny, że np. Microsoft zatopił centra bazodanowe w oceanie, by je lepiej chłodzić i obniżyć koszty.
      Większość danych przechowywanych jest w formie cyfrowej, gdzie 0 i 1 są reprezentowane za orientacji domen magnetycznych. Nad materiałem magnetycznym przesuwa się głowica odczytująco/zapisująca.
      Teraz na łamach Nature dowiadujemy się o nowej metodzie zapisu, która wykorzystuje niezwykle krótkie, trwające bilionowe części sekundy, impulsy światła, które wysyłane są do anten umieszczonych na magnesach. Całość pracuje niezwykle szybko i niemal nie zużywa przy tym energii, gdyż temperatura magnesów nie rośnie.
      Autorzy nowej metody wykorzystali impulsy światła w zakresie dalekiej podczerwieni, w paśmie teraherców. Jednak nawet najpotężniejsze terahercowe źródła światła nie są na tyle mocne, by zmienić orientację pola magnetycznego. Przełom nadszedł, gdy uczeni opracowali wydajny mechanizm sprzęgania pomiędzy spinem pola magnetycznego i terahercowym polem elektrycznym. Następnie stworzyli miniaturowe anteny, które pozwalają skoncentrować, a zatem i wzmocnić pole elektryczne światła. Okazało się ono na tyle silne, że można za jego pomocą zmieniać spin w ciągu bilionowych części sekundy.
      Temperatura magnesu nie rośnie podczas pracy, gdyż cały proces zapisu wymaga jednego kwanta energii na spin. Rekordowo niski pobór energii czyni tę metodę skalowalną. Przyszłe systemy do składowania danych będą mogły wykorzystać również świetne zdefiniowanie przestrzenne anten, co pozwoli na stworzenie praktycznych układów pamięci magnetycznej o maksymalnej prędkości i efektywności energetycznej, mówi jeden z autorów badań, doktor Rościsław Michajłowskij z Lancaster University.
      Uczony planuje przeprowadzenie kolejnych badań, podczas których chce wykorzystać nowy ultraszybki laser z Lancaster University oraz akceleratory z Cockroft Institute zdolne do generowania intensywnych impulsów światła. Chce w ten sposób określić praktyczne i fundamentalne limity prędkości i energii dla zapisu magnetycznego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pięćdziesięciojednoletni Benoît Lecomte musiał zrezygnować z próby pokonania wpław Pacyfiku. Niestety, burza uszkodziła grot łodzi zapewniającej mu wsparcie. Stało się tak po pokonaniu przez Francuza 2700 km; cała trasa do San Francisco ma 9100 km.
      Pływak, który wcześniej jako pierwszy pokonał wpław Atlantyk, wyruszył 5 czerwca z Chōshi w Japonii. Średnio płynął 8 godzin dziennie. Jego celem było i nadal jest zwiększenie świadomości zmiany klimatu i zanieczyszczenia plastikiem.
      Po dotarciu do Wielkiej Pacyficznej Plamy Śmieci Benoît musiał się zmierzyć z niespodziewanie dużą ilością odpadów, tajfunami i silnymi burzami. Natrafiliśmy na zdradliwe wiatry, deszcz i martwe fale, które zmusiły nas do zmiany kursu. Ostatecznym ciosem było [jednak] nienaprawialne uszkodzenie żagla.
      Ponieważ bezpieczeństwo to priorytet, jedynym wyjściem było wycofanie z próby pobicia rekordu. Ben i zespół nadal jednak zamierzają zebrać naukowe dane z niezbadanego korytarza oceanicznego.
      Warto przypomnieć, że The Swim to jedyna w swoim rodzaju ekspedycja z zakresu nauki obywatelskiej. We współpracy z 27 instytucjami naukowymi, w tym z NASA i Woods Hole Oceanographic Institution, Ben i jego załoga pobrali wzdłuż pokonanej trasy niemal 1100 próbek. Dzięki temu może się powiększyć nasza wiedza z zakresu skażenia plastikiem, migracji ssaków, ekstremalnej wytrzymałości, a nawet długoterminowych lotów kosmicznych.

      « powrót do artykułu
×
×
  • Create New...