Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Robert Curtis z Petrel Biosensors – odnogi Woods Hole Oceanographic Institution – opracował nową tanią metodę wykrywania zanieczyszczających wodę toksyn. Wystarczy wpuścić do niej pierwotniaki i obserwować ich sposób pływania.

Naukowiec wykorzystał fakt, że pierwotniaki są często pokryte rzęskami (łac. cilia). Związki rozpuszczone w wodzie mogą wpływać na transport wapnia do rzęsek, co oznacza, że różne substancje różnie zmieniają styl pływacki drobnych organizmów.

Amerykanie umieszczali Protozoa w roztworach testowych przygotowanych w oparciu o kilka rozpowszechnionych toksyn. Za pomocą kamer utrwalili wzorce przemieszczania się pierwotniaków. Teraz ekipa Curtisa pracuje nad urządzeniem, które na podstawie algorytmów dopasowuje sposób pływania do ewentualnej toksyny. Można zobaczyć unikatowe wzorce przemieszczania się, dlatego da się stwierdzić, czy jest to metal ciężki, czy toksyna fosfoorganiczna – podkreśla Curtis.

Urządzenie ma kosztować ok. 15 tys. dolarów, a zbadanie jednej próbki, co zajmie jedynie pół minuty, to wydatek rzędu 1-2 dolarów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Ponad połowa największych jezior na świecie traci wodę, wynika z badań przeprowadzonych przez międzynarodowy zespół naukowy z USA, Francji i Arabii Saudyjskiej. Przyczynami tego stanu rzeczy są głównie globalne ocieplenie oraz niezrównoważona konsumpcja przez człowieka. Jednak, jak zauważają autorzy badań, dzięki opracowanej przez nich nowej metodzie szacunku zasobów wody, trendów oraz przyczyn jej ubywania, można dostarczyć osobom odpowiedzialnym za zarządzanie informacji, pozwalającymi na lepszą ochronę krytycznych źródeł wody.
      Przeprowadziliśmy pierwsze wszechstronne badania trendów oraz przyczyn zmian ilości wody w światowych jeziorach, wykorzystując w tym celu satelity oraz modele obliczeniowe, mówi główny autor badań, Fangfang Yao z Uniwersytetu Kalifornijskiego w Boulder (CU Boulder). Mamy dość dobre informacje o słynnych jeziorach, jak Morze Kaspijskie, Jezioro Aralskie czy Salton Sea, jeśli jednak chcemy dokonać szacunków w skali globalnej, potrzebujemy wiarygodnych informacji o poziomie wód i objętości jeziora. Dzięki tej nowej metodzie możemy szerzej spojrzeć na zmiany poziomu wód jezior w skali całej planety, dodaje profesor Balaji Rajagopalan z CU Boulder.
      Naukowcy wykorzystali 250 000 fotografii jezior wykonanych przez satelity w latach 1992–2020. Na ich podstawie obliczyli powierzchnię 1972 największych jezior na Ziemi. Użyli też długoterminowych danych z pomiarów poziomu wód z dziewięciu satelitów. W przypadku tych jezior, co do których brak było danych długoterminowych, wykorzystano pomiary wykorzystane za pomocą bardziej nowoczesnego sprzętu umieszczonego na satelitach. Dzięki połączeniu nowych danych z długoterminowymi trendami byli w stanie ocenić zmiany ilości wody w jeziorach na przestrzeni kilku dziesięcioleci.
      Badania pokazały, że 53% największych jezior na świecie traci wodę, a jej łączny ubytek jest 17-krotnie większy niż pojemność największego zbiornika na terenie USA, Lake Meads. Wynosi zatem około 560 km3 wody.
      Uczeni przyjrzeli się też przyczynom utraty tej wody. W przypadku około 100 wielkich jezior przyczynami były zmiany klimatu oraz konsumpcja przez człowieka. Dzięki tym badaniom naukowcy dopiero teraz dowiedzieli się, że za utratą wody w jeziorze Good-e-Zareh w Afganistanie czy Mar Chiquita w Argentynie stoją właśnie takie przyczyny. Wśród innych ważnych przyczyn naukowcy wymieniają też odkładanie się osadów. Odgrywa ono szczególnie ważną rolę w zbiornikach, które zostały napełnione przed 1992 rokiem. Tam zmniejszanie się poziomu wody jest spowodowane głównie zamuleniem.
      Podczas gdy w większości jezior i zbiorników wody jest coraz mniej, aż 24% z nich doświadczyło znacznych wzrostów ilości wody. Są to głównie zbiorniki znajdujące się na słabo zaludnionych terenach Tybetu i północnych części Wielkich Równin oraz nowe zbiorniki wybudowane w basenach Mekongu czy Nilu.
      Autorzy badań szacują, że około 2 miliardów ludzi mieszka na obszarach, gdzie w zbiornikach i jeziorach ubywa wody, co wskazuje na pilną potrzebę uwzględnienia takich elementów jak zmiany klimatu, konsumpcja przez człowieka czy zamulanie w prowadzonej polityce. Jeśli na przykład konsumpcja przez człowieka jest ważnym czynnikiem prowadzącym do utraty wody, trzeba wprowadzić mechanizmy, które ją ograniczą, mówi profesor Ben Livneh. Uczony przypomina jezioro Sevan w Armenii, w którym od 20 lat poziom wody rośnie. Autorzy badań łączą ten wzrost z wprowadzonymi i egzekwowanymi od początku wieku przepisami dotyczącymi sposobu korzystania z wód jeziora.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Specjaliści od biomechaniki z Cornell University obliczyli maksymalną wysokość, z jakiej możemy skoczyć do wody bez większego ryzyka wyrządzenia sobie krzywdy. Uwzględnili rodzaj skoku, a zatem to, która część ciała najpierw styka się z wodą. Woda jest 1000-krotnie gęstsza niż powietrze, więc skacząc przemieszczamy się z bardzo rzadkiego do bardzo gęstego medium, co wiąże się z silnym uderzeniem, mówi profesor Sunghwan Jung, główny autor artykułu opublikowanego na łamach Science Advances.
      Z eksperymentów wynika, że w przypadku osoby, która nie przeszła odpowiedniego treningu, skok do wody z wysokości ponad 8 metrów grozi uszkodzeniami kręgosłupa i karku w sytuacji, gdy jako pierwsza z wodą styka się głowa. Jeśli zaś skoczymy tak, by jako pierwsze z wodą zetknęły się dłonie, to przy skoku z wysokości ponad 12 metrów ryzykujemy uszkodzeniem obojczyka. Z kolei uszkodzenie kolana jest prawdopodobne przy skoku na stopy z wysokości ponad 15 metrów.
      Chcieliśmy sprawdzić, jak pozycja przy skoku do wody wpływa na ryzyko odniesienia obrażeń. Motywowała nas też chęć opracowania ogólnej teorii dotyczącej tego, jak obiekty o różnych kształtach wpadają do wody. Prowadziliśmy więc analizy zarówno kształtu ludzkiego ciała i różnych rodzajów skoków, jak i ciał zwierząt. Mierzyliśmy przy tym oddziałujące siły, dodaje Jung.
      Na potrzeby badań naukowcy wydrukowali trójwymiarowe modele ludzkiej głowy i tułowia, głowy morświna zwyczajnego, dzioba głuptaka zwyczajnego oraz łapy jaszczurki z rodzaju Basiliscus. W ten sposób mogli zbadać różne kształty podczas zetknięcia się z wodą. Wrzucali do niej swoje modele, mierzyli działające siły oraz ich rozkład w czasie. Brali pod uwagę wysokość, z jakiej modele wpadały do wody, a znając działające siły oraz wytrzymałość ludzkich kości, mięśni i ścięgien byli w stanie wyliczyć ryzyko związane ze skakaniem do wody z różnych wysokości. Biomechanika człowieka dysponuje olbrzymią literaturą dotyczącą urazów w wyniku upadków, szczególnie wśród osób starszych, oraz urazów sportowych. Nie znam jednak żadnej pracy dotyczącej urazów podczas skoków do wody, mówi profesor Jung.
      Badania dają nam też wiedzę na temat przystosowania się różnych gatunków zwierząt do nurkowania. Na przykład głuptak zwyczajny ma tak ukształtowany dziób, że może wpadać do wody z prędkością do 24 m/s czyli ponad 86 km/h. Jung i jego zespół od dłuższego czasu badana mechanikę nurkowania zwierząt. Obecnie naukowcy skupiają się na tym, jak lisy nurkują w śniegu.
      Jesteśmy dobrymi inżynierami. Potrafimy zbudować samolot i okręt podwodny. Ale przechodzenie pomiędzy różnymi ośrodkami, co sprawnie robią zwierzęta, nie jest łatwym zadaniem. A to bardzo interesująca kwestia. Inżynierowie chcieliby np. budować drony, które sprawnie poruszałyby się w powietrzu, a później wlatywały pod wodę. Może dzięki naszym badaniom wpadną na odpowiednie rozwiązania. My zaś próbujemy zrozumieć podstawy mechaniki, dodaje Jung.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Laboratorium Centralnym Katowickich Wodociągów pracują sommelierzy, którzy oceniają wodę pod kątem smaku i zapachu. Osoby te musiały przejść testy i szkolenie. Jak można się domyślić, by testy wody były wiarygodne, należy je prowadzić w specjalnych warunkach.
      Gdzie i jak pracuje sommelier od wody
      W pracowni analizy sensorycznej musi być zachowana temperatura 23 stopni Celsjusza, z tolerancją odchylenia wynoszącą 2 stopnie. Stanowiska, przy których sommelierzy przeprowadzają testy, są oddzielone od siebie boksami, pozbawione okien i wyposażone w oświetlenie, którego parametry określone są w normach. Wszystko po to, by nic ich nie rozpraszało i nie wpływało negatywnie na ich zdolności – wyjaśnia analityczka Laboratorium Centralnego Sylwia Morawiecka.
      Jak dodaje, godzinę przed analizą nie powinno się jeść ani używać perfum (dzięki temu nie zaburza się pracy receptorów węchowych i kubków smakowych). W pomieszczeniu, w którym pracują sommelierzy, przed badaniem włączane jest urządzenie pochłaniające wszelkie niepotrzebne zapachy.
      Analitycy określają, zgodnie z wymaganiami zawartymi w polskich normach, podstawowe smaki (słodki, słony, gorzki, metaliczny, kwaśny i umami) i zapachy (ziemisty i apteczny, stęchły/gnilny). Występowanie któregoś z nich nie wyklucza automatycznie przydatności do spożycia; intensywność musi się po prostu mieścić w przyjętych granicach (akceptowalnych dla konsumentów).
      Rozwiązywanie problemów
      Gdy woda zalega w sieci wewnętrznej budynku, jakość wody może się pogorszyć (smak i zapach stają się bardziej wyczuwalne). W takiej sytuacji zalecane jest odpuszczenie wody przed jej użyciem - wyjaśniono na stronie Urzędu Miasta Katowice.
      Zdarza się, że woda w budynku spełnia normy - nie jest skażona bakteriami i ma właściwe parametry mikrobiologiczne i chemiczne, a mimo to jej smak i zapach jest nieakceptowany przez klientów. Przyczyną może być zastanie wody w tym budynku lub stare, skorodowane rury. Sommelier w trakcie analizy smaku i zapachu niejednokrotnie jest w stanie określić, co jest powodem zmiany smaku i zapachu testowanej wody - tłumaczy cytowana przez PAP kierowniczka Laboratorium Centralnego Katowickich Wodociągów Anna Jędrusiak.
      Praca nie dla każdego
      Tylko ok. 50% chętnych ma właściwą wrażliwość sensoryczną. Na początku osoba zdobywająca upoważnienie do wykonywania badań oznaczania smaku i zapachu przechodzi testy. Jędrusiak wyjaśnia, że przygotowywane są „problematyczne” próbki. [...] Czekamy, czy [kandydat na sommeliera] określi, co jest nie tak. Potem jeszcze przechodzi szkolenie. Ale nawet osoba o takich kwalifikacjach ma pewne ograniczenia - może przebadać w jednej serii 6-8 próbek, potem wrażliwość spada, to zjawisko można też zaobserwować podczas wąchania perfum.
      Odnosząc się do pytania, czy sommelierem może zostać osoba paląca papierosy, Jędrusiak stwierdza, że choć nikt jest dyskryminowany, w praktyce palaczom trudniej przejść testy, bo ich wrażliwość jest nieco inna. Obecnie w zespole pracuje jedna osoba paląca.
      Z biegiem czasu i wzrostem doświadczenia zmysły się wyostrzają. Sylwia Morawiecka przyznaje, że zawsze potrafiła dobrze wyczuwać zapachy i smaki, ale dziś umie je oznaczyć na niższym poziomie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W sytuacji, gdy dochodzi do wykrycia uwolnienia substancji niebezpiecznych, najważniejsze jest szybkie i precyzyjne zlokalizowanie źródła uwolnienia oraz przewidzenie kierunku rozchodzenia się substancji. Używane obecnie modele dyspersyjne wymagają bardzo dużych zasobów obliczeniowych. Mogą jednak zostać zastąpione przez modele bazujące na Sztucznych Sieciach Neuronowych, SSN (ang. Artificial Neutral Networks, ANN), co pozwoli na monitorowanie skażenia w czasie rzeczywistym. W badaniu możliwości wykorzystania takich modeli uczestniczą naukowcy z Departamentu Układów Złożonych NCBJ.
      Obszar odpowiadający części centralnego Londynu, będący podstawą do przygotowania danych dla SSN, jak również wykorzystany w eksperymencie DAPPLE (skrzyżowanie Marylebone Road i Gloucester Place, 51.5218N 0.1597W)
      Od kilku lat w Centrum Analiz Zagrożeń MANHAZ prowadzone są prace nad algorytmami umożliwiającymi lokalizację źródła skażenia, w oparciu o, pochodzące z sieci detektorów, dane na temat stężeń uwolnionej substancji. Głównym zadaniem istniejących we wszystkich miastach grup reagowania kryzysowego, jest szybkie odpowiadanie na wszelkie zagrożenia dla ludzi i środowiska. Podstawowym czynnikiem decydującym o powodzeniu lub niepowodzeniu danego działania jest czas reakcji.
      Obecnie różne substancje chemiczne są używane w większości dziedzin przemysłu, co sprawia, że transport i przechowywanie materiałów toksycznych wiąże się z ciągłym ryzykiem uwolnienia ich do atmosfery i do zajścia skażenia. Dużym wyzwaniem są sytuacje, w których czujniki rozmieszczone na terenie miasta zgłaszają niezerowe stężenie niebezpiecznej substancji, której źródło nie jest znane. W takich przypadkach ważne jest, aby system był w stanie w czasie rzeczywistym oszacować najbardziej prawdopodobną lokalizację źródła zanieczyszczenia, wyłącznie w oparciu o dane o stężeniu, pochodzące z sieci czujników.
      Algorytmy, które radzą sobie z zadaniem można podzielić na dwie kategorie. Pierwszą są algorytmy opierające się na podejściu wstecznym, czyli analizie problemu zaczynając od jego ostatniego etapu, ale są one dedykowane obszarom otwartym lub problemowi w skali kontynentalnej. Drugą kategorię stanowią algorytmy, które bazują na próbkowaniu parametrów odpowiedniego modelu dyspersji (parametrów takich, jak lokalizacja źródła), aby wybrać ten, który daje najmniejszą różnicę między danymi wyjściowymi, a rzeczywistymi pomiarami stężeń, wykonywanymi przez sieć detektorów. Podejście to sprowadza się do wykorzystania algorytmów próbkowania, w celu znalezienia optymalnych parametrów modelu dyspersji, na podstawie porównania wyników modelu i detekcji zanieczyszczeń.
      Ze względu na efektywność zastosowanego algorytmu skanowania parametrów, każda rekonstrukcja wymaga wielokrotnych uruchomień modelu. Rekonstrukcja w terenie zurbanizowanym, która jest głównym przedmiotem zainteresowania badaczy, wymaga zaawansowanych modeli dyspersji, uwzględniających turbulencje pola wiatru wokół budynków. Najbardziej niezawodne i dokładne są modele obliczeniowej dynamiki płynów (ang. Computational Fluid Dynamics, CFD). Stanowią one jednak bardzo wymagające obliczeniowo wyzwanie. Musimy zdawać sobie sprawę z tego, że aby znaleźć najbardziej prawdopodobne źródło skażenia, model dyspersji trzeba uruchomić dziesiątki tysięcy razy. Oznacza to, że użyty model musi być szybki, aby można go było zastosować w systemie awaryjnym, pracującym w czasie rzeczywistym. Zakładając na przykład, że średni czas potrzebny na wykonanie samych obliczeń modelu dyspersji w terenie zurbanizowanym wynosi 10 minut, pełna rekonstrukcja z jego wykorzystaniem będzie trudna do przeprowadzenia w dopuszczalnie krótkim czasie.
      Rozwiązaniem tego problemu, nad którym pracuje dr Anna Wawrzyńczak-Szaban z Centrum Analiz Zagrożeń MANHAZ w NCBJ, przy współpracy z Instytutem Informatyki UPH w Siedlcach, jest wykorzystanie w systemie rekonstrukcji sztucznej sieci neuronowej, zamiast modelu dyspersji, w terenie zurbanizowanym. Chodzi o to, by sztuczna sieć neuronowa była skuteczna w symulacji transportu zanieczyszczeń w powietrzu, na terenie zurbanizowanym. Jeśli to się powiedzie, SSN może działać jako model dyspersji w systemie lokalizującym w czasie rzeczywistym źródło skażenia. Podstawową zaletą SSN jest bardzo krótki czas odpowiedzi – opisuje dr Anna Wawrzyńczak-Szaban. Oczywiście SSN musi być wytrenowana w stałej topologii miasta, przy użyciu rzeczywistych warunków meteorologicznych z wykorzystaniem odpowiedniego i zwalidowanego modelu dyspersji. Proces ten wymaga wielu symulacji, służących jako zestawy danych treningowych dla SSN. Proces uczenia sieci SSN jest kosztowny obliczeniowo, ale po przeszkoleniu, metoda byłaby szybkim narzędziem do szacowania stężeń punktowych dla danego źródła zanieczyszczenia.
      W pracy opublikowanej przez naukowców1) przedstawiono wyniki trenowania sieci neuronowej w oparciu o dane, uczące rozprzestrzeniania się toksyn w powietrzu w centrum Londynu, wykorzystując domenę testową eksperymentu polowego DAPPLE2). Dane uczące SSN wygenerowano za pomocą modelu dyspersji Quick Urban & Industrial Complex (QUIC). Przetestowaliśmy różne struktury SSN, czyli liczby jej warstw, neuronów i funkcji aktywacji. Wykonane testy potwierdziły, że wyszkolona SSN może w wystarczającym stopniu symulować turbulentny transport toksyn, unoszących się w powietrzu na obszarze silnie zurbanizowanym – objaśnia dr Anna Wawrzyńczak-Szaban. Ponadto pokazaliśmy, że wykorzystując SSN można skrócić czas odpowiedzi systemu rekonstrukcji. Czas wymagany, przez prezentowaną w pracy SSN, do oszacowania trzydziestominutowych stężeń gazu w 196 000 punktów sensorowych wyniósł 3 s W przypadku modelu QUIC, czas został oszacowany jako co najmniej 300 s, co daje nam 100-krotne przyspieszenie obliczeń. Biorąc to pod uwagę, czas rekonstrukcji w rzeczywistej sytuacji awaryjnej może być krótki, co skutkuje szybką lokalizacją źródła zanieczyszczenia.
      W trakcie badań okazało się, że zapewnienie trenowanej SSN pełnej informacji prowadzi czasami do pewnych wyzwań obliczeniowych. Na przykład w pojedynczej symulacji rozproszenia toksyn w powietrzu, na obszarze miejskim, nawet 90% odczytów z czujników może mieć wartość zerową. Prowadzi to do sytuacji, w której postać docelowa SSN obejmuje kilka procent wartości dodatnich i większość zer. W efekcie SSN skupia się na tym, czego jest więcej – na zerach, co sprawia, że nie dostosowuje się do szukanych elementów badanego problemu. Uwzględniając zerową wartość koncentracji w danych treningowych, musimy zmierzyć się z kilkoma pytaniami: jak uwzględnić zero? Jak przeskalować dany przedział, aby „ukryć” zera? Czy w ogóle uwzględniać zera? Czy ograniczyć ich liczbę? – podkreśla dr Wawrzyńczak-Szaban.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W górnych 2 kilometrach skorupy ziemskiej znajduje się około 24 milionów kilometrów sześciennych wody. To w większości woda pitna. Jednak poniżej tego rezerwuaru, zamknięte w skałach, znajdują się kolejne rozległe zasoby wodne, złożone głównie z solanki liczącej sobie setki milionów, a może nawet ponad miliard lat. Najnowsze szacunki pokazują, że zasoby te, wraz z położoną powyżej wodą, stanowią największy rezerwuar wody na Ziemi.
      Dotychczas uważano, że największymi, poza oceanami, rezerwuarami wody na Ziemi są lodowce i lądolody, których objętość wynosi około 30 milionów km3. Okazuje się jednak, że prawdopodobnie musimy zweryfikować swoje przekonania.
      Dość dobrze wiemy, ile wody znajduje się w górnej 2-kilometrowej warstwie skorupy ziemskiej. Jednak zasoby położone poniżej, na głębokości nawet do 10 kilometrów, są znacznie słabiej poznane. Ich oszacowania podjęli się naukowcy z międzynarodowego zespołu, w skład którego wchodzili uczeni z USA, Kanady, Wielkiej Brytanii i Hongkongu.
      Uczeni zbadali strefę „głębokich wód podziemnych”, położonych na głębokości 2–10 kilometrów. W swojej pracy uwzględnili rozkład skał osadowych oraz skrystalizowanych oraz szacunki dotyczące związku porowatości skał z głębokością, na jakiej się znajdują. Szacunki wykazały, że na głębokości poniżej 2 kilometrów znajduje się około 20 milionów km3 wody. Jeśli szacunki te są prawidłowe, to w skorupie ziemskiej, na głębokości do 10 kilometrów zamkniętych jest 44 miliony km3 wody. To zaś oznacza, że wody tej jest więcej, niż wody zamkniętej w lądolodach. Odkrycie takie pozwoli lepiej zrozumieć budowę planety i procesy geochemiczne zachodzące na Ziemi.
      Szacunki te zwiększają nasze rozumienie ilości wody na Ziemi i dodają nowy wymiar do rozumienia cyklu hydrologicznego, mówi Grant Ferguson, hydrolog z University of Saskatchewan.
      Te głęboko położone zasoby wody nie mogą być co prawda wykorzystane w celach spożywczych czy do nawadniania, ale dokładne szacunki ilości wody oraz tego, czy i w jaki sposób jest ona włączona w obieg wody na powierzchni, są potrzebne do planowania takich działań jak produkcja wodoru, składowanie odpadów atomowych czy pobieranie z powietrza i bezpieczne składowanie dwutlenku węgla. Jeśli bowiem chcemy np. bezpiecznie składować pod ziemią odpady atomowe, musimy znaleźć takie miejsce, do którego nie ma dostępu woda, trafiająca później na powierzchnię lub do płytko położonych zbiorników podziemnych. Unikniemy w ten sposób zanieczyszczenia wód, z których korzystamy.
      Głęboko położone zbiorniki wody, te znajdujące się na głębokości poniżej 2 kilometrów, mogą być izolowane od setek milionów czy miliarda lat. Mogą nie mieć żadnego połączenia ze światem zewnętrznym. Są więc kapsułami czasu, dzięki którym możemy lepiej poznać warunki panujące na Ziemi w przeszłości. Mogą też zawierać wciąż aktywne mikroorganizmy sprzed setek milionów lat.
      Naukowcy mogą szacować głęboko położone zasoby wodne obliczając, jak wiele wody może być zamkniętych w skałach. To zaś zależy od porowatości skał. Wcześniejsze szacunki skał znajdujących się na głębokości 2–10 kilometrów skupiały się na skałach krystalicznych, jak granit, które charakteryzują się niską porowatością. Jednak autorzy najnowszych badań dodali do tych szacunków skały osadowe, znacznie bardziej porowate. I stwierdzili, że mogą one przechowywać dodatkowo 8 milionów kilometrów sześciennych wody.
      Jako, że woda ta jest położona głęboko i często wśród skał o niskiej przepuszczalności, w dużej mierze nie jest włączona w cykl hydrologiczny planety. Tym bardziej, że to głównie solanka, która może być o 25% bardziej gęsta od wody morskiej. A to jeszcze bardziej utrudnia jej przedostanie się do wyżej położonych warstw skorupy ziemskiej. Nie jest to jednak całkowicie wykluczone. Różnica ciśnień w obszarach położonych na różnych wysokościach może powodować, że obieg wody sięga naprawdę głęboko. W kilku miejscach Ameryki Północnej udokumentowano obieg wody, w ramach którego woda z powierzchni trafia nawet głębiej niż 2 kilometry w głąb skorupy ziemskiej.
      Najnowsze szacunki bardzo zainteresowały specjalistów badających biosferę. Dotychczas odkryliśmy mikroorganizmy na głębokości 3,6 kilometra. Jeśli gdzieś jest woda w stanie ciekłym, jest też spora szansa na obecność mikroorganizmów. Mogą one żyć dzięki reakcjom chemicznym. Jeśli wokół nich znajdują się odpowiednie pierwiastki, mogą je wykorzystać do wytwarzania energii, mówi mikrobiolog Jennifer Biddle z University of Delaware. Badanie tych głęboko położonych wód może też powiedzieć nam sporo o potencjalnym życiu w innych miejscach Układu Słonecznego. Jeśli i na Marsie znajdują się głęboko położone zbiorniki wodne, może tam być życie. Zatem tego typu habitaty na Ziemi mogą być bardzo dobrymi analogiami innych ciał niebieskich, jak Mars czy Enceladus, księżyc Saturna, który na pewno zawiera wodę w swoim wnętrzu, dodaje Biddle.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...