Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Naukowcy z Wrocławia udoskonalili laserowe pomiary odległości do Księżyca i satelitów

Rekomendowane odpowiedzi

Najnowsze odkrycie naukowców z Uniwersytetu Przyrodniczego we Wrocławiu dowodzi, że dotychczasowe podejście do korygowania błędów wynikających z opóźnienia wiązki laserowej w atmosferze było wadliwe.  Dlatego proponują zupełnie nowe rozwiązanie, dzięki któremu obserwacje m.in.: kształtu Ziemi, topniejących lodowców oraz zmian poziomu wód oceanicznych będą dokładniejsze.

Pomiary laserowe opierają się na rejestracji różnicy czasu pomiędzy momentem wysłania impulsu laserowego na stacji a momentem powrotu tego samego impulsu po tym, gdy zostanie on odbity przez retroreflektor na satelicie lub Księżycu. Podczas pomiaru wiązka laserowa przechodzi dwukrotnie przez atmosferę ziemską, gdzie ulega ugięciu i opóźnieniu. Technologia detektorów laserowych pozwala na uzyskanie dokładności sub-milimerowych. Jednakże błędy wyznaczenia opóźnienia wiązki laserowej w atmosferze są wielokrotnie większe i stanowią główne źródło błędów w pomiarach laserowych do satelitów i Księżyca.

Na czym polega nowatorstwo rozwiązania Polaków?

Naukowcy z Instytutu Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu zaproponowali zupełnie nowe i innowacyjne podejście do korygowania opóźnienia wiązki laserowej w atmosferze. Podejście opiera się na uwzględnieniu grubości warstw atmosfery, przez które przechodzi laser. Do wyznaczenia wartości opóźnienia lasera wykorzystuje się odczyty meteorologiczne na stacji, do których wyliczana jest poprawka zależna od wysokości satelity nad horyzontem oraz od początkowej wartości opóźnienia wiązki lasera. W zaproponowanej metodzie analizuje się wszystkie pomierzone odległości na wszystkich stacjach i wylicza się dla każdej stacji poprawki, które są wprost proporcjonalne do opóźnienia wiązki lasera wynikającego z bezpośrednich pomiarów meteorologicznych i grubości atmosfery, którą musi pokonać laser. Poprawkę meteorologiczną wystarczy wyliczać raz na tydzień dla każdej stacji laserowej, dzięki czemu obliczenia pozostają stabilne nawet dla stacji z niewielką liczbą zarejestrowanych pomiarów laserowych do satelitów, a zarazem błąd wynikający z opóźnienia atmosferycznego zostaje prawie całkowicie usunięty. Metoda opracowana przez polski zespół pozwala na skuteczną eliminację od 75 do 90% błędów systematycznych w pomiarach laserowych wynikających z błędów opóźnienia atmosferycznego.

Sposób redukcji błędów meteorologicznych już niedługo ma szansę stać się standardem w laserowych pomiarach odległości do satelitów zwiększając dokładność nawet historycznych obserwacji Księżyca i satelitów, dzięki swojej prostocie i uniwersalności. Pozwala również na wykrycie błędnych odczytów z barometrów, które wcześniej negatywnie wpływały na satelitarne obserwacje Ziemi i Księżyca. Przełoży się to na poprawę przyszłych oraz wcześniejszych obserwacji kształtu Ziemi, tzw. geoidy, zmiany centrum masy Ziemi i obserwacji nieregularności w ruchu obrotowym, obserwacji topniejących lodowców oraz zmian poziomu wód oceanicznych.

Po co mierzymy odległości do satelitów?

Dzięki pomiarom laserowym do sztucznych i naturalnego satelity Ziemi dowiedzieliśmy się, ile wynosi stała grawitacji i masa Ziemi, o ile zmienia się spłaszczenie Ziemi w czasie, możemy korygować i wyliczać poprawki pozycji satelitów Galileo i GLONASS oraz zidentyfikowaliśmy, gdzie znajduje się środek masy Ziemi i jak przemieszcza się w czasie za sprawą topniejących lodowców na Grenlandii. Pomiary laserowe do Księżyca pozwoliły odkryć, że Księżyc oddala się od Ziemi o 3,8 cm rocznie. Ponadto pozwoliły na dokładny opis wahań w ruchu Księżyca, czyli tzw. libracji oraz zrewidować pochodzenie srebrnego globu.

Wrocławskie centrum obliczeniowe pomiarów laserowych

Grupa badawcza kierowana przez profesora Krzysztofa Sośnicę od wielu lat zajmuje się rozwojem technik laserowych i mikrofalowych w geodezji satelitarnej, a także wyznaczaniem precyzyjnych orbit sztucznych satelitów i parametrów opisujących Ziemię. W Instytucie Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu od 2017 roku funkcjonuje Stowarzyszone Centrum Analiz Międzynarodowej Służby Pomiarów Laserowych do Sztucznych Satelitów i Księżyca (ang. International Laser Ranging Service, ILRS). Centrum odpowiada za monitorowanie jakości orbit satelitów Globalnych Nawigacyjnych Systemów Satelitarnych (GNSS): Galileo, GLONASS, BeiDou i QZSS z wykorzystaniem orbit opartych o obserwacje mikrofalowe i bezpośrednie pomiary laserowe. Jako jedyne na świecie, wrocławskie centrum specjalizuje się w kombinacji dwóch technik obserwacyjnych sztucznych satelitów: laserowej i mikrofalowej GNSS. 


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wszystko jest opisane w artykule z tego, co widzę, ale nie chce mi się teraz całości czytać :) Chodzi zapewne o prędkość światła w niejednorodnym ośrodku oraz generalnie propagację fali. Wiele wymienionych pomiarów zależy od dokładnej znajomości prędkości światła, a ta zależy od warunków optycznych w atmosferze, które wynikają wprost z warunków meteorologicznych :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

droga Bakterio, że zapewne chodzi o v swiatła to oczywiste, ale - "Podejście opiera się na uwzględnieniu grubości warstw atmosfery, przez które przechodzi laser. Do wyznaczenia wartości opóźnienia lasera wykorzystuje się odczyty meteorologiczne na stacji, do których wyliczana jest poprawka zależna od wysokości satelity nad horyzontem oraz od początkowej wartości opóźnienia wiązki lasera." - jakie odczyty: temperatury, wilgotności czy temperatury?! Jak ja bym coś takiego napisał, to wielu by mnie za to skarciło. W końcu Koalnia Wiedzy to nie Pudelek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Inżynierowie lotniczy i kosmiczni z MIT odkryli, że sposób, w jaki emisja gazów cieplarnianych wpływa na atmosferę, zmniejszy liczbę satelitów, które można będzie umieścić na niskiej orbicie okołoziemskiej (LEO). Na łamach Nature Sustainability stwierdzają, że rosnąca emisja gazów cieplarnianych zmniejsza zdolność atmosfery do usuwania odpadków krążących wokół Ziemi.
      Badacze zauważyli, że dwutlenek węgla i inne gazy cieplarniane powodują, iż górne warstwy atmosfery się kurczą. Głównie interesuje ich termosfera, w której krąży Międzynarodowa Stacja Kosmiczna i większość satelitów. Gdy termosfera się kurczy, jej zmniejszająca się gęstość prowadzi do zmniejszenia oporów, a to właśnie opór aerodynamiczny jest tym czynnikiem, który powoduje, że kosmiczne śmieci – chociażby pozostałości po nieczynnych satelitach – opadają w kierunku Ziemi i płoną w atmosferze. Mniejszy opór oznacza, że odpady takie będą dłużej znajdowały się na orbicie, zatem ich liczba będzie rosła, a to zwiększa ryzyko kolizji z działającymi satelitami i innymi urządzeniami znajdującymi się w tych samych rejonach.
      Naukowcy przeprowadzili symulacje, których celem było sprawdzenie, jak emisja dwutlenku węgla wpłynie na górne partie atmosfery i astrodynamikę. Wynika z nich, że do roku 2100 pojemność najpopularniejszych regionów orbity zmniejszy się o 50–66 procent właśnie z powodu gazów cieplarnianych.
      Nasze zachowanie na Ziemi w ciągu ostatnich 100 lat wpływa na to, w jaki sposób będziemy używali satelitów przez kolejnych 100 lat, mówi profesor Richard Linares z Wydziału Aeronautyki i Astronautyki MIT. Emisja gazów cieplarnianych niszczy delikatną równowagę górnych warstw atmosfery. Jednocześnie gwałtownie rośnie liczba wystrzeliwanych satelitów, szczególnie telekomunikacyjnych, zapewniających dostęp do internetu. Jeśli nie będziemy mądrze zarządzali satelitami i nie ograniczymy emisji, orbita stanie się zbyt zatłoczona, co będzie prowadziło do większej liczby kolizji i większej liczby krążących na niej szczątków, dodaje główny autor badań, William Parker.
      Termosfera kurczy się i rozszerza w 11-letnich cyklach, związanych z cyklami aktywności słonecznej. Gdy aktywność naszej gwiazdy jest niska, do Ziemi dociera mniej promieniowania, najbardziej zewnętrzne warstwy atmosfery tymczasowo się ochładzają i kurczą. W okresie zwiększonej aktywności słonecznej są one cieplejsze i rozszerzają się.
      Już w latach 90. naukowcy stworzyli modele, z których wynikało, że w miarę ocieplania się klimatu na Ziemi, górne warstwy atmosfery będą się schładzały, co doprowadzi do kurczenia się termosfery i zmniejszania jej gęstości.
      W ciągu ostatniej dekady nauka zyskała możliwość precyzyjnych pomiarów oporu aerodynamicznego działającego na satelity. Pomiary te pokazały, że termosfera kurczy się w odpowiedzi na zjawisko wykraczające poza naturalny 11-letni cykl. Niebo dosłownie spada, w tempie liczonych w dziesięcioleciach. A widzimy to na podstawie zmian oporów doświadczanych przez satelity, wyjaśnia Parker.
      Naukowcy z MIT postanowili sprawdzić, w jaki sposób to zmierzone zjawisko wpłynie na liczbę satelitów, które można bezpiecznie umieścić na niskiej orbicie okołoziemskiej. Ma ona wysokość do 2000 kilometrów nad powierzchnią Ziemi. Obecnie na orbicie tej znajduje się ponad 10 000 satelitów. Ich liczba jest już tak duża, że operatorzy satelitów standardowo muszą wykonywać manewry unikania kolizji. Każda taka kolizja oznacza nie tylko zniszczenie satelity, ale też pojawienie się olbrzymiej liczby szczątków, które będą krążyły na orbicie przez kolejne dekady i stulecia, zwiększając ryzyko kolejnych kolizji.
      W ciągu ostatnich 5 lat ludzkość umieściła na LEO więcej satelitów, niż przez wcześniejszych 60 lat. Jednym z głównych celów badań było sprawdzenie, czy sposób, w jaki obecnie prowadzimy działania na niskiej orbicie okołoziemskiej można będzie utrzymać w przyszłości. Naukowcy symulowali różne scenariusze emisji gazów cieplarnianych i sprawdzali, jak wpływa to na gęstość atmosfery i opór aerodynamiczny. Następnie dla każdego z tych scenariuszy sprawdzali jego wpływ na astrodynamikę i ryzyko kolizji w zależności od liczby obiektów znajdujących się na orbicie. W ten sposób obliczali „zdolność ładunkową” orbity. Podobnie jak sprawdza się, ile osobników danego gatunku może utrzymać się w danym ekosystemie.
      Z obliczeń wynika, że jeśli emisja gazów cieplarnianych nadal będzie rosła, to liczba satelitów, jakie można umieścić na wysokości od 200 do 1000 kilometrów nad Ziemią będzie o 50–66 procent mniejsza niż w scenariuszu utrzymania poziomu emisji z roku 2000. Jeśli „zdolność ładunkowa” orbity zostanie przekroczona, nawet lokalnie, dojdzie do całej serii kolizji, przez co pojawi się tyle szczątków, że orbita stanie się bezużyteczna.
      Autorzy badań ostrzegają, że niektóre regiony orbity już zbliżają się do granicy ich „zdolności ładunkowej”. Dzieje się tak głównie przez nowy trend, budowanie megakonstelacji olbrzymiej liczby małych satelitów, takich jak Starlink SpaceX.
      Polegamy na atmosferze, która oczyszcza orbitę z pozostawionych przez nas odpadów. Jeśli atmosfera się zmienia, zmienia się też środowisko, w którym znajdują się odpady. Pokazujemy, że długoterminowe możliwości usuwania odpadów z orbity są uzależnione od zmniejszenia emisji gazów cieplarnianych, podsumowuje Richard Linares.
      Specjaliści szacują, że obecnie na orbicie znajduje się 40 500 odpadków o rozmiarach większych niż 10 cm, 1 milion 100 tysięcy odpadków wielkości od 1 do 10 cm oraz 130 milionów śmieci wielkości od 1 mm do 1 cm. Nawet te najmniejsze odpady stanowią duże zagrożenie. Średnia prędkość kolizji, do jakich między nimi dochodzi, to 11 km/s czyli około 40 000 km/h.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po raz pierwszy doszło do nieudanego wystrzelenia satelitów z konstelacji Starlink. W wyniku awarii satelity znalazły się na bardzo niskiej orbicie i wkrótce spłoną w atmosferze. Firma SpaceX zapewnia, że nie stanowią one zagrożenia. Pierwsze Starlinki trafiły na orbitę w 2019 roku. Obecnie konstelacja składa się z ponad 6000 niewielkich satelitów znajdujących się na niskiej orbicie okołoziemskiej (LEO).
      Dwadzieścia satelitów Starlink zostało wystrzelonych przed 4 dniami na pokładzie rakiety Falcon 9 z Vandenberg Space Force Base. Pierwszy stopień rakiety spisał się bez zarzutu, wynosząc na orbitę drugi stopień i satelity. Następnie oddzielił się od nich i z powodzeniem wylądował. Było to już 329. udane lądowanie rakiety nośnej przeprowadzone przez SpaceX.
      Pierwsze uruchomienie silników 2. stopnia przebiegło zgodnie z planem, jednak pojawił się wyciek ciekłego tlenu. W związku z tym silnik Merlin, który miał wynieść satelity na prawidłową orbitę, nie spełnił swojego zadania.
      Co prawda satelity zostały prawidłowo zwolnione, ale znajdują się na orbicie o dużym mimośrodzie, która w najniższym punkcie znajduje się zaledwie 135 kilometrów nad Ziemią. To ponaddwukrotnie niżej, niż powinny się znaleźć. Na tej wysokości pojazdy doświadczają znacznego tarcia o atmosferę, przez co z każdym obiegiem tracą 5 kilometrów wysokości w apogeum (najwyższym punkcie orbity). Oddziaływanie atmosfery na satelity jest tak silne, że ich silniki nie poradzą sobie z wyniesieniem pojazdów na prawidłową orbitę. Dlatego wkrótce satelity wejdą w atmosferę i w niej spłoną.
      SpaceX oświadczyła, że nie zagrażają one ani innym satelitom, ani ludziom na Ziemi. To przypomina nam, jak wymagające technicznie są loty w kosmos. Dotychczas przeprowadziliśmy 364 udane starty rakiet Falcon – które bezpiecznie dostarczały astronautów, ładunki i tysiące satelitów Starlink na orbitę – co czyni z rodziny Falcon jedną z najlepszych serii rakiet nośnych w historii, czytamy w firmowym oświadczeniu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Misja Psyche jeszcze nie dotarła do celu, a już zapisała się w historii podboju kosmosu. Głównym jej celem jest zbadanie największej w Układzie Słonecznym asteroidy Psyche. Przy okazji NASA postanowiła przetestować technologię, z którą eksperci nie potrafili poradzić sobie od dziesięcioleci – przesyłanie w przestrzeni kosmicznej danych za pomocą lasera. Agencja poinformowała właśnie, że z Psyche na Ziemię trafił 15-sekudowy materiał wideo przesłany z odległości 31 milionów kilometrów z maksymalną prędkością 267 Mbps. To niemal 2-krotnie szybciej niż średnia prędkość szerokopasmowego internetu w Polsce.
      To, czego właśnie dokonała NASA jest nie zwykle ważnym osiągnięciem. Pozwoli bowiem na znacznie sprawniejsze zbieranie danych z instrumentów pracujących w przestrzeni kosmicznej i zapewni dobrą komunikację z misjami załogowymi odbywającymi się poza orbitą Ziemi.
      Sygnał z Psyche potrzebował około 101 sekund, by dotrzeć do Ziemi. Dane, przesyłane przez laser pracujący w bliskiej podczerwieni trafiły najpierw do Hale Teelscope w Palomar Observatory w Kalifornii. Następnie przesłano je do Jet Propulsion Laboratory w Południowej Kalifornii, gdzie były odtwarzane w czasie rzeczywistym podczas przesyłania. Jak zauważył Ryan Rogalin, odpowiedzialny za elektronikę odbiornika w JPL, wideo odebrane w Palomar zostało przesłane przez internet do JPL, a transfer danych odbywał się wolniej, niż przesyłanie danych z kosmosu. Podziwiając tempo transferu danych nie możemy zapomnieć też o niezwykłej precyzji, osiągniętej przez NASA. Znajdujący się na Psyche laser trafił z odległości 31 milionów kilometrów w 5-metrowe zwierciadło teleskopu. Sam teleskop to również cud techniki. Jego budowę ukończono w 1948 roku i przez 45 lat był najdoskonalszym teleskopem optycznym, a jego zwierciadło główne jest drugim największym zwierciadłem odlanym w całości.
      Po co jednak prowadzić próby z komunikacją laserową, skoro od dziesięcioleci w przestrzeni kosmicznej z powodzeniem przesyła się dane za pomocą fal radiowych? Otóż fale radiowe mają częstotliwość od 3 Hz do 3 Thz. Tymczasem częstotliwość pracy lasera podczerwonego sięga 300 THz. Zatem transmisja z jego użyciem może być nawet 100-krotnie szybsza. Ma to olbrzymie znaczenie. Chcemy bowiem wysyłać w przestrzeń kosmiczną coraz więcej coraz doskonalszych narzędzi. Dość wspomnieć, że Teleskop Webba, który zbiera do 57 GB danych na dobę, wysyła je na Ziemię z prędkością dochodzącą do 28 Mb/s. Zatem jego systemy łączności działają 10-krotnie wolniej, niż testowa komunikacja laserowa.
      Zainstalowany na Psyche Deep Space Optical Communication (DSOC) uruchomiono po raz pierwszy 14 listopada. Przez kolejne dni system sprawdzano i dostrajano, osiągając coraz szybszy transfer danych i coraz większą precyzję ustanawiania łącza z teleskopem. W tym testowym okresie przesłano na Ziemię łącznie 1,3 terabita danych. Dla porównania, misja Magellan, która w latach 1990–1994 badała Wenus, przesłała w tym czasie 1,2 Tb.
      Misja Psyche korzysta ze standardowego systemu komunikacji radiowej. DSOC jest systemem testowym, a jego funkcjonowanie nie będzie wpływało na powodzenie całej misji.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Intel ogłosił, że wybuduje w Polsce supernowoczesny zakład integracji i testowania półprzewodników. Stanie on w Miękini pod Wrocławiem, a koncern ma zamiar zainwestować w jego stworzenie do 4,6 miliarda dolarów. Inwestycja w Polsce to część obecnych i przyszłych planów Intela dotyczących Europy. Firma ma już fabrykę półprzewodników w Leixlip w Irlandii i planuje budowę drugiej w Magdeburgu w Niemczech. W sumie Intel chce zainwestować 33 miliardy euro w fabrykę w Niemczech, zakład badawczo-rozwojowo-projektowy we Francji oraz podobne przedsięwzięcia we Włoszech, Hiszpanii i Polsce.
      Zakład w Polsce ma rozpocząć pracę w 2027 roku. Zatrudnienie znajdzie w nim około 2000 osób, jednak inwestycja pomyślana została tak, by w razie potrzeby można było ją rozbudować. Koncern już przystąpił do realizacji fazy projektowania i planowania budowy, na jej rozpoczęcie będzie musiała wyrazić zgodę Unia Europejska.
      Intel już działa w Polsce i kraj ten jest dobrze przygotowany do współpracy z naszymi fabrykami w Irlandii i Niemczech. To jednocześnie kraj bardzo konkurencyjny pod względem kosztów, w którym istnieje solidna baza utalentowanych pracowników, stwierdził dyrektor wykonawczy Intela, Pat Gelsinger. Przedstawiciele koncernu stwierdzili, że Polskę wybrali między innymi ze względu na istniejącą infrastrukturę, odpowiednio przygotowaną siłę roboczą oraz świetne warunki do prowadzenia biznesu.
      Zakład w Miękini będzie ściśle współpracował z fabryką w Irlandii i planowaną fabryką w Niemczech. Będą do niego trafiały plastry krzemowe z naniesionymi elementami elektronicznymi układów scalonych. W polskim zakładzie będą one cięte na pojedyncze układy scalone, składane w gotowe chipy oraz testowane pod kątem wydajności i jakości. Stąd też będą trafiały do odbiorców. Przedsiębiorstwo będzie też w stanie pracować z indywidualnymi chipami otrzymanymi od zleceniodawcy i składać je w końcowy produkt. Będzie mogło pracować z plastrami i chipami Intela, Intel Foundry Services i innych fabryk.
      Intel nie ujawnił, jaką kwotę wsparcia z publicznych pieniędzy otrzyma od polskiego rządu. Wiemy na przykład, że koncern wciąż prowadzi negocjacje z rządem w Berlinie w sprawie dotacji do budowy fabryki w Magdeburgu. Ma być ona warta 17 miliardów euro, a Intel początkowo negocjował kwotę 6,8 miliarda euro wsparcia, ostatnio zaś niemieckie media doniosły, że firma jest bliska podpisania z Berlinem porozumienia o 9,9 miliardach euro dofinansowania. Pat Gelsinger przyznał, że Polska miała nieco więcej chęci na inwestycję Intela niż inne kraje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      We Wrocławiu otwarta została pierwsza w Polsce miejska farma akwaponiczna. Powstała ona w ramach polsko-norweskiego PROJEKTU USAGE. Rolą farmy akwaponicznej w centrum miasta jest zapewnienie świeżej żywności przeznaczonej dla lokalnych mieszkańców. Hodowla i uprawa w pobliżu odbiorcy to również skrócony łańcuch dostaw i ograniczony ślad węglowy, a wszystko to w trosce o środowisko i nasze bezpieczeństwo – podkreślono na stronie Miejskiej AquaFarmy.
      Pierwsze kontenery postawiono w październiku zeszłego roku. Miesiąc później zamontowano system akwaponiczny. W styczniu 2023 r. Water Science Technology Institute we Wrocławiu zaczął prace nad dobieraniem organizmów wodnych zamieszkujących zbiorniki.
      W AquaFarmie uprawę roślin (ich zestaw ma być podyktowany zapotrzebowaniem) łączy się z hodowlą. Sprawdzane są warunki dla ryb, a także dla raków oraz innych skorupiaków. Farma połączona jest z systemem zbierania i oczyszczania wód opadowych, a całość tworzy system zamknięty. W ten sposób uprawa może trwać przez cały rok, bez względu na warunki atmosferyczne, oszczędność wody, w porównaniu do tradycyjnego rolnictwa, wynosi nawet 90%. Ponadto uprawy tego typu wymagają też mniej miejsca niż konwencjonalne rolnictwo. Dodatkową zaletą jest redukcja ilości powstających odpadów.
      System akwaponiczny farmy zamknięty jest w przystosowanych do produkcji żywności kontenerach i został wyposażony w trzy zbiorniki do hodowli zwierząt. Ryby i skorupiaki hodowane są w systemie zamkniętym. Ich odchody przy pewnym stężeniu stają się toksyczne dla zwierząt, ale są cennym składnikiem pokarmowym dla roślin. Dlatego woda z odchodami pompowana jest do jednostki wyposażonej w filtry. Tam bakterie z rodzajów Nitrosomonas i Nitrobacter przekształcają amoniak w azotyny i azotany. Te są lepiej przyswajane przez rośliny.  Po odfiltrowaniu woda z substancjami pokarmowymi trafia do roślin. Tam stosowane są dwie metody hydroponiczne. W jednej z nich (NFT) korzenie roślin są obmywane stale płynącą wodą, a w metodzie DWC korzenie zanurzone są w intensywnie napowietrzanej i wymienianej wodzie. Z hodowli hydroponicznej woda, już oczyszczone z substancji toksycznych dla zwierząt, wraca do miejsca hodowli zwierząt. W ten sposób obieg zostaje zamknięty. Trzeba go jednak uzupełniać, gdyż część wody ubywa w wyniku transpiracji, parowania i wchłaniania przez rośliny. Do uzupełniania częściowo wykorzystywana jest oczyszczona woda opadowa.
      Cała produkcja żywności odbywa się w kontrolowanych, zamkniętych warunkach co znacznie ogranicza możliwość występowania chorób i szkodników. Dzięki temu można zrezygnować z chemicznych środków ochrony roślin oraz antybiotyków. Już w tej chwili twórcy farmy mówią o uprawie trybuli, mizuny, rukwi wodnej, trawy pszenicznej oraz buraka liściowego i hodowli raka czerwonoszczypcowego.
      AquaFarma ma być zarówno laboratorium służącym rozwojowi przyszłych systemów produkcji żywności oraz miejscem spotkań oraz wymiany wiedzy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...