Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Voyager 1 oszczędza energię

Rekomendowane odpowiedzi

Operatorzy misji Voyager 1 wyłączyli urządzenie grzewcze, obniżając temperaturę spektrometru ultrafioletowego aż o 23 stopnie Celsjusza. Działanie takie ma na celu zmniejszenie poboru energii przez sondę, dzięki czemu będzie ona pracowała do roku 2025.

Nie wiadomo, czy spektrometr ultrafioletowy poradzi sobie w niskich temperaturach. Obecnie pracuje przy -79 stopniach Celsjusza i ciągle zbiera oraz przesyła dane. Urządzenie zostało zaprojektowane do pracy przy -35 stopniach Celsjusza. Jednak w ciągu ostatnich 17 lat stopniowo wyłączano różne grzałki, obniżając temperaturę spektrometru. Od 2005 roku urządzenie pracowało przy w temperaturze -56 stopni Celsjusza. To zachęciło operatorów do podjęcia kolejnej próby zaoszczędzenia energii.

Niewykluczone, że w rzeczywistości temperatura spektrometru jest już niższa niż -79 stopni Celsjusza. Tego się jednak nie dowiemy, gdyż skala czujnika temperatury kończy się właśnie w tym punkcie.

Wyłączona właśnie grzałka jest wbudowana w pobliski spektrometr podczerwieni, który nie pracuje od 1998 roku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nadajnik radiowy ma 20 watów. Cały Voyager generował 470W w chwili startu - teraz pewnie sporo poniżej 300W

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Nadajnik radiowy ma 20 watów. Cały Voyager generował 470W w chwili startu - teraz pewnie sporo poniżej 300W

 

Czy z tej odległości może jeszcze być "słyszalny" na tle pulsarów, emisji planet, słońca??

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Inżynierowie z NASA naprawili sondę Voyager 1. Jak informowaliśmy w maju, sonda, znajdująca się w odległości ponad 23 miliardów kilometrów od Ziemi, zaczęła przysyłać nieprawidłowe dane. Były one wysyłane z systemu AACS, do którego od 45 lat należy kontrola nad prawidłową orientacją pojazdu. Jednym z jego zadań jest dopilnowanie, by antena Voyagera była skierowana dokładnie na Ziemię. Wszystko działało prawidłowo, jednak odczyty z AACS nie oddawały tego, co rzeczywiście dzieje się z sondą.
      Sygnał z Voyagera 1 nie tracił mocy, co wskazywało, że antena jest precyzyjnie ustawiona w stronę Ziemi. Dane przysyłane z AACS czasem wyglądały na generowane losowo, innymi razy nie oddawały żadnego stanu, w jakim urządzenie mogło się znaleźć. Jakby tego było mało, błąd w AACS nie uruchomił żadnego z zabezpieczeń Voyagera. Po miesiącach pracy inżynierowie w końcu znaleźli źródło problemu. Okazało się, że AACS zaczął przesyłać dane za pośrednictwem komputera, który przestał pracować wiele lat temu. I to ten komputer uszkadzał dane.
      NASA nie zna natomiast samej przyczyny błędy. Nie wiadomo, dlaczego AACS zaczął przesyłać dane tą drogą. Susanne Dodd, odpowiedzialna za Voyagera, podejrzewa, że stało się tak w momencie, gdy centrum kontroli nakazało Voyagerowi przesyłanie danych przez jeden z dobrze działających komputerów. Niewykluczone, że komenda ta została zniekształcona przez komputer, który przekierował dane z AACS do wadliwej maszyny. Jeśli tak, to oznacza, że któryś ze znajdujących się na pokładzie Voyagera elementów wygenerował błąd. A inżynierowie nie wiedzą jeszcze, który to element. Specjaliści nie ustają w poszukiwaniu źródła problemów, jednak w tej chwili wygląda na to, że misja Voyagera nie jest zagrożona.
      Jesteśmy szczęśliwi, że telemetria wróciła. Dokonamy teraz pełnego przeglądu układów pamięci AACS i przeanalizujemy wszystko, co system ten robił. To powinno tam pomóc w odnalezieniu przyczyny problemu. Jesteśmy optymistami, chociaż przed nami jeszcze dużo pracy, dodaje Dodd.
      Voyager 1 i Voyager 2 pracują już przez 45 lat. To znacznie dłużej niż pierwotnie planowano. Oba pojazdy znajdują się już w przestrzeni międzygwiezdnej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie NASA odpowiedzialni za znajdującą się w przestrzeni międzygwiezdnej sondę Voyager 1, próbują rozwiązać zagadkę nietypowych danych, jakie pojazd przysyła. Voyager 1 pracuje normalnie, odbiera i wykonuje komendy z Ziemi, prowadzi badania naukowe, zbiera dane i wysyła je na Ziemię. Jednak odczyty z systemu AACS (attitude articulation and control system) nie oddają tego, co dzieje się na pokładzie sondy.
      AACS od 45 lat odpowiada za prawidłową orientację pojazdu. Do jednego z zadań systemu należy dopilnowanie, by antena Voyager 1 była skierowana dokładnie na Ziemię. Wszystko wskazuje na to, że AACS działa, ale coś jest nie tak z danymi telemetrycznymi. Czasami wyglądają tak, jakby były generowane losowo, innym razem nie oddają żadnego stanu, w jakim AACS może się znaleźć.
      Co interesujące, problem z AACS nie uruchomił żadnego z zabezpieczeń, odpowiedzialnych za wprowadzenie Voyagera w stan bezpieczny. W stanie tym pojazd przeprowadzałby tylko niezbędne operacje, dając inżynierom czas na zdiagnozowanie usterki. Jednak nic takiego się nie stało. Co więcej, sygnał z sondy nie stracił na mocy, co wskazuje, że jej antena jest skierowana precyzyjnie w stronę naszej planety.
      Inżynierowie analizują sygnały, próbując się dowiedzieć, czy niezwykłe dane pochodzą bezpośrednio z AACS czy też z innego układu zaangażowanego w wytwarzanie i przesyłanie danych telemetrycznych. W tej chwili specjaliści nie potrafią powiedzieć, czy obserwowane problemy mogą w większym zakresie wpłynąć na Voyagera i czy skrócą czas jego pracy.
      Tajemnice takie jak ta, to na tym etapie część misji Voyager, mówi Suzanne Dodd, odpowiedzialna za Voyagera 1 i Voyagera 2. Oba pojazdy mają niemal 45 lat, pracują znacznie dłużej, niż planowano. Znajdują się też w przestrzeni międzygwiezdnej, w miejscu o wysokim promieniowaniu, w którym nigdy wcześniej nie latał żaden pojazd. Dla zespołu inżynieryjnego to olbrzymie wyzwanie. Myślę jednak, że nasz zespół poradzi sobie z problemem z AACS.
      Pani Dodd nie wyklucza, że problemu nie uda się rozwiązać i trzeba będzie się do tego przyzwyczaić. Jeśli jednak uda się znaleźć jego przyczynę, być może trzeba będzie wprowadzić zmiany w oprogramowaniu lub też użyć jednego z systemów zapasowych Voyagera. Jeśli tak się stanie, to nie będzie to pierwszy raz, gdy Voyager 1 używa systemów zapasowych. W 2014 roku główne silniki pojazdu zaczęły wykazywać oznaki degradacji, więc włączono silniki zapasowe, które wcześniej wykorzystywano podczas przelotów w pobliżu planet. Okazało się, że silniki te działają bez zakłóceń, mimo że nie były używane przez 37 lat.
      Voyager 1 znajduje się obecnie w odległości 23,3 miliarda kilometrów od Ziemi. Światło pokonuje tę drogę w ciągu 20 godzin i 33 minut. By uświadomić sobie, jak olbrzymia to odległość wystarczy pamiętać, że światło ze Słońca na Ziemię biegnie 8 minut.
      Voyager 2 działa normalnie. Znajduje się w odległości 19,5 miliarda kilometrów od Ziemi.
      Oba Voyagery zostały wystrzelone w 1977 roku. Pracują znacznie dłużej niż planowano. Są jedynymi pojazdami wysłanymi przez człowieka, które dotarły do przestrzeni międzygwiezdnej. Dostarczyły nam bezcennych informacji na temat heliosfery, bariery za pomocą której Słońce chroni Układ Słoneczny. Wcale nie było pewne, czy tam dotrą. Przed 12 laty opisywaliśmy obawy związane z dotarciem Voyagera 1 do heliopauzy i spotkaniem z łukiem uderzeniowym.
      Każdego roku możliwość produkcji energii pojazdów zmniejsza się o około 4 waty. Dlatego też przez lata stopniowo wyłączano poszczególne podzespoły, by zapewnić energię dla najważniejszych instrumentów naukowych i niezbędnych systemów. Dzięki przemyślanym działaniom nie wyłączono dotychczas żadnego urządzenia naukowego. Inżynierowie z NASA chcą, by Voyagery pracowały jeszcze w roku 2026.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperci z Rocky Mountain Institute opublikowali raport, z którego dowiadujemy się, że koszty produkcji energii z węgla osiągnęły punkt zwrotny i obecnie energia ta na większości rynków przegrywa konkurencję cenową z energią ze źródeł odnawialnych. Z analiz wynika, że już w tej chwili koszty operacyjne około 39% wszystkich światowych elektrowni węglowych są wyższe niż koszty wybudowania od podstaw nowych źródeł energii odnawialnej.
      Sytuacja ekonomiczna węgla będzie błyskawicznie się pogarszała. Do roku 2025 już 73% elektrowni węglowych będzie droższych w utrzymaniu niż budowa zastępujących je odnawialnych źródeł energii. Autorzy raportu wyliczają, że gdyby nagle cały świat podjął decyzję o wyłączeniu wszystkich elektrowni węglowych i wybudowaniu w ich miejsce odnawialnych źródeł energii, to przeprowadzenie takiej operacji stanie się opłacalne już za dwa lata.
      Szybsze przejście od węgla do czystej energii jest w zasięgu ręki. W naszym raporcie pokazujemy, jak przeprowadzić taką zmianę, by z jednej strony odbiorcy energii zaoszczędzili pieniądze, a z drugiej strony, by pracownicy i społeczności żyjące obecnie z energii węglowej mogli czerpać korzyści z energetyki odnawialnej, mówi Paul Bodnar, dyrektor Rocky Mountain Institute.
      Autorzy raportu przeanalizowali sytuację ekonomiczną 2472 elektrowni węglowych na całym świecie. Wzięli też pod uwagę koszty wytwarzania energii ze źródeł odnawialnych oraz jej przechowywania. Na podstawie tych danych byli w stanie ocenić opłacalność energetyki węglowej w 37 krajach na świecie, w których zainstalowane jest 95% całej światowej produkcji energii z węgla. Oszacowali też koszty zastąpienia zarówno nieopłacalnej obecnie, jak o opłacalnej, energetyki węglowej przez źródła odnawialne.
      Z raportu dowiadujmy się, że gdyby na skalę światową zastąpić nieopłacalne źródła energii z węgla źródłami odnawialnymi, to w bieżącym roku klienci na całym świecie zaoszczędziliby 39 miliardów USD, w 2022 roczne oszczędności sięgnęłyby 86 miliardów, a w roku 2025 wzrosłyby do 141 miliardów. Gdyby jednak do szacunków włączyć również opłacalne obecnie elektrownie węglowe, innymi słowy, gdybyśmy chcieli już teraz całkowicie zrezygnować z węgla, to tegoroczny koszt netto takiej operacji wyniósłby 116 miliardów USD. Tyle musiałby obecnie świat zapłacić, by już teraz zrezygnować z generowania energii elektrycznej z węgla. Jednak koszt ten błyskawicznie by się obniżał. W roku 2022 zmiana taka nic by nie kosztowała (to znaczy koszty i oszczędności by się zrównoważyły), a w roku 2025 odnieślibyśmy korzyści finansowe przekraczające 100 miliardów dolarów w skali globu.
      W Unii Europejskiej już w tej chwili nieopłacalnych jest 81% elektrowni węglowych. Innymi słowy, elektrownie te przeżywałyby kłopoty finansowe, gdyby nie otrzymywały dotacji z budżetu. Do roku 2025 wszystkie europejskie elektrownie węglowe będą przynosiły straty. W Chinach nieopłacalnych jest 43% elektrowni węglowych, a w ciągu najbliższych 5 lat nieopłacalnych będzie 94% elektrowni węglowych. W Indiach zaś trzeba dopłacać obecnie do 17% elektrowni, a w roku 2025 nieopłacalnych będzie 85% elektrowni.
      Co ważne, w swoich wyliczeniach dotyczących opłacalności elektrowni węglowych analitycy nie brali pod uwagę zdrowotnych i środowiskowych kosztów spalania węgla.
      Energia węglowa szybko staje się nieopłacalna i to nie uwzględniając kosztów związanych z prawem do emisji i regulacjami odnośnie zanieczyszczeń powietrza. Zamknięcie elektrowni węglowych i zastąpienie ich tańszymi alternatywami nie tylko pozwoli zaoszczędzić pieniądze konsumentów i podatników, ale może też odegrać znaczną rolę w wychodzeniu gospodarki z kryzysu po pandemii, mówi Matt Gray stojący na czele Carbon Tracker Initiative.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na Uniwersytecie w Glasgow po raz pierwszy eksperymentalnie potwierdzono teorię dotyczącą pozyskiwania energii z czarnych dziur. W 1969 roku wybitny fizyk Roger Penrose stwierdził, że można wygenerować energię opuszczając obiekt do ergosfery czarnej dziury. Ergosfera to zewnętrzna część horyzontu zdarzeń. Znajdujący się tam obiekt musiałby poruszać się szybciej od prędkości światła, by utrzymać się w miejscu.
      Penrose przewidywał, że w tym niezwykłym miejscu w przestrzeni obiekt nabyłby ujemną energię. Zrzucając tam obiekt i dzieląc go na dwie części tak, że jedna z nich wpadnie do czarnej dziury, a druga zostanie odzyskana, spowodujemy odrzut, który będzie mierzony wielkością utraconej energii negatywnej, a to oznacza, że odzyskana część przedmiotu zyska energię pobraną z obrotu czarnej dziury. Jak przewidywał Penrose, trudności inżynieryjne związane z przeprowadzeniem tego procesu są tak wielkie, że mogłaby tego dokonać jedynie bardzo zaawansowana obca cywilizacja.
      Dwa lata później znany radziecki fizyk Jakow Zeldowicz uznał, że teorię tę można przetestować w prostszy, dostępny na Ziemi sposób. Stwierdził, że „skręcone” fale światła uderzające o powierzchnię obracającego się z odpowiednią prędkością cylindra zostaną odbite i przejmą od cylindra dodatkową energię. Jednak przeprowadzenie takiego eksperymentu było, i ciągle jest, niemożliwe ze względów inżynieryjnych. Zeldowicz obliczał bowiem, że cylinder musiałby poruszać się z prędkością co najmniej miliarda obrotów na sekundę.
      Teraz naukowcy z Wydziału Fizyki i Astronomii University of Glasgow opracowali sposób na sprawdzenie teorii Penrose'a. Wykorzystali przy tym zmodyfikowany pomysł Zeldowicza i zamiast "skręconych" fal światła użyli dźwięku, źródła o znacznie niższej częstotliwości, i łatwiejszego do użycia w laboratorium.
      Na łamach Nature Physics Brytyjczycy opisali, jak wykorzystali zestaw głośników do uzyskania fal dźwiękowych, skręconych na podobieństwo fal świetlnych w pomyśle Zeldowicza. Dźwięk został skierowany w stronę obracającego się piankowego dysku, który go absorbował. Za dyskiem umieszczono zestaw mikrofonów, które rejestrowały dźwięk przechodzący przez dysk, którego prędkość obrotowa była stopniowo zwiększana.
      Naukowcy stwierdzili, że jeśli teoria Penrose'a jest prawdziwa, to powinni odnotować znaczącą zmianę w częstotliwości i amplitudzie dźwięku przechodzącego przez dysk. Zmiana taka powinna zajść w wyniku efektu Dopplera.
      Z liniową wersją efektu Dopplera wszyscy się zetknęli słysząc syrenę karetki pogotowia, której ton wydaje się rosnąć w miarę zbliżania się pojazdu i obniżać, gdy się on oddala. Jest to spowodowane faktem, że gdy pojazd się zbliża, fale dźwiękowe docierają do nas coraz częściej, a gdy się oddala, słyszymy je coraz rzadziej. Obrotowy efekt Dopplera działa podobnie, jednak jest on ograniczony do okrągłej przestrzeni. Skręcone fale dźwiękowe zmieniają ton gdy są mierzone z punktu widzenia obracającej się powierzchni. Gdy powierzchnia ta obraca się odpowiednio szybko z częstotliwością dźwięku dzieje się coś dziwnego – przechodzi z częstotliwości dodatniej do ujemnej, a czyniąc to pobiera nieco energii z obrotu powierzchni, wyjaśnia doktorantka Marion Cromb, główna autorka artykułu.
      W miarę jak rosła prędkość obrotowa obracającego się dysku, ton dźwięku stawał się coraz niższy, aż w końcu nie było go słychać. Później znowu zaczął rosnąć, aż do momentu, gdy miał tę samą wysokość co wcześniej, ale był głośniejszy. Jego amplituda była o nawet 30% większa niż amplituda dźwięku wydobywającego się z głośników.
      To co usłyszeliśmy podczas naszych eksperymentów było niesamowite. Najpierw, w wyniku działania efektu Dopplera częstotliwość fal dźwiękowych zmniejszała się w miarę zwiększania prędkości obrotowej dysku i spadła do zera. Później znowu pojawił się dźwięk. Stało się tak, gdyż doszło do zmiany częstotliwości fal z dodatniej na ujemną. Te fale o ujemnej częstotliwości były w stanie pozyskać część energii z obracającego się dysku i stały się głośniejsze. Zaszło zjawisko, które Zeldowicz przewidział w 1971 roku, dodaje Cromb.
      Współautor badań, profesor Daniele Faccio, stwierdza: jesteśmy niesamowicie podekscytowani faktem, że mogliśmy eksperymentalnie potwierdzić jedną z najdziwniejszych hipotez fizycznych pół wieku po jej ogłoszeniu. I że mogliśmy potwierdzić teorię dotyczącą kosmosu w naszym laboratorium w zachodniej Szkocji. Sądzimy, że otwiera to drogę do kolejnych badań. W przyszłości chcielibyśmy badać ten efekt za pomocą różnych źródeł fal elektromagnetycznych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Często i mało, czy rzadko, ale do syta? Gdyby chodziło o dietę, większość specjalistów postawiłaby na odpowiedź 1, ale w przypadku magazynowania energii jest odwrotnie. Okazuje się, że więcej można jej zmieścić ładując rzadko, ale do pełna.Taki przynajmniej wniosek płynie z badań przeprowadzonych przez zespół naukowców IChF PAN.
      Doświadczenia dotyczyły co prawda wyidealizowanych, dwuwymiarowych układów sieciowych, ale w końcu zasada to zasada. Dr Anna Maciołek, jedna z autorów pracy opublikowanej w Physical Review opisuje ją tak: Chcieliśmy zbadać, jak zmienia się sposób magazynowania energii w układzie,  gdy  pompujemy  do  niego  energię  w  postaci  ciepła,  innymi  słowy – lokalnie  go podgrzewamy.
      Wiadomo,  że ciepło  w  układach  się  rozprzestrzenia, dyfunduje.  Ale czy na gromadzenie energii ma wpływ sposób jej dostarczania; fachowo mówiąc „geometria podawania”? Czy ma znaczenie, że podajemy dużo energii w krótkim czasie i potem długo nic, i znowu dużo energii, czy też gdy podajemy malutkie porcje  tej energii, ale za to jedna po drugiej, niemal bez przerw?
      Cykliczne podawanie energii jest bardzo powszechne w naturze. Sami dostarczamy jej sobie w ten sposób, jedząc. Tę samą liczbę kalorii można dostarczyć w jednej lub dwóch dużych porcjach zjadanych w ciągu doby, albo rozbić ją na 5-7 mniejszych posiłków, między którymi są krótsze przerwy. Naukowcy wciąż się spierają, który  sposób jest dla organizmu lepszy. Jeśli jednak  chodzi o dwuwymiarowe układy sieciowe, to już wiadomo, że pod względem efektywności magazynowania wygrywa metoda „rzadko a dużo”.
      Zauważyliśmy, że w zależności od tego, w jakich porcjach i jak często podajemy energię, ilość, jaką układ potrafi zmagazynować, zmienia się. Największa jest wtedy, gdy porcje energii są duże, ale odstępy czasowe między ich podaniem też są długie, wyjaśnia Yirui Zhang, doktorantka w IChF PAN. Co ciekawe, okazuje się, że gdy taki układ magazynujący podzielimy wewnętrznie na swego rodzaju przedziały, czy też komory, to ilość energii możliwej do zmagazynowania w takim podzielonym ‘akumulatorze’ – o ile bylibyśmy go w stanie skonstruować – wzrośnie. Innymi słowy, trzy małe baterie zmagazynują więcej energii niż jedna duża, precyzuje badaczka. Wszystko to przy założeniu, że całkowita ilość wkładanej do układu energii jest taka sama, zmienia się tylko sposób jej dostarczania.
      Choć badania prowadzone przez zespół IChF PAN należą do podstawowych i ukazują po prostu fundamentalną  zasadę  rządzącą magazynowaniem energii w magnetykach, ich potencjalne zastosowania  są  nie do  przecenienia.  Wyobraźmy  sobie  np.  możliwość  ładowania  baterii elektrycznego samochodu nie w kilka godzin, lecz w kilkanaście minut albo znaczące zwiększenie pojemności  takich  akumulatorów  bez  zmiany  ich  objętości,  czyli  wydłużenie  zasięgu  auta  na jednym ładowaniu.  Nowe  odkrycie  może  też  w  przyszłości  zmienić  sposoby  ładowania  baterii różnego typu poprzez ustalenie optymalnej periodyczności dostarczania do nich energii

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...