Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' awaria' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 13 wyników

  1. NASA informuje o wykryciu problemów w unikalnym instrumencie naukowym Teleskopu Kosmicznego Jamesa Webba. Pod koniec sierpnia zauważono nieprawidłowości w jednym z trybów pracy MIRI. Po analizie problemu 6 września powołany został specjalny zespół, który ma zająć się jego rozwiązaniem. Zaprzestano też korzystania ze wspomnianego trybu. Mid-Infared Instrument (MIRI) składa się z kamery i spektrografu pracujących w średniej podczerwieni. To zakresy od 5 do 28 mikrometrów. Pozostałe instrumenty teleskopu pracują w bliskiej podczerwieni. MIRI to bardzo czuły instrument, zobaczy przesunięte ku czerwieni światło odległych galaktyk, tworzących się gwiazd i słabo widocznych komet. Będzie też mógł obserwować Pas Kuipera. Kamera MIRI jest zdolna do wykonania podobnych szerokokątnych zdjęć, z jakich zasłynął Hubble. A jego spektrograf umożliwi poznanie wielu cech fizycznych odległych obiektów. MIRI korzysta z trzech macierzy czujników zbudowanych z krzemu wzbogaconych arsenem. MIRI, by ujawnić swoje niezwykłe możliwości, musi mieć zapewnioną temperaturę -266,15 stopni Celsjusza. Urządzenie działa w czterech trybach. Obrazowanie (imaging) pozwala na obserwowanie niemal wszystkich obiektów, do badania których zbudowany został Webb. W trybie tym rejestrowane są fale od długości od 5 do 27 mikrometrów. Pozwala to np. na obserwowanie pyłu i zimnego gazu w regionach gwiazdotwórczych i poszerza ogólne możliwości obserwacyjne Webba, dostarczających dodatkowych informacji. W trybie spektrostroskopii o niskiej rozdzielczości (low-resolution spectroscopy) MIRI rejestruje fale o długości 5–12 mm. Może badać słabiej świecące obiekty niż podczas pracy w spektroskopii średniej rozdzielczości. W trybie tym można np. analizować powierzchnię księżyca Plutona, Charona. Wspomniana już spektroskopia o średniej rozdzielczości (medium-resolution spectroscopy) umożliwia obserwację światła w zakresie 5–28,5 mm. To właśnie w tym zakresie uzyskujemy silny sygnał z pyłu i molekuł. Dzięki temu możemy badać np. skład dysków protoplanetarnych. Ostatni z zakresów pracy, obrazowanie koronograficzne, pozwala na bezpośrednie wykrywanie planet pozasłonecznych i badanie pyłowych dysków wokół gwiazd. Pod koniec sierpnia zauważono, że mechanizm przełączona na tryb spektroskopii o średniej rozdzielczości stawia większy opór niż powinien. Dlatego też zdecydowano się na rezygnację w pracy w tym trybie do czasu rozwiązania problemu. Pozostałe tryby MIRI oraz całe obserwatorium pracują bez zakłóceń. « powrót do artykułu
  2. NASA od miesiąca pracuje nad przywróceniem prawidłowej pracy Teleskopu Hubble'a. Wczoraj udało się uruchomić Wide Field Camera 3. To najważniejszy, najczęściej używany element teleskopu. Jest on używany przez ponad 30% czasu pracy Hubble'a. To jednocześnie drugi – po Advanced Camera for Surveys –instrument naukowy Hubble'a, który podjął pracę po ostatniej awarii. Ostatniej, gdyż doszło do niej zaledwie 3 miesiące po tym, jak teleskop został uruchomiony po poprzednich kłopotach. Do ostatniej awarii doszło 23 października. Pojawił się wówczas kod błędu wskazujący na utratę sygnału synchronizującego pracę instrumentów. Zespół naziemny zrestartował instrumenty i następnego dnia Hubble podjął normalną pracę. Nie na długo jednak. Już 25 października pojawił się sygnał świadczący o masowej utracie danych synchronizacyjnych, w związku z czym wszystkie instrumenty naukowe automatycznie przełączyły się w tryb bezpieczny. Od tamtej pory trwają prace nad przywróceniem funkcjonowania Teleskopu. Na szczęście od 1 listopada nie pojawił się żaden kolejny sygnał świadczących o nieprawidłowościach. Wczoraj inżynierowie zdecydowali się na uruchomienie Wide Field Camera 3. Wprowadzają też zmiany w konfiguracji instrumentu. Są one na bieżąco testowana na naziemnych symulatorach. Zmiany mają na celu spowodowanie, by urządzenie tolerowało pewną liczbę sygnałów o utracie synchronizacji i mimo ich pojawienia się, by pracowało normalnie. Zmiany takie zostaną zastosowane najpierw w innym instrumencie, Cosmic Origins Spectrograph. Mają one chronić jego niezwykle czuły detektor pracujący w zakresie dalekiego ultrafioletu. Wprowadzanie tych zmian oraz testy potrwają jeszcze kilka tygodni. Pozostałe instrumenty naukowe Hubble'a nadal znajdują się w trybie bezpiecznym, a cała reszta teleskopu kosmicznego działa prawidłowo. Teleskop Kosmiczny Hubble'a pracuje w przestrzeni kosmicznej już ponad 31,5 roku. To jeden z najważniejszych instrumentów naukowych w dziejach i jedyny teleskop kosmiczny, który zbudowano z myślą o jego serwisowaniu. Dotychczas odbyło się doń 5 misji serwisowych. Ostatnia miała miejsce w 2009 roku. Od czasu zakończenia programu lotów wahadłowców nie ma jednak czym polecieć do Hubble'a. W 2017 roku pojawiła się informacja, że być może planowana jest kolejna misja serwisowa. Dotychczas jej nie zrealizowano, jednak można przypuszczać, że wcześniej czy później taka misja się odbędzie. NASA chce bowiem, by teleskop Hubble'a pracował jak najdłużej, być może nawet do roku 2040. Zapewne więc musi brać pod uwagę konieczność serwisowania urządzenia. Wystrzeliwane zaś w międzyczasie nowe teleskopy kosmiczne będą uzupełniały Hubble'a. « powrót do artykułu
  3. NASA określiła przyczynę awarii Teleskopu Hubble'a. Doszło do niej 13 czerwca, a błąd wystąpił w tzw. payload computer, który kontroluje, koordynuje i monitoruje instrumenty naukowe teleskopu. W wyniku awarii komputera instrumenty naukowe zostały automatycznie wprowadzone w tryb bezpieczny. Inżynierowie NASA przez ostatni miesiąc szukali przyczyny błędu i zastanawiali się nad rozwiązaniem problemu. Wielodniowe serie testów wykazały, że problem leży w podsystemie Power Control Unit (PCU), odpowiedzialnym za podawania stałego napięcia do payload computer. PCU zawiera regulator, który ma dostarczać prąd o napięciu 5V. Dodatkowy obwód bezpieczeństwa bez przerwy monitoruje napięcie wychodzące z PCU i jeśli jest ono zbyt niskie lub zbyt wysokie, przesyła do payload computer polecenie wyłączenia się. Przeprowadzone analizy wykazały, że albo regulator napięcia zawiódł, podał nieprawidłowe napięcie, przez co obwód bezpieczeństwa wyłączył payload computer, albo też doszło do degradacji obwodu bezpieczeństwa, który „zaciął się” w stanie, w którym ciągle nakazuje wyłączanie się payload computera. Jako, że nie udało się zresetować PCU, inżynierowie NASA podjęli decyzję o przełączeniu Teleskopu Hubble'a na zapasowy payload computer. Jest to wielodniowy proces. Jeśli się powiedzie, następnym etapem będzie włączanie i testowanie kolejnych instrumentów naukowych. « powrót do artykułu
  4. Teleskop Hubble'a znowu działa. Po ponad miesięcznej awarii wszystkie instrumenty naukowe pracują. A najlepszym na to dowodem są fotografie niezwykłych (wyjaśnienie w opisie zdjęcia) galaktyk ARP-MADORE2115-273 i ARP-MADORE0002-503, które zostały przysłane przez urządzenie. Jestem zachwycony, że Hubble znowu obserwuje wszechświat, rejestrując i przysyłając obrazy, które inspirują nas od dekad, stwierdził dyrektor NASA Bill Nelson. Pochwalił zespół, który pracuje przy Teleskopie i podkreślił, że dzięki jego wysiłkom urządzenie może kontynuować 32. rok swojej pracy w przestrzeni kosmicznej. Hubble przestał pracować 13 czerwca, gdy niespodziewanie pracę przerwał jego payload computer, odpowiedzialny za kontrolę instrumentów naukowych. Zgodnie z procedurami, instrumenty naukowe zostały automatycznie wprowadzone w tryb bezpieczny, a specjaliści przystąpili do badań teleskopu, by poznać przyczynę awarii. Do pomocy wezwano osoby, które pracowały przy budowie Hubble'a i analizowano jego dokumentację sprzed 40 lat. Jedną z zalet projektu, który trwa tak długo, jest zebrana olbrzymia ilość doświadczeń i wiedzy eksperckiej, stwierdziła Nzinga Tull, odpowiedzialna w Goddard Space Center za reagowanie w sytuacjach awaryjnych Hubble'a. Początkowo sądzono, że degradacji uległy moduły pamięci, jednak przełączenie na moduły zapasowe nie rozwiązało problemu. Opracowano więc serię testów, których celem było stwierdzenie, czy za kłopoty odpowiada Central Processing Module czy też układ komunikacyjny łączący ten moduł z innymi podzespołami. Gdy i tutaj nie znaleziono odpowiedzi,specjaliści zaczęli przyglądać się innym elementom, w tym Command Unit/Science Data Formatter oraz Power Control Unit. Problem jednak w tym, że testy tych podzespołów są skomplikowane i ryzykowne. Ich przełączanie wymaga podobnych operacji na innych podzespołach. Przełączanie wymagało 15 godzin wysyłania komend do teleskopu. Musieliśmy wyłączyć główny komputer, wówczas tymczasową kontrolę przejął zapasowy komputer trybu bezpiecznego. Musieliśmy też włączyć wiele innych podzespołów, które nigdy w przestrzeni kosmicznej nie były włączane i przełączyć interfejsy jeszcze innych podzespołów. Oczywiście nie było powodu, by uważać, że coś nie zadziała, ale cały zespół był podenerwowany i myślał o wszystkim, co mogło się nie udać i co można będzie z tym zrobić, wyjaśnia Jim Jeletic, jeden z menedżerów Hubble'a. W końcu się udało i z Hubble'a nadeszły informacje, że całe przełączanie się udało. Hubble nie po raz pierwszy pracuje na systemach zapasowych. W 2008 roku dokonano podobnego przełączenia, gdy doszło do awarii jednego z modułów Science Instrument and Command & Data Handling (SI C&DH). Poddczas ostatniej misji serwisowej do Hubble'a, w 2009 roku, wymieniono cały SI C&DH, znakomicie wydłużając czas pracy teleskopu. Tym razem przyczyną awarii był Power Control Unit odpowiedzialny za zapewnienie stałego napięcia. « powrót do artykułu
  5. Inżynierowie NASA wciąż badają przyczynę awarii Teleskopu Hubble'a, do której doszło 13 czerwca. Wiemy, że problem dotyczy tzw. payload computer, odpowiedzialnego za kontrolę i koordynację urządzeń naukowych teleskopu. Sam teleskop jest w dobrym stanie, jego instrumenty są sprawne i zostały automatycznie wprowadzone w tryb bezpieczny. Teleskop Hubble'a wyposażony jest w dwa payload computers. Oba znajdują się w module o nazwie Science Instrument and Command and Data Handling (SI C&DH). Jeden z nich to komputer zapasowy. Każdy z tych komputerów składa się z Central Processing Module (CPM), czyli sekcji przetwarzającej komendy dla instrumentów naukowych, Standard Interface (STINT), zapewniającego połączenie pomiędzy CPM a innymi podzespołami, szyny komunikacyjnej oraz jednego aktywnego i trzech zapasowych modułów pamięci. W dniach 23 i 24 czerwca przeprowadzono dodatkowe testy, w czasie których po raz pierwszy w przestrzeni kosmicznej został włączony zapasowy payload computer. Testy wykazały, że w wielu różnych kombinacjach sprzętowych podstawowego i zapasowego komputera występuje ten sam błąd, nie udaje się zapisywać i odczytywać komend w pamięci. Jako, że jest mało prawdopodobne, by awaria dotknęła wszystkich elementów, z których zbudowane są oba komputery, inżynierowie sprawdzają też inny sprzęt z SI C&DH, w tym Command Unit/Science Data Formatter (CU/SDF). Element CU formatuje oraz wysyła komendy i dane do konkretnych lokalizacji, SDF odbiera dane z instrumentów naukowych i przekazuje do wysłania na Ziemię. Testowany jest również regulator napięcia, gdyż podobne objawy mogą wystąpić, jeśli do komputerów trafia prąd o niewłaściwym napięciu. Na pokładzie Hubble'a znajdują się zapasowy regulator napięcia oraz CU/SDF, więc mogą być one włączone w razie potrzeby. « powrót do artykułu
  6. Inżynierowie NASA próbują rozwiązać problem z jednym z komputerów znajdujących się na pokładzie Teleskopu Kosmicznego Hubble'a. Komputer przestał działać w niedzielę, 13 czerwca, a inżynierowie sprawdzają, czy nie doszło w nim do degradacji układu pamięci. Przed dwoma dniami zapowiedziano próbę tymczasowego przełączenia na jeden z modułów zapasowych. Niestety od dwóch dni brak informacji o postępach prac związanych z awarią Hubble'a. Wiadomo, że zepsuł się tzw. payload computer, który jest odpowiedzialny za kontrolę i koordynację urządzeń naukowych teleskopu. Po awarii payload computer do głównego komputera przestały nadchodzić sygnały, że wszystko jest w porządku. W związku z tym główny komputer automatycznie wprowadził wszystkie instrumenty naukowe w tryb bezpieczny. Obsługa naziemna Hubble'a najpierw zrestartowała payload computer, jednak szybko znowu pojawił się ten sam problem. Payload computer to maszyna NASA Standard Spacecraft Computer-1 (NSSC-1) zbudowana w latach 80. ubiegłego wieku. Komputer ten stanowi część modułu Science Instrument Command and Data Handling, który został wymieniony w 2009 roku podczas ostatniej misji serwisowej do teleskopu. Moduł jest wyposażony w wiele urządzeń redundantnych, które można będzie włączyć w razie potrzeby. « powrót do artykułu
  7. W ostatnim czasie ukazały się dwa istotne badania dotyczące potencjalnych skutków zdrowotnych awarii w Czarnobylu. Autorzy jednego z badań nie znaleźli dowodów na to, by wystawienie na promieniowanie rodziców skutkowało zmianami genetycznymi u dzieci. Z kolei autorzy drugiego ze studiów udokumentowali zmiany genetyczne w guzach nowotworowych u ludzi z nowotworem tarczycy, którzy jako dzieci lub w życiu płodowym zostali wystawieni na promieniowanie z uszkodzonej elektrowni. Badania nad wpływem promieniowania na ludzkie zdrowie są prowadzone od czasu zrzucenia bomb atomowych na Hiroshimę i Nagasaki. Ponownie bardziej intensywnie zajęto się tą kwestią po awarii w Czarnobylu, a nstępnie w Fukushimie, mówi Stephen J. Chanock, dyrektor Wydziału Epidemiologii i Genetyki Nowotworów (DCEG) w amerykańskim Narodowym Instytucie Raka. W ostatnim czasie postęp w technologiach sekwencjonowania DNA pozwolił nam na zbadanie tych ważnych kwestii. W wyniku awarii w Czarnobylu miliony ludzi zostały narażone na kontakt z radioaktywnymi zanieczyszczeniami. Autorzy obu wspomnianych badań przeanalizowali próbki pobrane przed laty od mieszkańców Ukrainy. Autorzy pierwszego z nich chcieli dowiedzieć się, czy kontakt z promieniowaniem jonizującym z Czarnobyla doprowadził do pojawienia się zmian genetycznych, które zostały przekazane z rodziców na dzieci. W tym celu doktor Chanock i jego zespół przeanalizowali genomy 130 osób urodzonych w latach 1987–2002 oraz 105 par ich rodziców. Rodzice ci to osoby, z których co najmniej jedno albo brało udział w likwidacji skutków katastrofy, albo też było ewakuowane, gdyż mieszkało w pobliżu miejsca wypadku. Naukowcy szukali u ich dzieci mutacji de novo. To typ zmian genetycznych, które pojawiają się losowo w komórkach rozrodczych i mogą być przekazywane dzieciom, ale które nie występują u rodziców. Badania nie wykazały obecności zwiększonej liczby mutacji de novo u dzieci urodzonych pomiędzy 46. tygodniem a 15. rokiem po tym, jak ich rodzice zostali narażeni na promieniowanie z Czarnobyla. U dzieci takich rodziców liczba mutacji de novo nie była większa niż w całej populacji. Stwierdzono zatem, że wystawienie na działanie promieniowania jonizującego nie miało w tym przypadku zauważalnego wpływu na zdrowie kolejnych pokoleń. To bardzo dobra wiadomość dla osób, które żyły w okolicach Fukushimy w czasie wycieku. Wiadomo, że poziom promieniowania był tam niższy niż promieniowania z Czarnobyla, mówi Chanock. Autorzy drugich badań przeanalizowali zaś zmiany genetyczne w guzach raka tarczycy u 359 osób, które jako dzieci lub w życiu płodowym zostały narażone na promieniowanie z Czarnobyla. Wyniki analiz porównano z analizą u 81 osób, które urodziły się ponad 9 miesięcy po wypadku. Zwiększone ryzyko rozwoju raka tarczycy było bowiem jedną z najpoważniejszych obaw związanych z wypadkiem. Energia promieniowania jonizującego rozrywa wiązania chemiczne w DNA, prowadząc do różnego typu uszkodzeń. Najpierw autorzy wspomnianych badań zauważyli w guzach tarczycy szczególny rodzaj uszkodzeń DNA. Związek pomiędzy tym rodzajem uszkodzeń a wystawieniem na promieniowanie jonizujące był tym silniejszy, im młodsze było dziecko wystawione na promieniowanie. Następnie badacze zidentyfikowali kluczowe geny, zmiany w których prowadzą do rozwoju nowotworów. Tego typu geny zostały zidentyfikowane w przypadku 95% guzów. Niemal wszystkie zmiany dotyczyły genów z tego samego szlaku sygnałowego zwanego kinazy aktywowane mitogenami (MAPK). Zestaw genów zmienionych pod wpływem promieniowania jonizującego jest podobny do genów, o których wiemy, iż zmiany w nich prowadzą do rozwoju nowotworu tarczycy. Jednak badacze zauważyli w tym przypadku zmianę w rozkładzie typów mutacji. W przypadku promieniowania jonizującego z Czarnobyla, nowotwór tarczycy, który rozwinął się w wyniku wystawienia w dzieciństwie na wyższe dawki promieniowania z większym prawdopodobieństwem rozwija się w wyniku fuzji genów. Tymczasem u ludzi, którzy nie byli wystawieni na promieniowanie jonizujące lub byli wystawieni na niskie dawki promieniowania, dochodziło do mutacji punktowych. Najbardziej ekscytującym elementem naszych badań była możliwość powiązania charakterystyk genetycznych guza z informacją o dawce promieniowania, czyli czynnikiem ryzyka wystąpienia nowotworu, mówi Lindsay M. Morton, zastępca Wydziału Epidemiologii Radiacji w DCEG. Uczona podkreśla, że przeprowadzenie badań było możliwe dzięki utworzeniu przed około 20 laty Chernobyl Tissue Bank, który umożliwił wykorzystanie najnowocześniejszych technik do zbadania tkanek pobranych przez laty od mieszkańców Ukrainy. « powrót do artykułu
  8. W połowie sierpnia na szwajcarskie Olten, gdzie znajduje się fabryka Lindt & Sprüngli, spadł deszcz kakao. Po jakimś czasie firma potwierdziła, że na linii produkcyjnej kruszonych, prażonych ziaren kakaowych doszło do niewielkiej awarii instalacji wentylacji z chłodzeniem. W połączeniu z silnym wiatrem doprowadziło to do nietypowego "opadu". Produkcję można było kontynuować, bo jak podkreśla Lindt & Sprüngli, nie było zagrożenia dla zdrowia ludzi i środowiska. Awaria została już zresztą naprawiona. Do kakaowo-czekoladowych zdarzeń dochodziło już wcześniej. W maju 1919 r. w fabryce Rockwood & Company na Brooklynie wybuchł pożar. Podczas jego gaszenia z budynku wymyte zostały surowe kakao i tłuszcz kakaowy. Ulicą płynęła czekoladowa rzeka. Masa zatkała kanalizację deszczową, przez co okolicę zalała wodnista czekoladowa mikstura. Jak pisano w Brooklyn Daily Eagle, widok i zapach przyciągnął tłumy dzieci. Dzieci padły [...] na kolana i żarłocznie zanurzały w masie umorusane palce. Po godzinie, gdy każda twarz była już solidnie ubrudzona, po telefonie do departamentu ds. wagarów [...] objedzeni czekoladą uczniowie, niektórzy z nieobecnym spojrzeniem, zostali przetransportowani do szkoły. Prawie 100 lat później, w grudniu 2018 r., doszło do problemów ze zbiornikiem w fabryce czekolady DreiMeister w Werl w Nadrenii Północnej-Westfalii. W zetknięciu z zimnym podłożem, mleczna czekolada szybko zastygła. Dwudziestu pięciu strażaków zgarniało ją szuflami. Resztki, które pozostały w szczelinach, trzeba było usunąć gorącą wodą. Szef firmy Markus Luckey powiedział w wywiadzie udzielonym Soester Anzeiger, że gdyby tak duży wypływ zdarzył się bliżej Bożego Narodzenia, byłaby to prawdziwa katastrofa. « powrót do artykułu
  9. Użytkownicy telefonów z systemem Android – przede wszystkim posiadacze urządzeń Samsunga oraz Google Pixel – nie powinni ustawiać obrazka dołączonego do tej informacji jako tapety. Okazuje się, że zdjęcie to powoduje, że telefony z Androidem, po ustawieniu takiej tapety, albo się zawieszają, albo bez końca wykonują ostatnie działanie. Problem rozwiązać można przez reset do ustawień fabrycznych. Ostrzeżenie przed powyższym zdjęciem ukazało się w czasie weekendu. Co interesujące, można je bezpiecznie przeglądać, ale nie należy ustawiać go jako tapety. Nic nie wskazuje na to, by było to czyjeś celowe działanie. Problem wynika ze sposobu zarządzania przestrzenią kolorów przez Androida 10. System prawidłowo obsługuje sRGB, jednak do awarii dochodzi, gdy nie jest w stanie przekonwertować Adobe RGB. Eksperci ostrzegają, że problem pojawia się w smartfonach Google'a, Samsunga, OnePlus i Nokii z systemem Android 10. Natomiast na modelu Pixel 4 XL z Androidem 11 obrazek można bez najmniejszego problemu użyć w roli tapety. Format sRGB jest standardowym profilem kolorów używanym w większości programów. Jednak Adobe RGB, przygotowany na potrzeby Photoshopa, umożliwia uzyskanie lepszej jakości wydruków. Przestrzeń kolorów obu formatów w dużej mierze się pokrywa, ale nie jest identyczna. Adobe RGB pozwala na wyświetlenie jaśniejszych i ciemniejszych tonów każdego koloru, niż pozwala na to sRGB. Czasem, jak widać, Android może mieć problemy z konwersją kolorów. Błąd przypomina nieco sytuację, z jaką mieliśmy do czynienia przed kilku laty, gdy pewien plik wideo w formacie MP4 doprowadzał do awarii iPhone'ów z systemem iOS 10.1. Jaiś czas później okazało się też, że wiadomość tekstowa zawierająca emotikon z flagą Włoch i znak języka sindhi prowadzi do awarii urządzeń z iOS-em 13. « powrót do artykułu
  10. Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku. Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji. Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy. Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej. Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku. Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę. Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia. Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach. Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario. Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy. Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love. « powrót do artykułu
  11. Holenderski Inspektorat Środowiska Człowieka i Transportu ostrzega przed dronami chińskiej firmy DJI. Niektóre akumulatory wykorzystywane w modelach DJ Matrice 200 i DJ Inspire 2 mogą ulec nagłej awarii, co prowadzi do utraty zasilania i upadku drona. Szczególnie narażone na awarie są akumulatory TB50 i TB55. W związku z tym holenderski urząd apeluje do właścicieli urządzeń z tymi akumulatorami, by ich nie używali. Ostzreżenie wydano po tym, jak kilkanaście dronó spadło w Wielkiej Brytanii. Podobne zalecenia wydała wcześniej British Civil Aviation Authority. Czytamy w nich, że doszło do "niewielkiej liczby incydentów, podczas których dron w czasie lotu doświadczył całkowitej utraty zasilania, pomimo tego, iż w akumulatorach pozostała wystarczająca ilość energii". Dotychczas nie odnotowano żadnego przypadku zranień ludzi. Zniszczeniu uległy tylko drony. Stało się tak dzięki temu, że najwyraźniej ich piloci przestrzegali brytyjskich przepisów, które zabraniają przelotu nad ludźmi oraz w odległości mniejszej niż 50 metrów od ludzi, samochodów i łodzi oraz w odległości mniejszej niż 150 metrów od obszarów zaludnionych. Firma DJI oferuje wymianę wadliwych akumulatorów. « powrót do artykułu
  12. Wczoraj (11 października) doszło do awarii rakiety Sojuz, którą podróżowała nowa załoga Międzynarodowej Stacji Kosmicznej. Kapsuła załogowa bezpiecznie oddzieliła się od rakiety i opadła na Ziemię. Jak poinformowała NASA, obaj członkowie załogi, Rosjanin i Amerykanin, bezpiecznie opuścili kapsułę. Rakieta Sojuz i kapsuła Sojuz MS-10 wystartowały z kosmodromu Bajkonur o godzinie 8:47. Na pokładzie znajdowali się Nick Hague i Aleksiej Owczynin. Mieli oni dołączyć do trzech osób, które już stanowią załogę Stacji. Jednak kilka minut po starcie doszło do awarii i kapsuła załogowa opadła na Ziemię. "Potwierdzamy, że dzisiaj kilka minut po starcie kapsuła Sojuz MS-10 włączyła tryb lotu balistycznego. To oznacza, że załoga  nie dotrze dzisiaj na Międzynarodową Stację Kosmiczną. Zamiast tego doszło do awaryjnego lądowania", oświadczyła rzecznik prasowa NASA Brandi Dean. Podczas awaryjnego lądowania Hague i Owczynin doświadczyli przeciążenia około 6,7 G. Kapsuła wylądowała w odległości około 20 kilometrów na wschód od miasta Żezkazgan. NASA nie podała zbyt wielu szczegółów na temat awarii. Potwierdziła jedynie, że pojawiły się problemy z oddzieleniem rakiety nośnej. Amerykanie poinformowali, że Roskosmos powołał komisję do zbadania wypadku. Tymczasem Habue i Owczynin zostali zabrani do Moskwy. Rosjanie potwierdzają, że obaj są bezpieczni. Warto przypomnieć, że 29 sierpnia w kapsule MS-09, która przywiozła na Stację jej obecną załogę, odkryto niewielką dziurę o średnicy 2 milimetrów. Dziura ta spowodowała niewielki wyciek powietrza ze Stacji. Został on wykryty przez kontrolerów naziemnych i naprawiony przez załogę ISS. Obecnie trwa śledztwo mające wyjaśnić, jak powstała wspomniana dziura. « powrót do artykułu
  13. Mniej niż tydzień po tym, jak doszło do awaryjnego przejścia Teleskopu Hubble'a w tryb bezpieczny, to samo spotkało kolejny z kosmicznych teleskopów NASA – Chandra X-ray Observatory. Amerykańska agencja poinformowała, że Chandra, prawdopodobnie z powodów problemów z żyroskopem, wprowadził się w tryb bezpieczny. Kilka dni wcześniej również problemy z żyroskopem spowodowały włączenie trybu bezpiecznego w Teleskopie Hubble'a. Oba kosmiczne teleskopy to niezwykle ważne, zasłużone narzędzia naukowe. Oba są też mocno leciwe i służą już wielokrotnie dłużej, niż planowano. Hubble liczy sobie 28 lat, a Chandra – 19. Obecnie kontrolerzy lotu pracują nad przywróceniem ich do normalnej pracy. Gdy awarii uległ podstawowy żyroskop Hubble'a, włączono żyroskop zapasowy. Jednak okazało się, że nie pracuje on jak należy. Co prawda prawidłowo śledzi on ruchy teleskopu, ale informuje, że urządzenie obraca się o rząd wielkości szybciej, niż ma to miejsce w rzeczywistości. Jest to o tyle problemem, że gdy Hubble jest precyzyjnie wycelowany w jakiś obiekt, żyroskop pracuje w bardziej czułym trybie, niż podczas zmiany położenia Hubble'a. Jako, że źle przekazuje on informacje o obrotach teleskopu, to w tym bardziej czułym trybie nie jest w stanie wyłapać minimalnych ruchów teleskopu, które powinien w tym czasie badać. Jeśli operatorom Hubble'a uda się naprawić problem z żyroskopami, to urządzenie powróci do pracy w standardowym trybie, w którym korzysta z 3 żyroskopów. Jeśli się nie uda, Hubble będzie korzystał z 1 żyroskopu, co, jak zapewnia NASA, pozwoli mu na przekazywanie doskonałej jakości obrazów przez kolejne lata. W 2009 roku, podczas ostatniej misji serwisowej na Hubble'a, astronauci zamontowali tam 6 żyroskopów. Od tamtej pory zawiodły trzy z nich. Przewidywano, że po tej misji Hubble będzie pracował jeszcze przez 5 lat. Minęło już 9 lat, a NASA obiecuje, że znany teleskop posłuży jeszcze przez wiele lat. Jeśli zaś chodzi o Chandra X-ray Observatory, to jeszcze nie wiadomo, co się stało, ale prawdopodobnie mamy do czynienia z awarią żyroskopu. Analizy wykazały, że przejście w tryb bezpieczny odbyło się bez problemów, panele słoneczne skierowane są w stronę Słońca, więc teleskop ma zapewnioną energię, a jego lustra są odsunięte od Słońca. Chandra został zaprojektowany tak, by pracować przez 5 lat. Także i on, jak zapewnia NASA, ma przed sobą jeszcze wiele lat pracy,. « powrót do artykułu
×
×
  • Dodaj nową pozycję...