-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Analiza ponad 50 000 gwiazd wykazała, że rozbłyski słoneczne mogą być setki razy potężniejsze, niż najsilniejszy rozbłysk kiedykolwiek zanotowany przez astronomów. Na łamach pisma Science badacze z Instytutu Badań Układu Słonecznego im Maxa Plancka poinformowali, że po przebadaniu 56 540 gwiazd doszli do wniosku, że każda z nich średnio co 100 lat doświadcza gigantycznego rozbłysku. Wyniki badań wskazują, że dotychczas potencjał gwiazd był niedoszacowany. Z danych zebranych przez Teleskop Keplera wynika bowiem, że gigantyczne rozbłyski mają miejsce 10-100 razy częściej niż sądzono.
Już wcześniejszych badań wiadomo było, że na Słońcu może dochodzić do potężnych erupcji. Ich ślady znajdowano w prehistorycznych drzewach i lodzie z lodowców. Jednak na podstawie takich źródeł nie można było stwierdzić, jak często tego typu wydarzenia mają miejsce. Bezpośrednie pomiary ilości promieniowania docierającego ze Słońca na Ziemię potrafimy wykonywać dopiero od kilkudziesięciu lat.
Istnieje jednak inny sposób na zdobycie danych na temat długoterminowego zachowania się Słońca. Współczesne teleskopy kosmiczne obserwują tysiące gwiazd i zbierają dane o zmianach ich jasności. W danych tych widać też potężne rozbłyski. Nie możemy obserwować Słońca przez tysiące lat. Możemy jednak badać zachowanie tysięcy gwiazd bardzo podobnych do Słońca w krótkim okresie czasu. To pozwala nam ocenić, jak często dochodzi do superrozbłysków, mówi współautor badań, profesor Sami Solanki.
Naukowcy z Niemiec, Austrii, USA, Japonii, Finlandii i Francji przeanalizowali dane z 56 450 gwiazd dostarczone w latach 2009–2013 przez Teleskop Kosmiczny Keplera. W sumie Kepler dostarczył nam danych z 220 tysięcy lat aktywności słonecznej, wyjaśnia profesor Alexander Shapiro z Uniwersytetu w Grazu.
Kluczowym elementem był dobór gwiazd jak najbardziej podobnych do naszej. Badacze wybrali więc te, których temperatura powierzchni i jasność były jak najbardziej zbliżone. W czasie badań zidentyfikowano 2889 superrozbłysków, które miały miejsce na 2527 gwiazdach spośród 56 450 wybranych. To oznacza, że każda z gwiazd generuje jeden superrozbłysk w ciągu stu lat. To było zaskakujące. Naukowcy nie spodziewali się, że potężne rozbłyski mają miejsce tak często. Dotychczas bowiem, na podstawie dowodów znalezionych na Ziemi, wydawało się, że dochodzi do nich znacznie rzadziej.
Gdy cząstki z potężnego rozbłysku trafią do ziemskiej atmosfery, dochodzi do wytwarzania mierzalnych ilości pierwiastków promieniotwórczych, takich jak węgiel-14. Pierwiastki te trafiają do naturalnych archiwów, jak pierścienie drzew czy lód w lodowcach. Więc informacje o takim wydarzeniu na Słońcu można odczytać tysiące lat później na Ziemi. W ten sposób naukowcom udało się zidentyfikować 5 ekstremalnych wydarzeń tego typu i 3 kandydatów na rozbłyski. Doszło do nich w ciągu ostatnich 12 tysięcy lat. Z tego też powodu sądzono, że Słońce generuje superrozbłyski raz na około 1500 lat. I o ile wiadomo, ostatnie takie wydarzenie miało miejsce w 775 roku.
Wyniki badań mogą niepokoić. O ile w roku 775 wynikiem skierowanego w stronę Ziemi rozbłysku mógł być niewielki wzrost zachorowań na nowotwory skóry, to współczesna cywilizacja techniczna bardzo boleśnie odczułaby skutki takiego wydarzenia.
Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany.
Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale.
Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii.
O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii. A pamiętać trzeba, że wydarzenie Carringtona było znacznie słabsze, niż superrozbłyski, o których tutaj mowa.
Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Misja Psyche jeszcze nie dotarła do celu, a już zapisała się w historii podboju kosmosu. Głównym jej celem jest zbadanie największej w Układzie Słonecznym asteroidy Psyche. Przy okazji NASA postanowiła przetestować technologię, z którą eksperci nie potrafili poradzić sobie od dziesięcioleci – przesyłanie w przestrzeni kosmicznej danych za pomocą lasera. Agencja poinformowała właśnie, że z Psyche na Ziemię trafił 15-sekudowy materiał wideo przesłany z odległości 31 milionów kilometrów z maksymalną prędkością 267 Mbps. To niemal 2-krotnie szybciej niż średnia prędkość szerokopasmowego internetu w Polsce.
To, czego właśnie dokonała NASA jest nie zwykle ważnym osiągnięciem. Pozwoli bowiem na znacznie sprawniejsze zbieranie danych z instrumentów pracujących w przestrzeni kosmicznej i zapewni dobrą komunikację z misjami załogowymi odbywającymi się poza orbitą Ziemi.
Sygnał z Psyche potrzebował około 101 sekund, by dotrzeć do Ziemi. Dane, przesyłane przez laser pracujący w bliskiej podczerwieni trafiły najpierw do Hale Teelscope w Palomar Observatory w Kalifornii. Następnie przesłano je do Jet Propulsion Laboratory w Południowej Kalifornii, gdzie były odtwarzane w czasie rzeczywistym podczas przesyłania. Jak zauważył Ryan Rogalin, odpowiedzialny za elektronikę odbiornika w JPL, wideo odebrane w Palomar zostało przesłane przez internet do JPL, a transfer danych odbywał się wolniej, niż przesyłanie danych z kosmosu. Podziwiając tempo transferu danych nie możemy zapomnieć też o niezwykłej precyzji, osiągniętej przez NASA. Znajdujący się na Psyche laser trafił z odległości 31 milionów kilometrów w 5-metrowe zwierciadło teleskopu. Sam teleskop to również cud techniki. Jego budowę ukończono w 1948 roku i przez 45 lat był najdoskonalszym teleskopem optycznym, a jego zwierciadło główne jest drugim największym zwierciadłem odlanym w całości.
Po co jednak prowadzić próby z komunikacją laserową, skoro od dziesięcioleci w przestrzeni kosmicznej z powodzeniem przesyła się dane za pomocą fal radiowych? Otóż fale radiowe mają częstotliwość od 3 Hz do 3 Thz. Tymczasem częstotliwość pracy lasera podczerwonego sięga 300 THz. Zatem transmisja z jego użyciem może być nawet 100-krotnie szybsza. Ma to olbrzymie znaczenie. Chcemy bowiem wysyłać w przestrzeń kosmiczną coraz więcej coraz doskonalszych narzędzi. Dość wspomnieć, że Teleskop Webba, który zbiera do 57 GB danych na dobę, wysyła je na Ziemię z prędkością dochodzącą do 28 Mb/s. Zatem jego systemy łączności działają 10-krotnie wolniej, niż testowa komunikacja laserowa.
Zainstalowany na Psyche Deep Space Optical Communication (DSOC) uruchomiono po raz pierwszy 14 listopada. Przez kolejne dni system sprawdzano i dostrajano, osiągając coraz szybszy transfer danych i coraz większą precyzję ustanawiania łącza z teleskopem. W tym testowym okresie przesłano na Ziemię łącznie 1,3 terabita danych. Dla porównania, misja Magellan, która w latach 1990–1994 badała Wenus, przesłała w tym czasie 1,2 Tb.
Misja Psyche korzysta ze standardowego systemu komunikacji radiowej. DSOC jest systemem testowym, a jego funkcjonowanie nie będzie wpływało na powodzenie całej misji.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Problem grzania korony słonecznej pozostaje nierozwiązany od 80 lat. Z modeli obliczeniowych wynika, że temperatura we wnętrzu Słońca wynosi ponad 15 milionów stopni, jednak na jego widocznej powierzchni (fotosferze) spada do około 5500 stopni, by w koronie wzrosnąć do około 2 milionów stopni. I to właśnie ta olbrzymia różnica temperatur pomiędzy powierzchnią a koroną stanowi zagadkę. Jej rozwiązanie – przynajmniej częściowe – zaproponował międzynarodowy zespół naukowy z Polski, Chin, USA, Hiszpanii i Belgii. Zdaniem badaczy za podgrzanie części korony odpowiadają... chłodne obszary na powierzchni.
W danych z Goode Solar Telescope uczeni znaleźli intensywne fale energii pochodzące z dość chłodnych, ciemnych i silnie namagnetyzowanych regionów fotosfery. Takie ciemniejsze regiony mogą powstawać, gdy silne pole magnetyczne tłumi przewodzenie cieplne i zaburza transport energii z wnętrza naszej gwiazdy na jej powierzchnię. Naukowcy przyjrzeli się aktywności tych chłodnych miejsc, przede wszystkim zaś włóknom plazmy powstającym w umbrze, najciemniejszym miejscu plamy słonecznej. Włókna te to stożkowate struktury o wysokości 500–1000 kilometrów i szerokości około 100 km. Istnieją one przez 2-3 minuty i zwykle ponownie pojawiają się w tym samym najciemniejszym miejscu umbry, gdzie pola magnetyczne są najsilniejsze, wyjaśnia profesor Vasyl Yurchyshyn z New Jersey Institute of Technology (NJIT).
Te ciemne dynamiczne włóka obserwowane były od dawna, jednak jako pierwsi byliśmy w stanie wykryć ich oscylacje boczne, które są powodowane przez szybko poruszające się fale. Te ciągle obecne fale w silnie namagnetyzowanych włóknach transportują energię w górę i przyczyniają się do podgrzania górnych części atmosfery Słońca, dodaje Wenda Cao z NJIT. Z przeprowadzonych obliczeń wynika, że fale te przenoszą tysiące razy więcej energii niż ilość energii tracona w aktywnych regionach atmosfery. Rozprzestrzenianie się tej energii jest nawet o 4 rzędy wielkości większa niż ilość energii potrzebna do utrzymania temperatury korony słonecznej.
Wszędzie na Słońcu wykryto dotychczas różne rodzaje fal. Jednak zwykle niosą one ze sobą zbyt mało energii, by podgrzać koronę. Szybkie fale, które wykryliśmy w umbrze plam słonecznych to stałe i wydajne źródło energii, które może podgrzewać koronę nad plamami, wyjaśnia Yurchyszyn. Odkrycie to, jak mówią naukowcy, nie tylko zmienia nasz pogląd na umbrę plam, ale również jest ważnym krokiem w kierunku zrozumienia transportu energii i podgrzewania korony.
Jednak, jak sami zauważają, zagadka grzania korony słonecznej nie została rozwiązania. Przepływ energii pochodzącej z plam może odpowiadać tylko za podgrzanie pętli koronalnych, które biorą swoje początki z plam. Istnieją jednak inne, wolne od plam, regiony Słońca powiązane z gorącymi pętlami koronalnymi. I czekają one na swoje wyjaśnienie, dodaje Cao.
« powrót do artykułu -
przez KopalniaWiedzy.pl
„Niemożliwy” unipolarny (jednobiegunowy) laser zbudowany przez fizyków z University of Michigan i Universität Regensburg może posłużyć do manipulowania kwantową informacją, potencjalnie zbliżając nas do powstania komputera kwantowego pracującego w temperaturze pokojowej. Laser taki może też przyspieszyć tradycyjne komputery.
Światło, czyli promieniowanie elektromagnetyczne, to fala oscylująca pomiędzy grzbietami a dolinami, wartościami dodatnimi a ujemnymi, których suma wynosi zero. Dodatni cykl fali elektromagnetycznej może przesuwać ładunki, jak np. elektrony. Jednak następujący po nim cykl ujemny przesuwa ładunek w tył do pozycji wyjściowej. Do kontrolowania przemieszania informacji kwantowej potrzebna byłaby asymetryczna – jednobiegunowa – fala światła. Optimum byłoby uzyskanie całkowicie kierunkowej, unipolarnej „fali”, w której występowałby tylko centralny grzbiet, bez oscylacji. Jednak światło, jeśli ma się przemieszczać, musi oscylować, więc spróbowaliśmy zminimalizować te oscylacje, mówi profesor Mackillo Kira z Michigan.
Fale składające się tylko z grzbietów lub tylko z dolin są fizycznie niemożliwe. Dlatego też naukowcy uzyskali falę efektywnie jednobiegunową, która składała się z bardzo stromego grzbietu o bardzo wysokiej amplitudzie, któremu po obu stronach towarzyszyły dwie rozciągnięte doliny o niskiej amplitudzie. Taka konstrukcja powodowała, że grzbiet wywierał silny wpływ na ładunek, przesuwając go w pożądanym kierunku, a doliny były zbyt słabe, by przeciągnąć go na pozycję wyjściową.
Taką falę udało się uzyskać wykorzystując półprzewodnik z cienkich warstw arsenku galu, w którym dochodzi do terahercowej emisji dzięki ruchowi elektronów i dziur. Półprzewodnik został umieszczony przed laserem. Gdy światło w zakresie bliskiej podczerwieni trafiło w półprzewodnik, doszło do oddzielenia się elektronów od dziur. Elektrony poruszyły się w przód. Następnie zostały z powrotem przyciągnięte przez dziury. Gdy elektrony ponownie łączyły się z dziurami, uwolniły energię, którą uzyskały z impulsu laserowego. Energia ta miała postać silnego dodatniego półcyklu w zakresie teraherców, przed i po którym przebiegał słaby, wydłużony półcykl ujemny.
Uzyskaliśmy w ten sposób zadziwiającą unipolarną emisję terahercową, w którym pojedynczy dodatni półcykl był czterokrotnie wyższy niż oba cykle ujemne. Od wielu lat pracowaliśmy nad impulsami światła o coraz mniejszej liczbie oscylacji. Jednak możliwość wygenerowania terahercowych impulsów tak krótkich, że efektywnie składały się z mniej niż pojedynczego półcyklu oscylacji była czymś niewyobrażalnym, cieszy się profesor Rupert Hubner z Regensburga.
Naukowcy planują wykorzystać tak uzyskane impulsy do manipulowania elektronami w materiałach kwantowych w temperaturze pokojowej i badania mechanizmów kwantowego przetwarzania informacji. Teraz, gdy wiemy, jak uzyskać unipolarne terahercowe impulsy, możemy spróbować nadać im jeszcze bardziej asymetryczny kształt i lepiej przystosować je do pracy z kubitami w półprzewodnikach, dodaje doktorant Qiannan Wen.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Krwawienie z naczyń krwionośnych podczas operacji neurochirurgicznych to poważny problem. Krew zasłania pole widzenia i konieczne jest jej usuwanie. Dlatego pole operacyjne, w którym nie pojawiałaby się krew czyniłoby cały zabieg bardziej precyzyjnym i bezpiecznym. Naukowcy z University of Texas w Austin i University of California, Irvine, opracowali właśnie laserową platformę do bezkrwawej resekcji tkanki mózgowej.
Obecnie podczas zabiegów neurochirurgicznych, by zapewnić dobre pole widzenia, wykorzystuje się ultradźwiękowe aspiratory, po których stosuje się przyżeganie (elektrokauteryzację). Jako jednak, że obie metody stosowane są jedna po drugiej, wydłuża to operację. Ponadto przyżeganie może prowadzić do uszkodzenia części tkanki.
Specjaliści z Teksasu i Kalifornii wykazali podczas eksperymentów na myszach, że ich nowy laser pozwala na bezkrwawą resekcję tkanki. Ich system składa się z urządzenia do koherencyjnej tomografii optycznej (OCT), które zapewnia obraz w mikroskopowej rozdzielczości, bazującego na iterbie lasera do koagulacji naczyń krwionośnych oraz wykorzystującego tul lasera do cięcia tkanki.
Maksymalna moc lasera iterbowego wynosi 3000 W, a urządzenie pozwala na dobranie częstotliwości i długości trwania impulsów w zakresie od 50 mikrosekund do 200 milisekund, dzięki czemu możliwa jest skuteczna koagulacja różnych naczyń krwionośnych. Laser ten emituje światło o długości 1,07 mikrometra. Z kolei laser tulowy pracuje ze światłem o długości fali 1,94 mikrometra, a jego średnia moc podczas resekcji tkanki wynosi 15 W. Twórcy nowej platformy połączyli oba lasery w jednym biokompatybilnym włóknie, którym można precyzyjnie sterować dzięki OCT.
Opracowanie tej platformy możliwe było dzięki postępowi w dwóch kluczowych dziedzinach. Pierwszą jest laserowa dozymetria, wymagana do koagulacji naczyń krwionośnych o różnych rozmiarach. Wcześniej duże naczynia, o średnicy 250 mikrometrów i większej, nie poddawały się laserowej koagulacji z powodu szybkiego wypływu krwi. Mój kolega Nitesh Katta położył podstawy naukowe pod metodę dozymetrii laserowej pozwalającej na koagulowanie naczyń o średnicy do 1,5 milimetra, mówi główny twórca nowej platformy, Thomas Milner.
Drugie osiągnięcie to odpowiednia metodologia działań, która pozwala na osiągnięcie powtarzalnej i spójnej ablacji różnych typów tkanki dzięki głębiej penetrującym laserom. Jako, że laserowa ablacja jest zależna od właściwości mechanicznych tkanki, cięcia mogą być niespójne, a w niektórych przypadkach mogą skończyć się katastrofalną niestabilnością cieplną. Nasza platforma rozwiązuje oba te problemy i pozwala na powtarzalne spójne cięcie tkanki miękkiej jak i sztywnej, takiej jak tkanka chrzęstna.
Na łamach Biomedical Optics Express twórcy nowej platformy zapewniają, że w polu operacyjnym nie pojawia się krew, jakość cięcia jest odpowiednia i obserwuje się jedynie niewielkie uszkodzenia termiczne tkanki.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.