Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
NASA publikuje pierwsze wyniki badań sondy, która leci 'dotknąć' Słońca
dodany przez
KopalniaWiedzy.pl, w Astronomia i fizyka
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Analiza ponad 50 000 gwiazd wykazała, że rozbłyski słoneczne mogą być setki razy potężniejsze, niż najsilniejszy rozbłysk kiedykolwiek zanotowany przez astronomów. Na łamach pisma Science badacze z Instytutu Badań Układu Słonecznego im Maxa Plancka poinformowali, że po przebadaniu 56 540 gwiazd doszli do wniosku, że każda z nich średnio co 100 lat doświadcza gigantycznego rozbłysku. Wyniki badań wskazują, że dotychczas potencjał gwiazd był niedoszacowany. Z danych zebranych przez Teleskop Keplera wynika bowiem, że gigantyczne rozbłyski mają miejsce 10-100 razy częściej niż sądzono.
Już wcześniejszych badań wiadomo było, że na Słońcu może dochodzić do potężnych erupcji. Ich ślady znajdowano w prehistorycznych drzewach i lodzie z lodowców. Jednak na podstawie takich źródeł nie można było stwierdzić, jak często tego typu wydarzenia mają miejsce. Bezpośrednie pomiary ilości promieniowania docierającego ze Słońca na Ziemię potrafimy wykonywać dopiero od kilkudziesięciu lat.
Istnieje jednak inny sposób na zdobycie danych na temat długoterminowego zachowania się Słońca. Współczesne teleskopy kosmiczne obserwują tysiące gwiazd i zbierają dane o zmianach ich jasności. W danych tych widać też potężne rozbłyski. Nie możemy obserwować Słońca przez tysiące lat. Możemy jednak badać zachowanie tysięcy gwiazd bardzo podobnych do Słońca w krótkim okresie czasu. To pozwala nam ocenić, jak często dochodzi do superrozbłysków, mówi współautor badań, profesor Sami Solanki.
Naukowcy z Niemiec, Austrii, USA, Japonii, Finlandii i Francji przeanalizowali dane z 56 450 gwiazd dostarczone w latach 2009–2013 przez Teleskop Kosmiczny Keplera. W sumie Kepler dostarczył nam danych z 220 tysięcy lat aktywności słonecznej, wyjaśnia profesor Alexander Shapiro z Uniwersytetu w Grazu.
Kluczowym elementem był dobór gwiazd jak najbardziej podobnych do naszej. Badacze wybrali więc te, których temperatura powierzchni i jasność były jak najbardziej zbliżone. W czasie badań zidentyfikowano 2889 superrozbłysków, które miały miejsce na 2527 gwiazdach spośród 56 450 wybranych. To oznacza, że każda z gwiazd generuje jeden superrozbłysk w ciągu stu lat. To było zaskakujące. Naukowcy nie spodziewali się, że potężne rozbłyski mają miejsce tak często. Dotychczas bowiem, na podstawie dowodów znalezionych na Ziemi, wydawało się, że dochodzi do nich znacznie rzadziej.
Gdy cząstki z potężnego rozbłysku trafią do ziemskiej atmosfery, dochodzi do wytwarzania mierzalnych ilości pierwiastków promieniotwórczych, takich jak węgiel-14. Pierwiastki te trafiają do naturalnych archiwów, jak pierścienie drzew czy lód w lodowcach. Więc informacje o takim wydarzeniu na Słońcu można odczytać tysiące lat później na Ziemi. W ten sposób naukowcom udało się zidentyfikować 5 ekstremalnych wydarzeń tego typu i 3 kandydatów na rozbłyski. Doszło do nich w ciągu ostatnich 12 tysięcy lat. Z tego też powodu sądzono, że Słońce generuje superrozbłyski raz na około 1500 lat. I o ile wiadomo, ostatnie takie wydarzenie miało miejsce w 775 roku.
Wyniki badań mogą niepokoić. O ile w roku 775 wynikiem skierowanego w stronę Ziemi rozbłysku mógł być niewielki wzrost zachorowań na nowotwory skóry, to współczesna cywilizacja techniczna bardzo boleśnie odczułaby skutki takiego wydarzenia.
Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany.
Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale.
Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii.
O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii. A pamiętać trzeba, że wydarzenie Carringtona było znacznie słabsze, niż superrozbłyski, o których tutaj mowa.
Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Sprzątacz wyłączył zamrażarkę w uczelnianym laboratorium, ponieważ zepsuty sprzęt wydawał drażniący dźwięk. W ten sposób zniszczył próbki i inne materiały, niwecząc przeszło dwie dekady badań. Rensselaer Polytechnic Institute w Troy domaga się od firmy, która go zatrudniła, ponad 1 mln dolarów. Kwota ta ma stanowić odszkodowanie i pokryć opłaty prawne.
Uczelnia nie pozwała sprzątacza, ale zatrudniającą go firmę Daigle Cleaning Systems Inc., wskazując na niewłaściwe przeszkolenie i nadzorowanie personelu. Daigle Cleaning Systems Inc. świadczyła uczelni usługi przez kilka miesięcy 2020 roku (kontrakt opiewał na 1,4 mln dol.).
Michael Ginsberg, prawnik reprezentujący Rensselaer Polytechnic Institute, podkreślił w wypowiedzi dla CNN-u, że zaistniała sytuacja jest skutkiem ludzkiego błędu. Kluczem do jej interpretacji jest fakt, że firma nie przeszkoliła odpowiednio swojego personelu. Sprzątacz nie powinien bowiem próbować rozwiązywać problemów elektrycznych.
W zamrażarce znajdowały się m.in. hodowle komórkowe i próbki, w przypadku których, jak napisano w pozwie złożonym w Sądzie Najwyższym Hrabstwa Rensselaer, niewielkie wahania temperatury rzędu trzech stopni mogły wyrządzić katastrofalne szkody.
Materiał przechowywany w zamrażarce wymagał zachowania temperatury -80°C. Prof. K.V. Lakshmi, dyrektorka Baruch '60 Center For Biochemical Solar Energy Research, stwierdziła, że alarm włączył się ok. 14 września 2020 r., bo temperatura wzrosła do -78°C. Zespół naukowców ustalił, że mimo to próbkom i kulturom nic się nie stało. Ponieważ przez ograniczenia pandemiczne naprawa mogła się rozpocząć dopiero po tygodniu, na drzwiczkach zamrażarki umieszczono ostrzegający napis: Urządzenie piszczy, bo znajduje się w naprawie. Proszę go nie przesuwać ani nie odłączać. Nie ma potrzeby sprzątania tego obszaru. Jeśli chcesz wyłączyć dźwięk, przez 5-10 s przyciśnij guzik wyciszania alarmu. Zamiast tego 17 września sprzątacz wyłączył obwód zasilający zamrażarkę.
Nim naukowcy zorientowali się, co się stało, temperatura podniosła się aż o 50 stopni. Większość próbek uległa zniszczeniu. W raporcie sporządzonym przez uczelniany zespół ds. bezpieczeństwa publicznego napisano, że sprzątacz myślał, że włącza obwód zasilający, tymczasem w rzeczywistości było dokładnie na odwrót. Podczas rozmów z prawnikami nadal wydaje się przekonany, że nie zrobił nic złego i próbował po prostu pomóc.
Badania nad fotosyntezą prowadzone przez prof. K.V. Lakshmi mogły być przełomowe dla dalszego rozwoju paneli słonecznych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Problem grzania korony słonecznej pozostaje nierozwiązany od 80 lat. Z modeli obliczeniowych wynika, że temperatura we wnętrzu Słońca wynosi ponad 15 milionów stopni, jednak na jego widocznej powierzchni (fotosferze) spada do około 5500 stopni, by w koronie wzrosnąć do około 2 milionów stopni. I to właśnie ta olbrzymia różnica temperatur pomiędzy powierzchnią a koroną stanowi zagadkę. Jej rozwiązanie – przynajmniej częściowe – zaproponował międzynarodowy zespół naukowy z Polski, Chin, USA, Hiszpanii i Belgii. Zdaniem badaczy za podgrzanie części korony odpowiadają... chłodne obszary na powierzchni.
W danych z Goode Solar Telescope uczeni znaleźli intensywne fale energii pochodzące z dość chłodnych, ciemnych i silnie namagnetyzowanych regionów fotosfery. Takie ciemniejsze regiony mogą powstawać, gdy silne pole magnetyczne tłumi przewodzenie cieplne i zaburza transport energii z wnętrza naszej gwiazdy na jej powierzchnię. Naukowcy przyjrzeli się aktywności tych chłodnych miejsc, przede wszystkim zaś włóknom plazmy powstającym w umbrze, najciemniejszym miejscu plamy słonecznej. Włókna te to stożkowate struktury o wysokości 500–1000 kilometrów i szerokości około 100 km. Istnieją one przez 2-3 minuty i zwykle ponownie pojawiają się w tym samym najciemniejszym miejscu umbry, gdzie pola magnetyczne są najsilniejsze, wyjaśnia profesor Vasyl Yurchyshyn z New Jersey Institute of Technology (NJIT).
Te ciemne dynamiczne włóka obserwowane były od dawna, jednak jako pierwsi byliśmy w stanie wykryć ich oscylacje boczne, które są powodowane przez szybko poruszające się fale. Te ciągle obecne fale w silnie namagnetyzowanych włóknach transportują energię w górę i przyczyniają się do podgrzania górnych części atmosfery Słońca, dodaje Wenda Cao z NJIT. Z przeprowadzonych obliczeń wynika, że fale te przenoszą tysiące razy więcej energii niż ilość energii tracona w aktywnych regionach atmosfery. Rozprzestrzenianie się tej energii jest nawet o 4 rzędy wielkości większa niż ilość energii potrzebna do utrzymania temperatury korony słonecznej.
Wszędzie na Słońcu wykryto dotychczas różne rodzaje fal. Jednak zwykle niosą one ze sobą zbyt mało energii, by podgrzać koronę. Szybkie fale, które wykryliśmy w umbrze plam słonecznych to stałe i wydajne źródło energii, które może podgrzewać koronę nad plamami, wyjaśnia Yurchyszyn. Odkrycie to, jak mówią naukowcy, nie tylko zmienia nasz pogląd na umbrę plam, ale również jest ważnym krokiem w kierunku zrozumienia transportu energii i podgrzewania korony.
Jednak, jak sami zauważają, zagadka grzania korony słonecznej nie została rozwiązania. Przepływ energii pochodzącej z plam może odpowiadać tylko za podgrzanie pętli koronalnych, które biorą swoje początki z plam. Istnieją jednak inne, wolne od plam, regiony Słońca powiązane z gorącymi pętlami koronalnymi. I czekają one na swoje wyjaśnienie, dodaje Cao.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Uniwersytetu Oksfordzkiego, Instytutu Centrum Zdrowia Matki Polki w Łodzi, Uniwersytetu Harvarda, Uniwersytetu Łódzkiego, japońskiego RIKEN, fińskiego Uniwersytetu w Oulu i 20 innych instytucji naukowych, opublikowali wyniki największych na świecie badań nad genetycznymi podstawami endometriozy. W ich trakcie przeanalizowali genomy 60 674 kobiet cierpiących na endometriozę oraz 701 926 pań, których ta choroba nie dotknęła.
Badania dostarczyły przekonujących dowodów na istnienie wspólnych podstaw genetycznych dla endometriozy i innych rodzajów bólu pozornie z nią nie związanych, w tym z migrenami, bólem pleców i rozsianymi po różnych częściach ciała. Okazało się również, że istnieje różnica w podstawach genetycznych pomiędzy endometriozą dotykającą jajników a przypadkami, gdy choroba manifestuje się w inny sposób. Odkrycie może otworzyć drogę do zaprojektowania leków uwzględniających różne typy endometriozy oraz do zmian sposobu leczenia bólu w endometriozie.
Endometrioza ma zgubny wpływ na jakość życia dotkniętych nią kobiet. Szacuje się, że cierpi na nią 5–10 procent (190 milionów) pań w wieku reprodukcyjnym. Choroba, w wyniku której komórki wyściółki macicy (endometrium), rozprzestrzeniają się poza macicę, powoduje ciągłe silne bóle, chroniczny stan zapalny, bezpłodność, chroniczne zmęczenie, depresję. Endometrium może pojawić się w wielu niespodziewanych miejscach – chociażby na jelitach, pęcherzu, nerkach – powodując niezwykle silne bóle i powoli uszkadzając zaatakowane organy. Sytuację kobiet pogarsza fakt, że endometrioza jest bardzo późno diagnozowana (średnio 8 lat od pojawienia się pierwszych objawów), a jedyną pewną metodą diagnozy jest przeprowadzenie zabiegu chirurgicznego. Obecnie nie istnieje żaden sposób leczenia endometriozy. Kobiety na nią cierpiące czekają wielokrotne zabiegi chirurgiczne oraz leczenie hormonalne z jego licznymi skutkami ubocznymi. Niewiele też wiadomo o przyczynach endometriozy. Istnieją jednak przesłanki wskazujące, że pewną rolę odgrywają tutaj czynniki genetyczne.
Dlatego też międzynarodowy zespół naukowy postanowił przyjrzeć się tej kwestii. Uczeni zidentyfikowali w genomie 42 miejsca, w których mogą pojawiać się wersje genów zwiększające ryzyko wystąpienia endometriozy. Łącząc te warianty z profilami molekuł występujących w endometrium i we krwi, zidentyfikowali cały liczne geny, które mogą brać udział w rozwoju choroby. Dzięki tej wiedzy można będzie zacząć prace nad lekami dostosowanymi do podtypu choroby. Okazało się na przykład, że warianty niektórych genów są silniej powiązane z endometriozą jajników niż z jej rozprzestrzenianiem się w miednicy.
Przede wszystkim zaś zauważyli, że wiele genów związanych z endometriozą ma też związek z odczuwaniem bólu. Okazało się, że istnieją podobieństwa genetyczne pomiędzy endometriozą a wieloma rodzajami chronicznego bólu. Być może uda się tę wiedzę wykorzystać do opracowania niehormonalnych leków zwalczających ból w endometriozie lub też przystosować obecnie istniejące metody leczenia bólu dla kobiet z endometriozą.
Endometrioza jest obecnie uznawana za jeden z głównych problemów zdrowotnych negatywnie wpływających na życie kobiet. Dzięki wykorzystaniu genomów ponad 60 000 kobiet z endometriozą oraz bezprecedensowej współpracy 25 instytucji naukowych zdobyliśmy olbrzymią ilość informacji na temat genetycznych podstaw endometriozy. Pozwoli to na opracowanie nowych metod leczenia, z korzyścią dla milionów kobiet na całym świecie, mówi profesor Krina Zondervan z Endometriosis CaRe Centre na Uniwersytecie Oksfordzkim.
Artykuł The genetic basis of endometriosis and comorbidity with other pain and inflammatory conditions został opublikowany w najnowszym numerze Nature Genetics.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Marta Kozakiewicz-Latała z Wydziału Farmaceutycznego Uniwersytetu Medycznego im. Piastów Śląskich we Wrocławiu (UMW) dostała ponad 195 tys. zł na prace związane z wykorzystaniem druku 3D (technologii przyrostowej) do wytwarzania zaawansowanych postaci leków.
Jej projekt „Zrozumienie mieszalności układów lek/polimer/plastyfikator i jej wpływu na właściwości mechaniczne polimerowych filamentów do przetwarzania w technologii przyrostowej FDM” doceniono w konkursie PRELUDIUM 21 Narodowego Centrum Nauki.
W 2015 r. amerykańska Agencja Żywności i Leków (Food and Drug Administration, FDA) wydała pozwolenie na wprowadzenie do obrotu pierwszego leku uzyskiwanego na drodze druku 3D. Chodzi o stosowany w terapii epilepsji Spritam firmy Aprecia Pharmaceuticals.
W Europie nie zarejestrowano jednak dotąd ani jednego wytwarzanego w ten sposób produktu leczniczego. Stąd projekt Kozakiewicz-Latały, która z opiekunem merytorycznym i promotorem dr. hab. Karolem Nartowskim będzie pracować wg paradygmatu knowledge based design; naukowcy chcą zrozumieć zjawiska fizyczne, które - jak napisano w komunikacie - mają znaczenie dla rozwoju technologii przyrostowych i wytwarzania spersonalizowanych leków.
By móc uzyskiwać leki na drodze druku 3D, trzeba precyzyjnie określić proporcje i właściwości stosowanych materiałów. Miesza się je ze sobą w postaci sproszkowanej i poddaje tłoczeniu (ekstruzji) na gorąco. Finalnie muszą stworzyć mieszankę jednorodną, zarówno pod względem fizycznym, jak i molekularnym, co będzie miało wpływ na stabilność i jednolitość zawartości substancji aktywnej w wydrukowanych tabletkach - podkreślono w komunikacie.
Kozakiewicz-Latała tłumaczy, że zadaniem jej minizespołu będą badania nad mieszalnością leków z polimerami i substancjami plastycznymi oraz wpływem fazy leku, amorficznej lub krystalicznej, na właściwości mechaniczne filamentów [materiału wykorzystywanego do druku]. Uzyskany filament musi, oczywiście, mieć jakość farmaceutyczną.
Naukowcy wspominają o różnorakich efektach projektu. Po pierwsze, proces produkcji można by dostosować do potrzeb konkretnych pacjentów, dzięki czemu dałoby się poprawić jakość ich życia, a zarazem ograniczyć ryzyko wystąpienia skutków ubocznych. Po drugie, wykorzystanie druku przestrzennego pozwala uzyskać lek o dowolnym kształcie, a to z kolei daje kontrolę nad dostępnością farmaceutyczną (ilością substancji czynnej, jaka uwalnia się z preparatu farmaceutycznego w jednostce czasu). Po trzecie wreszcie, w poszczególnych warstwach, które uzyskiwano by z różnych materiałów, dałoby się umieścić inne substancje czynne. Dzięki temu ktoś, kto musi przyjmować szereg leków, mógłby sięgnąć po tylko jedną spersonalizowaną pigułkę.
Planowany czas trwania projektu to 36 miesięcy; jego zakończenie ma nastąpić w połowie stycznia 2026 roku.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.