Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Naukowcy od dziesięcioleci dyskutują, czy wyjątkowo drastyczna tortura opisana w średniowiecznych poematach i sagach, rzeczywiście była stosowana. Mowa tutaj o „krwawym orle” (blóðǫrn), spopularyzowanym ostatnio w kulturze masowej przez gry i filmy. Początkowo, na podstawie licznych nordyckich źródeł, uznawano, że rytuał „krwawego orła” był praktykowany. Jednak od lat kolejni naukowcy kwestionują autentyczność dawnych przekazów. Autorzy najnowszych badań, specjalista od historii wikingów dr Luke John Murphy z Uniwersytetu Islandzkiego oraz naukowcy z Wydziału Medycyny Keele University,  profesor anatomii Peter L.T. Willan, Heidi R. Fuller i Monta A. Gates, postanowili przekonać się, czy wykonanie „krwawego orła” na żywym człowieku w ogóle jest możliwe. Badacze wykorzystali dziewięć tekstów, osiem w języku staronordyckim i jeden łaciński (Gesta Danorum), pochodzących z XI-XIII wieku. Znajdziemy w nich opisy tortur i egzekucji za pomocą „krwawego orła” czterech osób: syna króla Haralda Pięknowłosego Halfdana Długonogiego, króla Elli z Northumbrii, Lyngviego Hundingssona oraz Brúsiego z Sauðey. Źródła nie są zgodne co do tego, jak przebiegał „krwawy orzeł”. Ze wszystkich dowiadujemy się, że ofiary zostały schwytane w czasie konfliktu zbrojnego, a na ich plecach wycięto orła. Z trzech tekstów – Knútsdrápa, Ragnars saga loðbrókar i Reginsmál – nie dowiadujemy się niczego ponad to, że ofiary wkrótce zmarły. Z kolei w Gesta Danorum czytamy, że po wycięciu kształtu, który z grubsza przypominał orła, rany ofiar posypano solą. Z pięciu kolejnych źródeł – Haralds saga ins hárfagra, Orkneyinga saga, Orms þáttr Stórólfssonar, Norna-Gests þáttr oraz Ragnarssona þáttr – dowiadujemy się, że żebra ofiar odcięto od kręgosłupa, rozciągnięto tak, by przypominały skrzydła, a następnie wyjęto płuca. Opisy te sugerują, że „krwawy orzeł” nie polegał na wycięciu kształtu ptaka na skórze, ale na uformowaniu ciała ofiary. Powstaje pytanie – i na tym skupiali się dotychczas badacze tego zagadnienia – skąd bierze się różnica w opisach. Być może we wcześniejszych tekstach nie było potrzeby szczegółowego opisu całej procedury, gdyż współcześni autorom wiedzieli, jak ona wyglądała, albo też autorzy byli ograniczeni stylem, wymogami artystycznymi czy innymi czynnikami. Jest też możliwe, że pojawiające się w późniejszych tekstach szczegółowe opisy tortury są spowodowane chęcią wywołania sensacji, przyciągnięcia uwagi czytelnika, nieprawidłowym odczytaniem tekstów wcześniejszych czy zwykłym wymysłem autorów. Rozstrzygnięcia sporu nie ułatwia fakt, że najczęściej dysponujemy kopiami tekstów starszych o kilkadziesiąt lub kilkaset lat, a jakby tego było mało, teksty te opisywały wydarzenia jeszcze wcześniejsze, których ich autorzy nie mogli być świadkami. Murphy, Willan, Fuller i Gates postanowili skupić się na anatomicznej stronie wykonalności tortury. Nie próbowaliśmy rozstrzygnąć, czy „krwawy orzeł” miał miejsce w epoce wikingów, ale czy mógł mieć miejsce, piszą autorzy badań. Uczeni zauważają, że istnieją trzy poważne anatomiczne problemy, które należałoby pokonać, by wykonać blóðǫrn, szczególnie na żywej ofierze. Pierwsze z nich to szybkie usunięcie skóry i mięśni, co byłoby konieczne, żeby odciąć żebra od kręgosłupa i je rozciągnąć. Problem drugi to negatywny wpływ otwarcia klatki piersiowej zarówno na integralność ważnych naczyń krwionośnych, jak i na utrzymanie odpowiedniego ciśnienia, by płuca mogły być wciąż wypełnione powietrzem. W niektórych opisach „krwawego orła” autorzy twierdzą, że po wykonaniu „skrzydeł” z żeber ofiary wciąż oddychały. Ostatnim wyzwaniem byłoby samo rozciągnięcie żeber i wyjęcie płuc. Naukowcy doszli do wniosku, że z anatomicznego punktu widzenia wykonanie blóðǫrn narzędziami dostępnymi wikingom było możliwe. Jednak ofiara już na wczesnych etapach tortury zmarłaby z powodu wykrwawienia bądź uduszenia. Tym samym, pełne wykonanie „krwawego orła” można by przeprowadzić wyłącznie na zwłokach. Uczeni dodają, że nie wiadomo, czy do rytualnego uznania, że „krwawy orzeł” został wykonany, konieczne było przeprowadzenie wszystkich etapów tortury. Porównywalne dowody z epoki wikingów sugerują, że stosowali oni spektakularne okaleczanie ciał przed i po śmierci, w tym brutalne zrytualizowane egzekucje. Tym samym nie można wykluczyć, że „krwawy orzeł” był jedną z takich praktyk. « powrót do artykułu
  2. W połowie grudnia podczas wykopalisk ratowniczych w Werii odkryto niedokończoną marmurową rzeźbę z epoki hellenistycznej. Metrowej figurze brakuje głowy. Przez lewe ramię postaci przerzucona jest peleryna. Atletyczna budowa odpowiada sposobom przedstawiania Apolla bądź Hermesa. Rzeźba wyszła spod dłuta utalentowanego artysty, który z jakiegoś powodu nie skończył swojego dzieła. Dzięki temu naukowcy będą mogli zbadać nie tylko styl, ale i techniki wytwarzania takich figur - kopii bądź swobodniejszych interpretacji. Wykopaliska na stanowisku są kontynuowane. Odkrycia dokonali archeolodzy z Eforatu Starożytności Imatii. Posąg pochodzi z okresu hellenistycznego, gdy pod rządami dynastii Antygonidów Weria przeżywała szczyt swojego rozwoju, stając się najważniejszym miastem Związku Macedończyków. Znalezisko jest istotne z punktu widzenia analizy rozwoju stylu, ale przede wszystkim techniki rzeźbiarskiej. Dzieło z okresu rządu Antygonidów (IV-II w. p.n.e.) nosi bowiem wiele cech, które później w pełni rozwinęły się za rządów rzymskich dynastii Antoninów (lata 96–192) czy szczególnie rozmiłowanych w okresie hellenistycznym Sewerów (l. 193–235). « powrót do artykułu
  3. Nowa technika szczepienie może zwiększyć produkcję roślinną i wyeliminować wiele chorób wśród najbardziej zagrożonych roślin uprawnych, takich jak bananowce czy palmy daktylowe. Po raz pierwszy udało się zastosować ją u jednoliściennych, grupy, do której należą tak ważne rośliny jak owies czy pszenica. Szczepienie roślin stosuje się od tysiącleci w celu uszlachetniania roślin uprawnych i ochrony ich przed chorobami. Zabieg ten polega na połączeniu zrazu – części rośliny szlachetnej – z podkładką, czyli formą dziką. W ten sztuczny sposób łączy się odrębne rośliny i powstaje nowy organizm mający cechy obu. Dotychczas jednak szczepienia nie udało się stosować w przypadku roślin jednoliściennych. Nie wytwarzają one bowiem kambium (miazgi twórczej), niezbędnej do tego, by zraz mógł przyjąć się na podkładce. Dokonaliśmy czegoś, co dotychczas uznawane było za niemożliwe. Szczepienie roślinnych tkanek zarodkowych niesie ze sobą olbrzymi potencjał. Odkryliśmy, że nawet daleko spokrewnione rośliny nadają się do szczepienia w ten sposób, mówi profesor Julian Hibberd z University of Cambridge. Opisana na łamach Nature technika pozwala na efektywne szczepienie jednoliściennych. Testy wykazały, że w ten sposób można szczepić m.in. ananasy, badany, cebule, agawę i palmę daktylową. Czytałem specjalistyczne artykuły dotyczące szczepienia, które ukazały się w ostatnich dekadach, i wszyscy ich autorzy zgodnie twierdzili, że nie można szczepić roślin jednoliściennych. Przez lata uparcie tego próbowałem i w końcu udowodniłem, że badacze się mylili, mówi główny autor odkrycia, doktor Greg Reeves z University of Cambridge. Dzięki pracy Reevesa możliwe będzie stworzenie odmian roślin uprawnych bardziej odpornych na choroby czy zdolnych do wzrostu w na zasolonych glebach. Na nowej technice z pewnością skorzystają producenci bananów. Obecnie światowa produkcja jest zdominowana przez odmianę Cavendish, gdyż owoce te dobrze znoszą transport długodystansowy. Jednak brak zróżnicowania genetycznego powoduje, że uprawy bananów na całym świecie są narażone na choroby. Od dziesięcioleci uprawom bananów na całym świecie zagraża grzybiczna choroba panamska. Prace naukowców z University of Cambridge dają nadzieję na ocalenie tego ważnego źródła pożywienia. To wspaniała wiadomość, mówi doktor Louise Sutherland z Ceres Agri-Tech. Procedury szczepienia nie uda się jednak zastosować w rozsądny sposób w przypadku wszystkich jednoliściennych, w tym bardzo ważnych zbóż, jak pszenica czy owies. W ich przypadku trzeba by ją powtórzyć miliony razy, by uzyskać pojedynczy zbiór. Jednak nowa technika znajdzie zastosowanie w przypadku dużych długo żyjących roślin, jak bananowce, palmy daktylowe czy agawa. W ich przypadku szczepienie pojedynczych roślin ma sens. « powrót do artykułu
  4. Najnowsze analizy DNA ujawniły, że pod koniec epoki brązu doszło do wielkiej migracji na Wyspy Brytyjskie. To w jej czasie mogły tam ostatecznie trafić języki celtyckie. Dotychczas wiedzieliśmy o dwóch dużych migracjach na Wyspy. Teraz naukowcy odkryli trzeci podobny epizod. Pierwsza migracja miała miejsce około 6000 lat temu. Wówczas przybyszami byli głównie wcześni rolnicy europejscy (EEF – Early European Farmers), a około 20% migrantów stanowili zachodnioeuropejscy łowcy-zbieracze (WHG – Western Hunter-Gatherer). Migranci ci zastąpili większość rodzimej populacji łowców-zbieraczy. Przed około 4500 lat, na początku epoki brązu, doszło do migracji potomków pasterzy ze stepu pontyjsko-kaspoijskiego. Z czasem ich materiał genetyczny zastąpił co najmniej 90% materiału genetycznego wcześniejszej ludności Szkocji, Anglii i Walii. Jednak badania genetyczne współczesnych mieszkańców Wysp pokazują, że mają oni więcej wspólnego z EEF, czyli przedstawicielami pierwszej ze wspomnianych fal migracji, niż mieli ludzie żyjący w początkowym okresie epoki brązu. To zaś sugerowało istnienie trzeciej, nieznanej, fali migracji. Naukowcy z University of York, Harvard Medical School i Uniwersytetu Wiedeńskiego przeprowadzili największą na Wyspach Brytyjskich analizę DNA epoki brązu. Wykazali, że w okresie pomiędzy rokiem 1300 a 800 przed naszą erą doszło do migracji, która odpowiada obecnie za około połowę materiału genetycznego współczesnych mieszkańców. Badania genetyczne i dowody archeologiczne wskazują, że nie była to pojedyncza wielka fala migracji czy brutalna inwazja, a cała seria kontaktów, w ramach których na Wyspy przybywali kupcy, przenosiły się grupy rodzinne czy dochodziło do małżeństw między mieszkańcami Wysp i kontynentu. Na lata 1000–875 p.n.e. przypada proces wyraźnie zauważalnej zmiany składu genetycznego populacji zamieszkującej południe Wysp. Autorzy badań zastrzegają, że na razie nie są w stanie z całą pewnością wskazać miejsca pochodzenia migrantów, jednak najprawdopodobniej byli to ludzie zamieszkujący tereny obecnej Francji. Od połowy do końca epoki brązu na całym południu Wysp Brytyjskich trwa przemieszczenie się rolników, rozwijają się szlaki handlowe, którymi transportowane są rudy metali. Szlaki te łączą Wyspy z resztą Europy, co możemy obserwować dzięki badaniom znajdowanych na stanowiskach archeologicznych przedmiotów z brązu i rud. Od dawna podejrzewaliśmy, bazując na tym, co wiemy z odtworzonych szlaków handlowych i wymiany idei, że od połowy do późnej epoki brązu dochodziło do intensywnych kontaktów pomiędzy ludnością Wysp Brytyjskich i Europy. Jednak dotychczas sądziliśmy, że kontakty te ograniczały się do niewielkiej liczby kupców i małych grup wojowników. Nowe dowody DNA wskazują, że przemieszczała się znacząca liczba osób ze wszystkich warstw społecznych, mówi główny autor badań, profesor Ian Armit z University of York. Jedne z najwcześniejszych dowodów na tę nieznaną dotychczas migrację pochodzą z Kent, co sugeruje, że południowy-wschód Wysp Brytyjskich był głównym celem migrantów z kontynentu. To zaś zgadza się ze wcześniej zdobytymi dowodami, jak np. analiza składu izotopowego ludzkich szczątków ze stanowiska Cliffs End Farm, kiedy to wykazano, że niektóre z pochowanych tam osób spędziły dzieciństwo na kontynencie. Nowe badania mogą tez dać odpowiedzieć na pytanie o pojawienie się języków celtyckich na Wyspach. Znacząco wzmacniają one bowiem hipotezę mówiącą, że języki te pojawiły się na terenie dzisiejszej Wielkiej Brytanii w epoce brązu. Dotychczas przeważało przekonanie, że językami celtyckimi zaczęto mówić tam w epoce żelaza. Jednak autorzy nowych badań znaleźli dowody na nieliczne większe epizody migracji na Wyspy w tym czasie. Badania te nie rozstrzygają ostatecznie pytania o pochodzenie języków celtyckich w Brytanii. Jednak każdy rozsądny naukowiec będzie musiał teraz wziąć je pod uwagę i zastanowić się, co się wówczas wydarzyło. Uzyskane przez nas wyniki wzmacniają argumenty przeciwko hipotezie „celtyckie ze wschodu”, czyli rozpowszechnieniu się języków celtyckich na Wyspach dopiero w epoce żelaza. A zwiększają prawdopodobieństwo, że prawdziwy jest rzadko brany pod uwagę scenariusz „celtyckie z centrum”, mówiący o przybyciu tych języków w późnej epoce brązu z terenu Francji, dodaje profesor David Reich z Harvard Medical School. Badacze dokonali też jeszcze jednego niespodziewanego odkrycia. Okazało się, że w epoce brązu na Wyspach Brytyjskich doszło do znacznie większego niż na kontynencie rozprzestrzenienia się wersji genów pozwalających na trawienie laktozy. W późnej epoce brązu i epoce żelaza ilość odsetek takich genów wśród ludności Wysp zwiększył się 12-krotnie, podczas gdy w Centralnej i Zachodniej Europie widzimy 3,5-krotny wzrost, mówi profesor Ron Pinhasi z Uniwersytetu Wiedeńskiego. Zdaniem uczonego, wskazuje to, że produkty mleczne były – z ekonomicznego i kulturowego punktu widzenia – w różny sposób traktowane na Wyspach i na kontynencie. To okres, gdy tolerancja laktozy szybko rozpowszechnia się w na Wyspach Brytyjskich, ale nie na kontynencie, dodaje Pinhasi. Ze szczegółami badań możemy zapoznać się w artykule Large-scale migration into Britain during the Middle to Late Bronze Age opublikowanym na łamach Nature. « powrót do artykułu
  5. Teleskop Kosmiczny Jamesa Webba wystartował z kosmodromu w Gujanie Francuskiej. Doszło do udanego oddzielenia się górnego członu rakiety nośnej. Następnie Webb rozwinął własne panele słoneczne i zaczął pozyskiwać energię na własne potrzeby. Kontrola naziemna misji informuje, że teleskop jest zorientowany w odpowiedni sposób w stosunku do Słońca. Sześć kół zamachowych odpowiedzialnych za kontrolę położenia teleskopu jest prawidłowo zasilanych i utrzymują teleskop w prawidłowym położeniu. Dzięki temu wielka osłona przeciwsłoneczna, która całkowicie rozłoży się w ciągu najbliższych kilku dni, będzie w stanie ochronić JWST przed promieniowaniem słonecznym i ciepłem. Obecnie Teleskop zmierza w kierunku znajdującego się 1,5 miliona kilometrów od Ziemi punktu libracyjnego L2, gdzie wokół którego będzie krążył przez kolejne lata. Dotrze tam za miesiąc. Za około 10 godzin Webba czeka kolejny ważny krok w jego podróży – uruchomienie i korekta kursu. « powrót do artykułu
  6. Dzisiaj pomiędzy godziną 13:20 a 13:52 czasu polskiego ma odbyć się start rakiety Ariane 5, która wyniesie Teleskop Kosmiczny Jamesa Webba (JWST). Będzie to największy w historii i najważniejszy od 31 lat, od czasu wystrzelenia Teleskopu Hubble'a, instrument naukowy umieszczony przez człowieka w przestrzeni kosmicznej. Wbrew powszechnemu mniemaniu Teleskop Webba nie ma zastąpić Hubble'a, a go uzupełnić. Naukowcy na całym świecie wiążą olbrzymie oczekiwania z obserwatorium, w którego powstanie – obok NASA – zaangażowane są Europejska Agencja Kosmiczna i Kanadyjska Agencja Kosmiczna. Start niezwykłego teleskopu można śledzić na żywo na kanale NASA na YouTube Jak to się zaczęło... NASA myślała o tym, co po Hubble'u jeszcze zanim teleskop ten trafił w przestrzeń kosmiczną. Podobnie zresztą jest i teraz, gdyż opracowywane są koncepcje kolejnych po JWST teleskopów kosmicznych. Wkrótce po wystrzeleniu Hubble'a okazało się, że instrument nie pracuje jak powinien. Przyspieszono więc planowanie kolejnego teleskopu kosmicznego. Później odbyła się słynna misja naprawcza do Hubble'a, a gdy teleskop dostarczył pierwszych zdjęć po naprawie, wszyscy oniemieliśmy. Zachwycone były i opinia publiczna, i międzynarodowa społeczność naukowa, i NASA. Na bazie tego sukcesu i powszechnego entuzjazmu NASA i współpracujący z nią specjaliści zaczęli opracowywać koncepcję teleskopu pracującego w podczerwieni. Taki teleskop mógłby zajrzeć w przestrzeń kosmiczną znacznie dalej niż Hubble. Mógłby zobaczyć światło pierwszych galaktyk. Pracujący głównie w świetle widzialnym Hubble nie ma takich możliwości, gdyż – jako „gorący” teleskop – jest oślepiany ciepłem generowanym przez własne instrumenty naukowe. Teleskop działający głównie w podczerwieni musi zaś być teleskopem „zimnym”. Początki koncepcji JWST sięgają 1996 roku. Wówczas projekt był nazywany Next Generation Space Telescope. W 2002 roku, na kolejnym etapie rozwoju, przemianowano go na Teleskop Kosmiczny Jamesa Webba (James Webb Space Telescope), od nazwiska drugiego dyrektora NASA, który zarządzał agencją w czasie programu Apollo i za którego kadencji działalność naukowa stała się główną działalnością NASA. Jeszcze na początku 2005 roku planowano, że JWST zostanie wystrzelony w 2011 roku. Jednak w sierpniu 2005 dokonano rewizji planów, wyznaczono datę startu na rok 2013, a koszty oszacowano na 4,5 miliarda USD, z czego 3,5 miliarda miały pochłonąć prace projektowo-badawcze, budowa teleskopu i jego wystrzelenie, a kolejny 1 miliard do koszt jego 10-letniej pracy na orbicie. W roku 2010 uznano, że JWST zostanie wystrzelony w 2015 roku, z możliwością przesunięcia startu na nie później niż rok 2018. Trzy lata później wiedziano już, że całkowity koszt teleskopu i jego misji wyniesie co najmniej 8,8 miliarda USD. Ostatni element JWST został wyprodukowany w listopadzie 2016 roku. Rozpoczęto intensywne testy. W marcu 2018 podczas próbnego montażu doszło do rozdarcia osłony przeciwsłonecznej teleskopu, okazało się też, że jej konstrukcja nie jest wystarczająco mocna. Start przesunięto na rok 2020. Jednak już w czerwcu 2018 roku powołana przez NASA Independent Review Board, której celem była ocena postępów prac nad teleskopem, zaleciła przesunięci startu na 30 czerwca 2021. W swoim raporcie IRB stwierdzała, że że 29-miesięczne opóźnienie pomiędzy październikiem 2018 a marcem 2021 wynika z pięciu czynników: ludzkich błędów, problemów niejako automatycznie wbudowanych w taki projekt, złożoność systemu, zbytni optymizm oraz brak doświadczenia w kluczowych obszarach, takich jak np. budowa osłony przed Słońcem. Wśród najważniejszych błędów popełnionych przez ludzi wymieniono m.in. umycie zaworów niewłaściwym rozpuszczalnikiem, błędy w uzwojeniu przetworników ciśnieniowych oraz niewłaściwe zainstalowanie elementów montażowych osłony słonecznej przed jej kluczowym testem. Wszystkie tego typu drobne błędy spowodowały opóźnienie o 1,5 roku i zwiększyły koszty o około 600 milionów dolarów. Cały teleskop został ostatecznie złożony 29 sierpnia 2019 roku. Wcześniej licznym wymagającym testom były poddawane jego poszczególne elementy. Po złożeniu czekały go kolejne testy. W końcu 21 grudnia 2020 roku osłona termiczna, co do której było najwięcej zastrzeżeń, przeszła ostatnie testy pełnego rozwinięcia i zwinięcia, a w marcu bieżącego roku zakończono ostatnie testy układów elektrycznych i komunikacyjnych. Pod koniec września JWST wyruszył w dwutygodniową drogę do Gujany Francuskiej, skąd zostanie wystrzelony. Ostateczny budżet JWST to niemal 10 miliardów dolarów. Zadania Główne obszary badawcze, którymi zajmie się Webb można podzielić na cztery kategorie: Koniec wieków ciemnych: pierwsze światło i epoka rejonizacji Przez około 380 000 lat po Wielkim Wybuchu wszechświat był całkowicie nieprzezroczysty. Tworzyła go mieszanina gorących cząstek. W miarę jak się schładzał protony i neutrony zaczęły łączyć się w zjonizowane atomy wodoru oraz nieco helu. Atomy te zaczęły przyciągać elektrony. Wszechświat stał się przezroczysty i światło mogło w nim swobodnie się przemieszczać. A raczej mogłoby, gdyby istniały jakieś jego źródła. Obecnie nie wiemy jak wyglądały pierwsze gwiazdy, ani kiedy powstały. To jedne z pytań, na które ma odpowiedzieć Webb. I właśnie dlatego, że chcemy zobaczyć pierwsze gwiazdy, JWST musi pracować w podczerwieni. Rozszerzanie się wszechświata powoduje, że zwiększa się odległość między obiektami. A im większa odległość dzieli źródło fali (np. gwiazdę) od jej odbiorcy, tym bardziej zwiększa się długość fali docierającej do odbiorcy. W przypadku światła mamy do czynienia ze zjawiskiem przesunięcia ku podczerwieni, gdyż podczerwień ma większą długość fali niż światło widzialne. Im dalej od nas w przestrzeni kosmicznej znajduje się świecący obiekt, tym bardziej czerwony się wydaje. Podobne zjawisko łatwo możemy zaobserwować na Ziemi odnośnie dźwięku. Wystarczy, że wsłuchamy się w syrenę jadącej w naszym kierunku karetki i zwrócimy uwagę, jak dźwięk zmienia się, gdy pojazd się do nas zbliża oraz gdy nas minie i się oddala. Aby znaleźć pierwsze galaktyki Webb będzie musiał przeprowadzić badania w bliskiej podczerwieni, za którymi pójdą spektroskopia o niskiej rozdzielczości i fotometria w średniej podczerwieni. Do przyjrzenia się epoce rejonizacji konieczna będzie zaś wysokorozdzielcza spektroskopia w bliskiej podczerwieni. Zanim jednak doszło do rejonizacji, nastąpiła era rekombinacji. Trwała ona od 240 do 300 tysięcy lat po Wielkim Wybuchu. Wtedy to protony i neutrony zaczęły łączyć się w zjonizowane atomy wodoru i deuteru. Deuter utworzył później hel-4. Pierwiastki te zaczęły przyciągać elektrony, które uczyniły z nich obojętne atomy. W tym momencie wszechświat składał się z 3-krotnie większej ilości wodoru niż helu. I stał się przezroczysty. Epoka rekombinacji to najwcześniejszy okres istnienia wszechświata, który może obserwować za pomocą jakiejkolwiek formy światła. Satelity COBE i WAMP rejestrują obecnie mikrofalowe promieniowanie tła z tego okresu. Po epoce rekombinacji nastąpiły wieki ciemne, które zakończyła epoka rejonizacji. Wedle obowiązujących obecnie teorii pierwsze gwiazdy były od 30 do 300 razy bardziej masywne od Słońca, istniały zaledwie kilka milionów lat, a ich żywot kończył się eksplozją supernowej. Potężne promieniowanie ultrafioletowe z tych pierwszych gwiazd jonizowało wodór wypełniających wszechświat. Epoka ta miała kluczowe znaczenie dla późniejszego formowania się większych obiektów, jak galaktyki. Dlatego też naukowcy chcieliby przyjrzeć się pierwszym gwiazdom, by lepiej zrozumieć, ja powstał wszechświat znany nam obecnie. Ponadto pierwsze gwiazdy mogły też tworzyć pierwsze czarne dziury. Te czarne dziury mogły z czasem wchłaniać materię i łączyć się ze sobą, tworząc supermasywne czarne dziury, obecnie w centrum niemal wszystkich masywnych galaktyk. Tworzenie się galaktyk Aby zrozumieć naturę i historię wszechświata, musimy zrozumieć jak zorganizowana jest w nim materia i jak organizacja ta zmieniała się przez miliardy lat. Naukowcy badają to zagadnienie zarówno w skali galaktyk, jak i cząstek subatomowych. Każda z tych skal niesie ze sobą niezwykle istotne informacje. Zachwycając się pięknymi zdjęciami wykonanymi przez Hubble'a musimy pamiętać, że galaktyki i inne struktury w przestrzeni kosmiczne nie zawsze wyglądały w ten sposób. Wielkie galaktyki spiralne tworzyły się przez miliardy lat w różnych złożonych procesach, również zderzając się między sobą i się łącząc. Podobne zjawiska zachodziły w przypadku olbrzymich galaktyk eliptycznych. Gdy jednak spojrzymy głęboko w przestrzeń kosmiczną zobaczymy zupełnie inny obraz. Obecnie naukowcy sądzą, że od czasu, gdy wszechświat ukończył 6 miliardów lat, niemal wszystkie masywne galaktyki doświadczyły przynajmniej jednego znaczącego połączenia się z inną galaktyką. Dlatego też gdy zajrzymy dalej w czasie zobaczymy wiele małych galaktyk „posklejanych” z jeszcze mniejszych elementów z wieloma obszarami gwiazdotwórczymi. JWST ma pomóc w odpowiedzi na pytanie, jak z takich niedużych zlepków galaktycznych, powstały dzisiejsze imponujące rozmiarami i wyglądem struktury. Teleskop Webba ma zobaczyć pierwsze galaktyki, dzięki czemu naukowcy mają nadzieję dowiedzieć się jak galaktyki rosły i ewoluowały. Zobaczą też, jak wyglądały pierwsze gwiazdy i poznają ich rodzaje. A dzięki tym obserwacjom dowiemy się, jak powstawały pierwiastki cięższe niż wodór i hel. Współczesne modele komputerowe wskazują, że do tworzenia się galaktyk dochodzi, gdy łączy się ze sobą ciemna materia. To niewidzialna forma materii, której masa we wszechświecie jest pięciokrotnie większa niż materii widzialnej. To ona tworzy „rusztowanie” wszechświata. Sposób, w jaki łączy się ona ze sobą wpływa na formowanie się widocznych struktur w kosmosie. A większe struktury z widocznej materii wpływają z kolei na powstawanie i ewolucję gwiazd. Naukowcy uważają, że to interakcja pomiędzy gwiazdami, galaktykami a ciemną materią stworzyła wszechświat w takiej formie, w jakiej go obecnie widzimy. Ewolucja i formowanie się galaktyk trwają do dzisiaj. Znamy wiele przykładów zderzających się galaktyk. Wiemy też, że taka kolizja czeka w przyszłości Drogę Mleczną. W naszym kierunku zbliża się bowiem galaktyka Andromedy i za miliardy lat dojdzie do zderzenia. Narodziny gwiazd i układów protoplanetarnych Jednym z najbardziej spektakularnych zdjęć wykonanych przez Hubble'a jest fotografia Filarów Stworzenia. W Filarach znajdują się gwiazdy, które nie na wszystkich zdjęciach są widoczne. Teleskop Hubble'a jest bowiem zoptymalizowany pod kątem pracy w świetle widzialnym, a światło to jest blokowane przez pył tworzący filary. Dopiero gdy pracuje w trybie bliskiej podczerwieni, możemy dostrzec gwiazdy ukryte w pyle.  Obecnie możemy sobie tylko wyobrażać, jak wspaniałe zdjęcie Filarów wykona Webb, który jest wyspecjalizowany w pracy w bliskiej podczerwieni i jest 100-krotnie potężniejszy niż Hubble. Webb, dzięki temu, że pracuje w podczerwieni, rejestrując ciepło emitowane z różnych źródeł, pokaże nam to, co obecnie ukryte jest przed naszym wzrokiem za chmurami pyłu. Dostarczy też lepszych obrazów dysków protoplanetarnych, chmur gazu i pyłu wokół młodych gwiazd. Chmur, w których formują się planety. Teleskop ten jest tak potężny, że powinien pokazać i proces tworzenia się planet i pozwoli obserwować molekuły niezbędne do powstania życia. Ludzkość obserwuje i bada gwiazdy od tysięcy lat. Jednak dopiero w ostatnich dziesięcioleciach zaczęliśmy poznawać wiele z ich tajemnic. Jeszcze 100 lat temu nie wiedzieliśmy, że w gwiazdach zachodzi fuzja jądrowa, a o tym, że we wszechświecie ciągle powstają nowe gwiazdy przekonaliśmy się mniej niż 50 lat temu. Wciąż nie wiemy, w jaki sposób chmury pyłu i gazu stają się gwiazdami, nie wiemy, dlaczego większość gwiazd powstaje w obszarach gwiazdotwórczych, ani jak dokładnie tworzą się układy planetarne. Chcielibyśmy dokładnie poznać proces tworzenia się cięższych niż wodór czy hel pierwiastków. Kolejne obserwacje gwiazd i planet udoskonalają naszą wiedzę, pozwalają naukowcom zmieniać, poprawiać i tworzyć nowe hipotezy oraz teorie. Jednak, żeby naprawdę zrozumieć w jaki sposób powstały planety czy gwiazdy, potrzebujemy większej liczby dokładniejszych obserwacji tych obiektów na różnych etapach ich ewolucji. Przede wszystkim zaś potrzebujemy obserwacji młodych gwiazd i dopiero tworzących się układów planetarnych. Układy planetarne i początki życia Dotychczas odkryliśmy tysiące planet poza Układem Słonecznym, a dzięki rozwijającej się wiedzy i coraz lepszej technice, naukowcy potrafią znajdować coraz mniejsze planety, coraz bardziej podobne do Ziemi. Okazało się, że wszechświat jest pełen planet. Do zrozumienia Ziemi i życia potrzebna nam jest wiedza o powstawaniu i ewolucji planet. Wciąż nie wiemy, czy wszystkie planety w układach planetarnych formują się w miejscach, w których je widzimy, czy też powstają na obrzeżach układów i z czasem przemieszczają się bliżej gwiazdy. Nie wiemy, w jaki sposób osiągają ostateczną orbitę,ani jak wielkie planety wpływają na te mniejsze. W Układzie Słonecznym są pozostałości po czasach, gdy się on formował. Teleskop Webba pozwoli nam obserwować układy planetarne znacznie młodsze od naszego, dzięki temu będziemy mogli porównać to, co widać tam, z tym, co widzimy tutaj. Zbadamy skład dysków protoplanetarnych, będziemy mogli bezpośrednio porównać warunki panujące w różnych układach. Jednym z głównych zadań Teleskopu Kosmicznego Jamesa Webba będzie badanie atmosfer planet pozasłonecznych. Webb będzie szukał w nich sygnatur elementów potrzebnych do istnienia życia. Wykorzysta w tym celu spektroskopię, technikę pomiaru intensywności światła o różnych długościach fali. Gdy planeta przechodzi na tle swojej gwiazdy, światło gwiazdy przenika przez jej atmosferę. Różne pierwiastki w różny sposób reagują na światło, absorbując fotony o konkretnej energii. Badając całe spektrum światła i znajdując miejsca, w których doszło do absorpcji fotonów, naukowcy są w stanie określi pierwiastki obecne w atmosferze, zatem zbadać jej budowę. A jako, że w podczerwieni można zaobserwować najwięcej takich specjalnych cech spektrum światła, JWST świetnie nadaje się do obserwacji tego typu. Ostatecznym celem jest znalezienie planety o atmosferze podobnej do ziemskiej. Jednak Webb nie ma badać wyłącznie egzoplanet, gwiazd i galaktyk. Naukowcy chcą dzięki niemu dowiedzieć się więcej o samym Układzie Słonecznym. Dlatego też teleskop będzie obserwował Marsa i wielkie planety, pomoże w badaniach Plutona, Eris, asteroid, komet czy obiektów z Pasa Kuipera. Pozwoli na zweryfikowanie i poszerzenie naszej wiedzy, którą zdobyliśmy dotychczas dzięki marsjańskim łazikom czy sondom wysyłanym w dalekie zakątki Układu Słonecznego. Jak on to zrobi Teleskop Kosmiczny Jamesa Webba zbudowany jest z trzech zasadniczych elementów: Integrated Science Instrument Module (ISIM, Zintegrowany Moduł Instrumentów Naukowych), Optical Telescope Element (OTE, Element Optyczny Teleskopu) oraz Spacecraft Element (platforma nośna) na który składają się pojazd kosmiczny i osłona przeciwsłoneczna. W ISIM znajdują się cztery instrumenty naukowe Webba. Dane dla nich zapewniają „oczy” teleskopu czyli OTE. Osłona przeciwsłoneczna ma odseparować „gorącą” stronę Teleskopu czyli całą platformę nośną, która będzie skierowana w stronę Słońca, od strony „zimnej” czyli OTE i ISIM. Zadaniem osłony przeciwsłonecznej będzie zapewnienie jak najniższej temperatury pracy elementów optycznych i naukowych. Dlatego też ochroni je ona nie tylko od ciepła słonecznego, ale również od ciepła Ziemi i ciepła generowanego przez pojazd kosmiczny. Temperatura pracy OTE i ISIM nie może być wyższa niż -223,15 stopni Celsjusza. W samym zaś pojeździe kosmicznym znajdują się podzespoły zasilania, kontroli położenia, komunikacji, napędu, kontroli termicznej oraz dowodzenia i danych. Na moduł naukowy ISIM składają się: - NIRCam, działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona zarejestruje światło z pierwszych gwiazd i galaktyk, pokaże gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Koronografy blokują światło jasnego obiektu, uwidaczniając obiekty słabo świecące. Dzięki nim astronomowie chcą dokładnie obserwować planety krążące wokół pobliskich gwiazd i poznać ich charakterystyki. NIRCam wyposażono w dziesięć rtęciowo-kadmowo-telurkowych, które są odpowiednikami matryc CCD ze znanych nam aparatów cyfrowych. - NIRSpec to spektrograf również działający w zakresie od 0,6 do 5 mikrometrów. Spektrografy to urządzenia do rejestracji całego widma promieniowania. Analiza tego widma pozwoli naukowcom poznać wiele cech fizycznych badanego obiektu, w tym jego temperaturę, masę i skład chemiczny. Wiele z obiektów, które Webb będzie badał, jest tak słabo widocznych, że olbrzymie zwierciadło teleskopu będzie musiało prowadzić obserwacje przez setki godzin, by zebrać ilość światła wystarczającą do stworzenia całego widma. Jako, że w czasie swojej podstawowej misji, przewidzianej na 5 lat, Webb ma zbadać tysiące galaktyk, NIRSpec wyposażono w możliwość jednoczesnej obserwacji 100 obiektów. To pierwszy spektrograf o tak szerokich możliwościach wysłany w przestrzeń kosmiczną. NIRSpec wykorzystuje system mikroelektromechaniczny zwany macierzą mikromigawek. Składa się ona z wielu komórek, każda o średnicy ludzkiego włosa, których przesłony kontrolowane są indywidualnie pod wpływem pola magnetycznego. Można zatem dowolnie otwierać lub blokować widok na konkretny fragment obserwowanego nieboskłonu. Dzięki temu NIRSpec ma podobne możliwości do NIRCam, również może blokować światło z jaśniejszego obiektu, by obserwować znajdujący się obok obiekt słabiej świecący. - Mid-Infared Instrument (MIRI) składa się zarówno z kamery jak i spektrografu pracujących w średniej podczerwieni. To zakresy od 5 do 28 mikrometrów. Fal o takiej długości nasze oczy nie widzą. Ten bardzo czuły instrument zobaczy przesunięte ku czerwieni światło odległych galaktyk, tworzących się gwiazd i słabo widocznych komet. Będzie też mógł obserwować Pas Kuipera. Kamer MIRI będzie zdolna do wykonania podobnych szerokokątnych zdjęć, z jakich zasłynął Hubble. A jego spektrograf umożliwi poznanie wielu cech fizycznych odległych obiektów. MIRI korzysta z trzech macierzy czujników zbudowanych z krzemu wzbogaconych arsenem. MIRI, by ujawnić swoje niezwykłe możliwości, musi mieć zapewnioną temperaturę -266,15 stopni Celsjusza. Tutaj już nie wystarczy chłodzenie pasywne w postaci przestrzeni kosmicznej i zaawansowanej osłony termicznej. Potrzebne jest chłodzenie aktywne, za które odpowiada innowacyjny dwustopniowy układ, schładzający czujniki MIRI najpierw do -255,15, a następnie do -266,15 stopni Celsjusza. W budowę tego instrumentu brało udział europejskie konsorcjum z Europejską Agencją Kosmiczną. - Fine Guidance Sensor/Near InfraRed Imager and Slitless Spectrograph (FGS/NIRISS) dostarczony przez Kanadyjską Agencję Kosmiczną to instrument odpowiedzialny za precyzyjne pozycjonowanie Webba na wybrane obiekty, dzięki czemu teleskop będzie mógł uzyskać obrazy wysokiej jakości. FGS/NIRISS będzie odpowiedzialny za wykrycie pierwszego światła, jakie rozbłysło we wszechświecie, wykrywanie i charakteryzację egzoplanet oraz spektroskopię planet podczas ich tranzytów na tle gwiazd macierzystych. Oczami teleskopu jest OTE. To właśnie ten element będzie zbierał światło i dostarczał je do instrumentów naukowych. Najbardziej rzucającą się w oczy jego częścią jest główne zwierciadło o średnicy 6,5 metra, zbudowane z 18 heksagonalnych segmentów. Budowa tak wielkiego lustra nawet do użycia na Ziemi to poważne wyzwanie, a co co dopiero w przestrzeni kosmicznej. Nigdy wcześniej ludzkość nie wysłała w kosmos tak dużego zwierciadła. Lustro Hubble'a miało 2,4 metra średnicy. Gdyby po prostu przeskalować je do rozmiarów zwierciadła Webba, byłoby ono zbyt ciężkie, by można było je wystrzelić. Dlatego też inżynierowie musieli znaleźć inny sposób. I znaleźli. Zwierciadło Webba jest aż 10-krotnie lżejsze od zwierciadła Hubble'a w przeliczeniu na daną jednostkę powierzchni, a przy tym niezwykle wytrzymałe. Każdy z jego segmentów ma średnicę 1,32 metra i waży około 20 kilogramów, a wraz z aktuatorami i elementami montażowymi waga ta wynosi około 40 kg. Zwierciadło jest składane, gdyż musi zmieścić się do rakiety nośnej. Inżynierowie doszli do wniosku, że najlepszym kształtem segmentów będzie sześciokąt. Pozwala on bowiem na rozłożenie lustra bez występowania odstępów pomiędzy nimi oraz uzyskanie kształtu jak najbardziej zbliżonego do koła, dzięki czemu zebrane światło zostanie skupione w centralnym regionie, będzie mogło trafić do zwierciadła wtórnego o średnicy 0,74 m. Gdyby segmenty były okrągłe, po rozłożeniu powstałyby odstępy między nimi, a kwadratowe segmenty dałyby kwadratowe lustro i zbyt wiele zebranego światła trafiałoby poza obszar centralny. W przestrzeni kosmicznej zwierciadło trzeba będzie precyzyjnie nakierowywać na obserwowane niezwykle odległe obiekty. Każdy z segmentów zwierciadła głównego oraz lustro wtórne jest sterowany przez sześć aktuatorów. Działają one tak precyzyjnie, że odchylenie od zaplanowanego ustawienia segmentów wynosi nie więcej niż 1/10 000 grubości ludzkiego włosa. Webb to teleskop trójzwierciadłowy. Lustro główne jest wklęsłe, zbierające zeń światło lustro wtórne jest wypukłe, a nieruchome trzecie lustro odpowiada za korygowanie wszelkich zniekształceń obrazu powodowanych przez dwa pierwsze lustra. Zwierciadła Webba wykonano z lekkiego i wytrzymałego berylu. Materiał wybrany ze względu na swoją olbrzymią stabilność w bardzo niskich temperaturach. Nie odkształca się, co ma olbrzymie znaczenie dla jakość przekazywanego obrazu. Jako, że beryl słabo odbija światło podczerwone, lustra zostały pokryte niezwykle cienką warstwą złota, co nadaje Webbowi jego charakterystyczny wygląd. Beryl jest też niezwykle wytrzymały w stosunku do swojej wagi, jest dobrym przewodnikiem ciepła i prądu elektrycznego, a jednocześnie nie ma właściwości magnetycznych. Ochrona przed ciepłem Jako, że JWST będzie pracował głównie w podczerwieni, jego wrogiem są wszelkie źródła ciepła. Oczywiście oprócz tych obserwowany. Musi być utrzymywany w bardzo niskich temperaturach i izolowany od wpływu Słońca, Ziemi, Księżyca czy własnych nagrzewających się elementów. Za pasywne chłodzenie odpowiedzialna będzie 5-wartwowa osłona słoneczna o wymiarach 21,197x14,162 metra. Zawsze będzie się ona znajdowała pomiędzy lustrami teleskopu a Słońcem, Ziemią i Księżycem. Będzie to możliwe, gdyż Teleskop Webba zostanie umieszczony w punkcie L2, w odległości 1,5 miliona kilometrów do Ziemi. Osłona zapewni teleskopowi stabilną temperaturę pracy poniżej -223 stopni Celsjusza. Osłona wykonana jest z pięciu warstw materiału o nazwie Kapton, a każdą z warstw pokryto aluminium. Każda z nich będzie chłodniejsza niż poprzednia. Dodatkowo dwie najcieplejsze warstwy, czyli dwie pierwsze warstwy patrząc od strony Słońca, mają warstwę krzemową, dodatkowo odbijającą ciepło. Inżynierowie nie tylko precyzyjnie dobrali właściwości warstw, ale niezwykle ważny był też kształt i odległości pomiędzy warstwami. Poszczególne warstwy osłony są niezwykle cienkie. Grubość pierwszej z nich to zaledwie 0,05 mm, a każda z czterech pozostałych jest o połowę cieńsza (0,025 mm). Każda warstwa ma nieco inny kształt i inną powierzchnię. Warstwa 1. jest największa i dość płaska, warstwa 5. – najmniejsza i bardziej zakrzywiona. Różna jest też odległość pomiędzy warstwami. Najbliżej siebie są na środku osłony, najdalej na jej krawędziach, co pozwala na lepsze odprowadzanie ciepła od centralnych części teleskopu ku krawędziom. Warstwa 1. będzie nagrzewała się do temperatury nie wyższej niż ok. 110 stopni Celsjusza, a warstwa piąta nigdy nie będzie cieplejsza niż -52 stopnie C. Natomiast najniższa temperatura piątej warstwy to -237 stopni. Osłona termiczna będzie bardzo duża, a to naraża ją na przedziurawienie przez mikrometeoryty. Dlatego też wyprodukowano ją i wzmocniono specjalnymi pasami, by ograniczyć obszar zniszczeń. Jeśli w osłonie powstanie dziura, ma się ona nie powiększać. Misja Główna misja JWST – w czasie której teleskop ma wykonać wszystkie postawione przed nim zadania – została zaplanowana na pięć lat, z możliwością przedłużenia o kolejnych 5 lat. Teleskop Webba zostanie umieszczony w pobliżu punktu libracyjnego (punktu Lagrange'a) 2, znajdującego się w odległości około 1,5 miliona kilometrów do Ziemi, po stronie przeciwnej od Słońca. Punkty libracyjne to takie miejsca w układzie dwóch ciał powiązanych grawitacyjnie, w których obiekt o pomijalnie małej masie może pozostać w spoczynku w stosunku do obu tych ciał. W układach takich trzech ciał (dwa ciała i obiekt o pomijalnej masie) istnieje 5 tego typu punktów. JWST będzie krążył wokół punktu L2 będąc zwrócony zawsze od Słońca, a osłona przeciwsłoneczna zawsze będzie chroniła jego instrumenty przed ciepłem naszej gwiazdy, planety i Księżyca. Oczywiście nie będzie krążył całkowicie swobodnie. Za utrzymanie odpowiedniej orbity i pozycji odpowiedzialnych będzie 10 par silników sterujących. To właśnie ilość paliwa dostępna dla silników jest głównym elementem ograniczającym czas misji JWST. Start Teleskop Webba będzie podróżował na rakiecie Ariane 5 przez 27 minut. Po tym czasie oddzieli się od niej i dalszą podróż odbędzie samodzielnie. W 33. minucie po starcie rozwinięte zostaną panele słoneczne i teleskop zacznie wytwarzać własną energię. Od tego momentu zacznie się stopniowy wielodniowy proces rozkładania osłony słonecznej, anten i luster.  Ma on zostać zakończony w ciągu 13 dni po wystrzeleniu. Następnym etapem będzie aktywowanie i przetestowanie ruchów każdego z segmentów lustra głównego oraz lustra wtórnego. Etap ten będzie trwał od 15. do 24. dnia od startu. Natomiast 29 dni po starcie Webb rozpocznie manewr wejścia na orbitę L2. A gdy już się na niej znajdzie nastąpi etap szybkiego kontrolowanego chłodzenia instrumentów naukowych i luster. Później zaś nastąpi pięciomiesięczny okres testów i kalibrowania instrumentów oraz optyki. « powrót do artykułu
  7. Rodzinnych, szczęśliwych i spokojnych Świąt Bożego Narodzenia. Życzą Ania, Jacek i Mariusz. « powrót do artykułu
  8. Naukowcy skupieni wokół projektu COSMIC-DANCE poinformowali o odkryciu od 70 do 170 nieznanych dotychczas planet swobodnych (FFP – free-floating planet), czyli takich, które nie są powiązane z żadną gwiazdą i samotnie wędrują przez przestrzeń kosmiczną. Odkrycia dokonali w jednym z najbliższych obszarów gwiazdotwórczych, asocjacji Skorpiona-Centaura. Nie znamy natury planet swobodnych, nie wiemy, dlaczego nie są powiązane grawitacyjnie z żadną gwiazdą. Być może powstają podobnie jak gwiazdy, w wyniku kolapsu grawitacyjnego niewielkich chmur gazu. A być może formują się podobnie jak inne planety w dysku protoplanetarnym krążącym wokół gwiazd, i potem w wyniku oddziaływania jakichś sił – na przykład sąsiednich planet – zostają wyrzucone ze swojego układu planetarnego. Żeby rozwiązać tajemnicę planet swobodnych potrzebujemy dużej homogenicznej próbki takich planet. Specjaliści z COSMIC-DANCE postanowili poszukać FFP na obszarze nieboskłonu obejmującym asocjację Skorpiona-Centaura. Asocjacje gwiazd to otwarte gromady, w których gwiazdy nie są ze sobą grawitacyjnie powiązane. Znalezienie planet swobodnych w gromadach gwiazd jest bardzo trudne. Potrzebna są bardzo czułe instrumenty. Gwiazdy są dość jasne i łatwe do zauważenia. Planety zaś są tysiące razy ciemniejsze, a dodatkową trudnością jest odróżnienie planeto od gwiazd i galaktyk w tle, mówi Núria Miret Roig, która wraz z zespołem zajmowała się poszukiwaniami planet. Naukowcy połączyli dwie techniki. Przeanalizowali publicznie dostępne bazy fotografii astronomicznych oraz bazy danych, w których zamieszczono informacje o ruchu, kolorze i jasności dziesiątków milionów źródeł światła. Dane takie zostały zebrane za pomocą najlepszych dostępnych teleskopów pracujących w podczerwieni i świetle widzialnym. Dzięki wykorzystaniu ponad 80 000 obrazów i około 100 terabajtów danych zbieranych przez 20 lat członkom COSMIC-DANCE udało się zidentyfikować do 170 możliwych planet swobodnych. Okazało się, że wszystkie one znajdują się w asocjacji Skorpiona-Centaura. To, jak dotąd, największa grupa planet swobodnych zaobserwowanych bezpośrednio w pojedynczej asocjacji. Niemal podwoiliśmy liczbę znanych FFP. Ich liczba zdecydowanie przekracza liczbę planet swobodnych jaką powinniśmy zaobserwować, gdyby planety takie powstawały w wyniku kolapsu małych chmur molekularnych. To zaś wskazuje, że musi istnieć inny mechanizm ich powstawania. Na podstawie dostępnej nam wiedzy o dynamice układów planetarnych stwierdzamy, że ważnym mechanizmem powstawania planet swobodnych jest ich wyrzucanie z orbit ich gwiazd, stwierdzają naukowcy. Jeśli zagęszczenie planet swobodnych w innych regionach gwiazdotwórczych jest podobne jak w asocjacji Skorpiona-Centaura, to w całej Drodze Mlecznej mogą istnieć miliardy planet wielkości Jowisza, które nie są powiązane z gwiazdami. Jeszcze więcej może być FFP wielkości Ziemi, gdyż w układach planetarnych występują one częściej.   « powrót do artykułu
  9. Ssaki spożywające mięso są bardziej narażone na nowotwory niż ssaki roślinożerne, wynika z badań przeprowadzonych na tysiącach zwierząt z ogrodów zoologicznych. Zrozumienie, dlaczego roślinożercy są mniej narażeni na nowotwory może pomóc w opracowaniu metod ochrony ludzi przed tymi chorobami. Orsolya Vincze i jej koledzy z węgierskiego Centrum Badań Ekologicznych przeanalizowali wyniki sekcji zwłok 110 148 zwierząt ze 191 gatunków ssaków, które padły w ogrodach zoologicznych. Naukowcy chcieli oszacować ryzyko zgonu z powodu nowotworów. Okazało się, że ssaki mięsożerne są bardziej narażone na nowotwory niż ssaki, które jedzą mięso rzadko lub nigdy. Najmniej narażoną grupą były parzystokopytne, do których należą owce czy krowy. Z kolei zwierzęciem najbardziej narażonym na zgon z powodu nowotworu był niewielki australijski kowari. W 16 na 28 badanych przypadków zgonów tych zwierząt przyczyną był nowotwór. Z kolei wśród padłych 196 antylop indyjskich i 213 mar patagońskich  nie stwierdzono żadnego przypadku nowotworu. Takie wyniki podważają powszechne przekonanie, że większe dłużej żyjące zwierzęta są bardziej narażone na nowotwory, gdyż mają więcej komórek, które mogą mutować i więcej czasu, by do tych mutacji doszło. Wydaje się, że ryzyko nowotworu jest w dużej mierze związane z dietą. Badacze zastrzegają jednak, że koniecznie jest zweryfikowanie, czy zjawisko zaobserwowane wśród zwierząt z ogrodach zoologicznych dotyczy również zwierząt dziko żyjących. Dlaczego jednak jedzenie mięsa miałoby być powiązane z większym ryzykiem rozwoju nowotworów? Vincze mówi, że jedną z przyczyn mogą być wirusy znajdujące się w mięsie. Niektóre z nich mogą powodować nowotwory. Wiadomo ma przykład, że u niektórych trzymanych w niewoli lwów nowotwory pojawiły się w z powodu papillomawirusów obecnych w spożywanym przez nie mięsie krów. Inną przyczyną mogą być zanieczyszczenia. W organizmach znajdujących się wyżej w łańcuchu pokarmowym zanieczyszczeń gromadzi się więcej, przypomina Beata Ujvari z Deakin University w Australii, która również brała udział w badaniach. Ponadto, zauważa uczona, zwierzęta mięsożerne spożywają więcej tłuszczu, mniej włókien i mają mniej zróżnicowany mikrobiom jelit niż roślinożercy. A wszystkie te czynniki są powiązane, przynajmniej u ludzi, z większym ryzykiem nowotworów. Ujvari dodaje, że obserwacje ze świata zwierząt niekoniecznie muszą odnosić się też do ludzi. Mamy inny styl życia i rzadko jemy surowe mięso. Przypomina jednak, że już wcześniej badania prowadzone wśród ludzi wykazały związek pomiędzy spożywaniem mięsa a nowotworami. Obecnie nie jest jasne, dlaczego – jak się wydaje – parzystokopytne są szczególnie odporne na rozwój nowotworów. Ale naukowców szczególnie interesują antylopa indyjska i mara patagońska. Jeśli dowiemy się, dlaczego u tych gatunków nowotwory występują tak rzadko, wykorzystamy tę wiedzę, by chronić samych siebie przed nowotworami. « powrót do artykułu
  10. Od 10 grudnia do 2 lutego w Pałacu Pod Blachą przy Zamku Królewskim w Warszawie można zobaczyć największą wystawę szopek krakowskich w historii stolicy. Niemal wszystkie z 50 niezwykle fantazyjnych i kunsztownie wykonanych konstrukcji zdobyły nagrody i wyróżnienia. Nie brakuje zaskakujących form - na widza czekają szopki na łyżeczce czy w krakowskim obwarzanku. Szopki prezentowane na wystawie pochodzą ze zbiorów Muzeum Krakowa oraz z kolekcji prywatnych. W szopkach pojawiają się nie tylko postaci biblijne, ale i smok wawelski, lajkonik, pan Twardowski czy postaci z historii Polski. Tradycja budowania szopek sięga w Krakowie średniowiecza. W XIII wieku zajmowali się tym franciszkanie, a poszczególne klasztory rywalizowały ze sobą, wymyślając nowe formy i dekoracje. Z czasem szopki i towarzyszące im widowiska trafiły na miejskie ulice, ciesząc się coraz większym zainteresowaniem. W budowę szopek zaangażowali się wówczas żacy i lokalni rzemieślnicy. To zaś doprowadziło do wyodrębnienia się szopki krakowskiej, wielokondygnacyjnej budowli z wieżami i elementami charakterystycznymi dla architektury tego miasta. W XIX wieku szopkom towarzyszyły występy grup muzykantów, a twórcy najbardziej fantazyjnych szopek mogli liczyć na zaproszenie – wraz z zespołem – do domu zamożnego mieszczanina. Tym, którzy nie zostali zaproszeni, pozostał Rynek, na którym szopki były oceniane i nagradzane przez publiczność. Pierwszy formalny konkurs szopek krakowskich odbył się w 1937 roku. Powrócono do niego zaraz po wojnie. I od tej pory w każdy pierwszy czwartek grudnia budowniczowie szopek z dumą prezentują swoje dzieła przy pomniku Mickiewicza. Stamtąd barwny korowód udaje się do Muzeum Krakowa, gdzie jury wybiera najpiękniejsze szopki w kilku kategoriach. W 2018 roku tradycja ta została wpisana na Listę Niematerialnego Dziedzictwa Kulturowego UNESCO. « powrót do artykułu
  11. Ubezpieczenie na życie posiada aktualnie ok. 50% Polaków. Wybierając ten rodzaj ubezpieczenia motywuje nas albo chęć zgromadzenia funduszy na przyszłość, albo zabezpieczenia finansowego dzieci na wypadek swojej śmierci, albo stworzenie skutecznej ochrony dla swojej rodziny na wypadek różnych nieprzewidywalnych zdarzeń losowych.   Czym jest ubezpieczenie na życie? Ubezpieczenie życiowe to rodzaj umowy zawieranej pomiędzy klientem a ubezpieczycielem. W umowie zawarte są wszelkie warunki ubezpieczenia, czyli ochrony życia klienta w określonym czasie i na uzgodnioną sumę ubezpieczenia. W dokumencie znajdują się informacje, co stanie się z ową kwotą w przypadku śmierci klienta, czyli kto ostatecznie ją otrzyma. Nie tylko śmierć klienta uruchamia środki opisane w umowie, znajduje się tam również kwota, która zostaje przelana klientowi na wypadek: •    poważnej choroby •    trwałego uszczerbku na zdrowiu •    innych zdarzeń określonych umową Polisa na życie może wiązać umową klienta indywidualnego, ale też zbiorowego, gdy to pracodawca zawiera w imieniu swoich pracowników grupową polisę na życie oraz zdrowie. Zwykle obejmuje ona nie tylko samych pracowników, ale i ich rodziny. Ubezpieczenia na życie można indywidualnie poszerzać umowami dodatkowymi, jako polisy posagowe dla dziecka czy produkty łączące inwestycję z ochroną zdrowia i życia. Umowy dodatkowe do polisy na życie Podstawowa polisa na życie może być stosunkowo dowolnie poszerzana o inne produkty związane z ochroną życia i zdrowia klienta oraz jego rodziny. Dodatkowe produkty ubezpieczeniowe  https://www.ubezpieczeniaonline.pl/na-zycie/a/ubezpieczenie-na-zycie-ze-zwrotem-skladki/471.html najczęściej dotyczą sytuacji: •    zdiagnozowania poważnej choroby u osoby ubezpieczonej •    zdiagnozowania nowotworu złośliwego •    długotrwałego pobytu w szpitalu •    poważnej operacji chirurgicznej •    wypadku komunikacyjnego •    trwałego uszczerbku na zdrowiu W tego rodzaju umowach dodatkowe produkty polisy można dokupować już w trakcie trwania ochrony, którą można w miarę elastycznie poszerzać lub ograniczać.   Polisa na życie, czyli oszczędzanie i inwestowanie Na rynku ubezpieczeniowym dużą popularnością cieszą się mieszane polisy na życie, łączące ochronę życia z inwestowaniem i oszczędzaniem, w kilku opcjach: •    Jako ubezpieczenie oszczędnościowe na życie oraz dożycie, jest to polisa, która chroni przez określony czas, np. do osiągnięcia 65. roku życia, zaraz potem osoba ubezpieczona otrzymuje ustalone umową świadczenie. Dodatkowo otrzymuje ona gromadzone przez lata oszczędności, będące częścią każdej wpłacanej składki. Środki te można wykorzystać na dowolny cel. •    Jako ubezpieczenie posagowe, jest to rodzaj ubezpieczenia, który ma na celu gromadzenie środków dla dziecka. Zebrane środki, będące częścią wpłacanej składki, zostają w ustalonym momencie, np. w chwili ukończenia 25 roku życia, wypłacone. W trakcie trwania umowy, dziecko jest objęte ochroną na wypadek utraty rodzica i innych zdarzeń. •    Jako ubezpieczenie inwestycyjne, to połączenie polisy ochronnej i inwestycji. Ustalona umową część składki będzie kierowana na ochronę, a pozostała część wpłacana na fundusze inwestycyjne. « powrót do artykułu
  12. Naukowcy z Chin, Kanady i Wielkiej Brytanii poinformowali o znalezieniu jednego z najlepiej zachowanych embrionów dinozaurów. „Dziecko Yingliang” pozwala lepiej zbadać związki pomiędzy dinozaurami a ptakami. Embrion znajduje się w pozycji charakterystycznej dla współczesnych ptaków na krótko przed wykluciem się. Embrion zidentyfikowano jako należący do grupy owiraptorozaurów (jaszczur, złodziej jaj), terapodów blisko spokrewnionych z ptakami. Badający skamieniałość naukowcy zauważyli, że głowa embrionu znajduje się poniżej tułowia, kończyny są po obu jej stronach, a grzbiet jest zawinięty w kierunku szerszego końca jaja. Nigdy wcześniej nie widziano takiej pozycji u żadnego z embrionów ginozaurów. Jest ona jednak powszechna wśród współczesnych ptaków. Odkrycie oznacza, że początki takiej pozycji pojawiły się już u terapodów nie będących ptakami. Embrion ma około 27 centymetrów długości i znajduje się wewnątrz 17-centymetrowego jaja. Embriony dinozaurów to jedne z najrzadziej spotykanych skamieniałości. Większość z nich jest niekompletnych z przemieszczonymi kośćmi. Jesteśmy niezwykle podekscytowani znalezieniem „Dziecka Yingliang”. Jest ono świetnie zachowane i pozwoli nam poznać wiele tajemnic dotyczących rozwoju i reprodukcji dinozaurów, mówi główny autor artykułu, doktor Fion Waisum Ma z University of Birmingham. Uczony dodaje, że podobna pozycja „Dziecka Yingliang” i współczesnych ptasich embrionów sugeruje podobne zachowanie przed wykluciem się z jaja. „Dziecko Yingliang” liczy sobie 72–66 milionów lat. Zostało zidentyfikowane jako owiraptorozaur na podstawie czaszki. Grupa ta obejmowała upierzone terapody zamieszkujące tereny dzisiejszej Azji i Ameryki Północnej. Skamieniałość znaleziono w prefekturze Ganzhou na południu Chin w skałach z późnej kredy. Autorzy badań porównali pozycję embrionu owiraptorozaura z pozycjami embrionów innych terapodów oraz ptaków i na tej podstawie zaproponowali hipotezę, zgodnie z którą zachowanie embrionu przed wykluciem, w wyniku którego przyjął on taką pozycję nie jest unikatowe dla ptaków, ale pojawiło się najpierw wśród terapodów przed dziesiątkami, a może nawet setkami milionów lat. Interesująca jest też sama historia embrionu. Został on kupiony przez dyrektora firmy Yingliang Group, pana Lianga Liu, około roku 2000 jako przedmiot, który mógł być jajem dinozaura. Gdy po roku 2010 budowano Yingliang Stone Nature History Museum, pracownicy muzealni wybierający przedmioty na ekspozycję, zidentyfikowali go jako jajo dinozaura. Dopiero wówczas rozpoczęto badania i trafiono na sensacyjną skamieniałość. Ten embrion wewnątrz jaja to jedna z najpiękniejszych skamieniałości jakie kiedykolwiek widziałem. Mały dinozaur wygląda jak mały ptak przed wykluciem, zwinięty w jaju. To kolejny dowód wskazujący, że liczne cechy współczesnych ptaków pojawiły się u dinozaurów, mówi profesor Steve Brusatte z University of Edinburgh. « powrót do artykułu
  13. Chirurdzy z Narodowego Instytutu Onkologii w Gliwicach zoperowali 31-letniego Irakijczyka, wykładowcę na Uniwersytecie w Bagdadzie. Zespół pod kierunkiem prof. Adama Maciejewskiego przeprowadził bardzo rozległy zabieg transplantacji narządów szyi. W wyniku wcześniejszej choroby nowotworowej mężczyzna stracił krtań i nie mógł normalnie jeść, oddychać czy mówić. Historia pacjenta Jakiś czas temu, krótko po obronie doktoratu z prawa, gdy pacjent zaczynał pracę na Uniwersytecie w Bagdadzie, zdiagnozowano u niego raka krtani. Najpierw przeszedł radio- i chemioterapię w Indiach, następnie poddano go radykalnej operacji krtani. Niestety, rozwinęły się zaburzenia funkcjonowania przewodu pokarmowego. Jak wyjaśniono na stronie Instytutu, przełyk nie spełniał swojej funkcji, bo był zwężony i wytworzyła się w nim przetoka, dlatego konieczna była operacja transpozycji żołądka. Pacjent oddychał przez rurkę tracheostomijną, nie mówił i praktycznie spał na siedząco. Mógł połykać, ale cały czas się zachłystywał wskutek cofania się pokarmu z drogi pokarmowej do ust - wyjaśnił prof. Maciejewski. Chory mieszkał 4 lata w Niemczech (był tam kilka razy operowany). Z mediów społecznościowych dowiedział się, że w Gliwicach przeprowadzane są przeszczepy narządów szyi. Operacja w Gliwicach Gdy zgłosił się do Instytutu Onkologii, powiedział, że decyduje się na zabieg nawet przy niewielkiej szansie na powodzenie. Ponieważ nie miał cech choroby nowotworowej, po zakwalifikowaniu do zabiegu 20 listopada przeprowadzano u niego operację. Trwała ona aż 16 godzin. Dawcą był mężczyzna o zbliżonej posturze, wzroście i wadze; 31-latkowi przeszczepiono krtań, tchawicę, gardło, przełyk, tarczycę, przytarczyce, przednią ścianę szyi i kość gnykową. Usunięto odtwarzający gardło żołądek i przełyk szyjny. Najtrudniejsze było przygotowanie pacjenta do przeszczepu, przede wszystkim ze względu na liczne blizny na szyi po wcześniejszych zabiegach. W tych bliznach trzeba było zidentyfikować naczynia i nerwy, by móc je potem prawidłowo zespolić. Samo pobranie narządów od dawcy też nie jest łatwym etapem zabiegu, ponieważ trzeba bardzo dokładnie wypreparować wszystkie tkanki, nerwy i naczynia. Nie wydarzyło się jednak nic, co byłoby dla nas niespodzianką – podkreśla prof. Łukasz Krakowczyk. Warto dodać, że Irakijczyk jest 5. pacjentem, któremu tutejsi chirurdzy przeszczepili narządy szyi od zmarłego dawcy. Pacjentowi usunięto już rurkę tracheostomijną. Jak twierdzą lekarze, wyjątkowo szybko zaczął mówić. Ponieważ unerwienie przeszczepionych narządów i tkanek zajmuje 6-9 miesięcy, tyle należy poczekać na ostateczny efekt. Kilkumiesięczna walka o przeszczep Przez cały czas młodym Irakijczykiem opiekowała się znajoma Polka - Joanna Michalska. To do niej mężczyzna zwrócił się po obejrzeniu na YouTube'ie filmu z prof. Maciejewskim. Dla niego życie bez głosu nie miało sensu. Nie mógłby wrócić do pracy wykładowcy uniwersyteckiego, i ja to doskonale rozumiem – mówi pani Joanna. Po zakwalifikowaniu do zabiegu Michalska prowadziła w imieniu pacjenta korespondencję z Ministerstwem Zdrowia. Pierwsza decyzja Ministerstwa była co prawda odmowna, ale zawierała wskazówki, co zrobić, aby operacja się jednak odbyła. W komunikacie prasowym Narodowego Instytutu Onkologii w Gliwicach ujawniono, że koniec końców Ministerstwo Zdrowia zgodziło się pokryć koszty zabiegu. Irakijczyk podjął w Polsce studia, jest ubezpieczony w NFZ i ma PESEL. Marzy o powrocie do pracy na uczelni. Przypadek mężczyzny przedstawiono na konferencji prasowej, która odbyła się 21 grudnia. « powrót do artykułu
  14. Opisanie kontaktów ludzkich społeczności to kluczowy element badań nad obecną różnorodnością biologiczną i kulturową Homo sapiens. Analizy DNA dostarczają nam ważnych informacji na temat wymiany genetycznej pomiędzy społecznościami, nie mówią nam jednak nic na temat wymiary kulturowej. Naukowcy z Instytutu Badań nad Historią Człowieka im. Maxa Plancka postanowili przyjrzeć się temu zagadnieniu wykorzystując ozdoby ze skorup strusich jaj. Doktor Jennifer M. Miller i doktor Yiming Wang poinformowały na łamach Nature o wynikach swoich badań nad 50 000 lat kontaktów między ludzkimi społecznościami w na południu i wschodzie Afryki. Skorupy strusi to najstarsze na świecie w pełni modyfikowane ozdoby. Oznacza to, że ludzie, zamiast zadowolić się naturalnym kształtem i rozmiarem, całkowicie je przetwarzali, tworząc paciorki. Tak daleko idąca modyfikacja wiązała się z pojawieniem się różnorodnych stylów. A jako, że różne grupy i kultury opracowały własne style, śledzenie losów tych ozdób daje naukowcom wgląd w historię wymiany kulturowej. Miller i Wang stworzyły najbardziej rozbudowaną bazę danych ozdób ze skorup strusich jaj. Zawiera ona dane o ponad 1500 ozdób znalezionych na 31 stanowiskach z okresu ostatnich 50 000 lat. Stworzenie takiej bazy zajęło uczonym ponad 10 lat. Porównując całkowitą średnicę koralików, średnice otworów i grubość muszli Miller i Wang doszły do wniosku, że pomiędzy 50 a 33 tysiące lat temu ludzie w Afryce Południowej i Wschodniej tworzyli niemal identyczne ozdoby. To zaś sugeruje istnienie długodystansowych kontaktów handlowych, rozciągających się na przestrzeni 3000 kilometrów. To zaskakujące, ale widać tutaj wyraźny wzorzec. W ciągu całych 50 000 lat jest to jedyny okres, gdy cechy koralików są wszędzie takie same mówi Wang. To jednocześnie najstarsza zidentyfikowana sieć społeczna łącząca różne ludzkie grupy. Jej istnienie przypada na okres, gdy na wschodzie Afryki było szczególnie wilgotno. Sieć ta zaniknęła przed 33 tysiącami lat, a wydarzenie to zbiega się z zmianami klimatycznymi. Mniej więcej w tym samym czasie Afryka Wschodnia doświadczyła dramatycznego spadku ilości opadów, gdyż pas tropikalnych ulew przesunął się na południe. Mniej opadów oznaczało zmniejszoną produktywność roślinną oraz zmiany w dystrybucji zwierząt. Ludzie musieli się do tego dostosować. To z kolei musiało skutkować reorganizacją siedlisk ludzkich i ich rozkładu w terenie, opuszczeniem przez ludzi części z zamieszkanych dotychczas obszarów oraz zerwanie niektórych sieci społecznych. Jednocześnie zwiększona ilość opadów w regionie łączącym południe i wschód Afryki – basenie Zambezi – powodowała powodzie i prawdopodobnie stworzyła fizyczną barierę, która uniemożliwiła wymianę pomiędzy wschodem a południem. W tym okresie koraliki ze skorup strusi zanikają na południu Afryki, a ich zniknięcie zbiega się z najniższą produktywnością i najniższymi temperaturami na południu Czarnego Lądu. Mogło wówczas dojść do spadku liczebności tamtejszych populacji, a jeśli grupy społeczne stały się bardzo małe, koszt produkcji koralików mógł być dla nich zbyt duży. Koraliki pojawiają się w tym regionie dopiero ok. 19 000 lat temu, ale są znacznie mniejsze. Zmiana stylu wskazuje na długi okres izolacji, a ponowne pojawienie się koralików zbiega się ze stopniowym wzrostem opadów i temperatur w regionie. Do kolejnej takiej zmiany doszło około 2000 lat temu, gdy na południe dotarli pasterze z innych regionów Afryki. Dzięki połączeniu modeli klimatycznych, danych środowiskowych i archeologicznych mogłyśmy odkryć związek pomiędzy zmianami klimatu i wymianą kulturową, dodaje Wang. « powrót do artykułu
  15. Załoga pierwszej prywatnej misji kosmicznej pomyślnie przeszła testy medyczne i została zatwierdzona przez Multilateral Crew Operations Panel. Misja do Międzynarodowej Stacji Kosmicznej organizowana jest przez firmę Axiom Space. To ta sama firma, która ma wybudować co najmniej jeden dodatkowy moduł mieszkalny dla ISS. Misja Ax-1 będzie wyjątkowa z tego powodu, że po raz pierwszy prywatna firma – Axiom Space – zapłaci innej prywatnej firmie – SpaceX – za dostarczenie jej astronautów na MSK. Ax-1 zapisze się w historii też dlatego, że stanie się kamieniem milowym w planowanym przez NASA otwarciu ISS dla prywatnej działalności biznesowej. Przez ostatnie lata swojego istnienia stacja ma stać się platformą za pomocą której prowadzona będzie komercjalizacja niskiej orbity okołoziemskiej. Axiom planuje, że w 2024 roku podłączy do ISS własny moduł mieszkalny. Będzie to pierwszy element większej prywatnej stacji kosmicznej. Pierwsi kandydaci na prywatnych astronautów przeszli już szkolenia w centryfugach i warunkach braku grawitacji, szkolenia NOLS (kurs przetrwania w trudnych warunkach), od kilku miesięcy szkolą się też w obłudze pojazdu, którym będą lecieli oraz w pracy na Międzynarodowej Stacji Kosmicznej. W skład pierwszej prywatnej załogi kosmicznej wejdą pilot Larry Connor, dowódca Michael López-Alegría, Mark Pathy oraz Eytan Stibbe. Connor to 71-letni biznesmen działający na rynku nieruchomości i technologii. Jest pilotem akrobatycznym i kierowcą wyścigowym. Dowódca Michael López-Alegría to doświadczony astronauta. Brał udział w trzech misjach promów kosmicznych i jednej misji na Międzynarodową Stację Kosmiczną. Ma za sobą 10 spacerów w przestrzeni kosmicznej. W sumie w otwartej przestrzeni kosmicznej spędził 67 godzin i 40 minut. Lepszym wynikiem może pochwalić się tylko Anatolij Sołowiow (82 godziny, 21 minut). López-Alegría ma 63 lata. Mark Pathy to 52-letni kanadyjski przedsiębiorca, kosmiczny turysta, który za udział w misji Ax-1 zapłacił 55 milionów dolarów. Chce być drugim kanadyjskim turystą kosmicznym. Ostatni członek załogi to były izraelski pilot myśliwców, as myśliwski. W swoim czasie służył pod dowództwem Ilana Ramona, pierwszego obywatela Izraela w kosmosie. Ramon zginął w katastrofie promu Columbia. Stibbe jest jednym ze współzałożycieli Fundacji Ramona i w jej imieniu bierze udział w Ax-1. Na pokładzie ISS będzie testował różne izraelskie technologie. Misja Ax-1 zaplanowana została na luty przyszłego roku. « powrót do artykułu
  16. Po 31 latach do Muzeum Warmii i Mazur w Olsztynie wróciła ikona rosyjska z przedstawieniem Archanioła Michała. Skradziono ją z zamku w grudniu 1990 r. Ikonę ze srebrną ramą ozdobioną w technice filigranu i emalii datuje się na II poł. XVI w. Jak podkreślono w komunikacie Muzeum, jest to pierwszy zwrot skradzionego dzieła sztuki na podstawie przepisów Dyrektywy Parlamentu Europejskiego i Rady, przy którym wykorzystano system informacji o rynku wewnętrznym Unii Europejskiej, tzw. system IMI. Zwrot był możliwy dzięki ścisłej współpracy Ministerstwa Kultury i Dziedzictwa Narodowego z Muzeum Warmii i Mazur oraz ze stroną niemiecką. Kradzież pod osłoną nocy Nocą 5 grudnia 1990 r. nieznani sprawcy wspięli się po przygotowanej własnym sumptem drabince do okien sal muzealnych. Z wystawy "Ikona rosyjska – dawne rzemiosło artystyczne – nabytki z lat 1970-1989" ukradziono aż 29 ikon. Skradzione dzieła ze szkół moskiewskiej i nowogrodzkiej miały wartość 912 ówczesnych milionów złotych. Również w 1990 r. skradziono ikony z olsztyńskiej świątyni prawosławnej i z klasztoru starowierców w Wojnowie. Wg informacji Muzeum Warmii i Mazur, policja poszukiwała sprawców, którzy poruszali się podobno jasnym oplem kadettem kombi. Uzbierano kwotę 40 mln ówczesnych złotych na nagrodę. Bezskutecznie. W 1991 roku prokuratora umorzyła śledztwo. Odnaleziona on-line W 2019 r. pasjonat dr Reiner Zerlin przekazał miastu Recklinghausen cenną kolekcję sztuki wczesnochrześcijańskiej. Składała się ona z ok. 250 obiektów. Były to przede wszystkim drewniane XV-XVII-wieczne ikony greckie i rosyjskie. Latem zeszłego roku kolekcję zaprezentowano na wystawie czasowej w Kunsthalle. Dzięki temu, że udostępniono ją także w internecie, pracownik Wydziału ds. Restytucji MKDNiS wypatrzył wśród dzieł ukradzioną przed ponad 3 dekadami ikonę z przedstawieniem Archanioła Michała. Za pośrednictwem systemu IMI, polskie Ministerstwo Kultury zwróciło się do Ministerstwa Kultury i Nauki Nadrenii Północnej-Westfalii. W odpowiedzi strona niemiecka potwierdziła, że faktycznie jest to poszukiwane przez Polskę dzieło sztuki, a Muzeum Ikon w Recklinghausen wyraża gotowość zwrotu obiektu. Jednocześnie Muzeum Warmii i Mazur w Olsztynie zweryfikowało tożsamość w oparciu o dokumenty oraz materiał fotograficzny. « powrót do artykułu
  17. W 2019 roku w pobliżu Berwick-upon-Tweed detektorysta znalazł pokryty runami złoty krzyżyk. Zabytek datowano na lata 700–900, a każdy specjalista rozpozna w nim wyjątkowe znalezisko. Większość wczesnych anglosaskich krzyży ma równe ramiona, tutaj jedno z nich jest dłuższe. Ponadto dotychczas nie znaleziono krzyżyka pokrytego runami. Jednak prawdziwą sensacją okazała się treść napisu. Runy biegną przez całe dłuższe ramię do środka krzyżyka. Trzy krótsze ramiona ozdobiono wyżłobionymi krzyżykami. W dłuższym ramieniu widnieje niezbyt starannie wykonany otwór, który zrobiono po wykonaniu runicznego napisu. Prawdopodobnie w swojej oryginalnej formie krzyżyk posiadał zawieszkę, która się odłamała, dlatego wykonano otwór w ramieniu. Jak już wspomnieliśmy, największą sensacją jest jednak treść samego napisu. Zwykle tego typu osobiste przedmioty podpisane są imieniem i, jeśli nie wskazano inaczej, zwykle jest to imię właściciela. Profesor John Hines z Cardiff University, który dokonał analizy run, napisał: staroangielskie imiona rozpoczynające się na Ead- („radość”, „szczęście”) są powszechne, jednak znamy tylko dwa imiona, których druga sylaba rozpoczyna się od litery -r: Eadred i Eadric. Natomiast w żadnym języku germańskim nie zidentyfikowano dotychczas elementu „ruf” w imieniu. Widoczne na tym krzyżu imię Eadruf jest imieniem nieznanym, o tajemniczej etymologii. Być może mamy tutaj z nieco zakamuflowanym lepiej znanym imieniem Eardwulf. Wiemy, że we wczesnej Northumbrii żyli znaczni mężczyźni o tym imieniu. Niezwykłe jest też miejsce znalezienia zabytku. W okolicy nie są bowiem znane żadne średniowieczne ruiny. W czasach, gdy krzyżyk wykonano, okoliczne ziemie należały do Świętej Wyspy Lindisfarne (Holy Island of Lindisfarne). Wyspa wspomniana jest już w dokumentach z VI wieku, około 634 roku mnich Aidan z Iony, późniejszy święty, założył tam klasztor, który był ważnym centrum celtyckiego chrześcijaństwa w Northumbrii. Jego spalenie i plądrowanie przez wikingów w 793 roku uznawane jest za otwierający epokę wikingów pierwszy najazd skandynawskich wojowników. Historyczne przekazy sugerują, że w okolicy, w której znaleziono krzyżyk, mógł stać kościół lub opactwo. Jednak dotychczas nie znaleziono tam żadnej struktury z wczesnego średniowiecza. « powrót do artykułu
  18. Przyspieszające tempo topnienia himalajskich lodowców zagraża źródłom wody, od których zależy byt milionów mieszkańców Azji. Zespół naukowy, na którego czele stali specjaliści z University of Leeds stwierdził, że w ciągu kilku ostatnich dekad tempo topnienia lodowców w Himalajach było średnio 10-krotnie szybsze niż w czasie ostatniego znaczącego epizodu zwiększania zasięgu lodowców, małej epoki lodowej, która miała miejsce 700–400 lat temu. Himalajskie lodowce tracą masę szybciej, niż jakiekolwiek inne lodowce na świecie. Autorzy badań wykonali rekonstrukcję zasięgu 14 798 himalajskich lodowców w czasie małej epoki lodowej. Stwierdzili, że od tamtego czasu powierzchnia tych lodowców skurczyła się o 40%, ze szczytowego zasięgu 28 000 km2 do obecnych 19 600 km2. W tym czasie lodowce utraciły od 390 do 586 km3 wody. To tyle, ile wody jest uwięzionej łącznie w lodowcach Alp, Kaukazu i gór Skandynawii. Uczeni obliczyli też, że woda ta podniosła poziom światowego oceanu o 0,92–1,38 mm. Himalaje to trzeci największy, po Antarktyce i Arktyce, obszar pokryty lodowcami. Z tego powodu są czasem nazywane „trzecim biegunem”. Nasze badania pokazują, że obecne tempo utraty lodu przez himalajskie lodowce jest co najmniej 10-krotnie szybsze niż w poprzednich wiekach. Z tak dużym tempem mamy do czynienia zaledwie w ciągu ostatnich kilku dekad, mówi współautor badań doktor Jonathan Carrivick. Szybsze tempo topnienia lodowców ma olbrzymie znaczenie dla setek milionów ludzi, którzy mają dostęp do żywności i energii dzięki rzekom zasilanym przez lodowce. Rzekom, do których należą m.in. Ganges, Indus i Brahmaputra. Badania pokazały też, że do szybszej utraty masy lodowców dochodzi na wschodzie Himalajów. Linia podziału przebiega tutaj przez wschodni Nepal i północny Bhutan. Różnice te mają prawdopodobnie związek z różnym ukształtowaniem terenu po obu stronach gór, co wpływa na interakcję z atmosferą i różne warunki pogodowe. Szybciej tracą też lód te lodowce, które spływają do jezior. Jako, że liczba i wielkość takich jezior wzrasta, zwiększa się też tempo utraty lodu. Do utraty lodu przyczyniają się również naturalne szczątki znajdujące się na powierzchni lodowca. Te lodowce, na których takie szczątki się znajdują, odpowiadają aż za 46,5% utraty masy lodu w Himalajach, mimo że stanowią jedynie 7,5% lodowców. Dlatego też doktor Carrivick przypomina, że modelując to, co dzieje się z lodowcami, naukowcy muszą brać pod uwagę nie tylko zmiany klimatu, ale również czynniki takie jak szczątki czy jeziora. « powrót do artykułu
  19. Laseczka wąglika, niebezpieczny patogen wykorzystywany m.in. jako broń biologiczna, może stać się nadzieją dla ludzi zmagających się z chronicznym bólem. Nowe badania wykazały bowiem, że wytwarzana przez nią toksyna uśmierza różne rodzaje bólu u zwierząt. Naukowcy informują, że badana przez nich toksyna zmienia szlak sygnałowy w neuronach odpowiedzialnych za odczuwanie bólu i gdy zostanie dostarczona do odpowiednich neuronów w centralnym i obwodowym układzie nerwowym, zmniejsza uczucie bólu u zwierząt. Naukowcy połączyli toksynę z różnymi typami molekularnych „opakowań” i dostarczali je do neuronów. Technika ta może być wykorzystywana do uśmierzania bólu poprzez dostarczenie leków do konkretnych neuronów bez oddziaływania za ich pomocą na cały organizm. Ta molekularna platforma dostarczania substancji do neuronów i zarządzania ich funkcjonowniem to nowy sposób wzięcia na cel neuronów odpowiedzialnych za odczuwanie bólu, mówi profesor Isaac Chiu z Harvard Medical School. To właśnie tak uczelnia, wraz z partnerami z przemysłu i innych uczelni, prowadziła badania, których wyniki opisano na łamach Nature Neuroscience. Ludzkość pilnie potrzebuje nowych skutecznych środków przeciwbólowych. Najbardziej skuteczne z obecnie dostępnych – opioidy – są niebezpieczne i mają liczne skutki uboczne. Mogą prowadzić do uzależnień, istnieje też ryzyko zatrzymania oddechu. Naukowcy poszukują środków równie skutecznych, ale znacznie bardziej bezpiecznych. Nasze eksperymenty pokazały, że – przynajmniej teoretycznie – dobrym tropem może być wzięcie na cel konkretnych neuronów za pomocą toksyn bakteryjnych. Naukowcy z laboratorium Chiu od dawna badają związki pomiędzy mikroorganizmami a układem nerwowym i odpornościowym. Już w przeszłości wykazali, że inne bakterie mogą wchodzić w interakcje z neuronami i zwiększać uczucie bólu. Są też jednymi z niewielu, którzy sprawdzają, czy mikroorganizmy mogą minimalizować lub w ogóle znosić ból. Swoje najnowsze badania rozpoczęli od sprawdzenia, jak neurony odpowiedzialne za odczuwanie bólu różnią się od innych neuronów. Przeanalizowali dane dotyczące ekspresji genów i odkryli, że neurony bólowe posiadają receptory dla toksyn wąglika. Inne neurony ich nie posiadały. Innymi słowy, neurony odpowiedzialne za odczuwanie bólu są zbudowane tak, by wchodzić w interakcje z laseczką wąglika. Uczeni zaczęli zastanawiać się, dlaczego tak się dzieje. Wykazali, że do minimalizowania bólu dochodzi, gdy korzenie grzbietowe nerwu rdzeniowego łączą się z dwoma specyficznymi proteinami wytwarzanymi przez laseczkę wąglika. Okazało się, że antygen wąglika PA łączy się z receptorami komórki i tworzy w ten sposób bramę, przez którą wnikają dwie inne proteiny: EF (edema factor) oraz LF (lethal factor). Dodatkowo uczeni zauważyli, że PA i EF, tworzące razem toksynę toksynę warunkującą występowanie opuchlizny (edema toxin, EdTx), prowadzą do zniesienia bólu. Eksperymenty wykazały, że toksyna wąglika zmieniała szlaki sygnałowe w laboratoryjnych hodowlach ludzkich komórek nerwowych oraz u zwierząt. Wstrzyknięcie tej toksyny do dolnej części kręgosłupa myszy dawało silny skutek przeciwbólowy. Zwierzę nie odczuwało wysokiej temperatury oraz bodźców mechanicznych. Co ważne, środek nie wpływał na tętno, temperaturę i koordynację ruchową myszy. To wskazuje, że działa bardzo selektywnie i nie ma wpływu na cały organizm. Jakby jeszcze tego było mało, środek znosił inne dwa rodzaje bólu u myszy: ból powodowany stanem zapalnym oraz uszkodzeniem komórek nerwowych. Te rodzaje bólu są często obserwowane po różnego typu zranieniach, niektórych infekcjach wirusowych czy jako skutek uboczny leczenia cukrzycy i nowotworów. Bardzo ważny jest również fakt, że komórki nerwowe poddane działaniu toksyny wąglika pozostały nietknięte pod względem fizjologicznym. To wskazuje, że blokowanie bólu nie było związane z ich uszkodzeniem, a raczej ze zmianą sygnałów. Autorzy badań przypominają, że znajdują się na bardzo wczesnym etapie prac. Szczególnie ważne jest tutaj monitorowanie wpływu toksyn na organizm, tym bardziej, że wiadomo, iż białka wąglika mogą uszkadzać barierę krew-mózg. « powrót do artykułu
  20. Naukowcy wciąż szukają nowych metod diagnostycznych, pozwalających na skuteczniejsze leczenie raka piersi. W tym kierunku badania prowadzi również dr Aleksandra Markiewicz, szukając w organizmie chorych źródła informacji, które pozwolą prognozować ich podatność na terapie lekowe. Aleksandra Markiewicz z Zakładu Onkologii Translacyjnej Instytutu Biotechnologii Medycznej i Onkologii Doświadczalnej Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego w ramach pracy zespołu od kilkunastu lat zajmuje się analizą krążących komórek nowotworowych od chorych na raka piersi. W ramach tych badań opracowano już metodę pozwalającą na izolację i analizę krążących komórek nowotworowych na poziomie pojedynczych komórek. Teraz naukowcy - dzięki współpracy z chirurgami, onkologami i patomorfologami - zbiorą materiał od kobiet chorych na raka piersi w trakcie leczenia, wyizolują krążące komórki nowotworowe i krążące DNA nowotworowe, aby przygotować je do analiz genomicznych. O pracach informował Uniwersytet Gdański na swoich stronach internetowych. W prowadzonych badaniach będziemy poszukiwali we krwi chorych na raka piersi krążących komórek nowotworowych oraz krążącego DNA nowotworowego, czyli komórek i ich materiału genetycznego, które zostały uwolnione do krwi z guza pierwotnego bądź przerzutów – tłumaczy w rozmowie z serwisem Nauka w Polsce dr Aleksandra Markiewicz. Zidentyfikowane krążące komórki nowotworowe naukowcy pobiorą i zbadają pod kątem obecności kilkuset zmian (mutacji) w ich DNA, które mogą świadczyć o wrażliwości czy oporności na leczenie. Specjalistyczny sprzęt, który pozwoli sprawniej pobierać pojedyncze komórki od chorych na raka piersi, a także wszystkie materiały i odczynniki niezbędne do izolacji i obróbki molekularnej tych komórek z pobranych próbek, zostanie zakupiony w ramach dofinansowania z programu OPUS 20 + LAP. Naukowcy sprawdzą też, czy podobny profil zmian obecny jest w guzie pierwotnym i krążącym DNA nowotworowym. Te dane chcemy dodatkowo skorelować z identyfikacją mechanizmów oporności nowotworu na leczenie – zapowiada dr Markiewicz. Obecność krążących komórek nowotworowych w organiźmie jest czynnikiem informującym o złej prognozie chorych. Jak tłumaczyła dr Markiewicz, wewnętrzna agresywność krążących komórek nowotworowych może być różna w zależności od ich charakterystyki molekularnej. Ta różnorodność sprawia też, że większość metod nie pozwala na wychwycenie szerokiego spektrum krążących komórek nowotworowych, przez co nasza wiedza na ich temat jest wciąż niewystarczająca – przyznała badaczka. Dlatego naukowcy chcą izolować wiele fenotypów (rodzajów) tych komórek i identyfikować charakterystyczne dla nich zmiany w DNA, które mogą być związane z ich agresywnością, bądź być celami terapii ukierunkowanych molekularnie – tłumaczy. Ponieważ krążące komórki nowotworowe są rzadkie i heterogenne, chcemy je profilować na poziomie każdej pojedynczej zidentyfikowanej komórki, co wymaga bardzo zaawansowanych metod profilowania – powiedziała dr Markiewicz. Badania tego typu są niezbędne, żeby pokazać, jak ewoluuje choroba nowotworowa w trakcie leczenia, i jakie parametry są najbardziej pomocne w ocenie skuteczności leczenia i ryzyka nawrotu - najszybciej, jak to możliwe. Liczymy na to, że uda się ustalić nowe cele terapeutyczne w oparciu o profilowanie właśnie tych krążących markerów (krążących we krwi komórek nowotworowych czy krążącego DNA nowotworowego) a nie tylko guza pierwotnego, który jest analizowany w klasycznym postępowanie diagnostycznym – powiedziała dr Markiewicz. Jak wyjaśniła, nowotwory charakteryzują się dużą heterogennością - w obrębie guza pierwotnego można znaleźć wiele populacji (klonów) komórek nowotworowych, różniących się między sobą profilem molekularnym i tym samym wrażliwością na terapie. Dr Markiewicz mówi, że w badaniach chce iść o krok dalej: nie tylko zbadać molekularną heterogenność guza pierwotnego, ale i komórek nowotworowych z niego uwolnionych, czyli krążących komórek nowotworowych, które mogą stanowić najbardziej agresywną grupę komórek nowotworowych w organizmie. Komórki te izoluje się z próbki krwi pobranej od pacjentki w czasie rutynowych badań. Jak zaznaczyła badaczka, ze względu na małą inwazyjność procedury pobierania krwi, proces ten może być powtarzany, co umożliwia częste monitorowanie zmian profilu molekularnego krążących komórek nowotworowych czy krążącego DNA nowotworowego i tym samym pozwala na bieżąco oceniać efektywność terapii. Możliwość szybkiej oceny rozwijającej się oporności byłaby dla lekarzy narzędziem pozwalającym na szybszą interwencję terapeutyczną, zmiany leczenia na inne, możliwie bardziej dopasowane do konkretnego pacjenta w danym momencie – podkreśliła. Możliwość wykorzystania krążących komórek nowotworowych czy krążącego DNA nowotworowego do monitorowania odpowiedzi na leczenie jest coraz częściej badana. My jednak włączamy do naszych analiz bardzo szerokie profilowanie różnych typów krążących komórek nowotworowych, które trudno uchwycić klasycznymi metodami detekcji. Dzięki temu liczymy na uzyskanie większej ilości informacji na temat choroby nowotworowej – podsumowała dr Markiewicz. Pytana, dlaczego właśnie takimi badaniami się zajęła, mówi, że zafascynowało ją podłoże molekularne i mechanizmy, jakie wykorzystują komórki nowotworowe do tego, żeby rozprzestrzeniać się w organizmie. Mimo że komórki nowotworowe wywodzą się z naszych własnych komórek, potrafią zaskakująco dobrze ukrywać się przed układem odpornościowym, z jednej strony wyłączać, z drugiej wyłączać programy molekularne w celu przeżycia i wzrostu. Wspaniale byłoby poznać, jak można przechytrzyć te komórki w celu ich unicestwienia – powiedziała badaczka. Analiz genomicznych na zebranym przez zespół dr Markiewicz materiale dokona zespół z niemieckiego Uniwersytetu w Ratyzbonie (będący pionierem badań na pojedynczych komórkach) pod opieką dr Zbigniewa Czyż i prof. Christopha Kleina. Współpraca polskich i niemieckich naukowców będzie możliwa w ramach programu OPUS 20 + LAP, na który zespół dr Markiewicz otrzymał dofinansowanie w wysokości 1 154 743 zł. Naukowcy z Uniwersytetu w Ratyzbonie otrzymali równoległe finansowanie z niemieckiej instytucji finansującej (Deutsche Forschungsgemeinschaft) na ten wspólny projekt pt. „Genomiczne profilowanie krążących markerów i sparowanych guzów pierwotnych od chorych na raka piersi". Według prognoz epidemiologicznych nowotwory staną się głównym zabójcą w XXI wieku. Na świecie obserwuje się wzrost zachorowań na raka piersi, dlatego coraz więcej chorych będzie leczonych na raka piersi. Wczesne wykrycie nowotworu wiąże się z lepszym rokowaniem, ale dobór właściwej terapii i monitorowanie odpowiedzi czy możliwych nawrotów choroby jest wciąż bardzo istotny dla kontroli choroby nowotworowej – powiedziała badaczka. « powrót do artykułu
  21. Naukowcy z Uniwersytetu w Sewilli prawdopodobnie odnaleźli jedną z najważniejszych świątyń starożytnej Europy. Sanktuarium, które istniało już być może w VIII wieku przed naszą erą było początkowo poświęcone fenickiemu Melkartowi podlegało władzy Tyru, Kartaginy, a gdy przeszło pod władzę rzymską stało się świątynią Herkulesa Gaditanusa. Do świątyni Herkulesa-Melkarta pielgrzymował Hannibal, Scypion Afrykański czy Juliusz Cezar. Świątynia znajdowała się w fenickim Gadir, rzymskim Gades (stąd Gaditanus), znanym obecnie jako Kadyks. Na przestrzeni wieków wiedza o dokładnej lokalizacji legendarnego sanktuarium została utracona. Być może teraz udało się je odnaleźć. Ricardo Belizón Aragón i Antonio Sáez Romero wykorzystali LIDAR i system GIS, dzięki którym zidentyfikowali ślady monumentalnej budowli znajdującej się w Caño de Sancti Petri. To płytki kanał w Zatoce Kadyksu, pomiędzy Isla de Leon z miejscowością San Fernando a głównym lądem. Ricardo Belizón w ramach swojej pracy doktorskiej postanowił zbadać, jak w starożytności mogło wyglądać wybrzeże w pobliżu współczesnego Kadyksu. Chciał określić zmiany, jakim podlegało wybrzeże w ciągu ostatnich 3000 lat. Nie spodziewał się, że jego badania mogą przynieść olbrzymią archeologiczną sensację. Obecnie to podmokłe tereny, ale od ponad 200 lat wiadomo, że nie zawsze tak było. Znaleziono tam bowiem wiele cennych zabytków, w tym duże marmurowe i brązowe rzeźby rzymskich cesarzy czy fenickie statuetki. Wiele wskazywało więc na to, że gdzieś na tym obszarze mogła znajdować się zaginiona legendarna świątynia. Badania Belizóna wskazują na istnienie tam wybrzeża całkowicie zmienionego przez ludzi, z olbrzymim budynkiem, licznymi falochronami, wewnętrznym portem i nadbrzeżami do cumowania. Najbardziej interesujący jest wspomniany budynek. Znajduje się on 3-5 metrów pod wodą, a jego wymiary to 300x150 metrów. Wydaje się, że zarówno rozmiary budynku jak i jego lokalizacja odpowiadają opisowi świątyni, jak i temu, co wiemy o wielkich budowlach fenickich. Z opisów wiemy, że do świątyni wchodziło się pomiędzy dwiema kolumnami, na których przedstawiono prace Herkulesa. W świątyni palił się wieczny ogień. Święty obszar oddzielony był od reszty kanałem, który był dostępny dla statków. Badania w miejscu przypuszczalnej świątyni Herkulesa-Melkarta trwają od dwóch lat, a ich prowadzenie w dużej mierze zależy od stanu wód. Zatopiony obszar jest słabo widoczny. Jednak jak dotychczas postawiona hipoteza o odnalezieniu legendarnego sanktuarium broni się i zyskała poparcie zarówno naukowców z Uniwersytetu w Sewilli, jak i specjalistów z Andaluzyjskiego Instytutu Dziedzictwa Historycznego. Lokalizacja zgadza się też z wieloma wcześniejszymi pracami naukowymi, których autorzy próbowali określić, gdzie mogła znajdować się świątynia. Jednak nie jest zgodna z innymi pracami, w tym z ostatnią z nich, profesora Antonio Monterroro-Checa z Uniwersytetu w Kordobie, który wykluczył Sancti Petri jako możliwą lokalizację świątyni i wskazuje na położone niedaleko wzgórze Martires de San Fernando. « powrót do artykułu
  22. Politechnika Białostocka, Uniwersytet Medyczny w Białymstoku, Uniwersytet w Białymstoku i Chrześcijańska Akademia Teologiczna w Warszawie zadeklarowały, że będą wspierać naukowo ochronę unikatowych katakumb Klasztoru Męskiego Zwiastowania Najświętszej Marii Panny w Supraślu. Będące jednym z najcenniejszych zabytków Podlasia katakumby powstały w połowie XVI w. i obejmują 130 nisz. Zabezpieczenie zabytku o dużej wartości historycznej wymaga szeroko zakrojonych badań. Ratowanie wyjątkowego zabytku Nasz wspólny projekt, realizowany przez Klasztor Męski Zwiastowania Najświętszej Marii Panny w Supraślu i teraz wspólnie przez rektorów białostockich uczelni, dotyczy katakumb, czyli wielkiego dziedzictwa historycznego i kulturowego nie tylko klasztoru w Supraślu, nie tylko Kościoła prawosławnego w Polsce, ale też całego regionu i całego naszego kraju – wyjaśnia ihumen Pantelejmon Karczewski. Ihumen Karczewski ma nadzieję, że uda się uratować dla następnych pokoleń dziedzictwo, które wymaga szeroko zakrojonych prac badawczo-konserwatorskich. Od 2014 r. katakumby są ogrodzone i zadaszone. Dr hab. inż. Marta Kosiuk-Kazberuk, rektor Politechniki Białostockiej, uważa, że w realizacji projektu przyda się z pewnością doświadczenie uczelnianych ekspertów, zajmujących się konserwacją zabytków, budownictwem, inżynierią materiałową czy wreszcie zagospodarowaniem terenu. Dr hab. Maciej Karczewski z Uniwersytetu Białostockiego opowiada, że archeolodzy rozpoznają nawarstwienia wokół katakumb. Specjalista liczy też na to, że po podpisaniu listu intencyjnego powstanie naprawdę interdyscyplinarny zespół, który przygotuje dokumentację naukowo-techniczną i zalecenia do prac zabezpieczających. To bardzo paląca potrzeba, bo tak naprawdę to niezwykle cenne dziedzictwo. Katakumby są jedynym tego rodzaju obiektem zabytkowym na obszarze nie tylko Polski północno-wschodniej, ale śmiem twierdzić, że naszej części Europy Środkowo-Wschodniej. One wymagają bardzo pilnego zabezpieczenia. Musimy sprawdzić, czy prace ziemne, które są konieczne dla zabezpieczenia katakumb, nie naruszą pochówków na cmentarzu, który znajduje się wokół katakumb. Naszym zadaniem będzie uratowanie katakumb, poprzedzone wykonanymi z odpowiednim pietyzmem badaniami archeologicznymi [...]. Karczewski dodaje, że zespół powinien również wejść do katakumb, bo w niszach grzebalnych nadal są szczątki i nadal są elementy kultury materialnej, i to bardzo wysokiej kultury materialnej, związanej z klasztorem i z katakumbami. Historia katakumb Jak wyjaśniono na stronie Monasteru Zwiastowania Przenajświętszej Bogurodzicy, kilkadziesiąt lat po osiedleniu się mnichów w Supraślu, gdzieś między 1532 a 1557 rokiem, na południe od budynków monasterskich wzniesiono z pruskiego muru Cerkiew Zmartwychwstania Chrystusa, a pod nią wymurowano obszerne katakumby [...]. W kryptach cerkwi pochowano fundatorów, a na przełomie XVI i XVII w. m.in. wojewodę smoleńskiego Bazylego Tyszkiewicza. W kryptach pod cerkwią chowano mnichów, ale i członków rodzin Olelkowiczów, Słuckich i Wiśniowieckich. Bogaci ofiarodawcy z potężnych rodów dawnej Rzeczypospolitej, ale także mieszczańskie familie, uważały za zaszczyt spocząć po śmierci w pobliżu monasteru. Na początku XIX w. zrujnowaną Cerkiew Zmartwychwstania rozebrano, a katakumby przykryto. W latach osiemdziesiątych katakumby, odsłonięte i źle zabezpieczone - pozostawiono swojemu losowi. Łatwo padły łupem ciekawskich, niepotrafiących uszanować majestatu śmierci, i zwykłych wandali. Mnisi co pewien czas urządzają pogrzeb odnalezionych, przeważnie zbezczeszczonych, kości. Zejścia do przejścia podziemnego, które najprawdopodobniej łączyło katakumby z Cerkwią Zmartwychwstania, są dziś zasypane. « powrót do artykułu
  23. Dziesięciolecia rządowych regulacji dotyczących jakości powietrza dają wymierne wyniki, dowodzą naukowcy z Uniwersytetu Harvarda. Informują oni na łamach PNAS (Proceedings of the National Academy of Sciences), że dzięki obniżeniu emisji z silników samochodowych w latach 2008–2017 i związanej z tym poprawie jakości powietrza, zaoszczędzono setki miliardów dolarów oraz uratowano życie tysięcy ludzi. Naukowcy ocenili korzyści, jakie społeczeństwo odniosło ze zmniejszonej emisji pyłu PM2.5 zarówno jeśli chodzi o ludzkie zdrowie, jak i koszty dla środowiska naturalnego. A korzyści te, jak się okazuje, są ogromne. Z szacunków wynika bowiem, że na wszelkich kosztach związanych z zanieczyszczeniem środowiska, w tym z chorobami i zgonami, zaoszczędzono w samym tylko 2017 roku aż 270 miliardów dolarów (rozpiętość szacunków wahała się od 190 do 480 mld). Jednocześnie spadła liczba zgonów, które można przypisać PM2.5 emitowanym przez silniki samochodowe. Jeszcze w roku 2008 w całych Stanach Zjednoczonych z powodu tej emisji zmarło 27 700 osób. W roku 2017 było to 19 800 osób. To jednak nie wszystko. Naukowcy wyliczyli, że gdyby emisja nie uległa zmniejszeniu i w przeliczeniu na każdą przejechaną milę pozostała taka sama, jak w roku 2008, to w roku 2017 z jej powodu zmarłoby 48 200 osób. Wpływ transportu na zdrowie publiczne to jeden z najpoważniejszych problemów w USA. Różne grupy naukowe, stosując różne metody do oceny tego wpływu, szacują, że w ostatnich latach z powodu zanieczyszczenia powietrza spalinami umiera od 17 do 20 tysięcy Amerykanów rocznie. Główną przyczyną zgonów jest zaś właśnie PM2.5. Rządowe regulacje mają znaczący wpływ na poprawę jakości powietrza. Od roku 1970 dzięki odgórnie narzucanym coraz ostrzejszym normom emisja najbardziej powszechnych zanieczyszczeń z z przeciętnego silnika samochodowego zmniejszyła się aż o... 99%. Amerykańska Agencja Ochrony Środowiska (EPA) szacuje, że Clean Air Act Amandements z 1990 roku spowodowała, że w roku 2020 wszystkie sektory gospodarki łącznie zaoszczędziły 2 biliony dolarów, czyli zyski z wprowadzenia tej ustawy były 30-krotnie wyższe niż koszty. Widoczne w badaniach duże rozbieżności dotyczące odniesionych korzyści finansowych, wahające się od 190 do 480 miliardów dolarów, wynikają z niepewności co do wpływu konkretnych wartości koncentracji PM2.5 na zgony, niepewności dotyczącej społecznych kosztów emisji węgla do atmosfery oraz trudności z określeniem współczynnika ekonomicznej wartości uniknięcia zgonu czyli materialnego kosztu uniknięcia śmierci w zależności od okoliczności. « powrót do artykułu
  24. Zmiana poziomu oceanu doprowadziła do upadku jednej z najdłużej istniejących prekolumbijskich cywilizacji wybrzeży Ameryki. Hiszpańscy naukowcy z Universitat Autònoma de Barcelona informują na łamach Scientific Reports, że istniejąca na terenie dzisiejszej Brazylii kultura Sambaqui upadła, gdyż doszło do spadku poziomu oceanu. Do takich wniosków doprowadziły uczonych badaniach izotopów w szczątkach ponad 300 osób oraz seria ponad 400 datowań radiowęglowych z południowego wybrzeża Brazylii. W badanym regionie istnieje tysiące kopców – również zwanych sambaqui – budowanych przez społeczności rybackie, istniały tam pomiędzy 7000 a 1000 lat temu. Na każdym z takich cmentarzysk znajdują się zwykle setki ludzkich zwłok, starannie złożonych wśród szczątków ryb i owoców morza. Ich ości i skorupy były wykorzystywane w formie darów podczas uroczystości pogrzebowych. Naukowcy stwierdzili, że przed około 2200 lat doszło do nagłego gwałtownego spadku częstotliwości budowania kopców, co zbiegło się w czasie z poważnymi zmianami w przybrzeżnym środowisku spowodowanym spadkiem poziomu oceanu. Zmiana poziomu oceanu sprzed około 2000 lat prawdopodobnie była punktem zwrotnym. Ekosystem morski, który przez tysiące lat zapewniał utrzymanie przybrzeżnym społecznościom, zmienił się. Zmniejszenie się tego ekosystemu, zaniknięcie zatok i lagun spowodowało, że zasoby morskie skurczyły się i stały się mniej przewidywalne, co zmusiło mieszkającą tam ludność do podzielenia się na mniejsze społeczności, mówi główna autorka badań, Alice Toso. Datowanie radiowęglowe wykazało, że przed około 2000 lat najprawdopodobniej doszło do spadku liczebności ludzkiej populacji na całym brazylijskim wybrzeżu Mata Atlantica. Co interesujące, pozostała populacja, zamiast porzucić rybołówstwo, które stało się mniej przewidywalne, zintensyfikowała połów ryb, skupiając się na gatunkach z górnych pięter łańcucha pokarmowego, takich jak rekiny i płaszczki. Sądzimy, że doszło w tym czasie do znaczących zmian w praktykach zdobywania pożywienia. Ludzie przeszli z łowienia całymi społecznościami na łowienie w grupach rodzinnych, dodaje André Colonese. « powrót do artykułu
  25. Na podstawie najnowszych wyników badań z obserwatoriów fal grawitacyjnych LIGO/Virgo, naukowcy przeprowadzili testy Ogólnej Teorii Względności (OTW). Zgodność teorii Einsteina z danymi obserwacyjnymi testowano dziewięcioma różnymi metodami. Żadnych niezgodności nie stwierdzono. W badaniach brali udział polscy naukowcy z grupy Polgraw, w tym uczeni z NCBJ. Ogólna Teoria Względności zaproponowana ponad 100 lat temu przez Alberta Einsteina jest obecnie powszechnie przyjętą teorią grawitacji. Jest ona niezwykle elegancka i koncepcyjnie w zasadzie prosta, choć obliczenia wykonywane na jej podstawie do prostych nie należą. Teoria prawidłowo opisuje poznane zjawiska astronomiczne napędzane przez grawitację, a także jest podstawą do budowy scenariuszy kosmologicznych. W miarę postępu badań i obserwacji, w miarę gromadzenia coraz większych, coraz dokładniejszych i coraz lepiej uporządkowanych zbiorów danych, obszar dostępnych nam zjawisk stale się poszerza. W nauce żadnej teorii nie traktujemy jako dogmatu – tłumaczy prof. Marek Biesiada z Zakładu Astrofizyki NCBJ. Dlatego teorie poddajemy testom, stale sprawdzając ich przewidywania. Jak dotąd OTW została potwierdzona bardzo precyzyjnymi obserwacjami w Układzie Słonecznym i w układach podwójnych pulsarów. Fale grawitacyjne emitowane przez zlewające się czarne dziury dostarczają kolejnej możliwości testowania teorii względności. Jest to reżim silnie zakrzywionych czasoprzestrzeni, wcześniej słabo dostępny testowaniu. Są przynajmniej dwie przesłanki nakazujące nam sprawdzać, czy OTW wymaga modyfikacji lub zastąpienia nową teorią. Pierwszą z nich są problemy kosmologiczne znane jako ciemna materia i ciemna energia. Problem ciemnej materii polega na tym, że galaktyki i ich gromady przyciągają silniej niż powinny, gdyby uwzględnić całą znaną nam materię. Problem ciemnej energii to fakt, że Wszechświat przyspiesza swą ekspansję, zamiast zwalniać, jak wydaje się przewidywać OTW. Chociaż robocze nazwy ciemna materia i ciemna energia sugerują odpowiedź w postaci nieznanych składników materialnych, pozostaje możliwość, że OTW wymaga modyfikacji. Drugą przesłanką jest wynikająca z OTW konieczność występowania osobliwości, czyli obszarów, gdzie kończą się historie wszystkich cząstek i fotonów. Wydaje się, że problem ten jest związany z kwantową teorią grawitacji, której nie udało się stworzyć w zadowalającej wszystkich postaci. Tu również fale grawitacyjne emitowane przez zlewające się czarne dziury mogą dostarczyć nam wskazówek. Współprace badawcze LIGO i Virgo opublikowały w tym tygodniu podsumowanie analiz zebranych przez nie danych pod kątem ich zgodności z przewidywaniami OTW. Analizy zebrano w 9 głównych grup stanowiących testy teorii. Pierwszy test dotyczył zgodności rejestrowanego sygnału bazowego (szumu) ze znanym z testów laboratoryjnych szumem detektora. Z OTW wiemy jak sygnał od dwóch zwartych obiektów powinien wyglądać w detektorach fal grawitacyjnych. Jednak to, czym posługujemy się do opisu sygnału jest teorią – jak cała nauka jest pewnym przybliżeniem, najlepszym jakie mamy, opisującym świat, dopóki nie znajdziemy lepszego. Jeśli OTW nie opisywałaby dostatecznie dobrze takich sygnałów to mielibyśmy przewidywanie teoretyczne plus dodatkowy komponent, który wynika z nieuwzględnionych efektów. Aby zobaczyć, czy taki dodatkowy komponent jest obecny, trzeba było sprawdzić, czy po odjęciu przewidywanego sygnału reszta będzie miała charakterystykę normalnego szumu w detektorze. Przeprowadzony test potwierdził słuszność OTW. Przeprowadzono też test zgodności przebiegu (kształtu) fal przed i po zlaniu się dwóch obiektów. Źródłami fal grawitacyjnych, które obserwujemy są układy: dwóch gwiazd neutronowych; dwóch czarnych dziur; układ czarna dziura – gwiazda neutronowa. Zdarzenie zlania się tych obiektów następuje w 3 głównych fazach: moment tuż przed zderzeniem, moment zlania się oraz faza stabilizacji. OTW przewiduje, że fazy sprzed zderzenia oraz po powinny generować podobne fale. Przewidywania OTW są zgodne z obserwacjami dla analizowanej próbki. Kolejne dwa testy dotyczyły zachowania się obiektów w pierwszej fazie zlewania, gdy ciała niebieskie okrążają się wzajemnie. Wzajemne okrążanie zwartych obiektów, takich jak czarne dziury czy gwiazdy neutronowe, zbliżających się do siebie dzięki utracie energii emitowanej w postaci fal grawitacyjnych, można przybliżyć przez powolny ruch w przybliżeniu słabego pola – nazywa się to post-Newtonowskim przybliżeniem OTW. Podejście to opisane jest kilkoma parametrami, których określenie na tej podstawie można porównać z parametrami otrzymanymi przez OTW. Najnowsze obserwacje wraz z już istniejącymi, pozwalają bardzo dobrze określić ograniczenia wartości tych parametrów. Wyniki te są statystycznie spójne z przewidywaniami OTW. Pierwsza faza, przed zlaniem się obiektów, pozwala również na sprawdzenie, czy obserwowany sygnał jest zgodny z przewidywaniami zlania się dwóch rotujących czarnych dziur (czarnych dziur Kerra). Jeśli któryś ze składników (lub oba) będzie rotował – powstały obiekt będzie spłaszczony na biegunach i poszerzony na równiku. Naukowcy są w stanie wyłuskać tę informację z danych obserwacyjnych, dzięki czemu można ustalić, że źródłem fal grawitacyjnych nie są żadne egzotyczne, nieprzewidziane przez OTW, obiekty. Podobne podejście zastosowano do określenia parametrów zdarzenia w trakcie i po zlaniu się obiektów. Czas trwania zlewania się i stabilizacji nowego obiektu jest dużo krótszy od fazy zbliżania się, więc obserwowany sygnał jest dużo silniejszy od widocznego szumu. Oszacowane na tej podstawie parametry dają wartości statystycznie zgodne z przewidywaniami OTW. Kolejnym jest test propagacji fal grawitacyjnych. Według przewidywań OTW fale grawitacyjne nie podlegają dyspersji, czyli prędkość ich rozchodzenia się nie zależy od ich częstotliwości. OTW można zmodyfikować w taki sposób, by własność ta nie była zachowana. W takiej sytuacji fale pochodzące bezpośrednio ze zlania się obiektów, o wyższej częstotliwości, dotarłyby do obserwatora szybciej, niż fale o mniejszej częstotliwości – pochodzące z fazy początkowej. Nie znaleziono dowodów dyspersji fal grawitacyjnych, co jest zgodne z przewidywaniami OTW. Brak zaobserwowanej dyspersji umożliwia nam ograniczenie modeli fizyki cząstek, które zakładają, że grawitony cząstki odpowiadające za oddziaływania grawitacyjne - mają masę (tak zwany model ciężkich grawitonów). W ramach OTW grawitony powinny być bezmasowe i podróżować z prędkością światła. Modele ciężkich grawitonów przewidują jednak istnienie dyspersji w pewnym stopniu, więc obserwacje mogą dać ograniczenie na masę grawitonów. W tych badaniach określono masę grawitonów (o ile ją posiadają) na poniżej 1.3*10-23 eV/c2. Ósmy test dotyczy polaryzacji fal grawitacyjnych. W ramach OTW fale grawitacyjne mogą mieć jedynie dwa typy polaryzacji: typu plusa lub typu X. Bardziej ogólna teoria może prowadzić do nawet sześciu unikatowych typów polaryzacji fal. Przeanalizowano dane obu detektorów LIGO oraz detektora Virgo pod kątem polaryzacji, których OTW nie uwzględnia. Testy nie wykazały możliwości istnienia innych polaryzacji niż przewidywanych przez OTW. Istnieją alternatywne teorie względem istnienia czarnych dziur. Obiekty takie, nazywane są mimikami czarnych dziur ze względu na to, że mają podobne parametry jak czarne dziury, jednak nie są nimi w sensie OTW. Jedną z najbardziej charakterystycznych cech czarnych dziur jest horyzont zdarzeń, czyli obszar, z którego nic nie jest w stanie uciec - nawet światło. W przypadku mimików, powierzchnia taka miałaby albo częściową, albo pełną refleksyjność, co wywołałoby pewnego rodzaju echo w sygnale z trzeciej fazy zlewania się obiektów. Analizy nie wykazały istnienia tego typu ech, co jest zgodne z przewidywaniami OTW. Stawiając się w pozycji przeciwników OTW, naukowcy przeprowadzili 9 testów, które mogłyby wykazać błędność Ogólnej Teorii Względności. Dowodów niezgodności nie znaleziono. Testy z całą pewnością będą kontynuowane, bo taka jest istota badań naukowych. Wszelkie niezgodności jakie ewentualnie wystąpią między obserwacjami, a przewidywaniami OTW, mogą w przyszłości zaowocować poznaniem nowych zjawisk. Nie są to wszystkie testy jakim można poddać teorię grawitacji dzięki badaniu fal grawitacyjnych – wyjaśnia dr Adam Zadrożny z Zakładu Astrofizyki NCBJ, członek polskiej grupy badawczej Polgraw. Bardzo ciekawym przykładem był pomiar stałej Hubble’a dla obserwacji fal grawitacyjnych GW170817 i rozbłysku optycznego AT 2017gfo, które były wynikiem tego samego zdarzenia. Zostało to opisane w czasopiśmie Nature w 2017 roku (vol. 551, p. 85–88). Pomiar stałej Hubble’a wykonany przy użyciu danych z detektorów fal grawitacyjnych był zgodny z wynikami uzyskanymi innymi metodami. Warto też dodać, że prof. Andrzej Królak (IM PAN i NCBJ) razem z prof. Bernardem F. Schutzem (Cardiff University) w pracach w latach 80-tych dali postawy wielu metodom analizy danych z detektorów interferometrycznych takich jak LIGO i Virgo. Polska od 2008 roku jest częścią projektu Virgo. Polscy uczestnicy projektu tworzą grupę Polgraw, której przewodzi prof. Andrzej Królak (IM PAN, NCBJ). Grupa bierze udział zarówno w badaniach naukowych konsorcjum LIGO-Virgo-KAGRA (LVK) jak i w konstrukcji detektora Virgo. Wśród badań naukowych prowadzonych przez grupę Polgraw, w ramach LVK, są między innymi analiza danych, rozwijanie metod statystycznych, modelowanie źródeł fal grawitacyjnych oraz analizy emisji fal elektromagnetycznych towarzyszących emisji fal grawitacyjnych. W skład grupy Polgraw wchodzi 12 instytucji w tym Instytut Matematyczny PAN, CAMK (Warszawa), Obserwatorium Astronomiczne UW, Uniwersytet Zielonogórski, Uniwersytet w Białymstoku, NCBJ, Uniwersytet Wrocławski, CAMK (Toruń), Obserwatorium Astronomczne UJ, AGH, ACK Cyfronet AGH, Centrum Fizyki Teoretycznej PAN. W skład konsorcjum LVK wchodzą ze strony NCBJ prof. Andrzej Królak, dr Orest Dorosh, dr Adam Zadrożny i mgr Margherita Grespan. Prace prowadzone w NCBJ dotyczą metod detekcji sygnałów pochodzących od rotujących gwiazd neutronowych, infrastruktury umożliwiającej szybką detekcję sygnałów grawitacyjnych oraz nowych metod analizy i lokalizacji sygnału opartych o sieci neuronowe. « powrót do artykułu
×
×
  • Dodaj nową pozycję...