Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36934
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    224

Zawartość dodana przez KopalniaWiedzy.pl

  1. Opracowany w Kalifornii nowatorski biomateriał po dożylnym podaniu zmniejsza stan zapalny i pomaga w regeneracji uszkodzonych tkanek i komórek. Został on już przetestowany na gryzoniach i większych zwierzętach, udowadniając swoją skuteczność w regeneracji tkanki po ataku serca. Jego twórcy opracowali też prototypową metodę wykorzystania biomateriału w urazach mózgu oraz nadciśnieniu płucnym. Nasz biomateriał regeneruje tkankę od wewnątrz. To nowe podejście do inżynierii regeneracyjnej, mów profesor Karen Christman z University of California San Diego, której zespół stworzył biomateriał. Uczona dodaje, że testy bezpieczeństwa i skuteczności biomateriału na ludziach mogą rozpocząć się w ciągu 1-2 lat. Każdego roku w Polsce zawału serca doświadcza około 80 tysięcy osób. Po zawale w mięśniu sercowym pojawiają się blizny, które pogarszają jego funkcjonowanie i mogą prowadzić do kolejnych chorób. Już podczas wcześniejszych badań zespół Christman opracował hydrożel zbudowany z macierzy pozakomórkowej, który można było podać przez cewnik w mięsień sercowy, co pobudzało wzrost nowych komórek i naprawę tkanki mięśnia sercowego. Udaną pierwszą fazę testów klinicznych przeprowadzono w 2019 roku. Jednak metoda wprowadzania żelu – bezpośrednia injekcja w mięsień – powodowała, że leczenie można było zastosować nie wcześniej niż tydzień po zawale. Wcześniejsze wprowadzanie igły groziło dodatkowymi uszkodzeniami mięśnia. Dlatego też naukowcy z San Diego postanowili opracować metodę, którą będzie można stosować bezpośrednio po zawale. A to oznaczało konieczność stworzenia biomateriału, który można by wprowadzać do naczyń krwionośnych w sercu podczas przeprowadzania innych procedur ratunkowych, lub też podawać dożylnie. Potrzebowaliśmy biomateriału, który można dostarczyć do trudno dostępnych miejsc, postanowiliśmy więc wykorzystać naczynia krwionośne, mówi doktor Martin Spang. Jedną z zalet nowego żelu jest fakt, że poprzez naczynia krwionośne równomiernie dociera on do całej uszkodzonej tkanki. Żel podawany przez cewnik pozostawał w miejscu podania i nie rozprzestrzeniał się. Christman i jej grupa rozpoczęli więc pracę od żelu opracowanego przed kilku laty, który dowiódł swojego bezpieczeństwa w 2019 roku. Uczeni wiedzieli, że nadaje się on do podawania dożylnego, jednak cząstki hydrożeli były zbyt duże, by spełnić swoje zadanie. Naukowcy wpadli więc na pomysł, by hydrożel odwirować w centryfudze. W ten sposób oddzielono zbyt duże cząstki, pozostawiając te w skali nano. Tak uzyskany materiał poddano dializie za pomocą błony półprzepuszczalnej, filtrowaniu i sterylizacji, a następnie liofilizacji. Uzyskano w ten sposób proszek, który po dodaniu wody do injekcji zmienia się w hydrożel gotowy do wstrzyknięcia. Materiał przetestowano na mysim modelu zawału serca. Naukowcy spodziewali się, że hydrożel przeniknie z naczyń krwionośnych do tkanki, gdyż podczas ataku serca pojawiają się szczeliny pomiędzy komórkami śródbłonka naczyń. Okazało się, że żel nie tylko przenika do tkanki, ale również zamyka szczeliny pomiędzy komórkami naczyń krwionośnych i przyspiesza ich gojenie, zmniejszając stan zapalny. Taki sam efekt zaobserwowano podczas testów na świniach. Naukowcy wysunęli i z powodzeniem przetestowali hipotezę, że ich hydrożel pomaga również w szczurzym modelu stanu zapalnego po urazie mózgu i w nadciśnieniu płucnym. Planują więc przeprowadzenie kolejnych badań w tym kierunku. Większość przeprowadzonych przez nas badań dotyczy serca, jednak widzimy, że istnieje możliwość leczenia w ten sposób innych trudno dostępnych tkanek, mówi Spang. Profesor Christman oraz startup Ventrix Bio, którego jest współzałożycielką, chcą teraz postarać się o zgodę FDA (Agencja ds. Żywności i Leków) na rozpoczęcie testów na ludziach. Mogłyby się one rozpocząć w ciągu 1-2 lat. Łatwa do zastosowania metoda naprawy mięśnia sercowego pomogłaby w uniknięciu komplikacji i rozwoju schorzeń pojawiających się po zawale. « powrót do artykułu
  2. Biuro Prokuratora Okręgowego dla Manhattanu zwróciło państwu włoskiemu 14 ukradzionych dzieł sztuki. To już czwarty w ciągu 7 miesięcy zwrot zabytków przeprowadzony przez biuro prowadzone przez Alvina L. Bragga Jr. W ten sposób od lipca ubiegłego roku do prawowitych właścicieli trafiło 214 artefaktów o łącznej wartości 35 milionów dolarów. Wśród zwróconych właśnie zabytków znajdowała się warta 500 000 USD srebrna moneta z miasta Naxos na Sycylii z IV wieku p.n.e. z portretami Dionizjosa i Sylena, marmurowa głowa cesarza Hadriana z 200 roku n.e. wyceniana na 250 000 USD czy też czarnofigurowa hydria – naczynie na wodę – z 510 roku p.n.e. autorstwa Malarza Priama, jednego z największych mistrzów greckiego malarstwa wazowego z końca VI wieku przed Chrystusem. Szacunkowa rynkowa wartość hydrii to 900 000 dolarów. Te i wcześniej zwrócone zabytki trafiły do USA w wyniku działania wysoko wyspecjalizowanych sieci fałszerzy i handlarzy dziełami sztuki. Wynajmowali oni gangi tak zwanych tombaroli, złodziei grobów. To wyspecjalizowani złodzieje stanowisk archeologicznych, którzy kradną konkretne, szczególnie interesujące zabytki. Po kradzieży zabytki były profesjonalnie czyszczone, poddawano je renowacji i wyposażano w fałszywe dokumenty. Tak przygotowane artefakty były sprzedawane albo przed domy aukcyjne, albo oferowane bezpośrednio muzeom i galeriom. Na przykład wspominana hydria została ukradziona na zlecenie Giovanniego Franco Becchiny. Urodzony na Sycylii Becchina już w latach 70. założył w Szwajcarii firmę Palladion Antike Kunst. Po kilku dekadach okazało się, że jest on powiązany z włoską mafią, zatrudniał gangi tombaroli i przez dziesięciolecia dostarczał na rynek ukradzione dzieła sztuki, które uwiarygadniał zarówno za pomocą fałszywych dokumentów, jak i poprzez wystawianie ich w renomowanych muzeach oraz prywatnych kolekcjach. Hydria, ukradziona na zlecenie Becchiny, trafiła do współpracującego z nim amerykańskiego handlarza dziełami sztuki Roberta Hechta, który swoją pozycję na rynku dzieł sztuki w Paryżu zaczął budować już w latach 50. ubiegłego wieku. Hecht „wyprał” zabytek i w 1989 roku sprzedał go Shelby White, amerykańskiej inwestorce, filantropce i kolekcjonerce dzieł sztuki. Około dekadę później pani White wypożyczyła zabytek nowojorskiemu Metropolitan Museum of Art, w którego radzie nadzorczej zasiada. Po wyjściu na jaw prawdziwego pochodzenia hydrii Met Museum usunęło ze swojej online'owej kolekcji informacje na temat zabytku, co spotkało się z krytyką ze strony ekspertów. Zauważają oni, że w ten sposób historia pochodzenia zabytku zostaje dodatkowo zaciemniona. Równie dramatyczna historia wiąże się ze wspomnianą marmurową głową Hadriana. W 1995 roku włoskie władze prowadzące śledztwo przeciwko dealerowi dzieł sztuki, Giacomo Mediciemu, znalazły w jednym z jego magazynów wykonane Polaroidem zdjęcie rzeźby pokrytej mułem i organizmami morskimi. Poszukiwania zabytku trwały dwie dekady. Teraz wiemy, że Medici i jego wspólnicy przemycili zabytek poza Włochy, a został on „wyprany” przez brytyjskiego dealera Robina Symesa. W 1990 roku zabytek, już po oczyszczeniu, konserwacji i ze sfałszowanymi dokumentami, został sprzedany Royal-Athena Galleries w Nowym Jorku. Dwa lata później galeria, za pośrednictwem domu Sotheby's, sprzedała zabytek filantropowi z San Antonio, Gilbertowi Denmanowi, który podarował rzeźbę San Antonio Museum of Art. Zabytki zostały odzyskane dzięki pracy Antiquities Trafficking Unit. Ta wyspecjalizowana jednostka powołana przy Biurze Prokuratora Okręgowego dla Manhattanu powstała w grudniu 2017 roku. W ciągu zaledwie 5 lat doprowadziła odzyskała niemal 4500 zabytków o wartości ponad 300 milionów USD, które ukradziono z 28 krajów. Dotychczas właścicielom zwrócono 2400 przedmiotów o wartości 180 milionów USD. « powrót do artykułu
  3. Krótko po Wielkim Wybuchu, gdy wszechświat zaczął się rozszerzać, przypominał on gotującą się wodę i dochodziło w nim do nieznanych dotychczas przejść fazowych. Wyobraźmy sobie, że bąble pojawiały się w różnych miejscach wczesnego wszechświata. Stawały się coraz większe, zderzały się ze sobą. W końcu mieliśmy do czynienia ze złożonym układem zderzających się bąbli, które uwolniły energię i wyparowały, mówi Martin S. Sloth z Centrum Kosmologii i Fenomenologii Fizyki Cząstek Uniwersytetu Południowej Danii. Wraz z Florianem Niedermannem z Nordyckiego Instytutu Fizyki Teoretycznej (NORDITA) w Sztokholmie stworzył on hipotezę, która ma rozwiązywać problemy ze stałą Hubble'a. Stała Hubble'a to wartość, która mówi nam, z jaką prędkością wszechświat się rozszerza. Można ją obliczyć na podstawie analizy promieniowania tła albo na podstawie tempa oddalania się od nas gwiazd i galaktyk. Obie metody są prawidłowe, obie są przyjęte przez naukę. Problem w tym, że dają różne wyniki. A jest on na tyle poważny, że przed kilku laty odbyło się specjalne spotkanie, na którym omawiano to zagadnienie. W nauce powinniśmy być w stanie dojść do tych samych wyników za pomocą różnych metod. Mamy więc problem. Dlaczego nie otrzymujemy takiego samego wyniku w tym przypadku, gdy jesteśmy pewni, że obie metody są prawidłowe?, pyta Niedermann. Jeśli uważamy obie te metody za prawidłowe, a tak jest, może to nie metody są problemem. Może powinniśmy popatrzeć na sam początek, na bazę do której te metody stosujemy. Może to w niej tkwi błąd, dodaje. Bazą dla obu metod obliczania stałej Hubble'a jest Model Standardowy, który zakłada, że przez 380 000 lat po Wielkim Wybuchu wszechświat wypełniony był promieniowaniem i materią – zarówno normalną jak i ciemną – i to były dominujące formy energii. Promieniowanie i zwykła materia były skompresowane w ciemnej, gorącej gęstej plazmie. Dla takiego modelu otrzymujemy obecnie dwie różne wartości stałej Hubble'a. Sloth i Niedermann wysunęli hipotezę, że we wczesnym wszechświecie dużą rolę odgrywała nieznana forma ciemnej energii. Okazało się, że gdy przyjęli takie założenie i obliczyli dla niego stałą Hubble'a, to za pomocą obu metod uzyskali ten sam wynik. Hipotezę tę nazwali NEDE (New Early Dark Energy – Nowa Wczesna Ciemna Energia). Naukowcy postulują, że ta nowa ciemna energia przeszła zmianę fazy na krótko przed zmianą wszechświata z gęstej gorącej plazmy w stan, w jakim obecnie się znajduje. Ciemna energia wczesnego wszechświata przeszła zmianę fazy tak, jak woda może zmienić fazę pomiędzy stanem stały, ciekłym i gazowym. Podczas tej przemiany fazowej bąble energii zderzały się ze sobą, uwalniając energię, wyjaśnia Niedermann. Proces ten mógł trwać bardzo krótko, tylko tyle czasu ile trzeba dwóm cząstką by się zderzyły, a mógł trwać też 300 000 lat. Tego nie wiemy, ale próbujemy się dowiedzieć, dodaje Sloth. Obaj naukowcy zdają sobie sprawę z faktu, że sugerują, iż podstawy naszego rozumienia wszechświata są wadliwe i że zaproponowali istnienie nieznanych dotychczas cząstek lub sił. Zauważają jednak, że w ten sposób można wyjaśnić problemy ze stałą Hubble'a. Jeśli ufamy obserwacjom i obliczeniom, to musimy zaakceptować fakt, iż nasz obecny model wszechświata nie wyjaśnia danych. Musimy więc poprawić ten model. Ale nie poprzez jego odrzucenie i odrzucenie wszystkiego, w czym dotychczas się sprawdził, ale przez dopracowanie go i uszczegółowienie, stwierdzają. A – jak mówią – dodanie do obecnego Modelu Standardowego hipotezy o zmianie fazy ciemnej energii we wczesnym wszechświecie pozwala na rozwiązanie problemów z obliczeniem tempa rozszerzania się wszechświata. Warto w tym miejscu przypomnieć, że przed dwoma laty grupa fizyków wpadła na ślady nieznanego rodzaju ciemnej energii, która mogła istnieć w ciągu pierwszych 300 000 lat po Wielkim Wybuchu. Jeszcze inną próbą rozwiązania problemu jest przyjęcie, że wszechświat nie jest homogeniczny. « powrót do artykułu
  4. W Królewskim Muzeum Sztuk Pięknych (Koninklijk Museum voor Schone Kunsten Antwerpen, KMSKA) w Antwerpii od 1 lutego trwa miesięczny performance „The Author is Present”. Na jednej z sal ustawiono boks, w którym siedzi pisarka Saskia De Coster pracująca nad swoją kolejną książką. Zapowiadając miesięczny pobyt w muzeum w mediach społecznościowych, De Coster wspomniała o największym wyzwaniu w swojej pisarskiej karierze. Projekt zakłada, że Saskia będzie zarówno pracować, jak i spać w KMSKA. Na zamieszczonym przez KMSKA na YouTube'ie filmie widać, jak kobieta przygotowuje się do eksperymentu. Przechadza się po muzeum i wreszcie nadmuchuje materac, na którym rozkłada śpiwór. Potem światła gasną...   Pisząca po flamandzku autorka ma ukończyć swoje najnowsze dzieło w przeszklonym boksie o powierzchni 12 metrów kwadratowych. De Coster liczy, że będą ją inspirować zwiedzający i wiszące na ścianach dzieła sztuki. Nietrudno zauważyć, obmyślona z Inge Jooris akcja nawiązuje do znanego performance'u Mariny Abramović o tym samym tytule; 13 lat temu był on częścią retrospektywnej wystawy artystki w nowojorskim Museum of Modern Art. W godzinach otwarcia instytucji Abramović tkwiła nieruchomo na krześle. Naprzeciw niej znajdowało się puste krzesło, na którym zasiadały kolejne osoby. Marina patrzyła na nie w milczeniu. Każdy mógł spędzić z performerką dowolną ilość czasu. Na stronie internetowej MoMA prowadzono transmisję na żywo. Performance stał się głównym tematem dokumentu Matthew Akersa „Marina Abramović: Artystka obecna”. W sumie artystka spędziła w bezruchu aż ok. 700 godzin. W odróżnieniu od Saskii, nie spała jednak w muzeum. Powieść, nad którą De Coster pracuje, dotyczy kwestii nieosiągalności, straty i poszukiwania więzi. Twórczy proces pisania zawsze ludzi fascynował, był jednak w dużej mierze nieuchwytny i niedostępny, bo odbywał się poza zasięgiem ich wzroku. Zwykle to pisarz obserwuje, tym razem - na miesiąc - role się odwracają. Akcja Saskii to swoisty powrót do korzeni, bo jako dziecko miała w zwyczaju pisać schowana w małej ogrodowej szopie. Pisarka zabrała ze sobą laptop i 28 książek. Podczas eksperymentu może obserwować ludzi odwiedzających muzeum, ale nie będzie się z nimi porozumiewać. Chodzi o pokazanie ewolucji procesu pisania, gdy pisarz całkowicie odcina się od współczesnego świata mediów i jakiejkolwiek formy komunikacji - wyjaśniono na stronie KMSKA. Urodzona w 1976 r. Saskia De Coster opublikowała swoją pierwszą powieść pt. „Vrije Val” (Swobodne spadanie) w 2002 r. Od tej pory wydała kilkanaście książek, w tym bestsellerową „Wij en Ik” (My i ja). Publikuje także w prasie. Oprócz tego jest artystką wizualną.   « powrót do artykułu
  5. Po zbadaniu szczątków słoni sprzed 125 000 lat naukowcy z Uniwersytetu Johannesa Gutenberga z Moguncji i Uniwersytetu w Lejdzie doszli do wniosku, że neandertalczycy musieli żyć w większych grupach, niż się powszechnie uważa. Szczątki około 70 zwierząt zostały odkryte z latach 80. w pobliżu Halle w wielkiej odkrywce górniczej, zamienionej obecnie w sztuczne jezioro. Należą one do gatunku Palaeoloxodon antiquus, największego zwierzęcia lądowego plejstocenu. Gatunek ten był większy od mamuta, a waga dorosłego osobnika mogła sięgać 13 ton. Mamy tutaj najstarsze pewne dowody, że ludzie polowali na słonie. Zabijanie tych zwierząt i podział mięsa były jednymi ze sposobów na zdobywanie żywności przez żyjących tutaj neandertalczyków, mówi współautor badań, profesor Wil Roebroeks z Uniwersytetu w Lejdzie. Z przeprowadzonych badań wynika, że przez 2–4 tysiące lat zamieszkujący te tereny neandertalczycy byli miej mobilni i tworzyli znacznie większe grupy społeczne, niż się dotychczas wydawało. Nie poddawali się naturze. Kształtowali ją, np. za pomocą ognia, i mieli olbrzymi wpływ na populację największych zwierząt żyjących wówczas na lądzie. Na podstawie wieku oraz płci słoni, których szczątki badano, naukowcy doszli do wniosku, że neandertalczycy nie korzystali z mięsa słoni, które padły, tylko aktywnie na nie polowali. Szczątki należały bowiem głównie do samców i niewiele było wśród nich szczątków młodych słoni. To wskazuje, że wybierano największe i najzdrowsze sztuki, by je upolować. Samce słoni prowadzą przeważnie samotniczy tryb życia, łatwiej jest więc je upolować niż poruszające się w stadach i chroniąc młode samice. Dostarczają też dużo mięsa. Dorosłe 10-tonowe zwierzę mogło zapewnić co najmniej 2500 porcji pożywienia. Neandertalczycy musieli sobie jakoś z tym poradzić, albo konserwując żywność na dłuższy czas – a na ten temat nie mamy żadnej wiedzy – albo przez prosty fakt, że żyli w znacznie większych grupach, niż sądzimy. Na kościach zwierząt znaleziono typowe ślady oddzielania mięsa. Odkryto też ślady ognisk, a naukowcy wysunęli hipotezę, że neandertalczycy budowali rusztowania, na których wieszali mięso i suszyli je nad ogniem, w ten sposób je konserwując. Trudno jest jednak powiedzieć, w jak dużych grupach żyli neandertalczycy. Współcześni łowcy-zbieracze tworzą grupy od 15 do 30 osób. Średnio jest to 25 osób. Uznaje się, że grupy neandertalczyków były mniejsze. Zdaniem autorów badań, rozebranie tuszy Palaeoloxodon antiquus zajmowało 25 ludziom od 3 do 5 dni. Myśliwi musieli się spieszyć, by mięso nie zaczęło się psuć. A musimy pamiętać, że nie mogli jeść tylko mięsa. Dieta oparta wyłącznie na białku zwierzęcym grozi poważnymi komplikacjami, które pojawiają się bardzo szybko w wyniku niedoboru węglowodanów oraz tłuszczów i może doprowadzić do śmierci. Dlatego też musieli zajmować się również zdobywaniem innego pożywienia. Biorąc zaś pod uwagę, jak olbrzymią ilość mięsa pozyskiwali z jednego zabitego P. antiquus można przypuszczać, że było ono dzielone wśród dużej grupy. Wystarczało go bowiem na 3 miesiące dla 25 osób, pod warunkiem, że grupa potrafiła przez tak długi czas przechować zdobycz. « powrót do artykułu
  6. Plastikowe słomki są niebezpieczne dla ekosystemów morskich, mogą łatwo ranić zwierzęta, nie są biodegradowalne, są rzadko zbierane i poddawane recyklingowi. Jednak ich alternatywy również sprawiają wiele problemów. Papierowe słomki w kontakcie z płynem łatwo rozmiękają, więc są pokrywane plastikiem. To nie do końca chroni przed rozmiękaniem gdyż plastik nie łączy się dobrze z papierem, powierzchnia takich słomek wzmaga musowanie napojów gazowanych, używany w nich plastik również nie jest biodegradowalny, a jako że słomki są wykonane z połączenia dwóch materiałów, są bardzo trudne w recyklingu. Naukowcy z Koreańskiego Instytutu Badawczego Technologii Chemicznych (KRICT) wykorzystali dobrze znany w pełni biodegradowalny poli(bursztynian butylenu) – PBS – do którego dodali nieco nanokryształów celulozy. Powstał materiał do pokrywania papierowych słomek. Jako że zawiera on nanokryształy celulozy, które są głównym składnikiem papieru, powstał w pełni biodegradowalny plastik, który ściśle przylega do papierowych rurek. Pokryte nim rurki nie rozmiękają, ani nie wzmagają musowania. Eksperymenty wykazały, że takie słomki dobrze sprawują się w napojach zimnych i gorących, sprawdzają się zarówno w wodzie, herbacie, napojach gazowanych, mleku i innych płynach. Koreańczycy badali też stopień rozmiękania ich produktu w porównaniu ze standardowymi rurkami papierowymi. Gdy standardową papierową rurkę zanurzyli na 1 minutę w wodzie o temperaturze 5 stopni Celsjusza, a następnie obciążyli ją masą 25 gramów, doszło do jej znacznego wygięcia. Nowa rurka niemal się nie wygięła, nawet po obciążeniu masą 50 gramów. Sprawdzono też tempo, w jakim nowe rurki ulegają biodegradacji. Badania prowadzono zanurzając próbki na głębokość 1,5–2 metrów w morzu w pobliżu miasta Pohang. Standardowe plastikowe rurki oraz rurki wykonane z kukurydzy nie uległy żadnej biodegradacji po 120 dniach. Konwencjonalne papierowe rurki straciły w tym czasie jedynie 5% wagi. Tymczasem rurki opracowane przez KRICT uległy całkowitemu rozkładowi. Oczywiście zastąpienie plastikowych słomek ich w pełni biodegradowalnymi alternatywami nie doprowadzi do natychmiastowej zmiany stanu środowiska. Jednak pozytywne skutki będą kumulowały się w czasie, a jeśli będziemy stopniowo zastępowali plastik jego równie dobrymi, ale bezpiecznymi dla ludzi i środowiska alternatywami, przyszły ekosystem Ziemi będzie miał się znacznie lepiej. « powrót do artykułu
  7. Detektorysta Charlie Clarke znalazł w Warwickshire złoty naszyjnik z wisiorem. Widnieją na nim inicjały Henryka VIII i jego pierwszej żony Katarzyny Aragońskiej. Mieszkaniec Birmingham zainteresował się pracą z wykrywaczem metali zaledwie pół roku wcześniej. Badając pole w Warwickshire, nie natrafił na nic wartościowego i już miał skończyć prace, gdy nagle szczęście zaczęło mu sprzyjać. Po wykopaniu niezbyt głębokiego dołu natrafił na łańcuch i wisior ze złota i emalii. Na wisiorze widniały inicjały Henryka VIII i Katarzyny Aragońskiej. Clarke zgłosił znalezisko odpowiednim służbom w Birmingham Museum Trust. Następnie tamtejszy oficer poinformował Historic England (HE). Specjaliści HE przeprowadzili wykopaliska, by określić związek między znaleziskiem a jego lokalizacją. Niczego więcej nie odkryto. Rachel King, kuratorka działu renesansu europejskiego w British Museum, podkreśla, że niczego tych rozmiarów o tak dużym znaczeniu dla epoki renesansu nie znaleziono w Wielkiej Brytanii od przeszło ćwierćwiecza. Wisior w kształcie serca jest przyczepiony do łańcucha za pomocą emaliowanej dłoni. Na przodzie serca umieszczono czerwono-białą różą Tudorów, splecioną z pędami granatu (są to symbole Henryka i Katarzyny). Wyrastają one z tej samej gałązki. Na dole widnieje inskrypcja + TOVS + IORS. Francuskie toujours (zawsze) podzielono na tous i iors. Z tyłu umieszczono złączone wstążką inicjały H i K i ponownie inskrypcję + TOVS + IORS. Analizy wskazały, że biżuteria pochodzi z początku XVI w. - z okresu 1509-1533, z najprawdopodobniejszą datą ok. 1521 r. Mimo że przeprowadzona kwerenda nie wykazała żadnych związków pomiędzy wisiorem a Henrykiem czy Katarzyną, analizy potwierdziły jego autentyczność. Eksperci sądzą, że zabytek należał do wyższego rangą szlachcica lub dworzanina. Prawdopodobnie został wykonany na zamówienie, by służyć albo jako ozdoba, albo jako nagroda podczas jednego z licznych turniejów rycerskich, które Henryk uwielbiał. W komunikacie Historic England podkreślono, że wygląd obiektu przypomina zawieszki wykorzystywane w zbrojach końskich podczas turnieju w Greenwich w 1521 r. Rozmiar i waga sugerują, że ozdoba była przeznaczona dla kobiety, ale niewykluczone, że w ogóle nie miała być ona noszona. Po wyrażeniu zgody przez specjalistę z British Museum, wnętrze ozdoby zbadano za pomocą skaningowego mikroskopu elektronowego. W ten sposób udało się wyodrębnić historyczne zadrapania. Niektóre powstały podczas produkcji, inne są późniejsze. Zauważalna jest niespójność między wysoką czystością złota a standardami pracy rzemieślniczej. Niektóre elementy, np. klamra, są wykonane naprędce czy nierówno. Widać błędy i niedokładności. Możliwe, że w produkcji brało udział kilka osób. Jak wyjaśnili specjaliści, istnieją trzy opcje. Zważywszy na rozdźwięk między materiałem a jakością wykonania (fakturą), można np. założyć, że obiekt wykonano w pewnym pośpiechu. Wiele wskazuje na to, że jego znaczenie zasadzało się raczej na wartości materiału, a nie na rzemiośle; minimalne zastosowanie emalii może sugerować, że chodziło o łatwość ponownego wykorzystania czy stopienia. Niewykluczone także, że ozdoba nie miała być oglądana z bliska. Złożony z 75 ogniw łańcuch ma 43,4 cm długości i waży 267,4 g. Wisior ma długość 59,1 mm, maksymalną szerokość 55,5 mm i grubość 8,2 mm. Waży 50,2 g. Wisior odkryto przed pandemią, ale British Museum zaprezentowało go dopiero teraz, przy okazji ujawnienia 2 dorocznych raportów - Treasure Annual Report 2020 i Portable Antiquities Scheme (PAS) Annual Report 2021. « powrót do artykułu
  8. Uniwersytet Jagielloński wyśle w przestrzeń kosmiczną teleskop, który będzie poszukiwał śladów wodoru i deuteru wokół małych ciał Układu Słonecznego. Projekt HYADES, który właśnie został dofinansowany kwotą 3 milionów euro przez Europejską Radę ds. Badań Naukowych, ma na celu zbadanie pochodzenia wody na Ziemi oraz poszukiwanie jej źródeł w Układzie Słonecznym. Woda to jeden z najważniejszych składników, niezbędnych do rozwoju życia. Wiemy, że występuje ona na Marsie i wchodzi w skład komet. Jednak jej bezpośrednia obserwacja na kometach jest trudna. Znacznie łatwiej jest zaobserwować atomy wodoru uwolnione w gazowych otoczkach komet wskutek rozpadu cząsteczek wody, mówi kierownik projektu HYADES, doktor Michał Drahus. Atomy wodoru emitują dużo światła przez linię widmową Lyman alfa, dzięki czemu są bardzo czułym wskaźnikiem obecności wody. Jednak ten zakres promieniowania jest trudny w obserwacji. Znajduje się bowiem w zakresie dalekiego ultrafioletu, który jest całkowicie pochłaniany przez atmosferę Ziemi. Dlatego też naukowcy z UJ postanowili przenieść swoje obserwacje w kosmos. W ramach pięcioletniego projektu powstanie satelita wyspecjalizowany w poszukiwaniu wody. Jego głównym celem będzie zbadanie różnych grup komet pod kątem jej występowania. Jest to o tyle istotne, że zgodnie z obecnym stanem wiedzy, Ziemia uformowała się bez wody. Dopiero później ten życiodajny składnik trafił na naszą planetę. Jedna z hipotez mówi, że została ona przyniesiona przez komety. Dlatego też ich obserwacje mogą pomóc w określeniu, skąd wzięła się woda na Ziemi. O tym, czy komety mogły być źródłem wody na Błękitnej Planecie może świadczyć stosunek izotopów wodoru. Jeśli znajdziemy na kometach wodę o składzie izotopowym takim, jaki ma woda na Ziemi, będzie to silnym potwierdzeniem hipotezy o pochodzeniu wody. Misja HYADES może zrewolucjonizować naszą wiedzę na ten temat. O ile bowiem w ciągu ostatnich 35 lat tego typu badania przeprowadzono na próbce 12 komet uzyskując niejednoznaczne wyniki, to polscy naukowcy mają zamiar przebadać 50 komet w ciągu zaledwie 3 lat. Na tym jednak możliwości HYADES się nie kończą. Kosmiczny teleskop z UJ poszuka też nieznanych zasobów wody w Układzie Słonecznym. Naukowcy chcą przyjrzeć się m.in. grupie planetoid przypominających komety. Uzyskane informacje na temat sublimacji lodu wodnego z tych ciał dadzą nam unikalny wgląd w zawartość wody w pasie głównym planetoid, mówi doktor Drahus. Niezwykle interesującym celem badawczym mogą być też obiekty międzygwiezdne, które podróżują przez Układ Słoneczny. Obiekty te mają niesłychane znaczenie dla nauki, gdyż uformowały się wokół innych gwiazd, w związku z czym przynoszą nam unikalne informacje o swoich macierzystych układach planetarnych, mówi Michał Drahus. Dotychczas zidentyfikowaliśmy dwa tego typu obiekty – 1I/Oumuamua oraz 2I/Borisov – naukowcy sądzą jednak, że jest ich znacznie więcej. « powrót do artykułu
  9. Amerykańska firma biotechnologiczna Colossal twierdzi, że w 2027 roku doprowadzi do ponownego pojawienia się na Ziemi jednego z najbardziej znanych, nieistniejących już gatunków – mamuta włochatego. Jeśli się uda, mamut zostanie reintrodukowany w środowisku arktycznym, w którym niegdyś żył. Przedsiębiorstwo, w które zainwestowała m.in. rządowa firma venture capital In-Q-Tel, finansująca prace nad najnowszymi technologiami na potrzeby CIA, chce w ten sposób walczyć ze zmianami klimatu czy pomóc w przetrwaniu słoniom. Gdyby w Arktyce znowu wędrowały stada mamutów doprowadziłoby to – zdaniem przedstawicieli Colossal – do przekształcenia arktycznego krajobrazu z obecnego lesistego porośniętego licznymi krzewami w stepowy. Taki ekosystem miałby lepiej radzić sobie ze zmianami klimatu i pomóc je powstrzymać. Celem Colossal jest też udoskonalenie technik genetycznych, wykorzystanie ich do walk ze zmianami klimatu czy też uodpornienie natury na negatywny wpływ człowieka na kluczowe ekosystemy. Genom mamuta jest w 99,6 zgodny z genomem słonia azjatyckiego. I właśnie w tym Colossal pokłada nadzieje. Dla wielu ludzi gatunek ten bezpowrotnie wyginął. Ale nie dla nas i naszych naukowców. Pracujemy nad przywróceniem mamuta włochatego. Zebraliśmy odpowiedniej jakości próbki DNA i metodą edycji genów doprowadzimy do ponownego pojawienia się tego przedstawiciela arktycznej megafauny, czytamy na firmowej witrynie. Najpierw ma powstać embrion mamuta, który zostanie umieszczony w macicy słonia afrykańskiego. Gatunek ten wybrano zarówno ze względu na fakt, iż jest mniej zagrożony niż słoń azjatycki, jak i ze względu na jego rozmiary. Celem jest osiedlenie mamutów w niektórych częściach Arktyki. Początkowo myślano o Syberii, jednak ze względu na sytuację polityczną plany te mogą ulec zmianie. Przedstawiciele Colossal twierdzą, że jeśli uda się przywrócić mamuta, to udoskonalone dzięki temu techniki genetyczne pozwolą myśleć o przywróceniu innych gatunków, jak również o uratowaniu jeszcze istniejących. Pojawienie się mamutów ma mieć też olbrzymi wpływ na klimat. Olbrzymie rozmiary ciała, potężny chód i rozległe szlaki migracji przynosiły olbrzymie korzyści całej Arktyce. Step Mamutów był w przeszłości największych ekosystemem na Ziemi. Rozciągał się od Francji po Kanadę i od arktycznych wysp po Chiny. Był domem dla milionów wielkich roślinożerców. Zwierzęta te były kluczowym elementem ochrony tego ekosystemu, który był tak wielki, że wpływał, a nawet niemal kontrolował, klimat planety, stwierdzają przedstawiciele firmy. Step ten pochłaniał olbrzymie ilości węgla z atmosfery. Po zniknięciu mamutów ekosystem uległ zmianie, pojawiły się lasy i mokradła, które nie są tak efektywne. Jeśli Step Mamutów by powrócił, mógłby pomóc w walce z globalnym ociepleniem i chroniłby wieczną zmarzlinę, jeden z największych na świecie rezerwuarów węgla. Jeśli uda się z mamutem, Colossal może spróbować ożywić dodo czy wilka workowatego. Ostatnie mamuty wyginęły około 4000 lat temu. Zwierzęta te żyły zatem w czasach, gdy ludzkość używała pisma, wybudowała Wielką Piramidę w Gizie i warzyła piwo. « powrót do artykułu
  10. Większość ludzi korzysta z urządzeń elektronicznych. Gdy zaczynają one szwankować, bądź gdy pojawi się nowszy model, znaczna część użytkowników bez zastanowienia wyrzuca stare urządzenie i zastępuje je nowym. Dlatego śmieci elektroniczne są najszybciej rosnącą kategorią odpadów. Każdego roku wyrzucamy około 40 milionów ton elektroniki. A problem narasta, gdyż im więcej elektroniki wokół nas – a np. w przeciętnym amerykańskim gospodarstwie domowym znajdują się już 24 urządzenia elektroniczne – tym krótszy średni czas użytkowania urządzenia. Naukowcy z University of Chicago postanowili sprawdzić, czy można zmienić relacje pomiędzy człowiekiem a gadżetem poprzez dosłowne... ożywienie gadżetu. Eksperyment przywodzi na myśl popularną zabawkę tamagotchi. Jasmine Lu i profesor Pedro Lopes wykorzystali śluzowca z gatunku Physarum polycephalum do pomocy w zasilaniu smartwatcha. Urządzenie w pełni działa tylko wówczas, gdy przewodzący prąd organizm jest zdrowy. A to wymaga dbałości ze strony użytkownika. Zmusiliśmy w ten sposób użytkowników do przemyślenia swojego związku z urządzeniem na wiele różnych sposobów. Gdy rozmawialiśmy z nimi o ich doświadczenia ze standardowymi smartwatchami, opaskami i inną ubieralną elektroniką, ludzie mówili, że wykorzystują te urządzenia utylitarnie, w konkretnym celu. Jednak w przypadku naszego urządzenia to podejście się zmieniło, bardziej odczuwali tutaj dwukierunkowy związek i przywiązanie, gdyż musieli opiekować się żywym organizmem. Czuli, że nie mogą go wyrzucić czy zamknąć w szufladzie, mówi Jasmine Lu. Zbudowane przez Lu zegarki pokazują godzinę i mierzą puls właściciela. Jednak druga z ich funkcji jest całkowicie zależna od kondycji śluzowca. Organizm znajduje się w jednej z części specjalnego pojemnika. Użytkownik musi regularnie odżywiać go wodą i płatkami owsianymi. Dzięki temu śluzowiec rozrasta się i dociera do drugiej części pojemnika. Powstaje obwód elektryczny, który aktywuje funkcję pomiaru tętna. Śluzowiec, gdy nie jest odpowiednio odżywiany, przestaje się rozrastać, wchodzi w stan uśpienia, w którym może pozostawać całymi latami. W eksperymencie wzięło udział 5 osób, które nosiły urządzenie przez dwa tygodnie. W ciągu pierwszych 7 dni zadaniem użytkowników było dbanie o śluzowca tak, by doszło do aktywowania funkcji pomiaru tętna. W drugim tygodniu poproszono ich, by zaprzestali karmienia, by śluzowiec wysechł, a pomiar tętna się wyłączył. Przez cały czas trwania eksperymentu użytkownicy mieli opisywać swoje myśli i odczucia względem urządzenia w dzienniczku, odpowiadali też na pytania eksperymentatorów. Okazało się, że użytkownicy czyli się mocno związani z zegarkiem. Niektórzy stwierdzili, że traktowali go jak domowego pupila, nadali mu imię, a gdy byli chorzy, prosili kogoś innego, by karmił śluzowca. Przyznali, że ich związek z organizmem był silniejszy niż z wirtualnymi bytami, jak tamagotchi czy Simy. Jeszcze bardziej zaskakujące była reakcja uczestników eksperymentu na prośbę, by przestali karmić organizm. Zaczęli oni odczuwać winę, a nawet żałobę. Byli w szoku. Niemal każdy upewniał się, czy na pewno ma to zrobić, mówi Lopes. Lu i Lopes zaprezentowali wyniki swoich badań podczas 2022 ACM Symposium on User Interface Software and Technology, jednej z najważniejszych konferencji dotyczących interakcji ludzi i komputerów. Uczeni mają nadzieję, że zainspiruje to przemysł do tworzenia kreatywnych urządzeń zasilanych dzięki śluzowcom i zachęci projektantów do tworzenia technologii, których ludzie mniej chętnie będą się pozbywali i nawiązywali z nimi silniejsze więzi. Chcą, by dzięki temu więcej osób oddawało zepsute urządzenia do naprawy, a nie pozbywało się ich, generując kolejne miliony ton odpadów. « powrót do artykułu
  11. Spożywanie niezwykle wysoko przetworzonej żywności – takiej jak napoje gazowane, masowo produkowane pakowane pieczywo, wiele rodzajów dań gotowych czy większość płatków śniadaniowych – może być powiązane ze zwiększonym ryzykiem zachorowania i zgonu z powodu nowotworów, ostrzegają naukowcy z Imperial College London (ICL). Są oni autorami najszerzej zakrojonej analizy, podczas której badali związek pomiędzy najbardziej przetworzonymi rodzajami żywności a nowotworami. Najwyżej przetworzona żywność jest zwykle dość tania, wygodna w użyciu i intensywnie reklamowana, często zresztą jako żywność zdrowa. Jednak w rzeczywistości zawiera ona sporo soli, cukru, tłuszczu i sztucznych dodatków. Wiemy też o jej fatalnym wpływie na zdrowie i związkach z otyłością, cukrzycą typu II oraz chorobami układu krążenia. Naukowcy z ICL wykorzystali UK Biobank, skąd pobrali dane dotyczące diety 200 000 osób w średnim wieku. Przez 10 lat monitorowali stan zdrowia tych ludzi, zwracając szczególną uwagę na ryzyko rozwoju jednego z 34 rodzajów nowotworów oraz ryzyko zgonu z powodu nowotworu. Analiza wykazała, że wyższa konsumpcja najbardziej przetworzonej żywności wiąże się z większym ryzykiem zapadnięcia na nowotwory w ogóle, w szczególności zaś na nowotwory jajnika i mózgu. Zwiększa się też ryzyko zgonów z powodu nowotworów. Na każdy 10-procentowy wzrost udziału bardzo wysoko przetworzonej żywności w diecie, całkowite ryzyko rozwoju nowotworu rośnie o 2%, a ryzyko nowotworu jajnika o 19%. Ponadto każdy 10-procentowy wzrost konsumpcji takiej żywności był powiązany z 6-procentowym wzrostem ryzyka zgonu z powodu nowotworu. Ryzyko zgonu z powodu nowotworu piersi rosło o 16%, a z powodu nowotworu jajnika o 30%. Związek taki był widoczny również po uwzględnieniu innych czynników ryzyka, jak palenie papierosów, aktywność fizyczna, BMI czy inne składniki diety. To kolejne badania wskazujące, że bardzo wysoko przetworzona żywność ma negatywny wpływ na zdrowie, w tym na ryzyko rozwoju nowotworów. Ma ono szczególne znacznie w Wielkiej Brytanii, gdzie dorośli i dzieci spożywają rekordowo dużo takiej żywności, mówi jedna z autorek studium, doktor Eszter Vamos. Chociaż nasze badania nie dowodzą związku przyczynowo-skutkowego, inne dostępne dowody wskazują, że zmniejszenie ilości wysoko przetworzonej żywności w diecie może nieść ze sobą korzyści zdrowotne. Potrzebne są kolejne badania, by potwierdzić nasze spostrzeżenia oraz lepiej zrozumieć działania, jakie powinniśmy podjąć, by zmniejszyć ilość szkodliwej żywności. Wtóruje jej doktor Kiara Chang, główna autorka badań: przeciętny mieszkaniec Wielkiej Brytanii czerpie ponad połowę dziennej dawki kalorii z bardzo wysoko przetworzonej żywności. Szczególnie problematyczny jest fakt, że taka żywność zawiera wiele przemysłowych półproduktów, które mają za zadanie dostosować jej kolor, smak, teksturę, konsystencję i wydłużyć jej czas przydatności do spożycia. Nasze organizmy mogą nie reagować w ten sam sposób na bardzo wysoko przetworzoną żywność i stosowane w niej dodatki, jak reagują na żywność świeżą i przetworzoną w niewielkim stopniu. Żywność bardzo wysoko przetworzona jest intensywnie reklamowana, tania i atrakcyjnie opakowana, by zwiększyć jej sprzedaż. Potrzebne są pilne zmiany, by chronić ludzi przed taką żywnością. Tego typu działania są podejmowane w niektórych krajach. Francja, Kanada i Brazylia zmieniły swoje zalecenia dietetyczne, a w Brazylii zakazano oferowania takiej żywności w szkołach. « powrót do artykułu
  12. Naukowcy czekają na uruchomienie Vera C. Rubin Observatory, obserwatorium astronomicznego, którego budowa dobiega końca w Chile. Na jego potrzeby powstał najpotężniejszy aparat fotograficzny na świecie. Obserwatorium ma co trzy tygodnie wykonywać fotografie całego nieboskłonu. Jego główny program badawczy – Legacy Survey of Space and Time – zakłada utworzenie mapy Drogi Mlecznej, dokonanie spisu obiektów w Układzie Słonecznym czy zbadanie niewyjaśnionych sygnałów dobiegających z głębi wszechświata. Jednak obserwatorium może nigdy nie spełnić pokładanych w nim nadziei. Niedawno opublikowane raporty przygotowane przez zespół obserwatorium, a także amerykańskie Government Accountability Office – odpowiednik polskiej NIK – rysują przyszłość astronomii w ciemnych barwach. Konstelacje sztucznych satelitów, których panele słoneczne i anteny odbijają światło, mogą praktycznie uniemożliwić naziemne badania astronomiczne w świetle widzialnym. Niemożliwe mogą stać się badania kolizji czarnych dziur czy obserwacje asteroid bliskich Ziemi. Specjaliści ostrzegają, że mamy ostatnią możliwość, by temu zapobiec. Obecnie na orbicie okołoziemskiej znajduje się ponad 5400 satelitów. Większość z nich, umieszczona na niskich orbitach, okrąża Ziemię w ciągu około 1,5 godziny. Od czasu, gdy w 2019 roku firma SpaceX wystrzeliła swoją pierwszą grupę pojazdów i rozpoczęła budowę konstelacji Starlink, liczba sztucznych satelitów szybko rośnie, a będzie rosła jeszcze szybciej, gdyż dołączają kolejne przedsiębiorstwa. Z danych amerykańskiej Federalnej Komisji Komunikacji oraz Międzynarodowej Unii Telekomunikacji wynika, że tylko do tych dwóch organizacji wpłynęły wnioski o zezwolenie na wystrzelenie w najbliższych latach 431 713 satelitów, które będą tworzyły 16 konstelacji. Jeśli nad naszymi głowami będzie krążyło 400 000 satelitów, to będą one widoczne na każdym zdjęciu wykonanym w ramach badań astronomicznych. I nawet jeśli udałoby się automatycznie usunąć je z fotografii, to przy okazji utracona zostanie olbrzymia liczba informacji. Wyeliminowanie takich satelitów z obrazów będzie jednak bardzo trudne, między innymi dlatego, że będą się one poruszały w różny sposób i w różny sposób wyglądały w zależności od stosowanych filtrów kolorów. Eksperci, którzy pracują nad systemem wysyłającym automatyczne alerty do społeczności astronomów, gdyby Vera C. Rubin Observatory odkryło coś nowego – np. supernową – na nieboskłonie, obliczają, że konstelacje satelitów mogą doprowadzić do pojawienia się... 10 milionów fałszywych alertów na dobę. To pokazuje, jak ważne jest usuwania satelitów ze zdjęć. Nie wiadomo jednak, czy uda się uniknąć wszystkich takich fałszywych alertów, jak wiele informacji zostanie przy okazji utraconych i ile interesujących obiektów pozostanie przez to niezauważonych. Konstelacje sztucznych satelitów mogą też znacznie utrudnić obserwację asteroid bliskich Ziemi. Dotychczas było wiadomo, że najlepszym momentem do ich wyszukiwania jest zmierzch. Jednak o zmierzchu panele słoneczne satelitów będą dobrze oświetlone, zaburzając możliwość obserwacji. Problem narasta. We wrześniu ubiegłego roku firma AST SpaceMobile wystrzeliła swojego prototypowego satelitę o nazwie BlueWalker3. Gdy dwa miesiące później rozwinął on anteny o powierzchni ponad 64 metrów kwadratowych, stał się jednym z najjaśniejszych obiektów na niebie. Jaśniejszym niż 99% gwiazd widocznych gołym okiem. A to dopiero początek. AST SpaceMobile chce w najbliższych latach wystrzelić 168 jeszcze większych satelitów. Obok pytania o wpływ konstelacji satelitów na badania naukowe rodzi się też pytanie o kwestie kulturowe czy filozoficzne. Czy kilka wielkich koncernów ma prawo kontrolować to, co ludzie widzą na nocnym niebie. Czy niebo, które przez wieki wpływało na literaturę, malarstwo, filozofię może zostać de facto sprywatyzowane przez kilka przedsiębiorstw liczących na kolosalne zyski. Istnieje bowiem poważne niebezpieczeństwo, że już za kilka lat, chcąc spojrzeć w rozgwieżdżone niebo, zobaczymy na nim więcej odbijających światło słoneczne sztucznych satelitów niż gwiazd. I nie będzie miało znaczenia, w którym miejscu Ziemi będziemy mieszkali. « powrót do artykułu
  13. W Carlisle w Anglii odkryto ponad 30 gemm (intaglio) sprzed ok. 1800 lat. W ramach projektu Uncovering Roman Carlisle prowadzone są wspierane przez społeczność wykopaliska w Carlisle Cricket Club. Badane są rzymskie termy, odkryte w 2017 r. przez archeologów z Wardell Armstrong. Termy znajdują się nieopodal rzymskiego fortu Uxelodunum (Petriana). Był to największy fort wału Hadriana. Podczas wcześniejszych wykopalisk odkryto kilka pomieszczeń, system ogrzewania podłogowego hypocaustum, a także terakotowe rury wodociągowe, nietknięte podłogi, malowane kafle i fragmenty naczyń kuchennych. W łaźniach odpoczywali żołnierze. Kilku wyższych rangą (być może byli to przedstawiciele rzymskiej elity) zgubiło gemmy, które skończyły w odpływie. Dotąd znaleziono 34 gemmy z reliefem wklęsłym - intaglio. Datują się one na koniec II lub III w. n.e. Widnieją na nich różne motywy i symboliczne postaci, np. Wenus trzymająca w prawej ręce liść palmowy, a lewej, wyciągniętej, lustro bądź kwiat, siedzący na kamieniu satyr (naprzeciw niego znajduje się święta kolumna, z której wyrasta roślina) czy mysz żerująca przy pniu drzewa. Gemmy wykonano z kolorowego szkła i różnych kamieni: karneolu, jaspisu czy ametystu. Takich przedmiotów nie znajduje się na poślednich rzymskich stanowiskach. [W końcu] nie nosili ich biedni ludzie. Niektóre intaglio są miniaturowe - 5-mm; największe mierzy 16 mm. Do wykonania czegoś takiego potrzeba nie lada umiejętności - podkreśla Frank Giecco z Wardell Armstrong. Giecco, który kieruje wykopaliskami w łaźniach, podkreśla, że gemmy wypadły z pierścieni gości. Mocowano je za pomocą kleju roślinnego, który nie wytrzymywał wysokiej temperatury i wilgotności. Należy też pamiętać, że biżuterię wykonywano z metalu, a ten się w takich warunkach rozszerzał. W większości wypadków gubiono same intaglio, znaleziono też jednak pojedyncze całe pierścienie (żelazny oraz wykonany z brązu, z intaglio z niebieskiego szkła, na którym widać postać mężczyzny). Podczas wykopalisk odkryto także ponad 40 szpilek do włosów, 35 szklanych koralików (prawdopodobnie z naszyjnika), glinianą figurę Wenus, zwierzęce kości oraz kafle z wizerunkiem pieczęci cesarza, co sugeruje, że łaźnie były dużą konstrukcją i nie służyły wyłącznie żołnierzom z fortu Uxelodunum, ale również lokalnej elicie i mieszkańcom fortu Luguvalium. « powrót do artykułu
  14. Zima i jesień to czas, kiedy infekcje pojawiają się, jak grzyby po deszczu. Zmienna pogoda, wychłodzenie organizmu, czy źle dopasowane ubranie do warunków pogodowych może zakończyć się zwolnieniem lekarskim. Wirusy, które inicjują infekcje dróg oddechowych, uwielbiają niskie temperatury. To właśnie wtedy sztafeta firmowych przeziębień biegnie coraz szybciej. Jeden pracownik zaraża drugiego i już po chwili braki kadrowe mocno dają się we znaki. Osoby chore skarżą się na ból głowy, ból gardła, gorączkę, stan podgorączkowy, ogólne rozbicie, katar, kaszel i problemy z zatokami. Obniżenie nastroju i złe samopoczucie sprawia, że trudno normalnie funkcjonować. Słaba odporność może także doprowadzić do zaostrzenia się chorób przewlekłych. Jak więc skutecznie poradzić sobie z infekcjami górnych dróg oddechowych, uciążliwą gorączką i bólem zatok, które mocno dają w kość? Jesień i zima, czyli niekończące się infekcje górnych dróg oddechowych Przeziębienie to słowo wypowiadane bardzo często jesienią i zimą, czyli w tych okresach, kiedy łatwo o wychłodzenie naszego organizmu. Jest to również czas, kiedy zmienia się nasz rytm życia. Aktywności na świeżym powietrzu stają się rzadsze, aż w końcu całkowicie zanikają ze względu na pogodę. Jeśli przemokniemy, przewieje nas lub po prostu przemarzniemy, to ryzyko infekcji zdecydowanie wzrasta. Jest to związane z mniejszym stężeniem witaminy D3 w naszym organizmie. Latem słońca jest więcej, a jesienią i zimą dni są krótsze i często pozbawione słońca. Brak dostatecznego nasłonecznienia wpływa na nasz układ immunologiczny. Ryzyko infekcji zdecydowanie wzrasta. Pojawia się gorączka, ból zatok, osłabienie i ogólne rozbicie. Ważne, aby nie zbagatelizować pierwszych objawów. Nie ma sensu czekać, aż choroba się rozwinie. Najlepiej sięgać po sprawdzone środki dostępne na stronie https://apteline.pl/bol-i-goraczka/bol-zatok. Ból zatok i gorączka Nasz organizm jest bezbronny, kiedy dojdzie do wyziębienia. Zwiększona aktywność drobnoustrojów może doprowadzić do choroby, która położy nas do łóżka. Przemęczenie i osłabienie organizmu sprawia, że jesteśmy podatni na panujące dookoła przeziębienia. Jesień to również czas, kiedy nasze pociechy rozpoczynają swój rok szkolny, a tym samym narażone są na zwiększony kontakt z drobnoustrojami. Infekcje zabierają ze sobą do domu i hojnie częstują rodzeństwo, czy rodziców. Bardzo częstym schorzeniem jest zapalenie zatok i towarzysząca im gorączka lub podwyższona temperatura. Pojawia się rozsadzający ból twarzoczaszki i uczucie całkowitej niedrożności nosa. Infekcja całkowicie osłabia nasz organizm w szczególności, kiedy pojawiają się dreszcze związane z gorączką. W takiej sytuacji wskazane będą preparaty na zapalenie zatok oraz leki przeciwgorączkowe, które zwalczą temperaturę. Te pierwsze występują w postaci aerozolu lub kropel. Skutecznie obkurczają błonę śluzową i zdecydowanie poprawiają komfort oddychania. Jeśli złe samopoczucie utrzymuje się dłużej warto także odwiedzić lekarza, który może zalecić przyjmowanie antybiotyku. Domowe sposoby na zapalenie zatok W początkowym stadium choroby możemy wspomagać się domowymi sposobami na leczenie zapalenia zatok. Świetnie sprawdzają się inhalacje. Udrażniają drogi oddechowe i wspomagają proces pozbywania się zalegającej wydzieliny. Sprawdzi się tu sól kuchenna, rumianek lub olejek eteryczny o zapachu sosny, lawendy i eukaliptusa. Równie istotne jest nawilżanie śluzówki nosa. Warto pamiętać o dobrym nawilżaniu powietrza, a także odpowiednim nawadnianiu organizmu, które pomoże w rozrzedzeniu zalegającej wydzieliny. « powrót do artykułu
  15. Osoby, które poszukują pracy, bardzo często rozsyłają dziesiątki CV we wszystkie możliwe miejsca. Jeśli telefon uparcie milczy, to znak, że czas przyjrzeć się swoim dokumentom rekrutacyjnym. Warto mieć świadomość tego, że stanowią one pierwszy, a zarazem najważniejszy etap rekrutacji. Jakie powinno być skuteczne CV? Wiele osób zastanawia się, jak napisać cv poprawnie, tak aby zwróciło uwagę potencjalnego rekrutera. Tymczasem trzeba pamiętać o tym, że taka osoba codziennie otrzymuje nawet kilkanaście dokumentów CV. Badania wykazały, że na każdy z nich rekruter poświęca nie więcej niż kilkanaście sekund. Dlatego profesjonalne CV powinno być na tyle proste, by rekruter bez trudu mógł dotrzeć do wszystkich pożądanych informacji. Przy tworzeniu CV trzeba unikać skomplikowanych zdań, dzielić treści na akapity i stosować punktory – jednym słowem – zrobić wszystko, by pismo było jak najbardziej czytelne. Nie bez znaczenia jest również odpowiednia objętość dokumentu – profesjonalne CV nie powinna przekraczać dwóch stron A4. Co z warstwą graficzną? W internecie dostępne są najróżniejsze wzory dokumentów rekrutacyjnych. Nie tylko treść CV jest ważna – rekruter z pewnością zwróci uwagę także na estetykę i wygląd. Pomimo tego, że prostota jest w cenie, CV nie powinno się tworzyć w podstawowym edytorze tekstu, wpisując po prostu kolejne, następujące po sobie sekcje. Warto poświęcić nieco więcej czasu i wysiłku, aby dokument prezentował się jak najbardziej profesjonalnie. Osoby, które nie posiadają zmysłu estetycznego, mogą wspierać się gotowymi szablonami, dostępnymi w sieci. Jakie informacje powinno zawierać skuteczne CV? Osoby, które nie mogą się pochwalić rozbudowanym doświadczeniem zawodowym, powinny mimo wszystko unikać świadczenia nieprawdy w CV. W dokumencie nie powinno się także wpisywać informacji, które mogą być zbędne dla pracodawcy. Do takich należą między innymi niezwiązane z pracą szkolenia, wczesne etapy edukacji, szczegółowe zainteresowania. CV powinno kłaść nacisk przede wszystkim na te informacje, które mogą zainteresować potencjalnego pracodawcę. Nawet te osoby, które codziennie wysyłają dziesiątki aplikacji na różne stanowiska, powinny zadbać o to, by unikać wrażenia, że ich CV jest rozsyłane na zasadzie kopiuj-wklej. Potencjalny rekruter powinien poczuć, że jest to dokument skierowany do niego. Dobre CV to dokument, który dopasowane jest do konkretnego ogłoszenia o pracę. Dlaczego dobre CV jest tak ważne? Nie ma co ukrywać – CV to bardzo często pierwsza i jedyna forma kontaktu z rekruterem. Trzeba zaznaczyć, że stanowi ono zawodową wizytówkę i decyduje o tym, czy dany kandydat zostanie zaproszony do dalszych etapów procesu rekrutacji. Warto więc zadbać o to, by CV odpowiednie wrażenie robiło już na pierwszy rzut oka. Musi być nie tylko bogate w rzetelne i istotne informacje. Równie ważna jest jego szata graficzna. Jak widać, stworzenie CV to pierwszy krok na drodze do zawodowego sukcesu. Wcale nie jest to tak łatwe, jak się wydaje! « powrót do artykułu
  16. Niektóre zabytkowe budowle na stanowisku archeologicznym w Starej Dongoli (Sudan) są zasiedlone przez nietoperze. By zbadać interakcje między zwierzętami, zabytkami i pojawiającymi się tu ludźmi, naukowcy z Uniwersytetu Przyrodniczego w Poznaniu (UPP) dołączyli w styczniu br. do ekspedycji. Towarzyszyli specjalistom z Centrum Archeologii Śródziemnomorskiej Uniwersytetu Warszawskiego, konserwatorom z Akademii Sztuk Pięknych w Warszawie oraz inżynierom budowlanym z Politechniki Warszawskiej. Celem podejmowanych działań jest znalezienie rozwiązań umożliwiających pogodzenie potrzeby zabezpieczenia cennych zabytków, zapewnienia bezpieczeństwa ludziom oraz ochrony lokalnych populacji nietoperzy, które w warunkach pustynnych dysponują bardzo ograniczoną liczbą dogodnych schronień – podkreślono w komunikacie UPP. Prace archeologiczne na stanowisku w Starej Dongoli, która leży na wschodnim brzegu Nilu, w połowie drogi między 3. i 4. kataraktą, rozpoczęto 59 lat temu. Przed dwoma laty polscy archeolodzy odkryli tutaj niezwykle interesujące ruiny. Pierwszym kierownikiem misji był prof. Kazimierz Michałowski. Dziś funkcję tę pełni dr hab. Artur Obłuski, dyrektor Centrum Archeologii Śródziemnomorskiej UW. Stanowisko ma powierzchnię niemal 200 ha. Południową część zajmuje cytadela i otaczająca ją zabudowa miejska, a w części wschodniej zlokalizowane są cmentarzyska z różnych okresów funkcjonowania miasta, z kompleksem muzułmańskich grobowców zwieńczonych kopułami. Na północy natomiast rozciąga się zabudowa podmiejska z rezydencjami o powierzchniach rzędu 100–120 m2 - wyjaśniono w komunikacie. W Dongoli odkryto pozostałości po kilkunastu kościołach oraz dwóch klasztorach. Na wschód od cytadeli znajdowała się natomiast monumentalna budowla reprezentacyjna, prawdopodobnie sala tronowa władców Makurii, która z czasem została przekształcona w meczet. Niektóre zabytki - Klasztor Świętej Trójcy, meczet oraz kopuły grobowe - zostały zasiedlone przez nietoperze. Szczególnie interesujące są pierwsze dwa. W Klasztorze Świętej Trójcy, zwanym też Wielkim Klasztorem Antoniego, zachowały się unikatowe malowidła z XI–XIII wieku. Przedstawiono na nich m.in. Chrystusa, Marię, apostołów czy sceny biblijne. Z kolei na ścianach XII-wiecznej krypty arcybiskupa Georgiosa znajdowały się teksty greckie, koptyjskie i staronubijskie. Niezwykły meczet w Starej Dongoli to najstarszy zachowany meczet w Sudanie. Jest to dwupiętrowy budynek o wysokości 12 metrów, który powstał w IX wieku jako sala tronowa bądź kościół. W 1317 roku został zaadaptowany na świątynię muzułmańską. To najlepiej zachowany przykład średniowiecznej architektury Nubii z polichromiami. Budynek był stale użytkowany przez ponad 1100 lat. Niestety, jest w bardzo złym stanie. Nietoperze korzystają z obu wspomnianych budowli oraz z pięciu grobowców. Na stałe występują tam cztery gatunki: grobownik gołobrzuchy, grobownik sawannowy, brodawkonos mały oraz grzebieniec palmowy. Tworzą one w zabytkach kolonie liczące od kilkudziesięciu do kilkuset osobników. Największą, liczącą 620 zwierząt, utworzyły w jednym z grobowców grzebieńce palmowe, a towarzyszyła im kolonia grobowników gołobrzuchych złożona ze 120 osobników. Dyrektor Centrum Archeologii Śródziemnomorskiej UW, dr hab. Artur Obłuski, zaprosił prof. dr. hab. Piotra Tryjanowskiego i dr. hab. Andrzeja Węgla z Uniwersytetu Przyrodniczego w Poznaniu do wzięcia udziału w ekspedycji archeologicznej. Naukowcy z Poznania mieli za zadanie rozpoznanie gatunków nietoperzy i opracowanie rozwiązań, które pogodziłyby ochronę zabytków i siedlisk nietoperzy z zapewnieniem bezpieczeństwa ludziom oraz zwierzętom. Przyrodnicy pobrali próbki guana i dzięki analizie DNA określą dietę nietoperzy, co pozwoli im na rozpoznanie środowisk żerowania i roli tych ssaków w lokalnych ekosystemach. Odłowiono też nieco zwierząt i pobrano wymazy z pyszczków. To pozwoli na zbadanie obecnych tam grzybów, bakterii i wirusów oraz określenie ewentualnego zagrożenia, jakie mogą one stanowić dla ludzi. Stara Dongola powstała w IV lub V wieku na wschodnim brzegu Nilu, pomiędzy 3. a 4. kataraktą. Miasto założono pośrodku nowo powstałego królestwa Makurii, a jego rozwój jest ściśle związany z przyjęciem chrześcijaństwa przez Makurię w VI wieku. Wiemy, że w 652 roku miasto było oblegane przez armię muzułmańskiego namiestnika Egiptu Abd Allaha ibn Sada. W IX wieku, za panowania Zachariasza i Georgiosa, powstał Kościół Krzyżowy. W IX wieku wybudowano też okazały pałac z salą tronową na piętrze. Okres największego rozwoju miasta przypadł na wieki IX–XI. Pod koniec XIII wieku król Dawid podjął nieudaną ekspedycję na północ, co doprowadziło do ataku odwetowego Mameluków. Zdobyli oni Starą Dongolę, dokonując zniszczeń. W 1317 roku salę tronową przerobiono na meczet, a w 1364 roku, w obliczu zagrożenia ze strony plemion pustyni, królowie Makurii przenieśli stolicę w inne miejsce. Do XVI wieku Starą Dongolą rządził lokalny władca. Później został podporządkowany on Sułtanatowi Sannar. W XX wieku mieszkańcy opuścili miasto i przenieśli się do sąsiednich wiosek. « powrót do artykułu
  17. Amerykański Narodowy Instytut Alergii i Chorób Zakaźnych (NIAID) poinformował o pozytywnych wynikach I fazy testów klinicznych pierwszej szczepionki przeciwko wirusowi Marburg (MARV). To należący do tej samej rodziny co Ebola wirus powodujący gorączki krwotoczne. Marburg jest jednak znacznie bardziej śmiercionośny. Średnia odsetek zgonów u zarażonych tym wirusem wynosi 88%, podczas gdy w przypadku Eboli jest to około 50%. Wirus Marburg został po raz pierwszy zidentyfikowany po tym, jak choroba pojawiła się w 1967 roku jednocześnie w Marburgu i Frankfurcie w Niemczech oraz w Belgradzie w Jugosławii. Zachorowania powiązano wówczas z eksperymentami na kotawcach zielonosiwych sprowadzonych z Ugandy. Od tamtego czasu notowano sporadyczne przypadki zachorowań w Afryce. W sierpniu 2021 poinformowano o pierwszym w Afryce Zachodniej przypadku infekcji wirusem Marburg. Rezerwuarami tego wirusa są nietoperze z rodziny rudawkowatych z plemienia Rousettini. Infekcje pomiędzy ludźmi rozprzestrzeniają się za pomocą płynów ustrojowych, zarówno w bezpośrednim kontakcie, jak i pozostawionych na powierzchniach. Okres jego inkubacji wynosi od 2 do 21 dni. Największa udokumentowana epidemia wywołana przez Marburg miała miejsce w 2005 roku w Angoli. Zaraziły się wówczas 374 osoby, zmarło 329 z nich. Nie znamy żadnego lekarstwa przeciwko temu patogenowi. Dlatego tak ważne jest opracowanie szczepionki. Eksperymentalna szczepionka o nazwie cAd3-Marburg powstała w należącym do NIAID Centrum Badań nad Szczepionkami. Wykorzystuje ona szympansi adenowirus cAd3, który został zmodyfikowany tak, że nie może się replikować czy zarażać komórek. Na powierzchni adenowirusa prezentowana jest taka sama glikoproteina, jak znajdująca się na powierzchni wirusa MARV. Platforma wykorzystująca cAd3 dowiodła już swojego bezpieczeństwa podczas wcześniejszych badań nad szczepionkami na Ebolę i wirus Sudan. Pierwsze testy kliniczne cAd3-Marburg zostały przeprowadzone w Walter Reed Army Institute of Research Clinical Trials Center. Wzięli w nich udział 40 zdrowych ochotników w wieku 18–50 lat. Celem testu było sprawdzenie bezpieczeństwa szczepionki. Najpierw trzem ochotnikom podano niską dawkę szczepionki. Gdy po 7 dniach u żadnego z nich nie pojawiły się żadne poważne reakcje, niską dawkę szczepionki podano kolejnym 17 osobom. Identyczną procedurę zastosowano w grupie, która otrzymała wyższą dawkę. Ochotnicy przez 48 tygodni byli monitorowani zarówno pod kątem wystąpienia działań niepożądanych, jak i pod kątem reakcji ich układu odpornościowego. Wyniki testów bezpieczeństwa wypadły bardzo zachęcająco. U nikogo nie pojawiły się poważne skutki uboczne. Jedna z osób, która przyjęła wyższą dawkę, zaczęła gorączkować, ale gorączka minęła następnego dnia. Wydaje się też, że szczepionka wywołuje silną długotrwałą reakcję immunologiczną. Pojawiła się ona u 95% uczestników, a u 70% z nich była obecna po ponad 48 tygodniach od zaszczepienia. Obecnie planowane jest dalsze prowadzenie testów klinicznych w USA, Ghanie, Kenii i Ugandzie. Jeśli i one wypadną pomyślnie, być może cAd3-Marburg będzie stosowana w celu zabezpieczenia ludzi na obszarach, na których doszło do epidemii. « powrót do artykułu
  18. Badania przeprowadzone za pomocą algorytmów sztucznej inteligencji sugerują, że nie uda się dotrzymać wyznaczonego przez ludzkość celu ograniczenia globalnego ocieplenia do 1,5 stopnia Celsjusza powyżej czasów preindustrialnych. Wątpliwe jest też ograniczenie ocieplenia do poziomu poniżej 2 stopni Celsjusza. Noah Diffenbaugh z Uniwersytetu Stanforda i Elizabeth Barnes z Colorado State University wytrenowali sieć neuronową na modelach klimatycznych oraz historycznych danych na temat klimatu. Ich model był w stanie precyzyjnie przewidzieć, jak zwiększała się temperatura w przeszłości, dlatego też naukowcy wykorzystali go do przewidzenia przyszłości. Z modelu wynika, że próg 1,5 stopnia Celsjusza ocieplenia powyżej poziomu preindustrialnego przekroczymy pomiędzy rokiem 2033 a 2035. Zgadza się to z przewidywaniami dokonanymi bardziej tradycyjnymi metodami. Przyjdzie czas, gdy oficjalnie będziemy musieli przyznać, że nie powstrzymamy globalnego ocieplenia na zakładanym poziomie 1,5 stopnia. Ta praca może być pierwszym krokiem w tym kierunku, mówi Kim Cobb z Brown University, który nie był zaangażowany w badania Diffenbaugha i Barnes. Przekroczenie poziomu 1,5 stopnia jest przewidywane przez każdy realistyczny scenariusz redukcji emisji. Mówi się jednak o jeszcze jednym celu: powstrzymaniu ocieplenia na poziomie nie wyższym niż 2 stopnie Celsjusza w porównaniu z epoką przedindustrialną. Tutaj przewidywania naukowców znacząco różnią się od przewidywań SI. Zdaniem naukowców, możemy zatrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza pod warunkiem, że do połowy wieków państwa wywiążą się ze zobowiązania ograniczenia emisji gazów cieplarnianych do zera. Sztuczna inteligencja nie jest jednak tak optymistycznie nastawiona. Zdaniem algorytmu, przy obecnej emisji poziom ocieplenia o ponad 2 stopnie osiągniemy około roku 2050, a przy znacznym zredukowaniu emisji – około roku 2054. Obliczenia te znacznie odbiegają od szacunków IPCC z 2021 roku, z których wynika, że przy redukcji emisji do poziomu, jaki jest wspomniany przez algorytm sztucznej inteligencji, poziom 2 stopni przekroczymy dopiero w latach 90. obecnego wieku. Diffenbaugh i Barnes mówią, że do przewidywania przyszłych zmian klimatu naukowcy wykorzystują różne modele klimatyczne, które rozważają wiele różnych scenariuszy, a eksperci – między innymi na podstawie tego, jak dany model sprawował się w przeszłości czy jak umiał przewidzieć dawne zmiany klimatu, decydują, który scenariusz jest najbardziej prawdopodobny. SI, jak stwierdzają uczeni, bardziej skupia się zaś na obecnym stanie klimatu. Stąd też mogą wynikać różnice pomiędzy stanowiskiem naukowców a sztucznej inteligencji. W środowisku naukowym od pewnego czasu coraz częściej słychać głosy, byśmy przestali udawać, że jesteśmy w stanie powstrzymać globalne ocieplenie na poziomie 1,5 stopnia Celsjusza. Wielu naukowców twierdzi jednak, że jest to możliwe, pod warunkiem, że do 2030 roku zmniejszymy emisję gazów cieplarnianych o połowę. Sztuczna inteligencja jest więc znacznie bardziej pesymistycznie nastawiona od większości naukowców zarówno odnośnie możliwości powstrzymania globalnego ocieplenia na poziomie 1,5, jak i 2 stopni Celsjusza. « powrót do artykułu
  19. Dendroarcheolog Michael Bamforth z University of York zidentyfikował tajemniczy fragment drewna znaleziony podczas przygotowań do budowy elektrowni atomowej Sizewell C w Suffolk w Anglii. W 2021 roku podczas prac archeologicznych w miejscu, w którym planowane jest posadzenie drzew, eksperci z Cotswold Archeology odkryli liczne ślady ludzkiej aktywności, od neolitu po średniowiecze. Natrafiono m.in. na dwa doły z epoki żelaza, które prawdopodobnie pełniły rolę poideł dla zwierząt. Doły były zalane wodą, co stworzyło idealne warunki do zachowania się drewnianych szczątków. To właśnie na dnie jednego z nich znaleziono drewniany przedmiot, którego przez długi czas nie potrafiono zidentyfikować. Michael Bamforth poinformował właśnie, że jest to oś od wozu lub rydwanu, która złamała się, a następnie została wykorzystana jako wzmocnienie ścian dołu z wodą. Obok znaleziono spalone deski, które pochodziły prawdopodobnie z tego samego pojazdu. Datowanie radiowęglowe wykazało, że wóz został wykonany pomiędzy 400 a 100 rokiem przed naszą erą. Fragment zachowanej osi to niezwykle rzadkie znalezisko. Znamy bardzo nieliczne przykłady podobnych zabytków z Wysp Brytyjskich. Jednym z najbardziej znanych jest oś ze stanowiska Flag Fen, osady epoki brązu. W słynnych brytyjskich pochówkach w rydwanie drewniane części pojazdów nie zachowały się. Tym bardziej mamy tu do czynienia z wyjątkowym zabytkiem, który może pomóc w lepszym zrozumieniu techniki używanej na Wyspach Brytyjskich przed ich podbojem przez Rzym. « powrót do artykułu
  20. Odpowiedź na tytułowe pytanie brzmi: tak. Jednak „prawdziwe” w odniesieniu do fotografowanych przez Webba obiektów nie oznacza tutaj takie, jak byśmy zobaczyli je na własne oczy będąc w miejscu Webba, ale takie, jakimi są w rzeczywistości. Żeby to zrozumieć, musimy co nieco wiedzieć o działaniu ludzkiego wzroku oraz Teleskopu Kosmicznego Jamesa Webba (JWST). Gdy jesteśmy na ulicy i słyszymy zbliżającą się do nas karetkę pogotowia jadącą na sygnale, zauważymy, że dźwięk jest coraz wyższy, a gdy samochód nas minie, staje się coraz niższy. Fala dźwiękowa zbliżającego się do nas źródła sygnału staje się coraz krótsza, a wydłuża się, gdy źródło sygnału się od nas oddala. Takie samo zjawisko ma miejsce w przypadku fali elektromagnetycznej. Wszechświat się rozszerza, więc – generalnie rzecz biorąc – galaktyki i gwiazdy się od nas oddalają. Długość fali biegnącego w naszym kierunku światła staje się coraz większa, światło to staje się coraz bardziej czerwone. A im bardziej odległy od nas obiekt, tym bardziej czerwone światło do nas dociera. Mówimy tutaj o zjawisku przesunięcia ku czerwieni. Ludzie widzą światło o ograniczonym zakresie długości fali. Odległość pomiędzy Ziemią a większością obiektów we wszechświecie jest tak duża, że docierające do nas fale świetlne znajdują się w zakresie podczerwieni, którego nasze oczy nie widzą. Jednak Teleskop Webba jest wyspecjalizowany właśnie w odbieraniu podczerwieni. Dlatego możemy dojrzeć dzięki niemu bardzo stare, niezwykle odległe obiekty. JWST korzysta z trzech zwierciadeł. Największe, główne, odpowiada za zbieranie światła docierającego do teleskopu. Zwierciadło główne skupie je i kieruje do zwierciadła wtórnego, stamtąd zaś światło trafia do instrumentów naukowych, a trzecie ze zwierciadeł koryguje wszelkie zniekształcenia wywołane przez dwa pierwsze. Teleskop Webba korzysta ze specjalnej perforowanej maski, która blokuje część docierającego doń światła, symulując działanie wielu teleskopów, dzięki czemu może zwiększyć rozdzielczość. Technika ta pozwala na zdobycie większej ilości danych na temat bardzo jasnych sąsiadujących ze sobą obiektów. Webba wyposażono też w spektrografy, które rozbijają światło na części składowe, ujawniając informacje o intensywności poszczególnych fali światła. Obserwatorium wyposażono też macierz 248 000 mikromigawek służących do pomiaru spektrum światła. Za dostarczenie nam obrazu odpowiedzialny jest Zintegrowany Moduł Instrumentów Naukowych, w skład którego wchodzą trzy urządzenia. NIRCam, działająca w podczerwieni kamera, rejestrująca fale o długości od 0,6 do 5 mikrometrów. To ona rejestruje światło z pierwszych gwiazd i galaktyk, pokazuje gwiazdy w pobliskich galaktykach, młode gwiazdy w Drodze Mlecznej oraz obiekty w Pasie Kuipera. Wyposażono ją w koronografy, instrumenty pozwalające na fotografowanie bardzo słabo świecących obiektów znajdujących się wokół obiektów znacznie jaśniejszych. Drugim z nich jest NIRSpec, spektrograf również działający w zakresie od 0,6 do 5 mikrometrów. Spektrografy to urządzenia do rejestracji całego widma promieniowania. Analiza tego widma pozwoli naukowcom poznać wiele cech fizycznych badanego obiektu, w tym jego temperaturę, masę i skład chemiczny. Wiele z obiektów, które Webb będzie badał, jest tak słabo widocznych, że olbrzymie zwierciadło teleskopu będzie musiało prowadzić obserwacje przez setki godzin, by zebrać ilość światła wystarczającą do stworzenia całego widma. Natomiast Mid-Infared Instrument (MIRI) składa się zarówno z kamery jak i spektrografu pracujących w średniej podczerwieni. To zakresy od 5 do 28 mikrometrów. Fal o takiej długości nasze oczy nie widzą. Ten bardzo czuły instrument zobaczy przesunięte ku czerwieni światło odległych galaktyk, tworzących się gwiazd i słabo widocznych komet. Może obserwować Pas Kuipera. Kamer MIRI będzie zdolna do wykonania podobnych szerokokątnych zdjęć, z jakich zasłynął Hubble. A jego spektrograf umożliwi poznanie wielu cech fizycznych odległych obiektów. Wszystkie wymienione tutaj instrumenty dostarczają naukowcom danych, które należy odpowiednio dostosować tak, by nasze oczy mogły je zobaczyć. Obrazów z Webba, które udostępnia NASA, nie moglibyśmy zobaczyć będąc w miejscu teleskopu, zarówno dlatego, że nasze oczy nie odbierają światła o takiej długości fali, jak i dlatego, że Webb jest znacznie bardziej czuły na światło. Zatem obrazy przekazywane przez Webba bardziej odpowiadają rzeczywistości, są bardziej prawdziwe, niż to, co możemy zobaczyć na własne oczy. Teleskop korzysta z aż 27 filtrów rejestrujących fale podczerwone o różnej długości. Naukowcy dokładnie analizują te fale, zbierają informacje np. o ich intensywności, a następnie każdej z nich przypisują falę o długości z zakresu światła widzialnego. Najkrótszym przypisywana jest barwa niebieska, dłuższym zielona, najdłuższym czerwona. Po złożeniu tak otrzymany obrazów należy przeprowadzić jeszcze balans, bieli, skorygować kontrast oraz kolory i podziwiać niezwykłe zdjęcia. « powrót do artykułu
  21. Pierwsze w historii badania tego typu wskazują, że nawet krótka kilkugodzinna ekspozycja na zanieczyszczenia wywołane ruchem samochodowym ma negatywny wpływ na ludzki mózg. Eksperyment, przeprowadzony przez naukowców z University of British Columbia i University of Victoria, przeczy powszechnemu mniemaniu, jakoby mózg był chroniony przed negatywnym wpływem zanieczyszczeń powietrza. Nasze badania dostarczają nowych dowodów na istnienie związku pomiędzy zanieczyszczeniem powietrza a procesami poznawczymi, mówi jeden z autorów, doktor Chris Carlsten. Jego zespół przeprowadził serię eksperymentów laboratoryjnych, podczas których 25 zdrowych dorosłych osób było wystawionych na działanie spalin z silnika Diesla oraz powietrze o różnym stopniu czystości. Przed każdym z eksperymentów oraz po nim aktywność mózgu badanych była mierzona za pomocą funkcjonalnego rezonansu magnetycznego (fMRI). Naukowcy analizowali zmiany w sieci wzbudzeń podstawowych (default mode network – DMN). To rozległa sieć połączeń mózgowych, która jest aktywna, gdy człowiek nie jest szczególnie skupiony na świecie zewnętrznym, gdy jesteśmy wypoczęci, marzymy na jawie, kontemplujemy piękno, rozmyślamy o przyszłości. Gdy zaś zaczynamy skupiać się na bodźcach zewnętrznych, aktywność tej sieci spada. DMN nazywana jest też siecią spoczynkową mózgu, jednak to mylna nazwa. Gdy DMN jest aktywna mózg nie odpoczywa, a zachodzą w nim intensywne procesy przetwarzania i integrowania informacji. Prawidłowe funkcjonowanie DMA jest niezbędne z punktu widzenia działania mózgu. Tymczasem badania wykazały, że po wystawieniu na działanie spalin z silników Diesla dochodzi do spadku połączeń w szerokich obszarach DMN. Wiemy, że zmiana połączeń w DMN jest powiązana ze spadkiem zdolności poznawczych i objawami depresji. Fakt, że zanieczyszczenie powietrza prowadzi do zaburzeń w tej sieci, jest niepokojący. Oczywiście potrzebne są dalsze badania, by lepiej zrozumieć wpływ tych zmian na codzienne funkcjonowanie, jednak nie możemy wykluczyć, że może to prowadzić do zaburzeń myślenia czy zdolności do pracy, mówi doktor Jodie Gawryluk z University of Victoria. Co prawda zmiany były czasowe i jakiś czas po przerwaniu ekspozycji na spaliny funkcjonowanie DMN wracało do normy, jednak doktor Gawryluk podejrzewa, iż przy ciągłej ekspozycji spadek zdolności umysłowych może być stały. Dlatego też, jej zdaniem, powinniśmy starać się minimalizować kontakt ze spalinami. Ludzie powinni dwa razy pomyśleć, zanim otworzą okno w samochodzie stojącym w korku. Warto upewnić się, czy filtr w samochodzie dobrze działa. A jeśli spacerujemy lub jeździmy na rowerze przy ruchliwych ulicach, powinniśmy zastanowić się nad zmianą trasy, dodaje doktor Carlsten. Naukowcy podkreślają, że badali wpływ spalin samochodowych, ale prawdopodobnie równie szkodliwe są inne zanieczyszczenia. Zanieczyszczenie powietrza to największe zagrożenie środowiskowe dla ludzkiego zdrowia. Coraz więcej badań pokazuje, że ma ono wpływ na wszystkie główne organy naszego ciała. Sądzę, że podobnie na mózg działają np. zanieczyszczenia pochodzące z pożarów lasów. U coraz większej liczby osób diagnozowane są zaburzenia układu nerwowego, ważne więc, by zanieczyszczenia były brane pod uwagę, dodaje Carlsten. Z wynikami badań można zapoznać się na łamach Environmental Health. « powrót do artykułu
  22. Naukowcy z NOIRLab udostępnili gigantyczną bazę danych obiektów znajdujących się w płaszczyźnie Drogi Mlecznej. Zawiera ona informację o 3 miliardach 320 milionach ciał niebieskich. To największy na świecie katalog tego typu. To już druga wersja Dark Energy Camera Plane Survey – DECaPS2. Prace nad nią trwały przez dwa lata, w czasie których za pomocą Dark Energy Camera wykonano 214 000 fotografii. Na ich podstawie zebrano ponad 10 terabajtów danych, opisując około 3,32 miliarda obiektów. Dark Energy Camera zainstalowana jest na 4-metrowym teleskopie Victor M. Blanco w Cerro Tololo Inter-American Observatory (CTIO). W skład CTIO wchodzi zespół teleskopów znajdujących się na wysokości ponad 2200 metrów nad poziomem morza. Położenie obserwatorium daje dobry widok na południową część nieboskłonu, co pozwoliło DECam na wykonanie bardzo dokładnych zdjęć południowej części płaszczyzny (równika) naszej galaktyki. W DECaPS2 znajdziemy dane o obiektach, które udało się sfotografować w świetle widzialnym oraz w bliskiej podczerwieni. Pierwsza wersja DECaPS została udostępniona w 2017 roku. Obecnie, po znacznym rozszerzeniu, baza opisuje obiekty zidentyfikowane na 6,5% nocnego nieba, a obszar objęty obserwacjami ma 130 stopni długości. Jednym z powodów, dla których DECaPS2 okazał się takim sukcesem jest fakt, że nakierowaliśmy aparat na region o wysokim zagęszczeniu gwiazd i bardzo dokładnie identyfikowaliśmy różne obiekty. W ten sposób udało się stworzyć największy katalog obiektów kosmicznych, mówi Andrew Saydjari z Uniwersytetu Harvarda. W połączeniu z przeglądem Pan-STARRS 1, DECaPS2 uzupełnia 360-stopniową panoramę Drogi Mlecznej. Dzięki niemu możemy teraz stworzyć najbardziej szczegółową trójwymiarową mapę naszej galaktyki, dodaje Edward Schlafly ze Space Telescope Science Institute. DECam to instrument, który powstał na potrzeby projektu badania ciemnej energii, Dark Energy Survey. Sesje obserwacyjne prowadzono w latach 2013–2019. « powrót do artykułu
  23. Lucy, historyczna misja do planetoid trojańskich, spotka się ze swoją pierwszą asteroidą już w bieżącym roku. Początkowo planowano, że przelot Lucy w pobliżu pierwszej planetoidy będzie miał miejsce w 2025 roku, kiedy to pojazd miał się zbliżyć do Donaldjohansona, nazwanej tak na cześć odkrywcy szczątków hominina Lucy, od którego misja wzięła nazwę. Nadarzyła się jednak okazja, by wcześniej odwiedzić asteroidę 1999 VD57, a przy okazji przetestować unikatowy system nawigacyjny pojazdu. Planetoidy trojańskie, zwane trojanami Jowisza czy po prostu Trojanami, to pozostałości po formowaniu się Układu Słonecznego. Mogą więc dostarczyć cennych informacji na temat jego historii. Tworzą one dwie grupy. Jedna z nich znajduje się w punkcie libracyjnym L4 orbity Jowisza, a druga w punkcie L5. Przyjęło się, że asteroidy z punktu L4 nazywa się imionami greckich bohaterów, dlatego też cała grupa zyskała nieoficjalną nazwę „Greków”. Z kolei asteroidy z punktu L5 zwane są „Trojańczykami”. Obie grupy poruszają się po orbicie Jowisza, a kierunek ruchu powoduje, że Trojańczycy gonią Greków. Co interesujące, zanim taki podział na grupy został ustalony dwie wcześniej odkryte asteroidy – Patroklus i Hektor – zostały już nazwane. W efekcie, w grupie Trojańczyków znajduje się grecki szpieg, a w grupie Greków jest szpieg trojański. Lucy została wystrzelona w październiku 2021 roku. Rok później pojazd po raz pierwszy skorzystał z asysty grawitacyjnej Ziemi. Oddziaływanie naszej planety przyspieszyło Lucy i skierowało ją za orbitę Marsa. W 2024 roku pojazd po raz kolejny przeleci w pobliżu Ziemi, korzystając z jej asysty grawitacyjnej i pomknie w kierunku głównego pasa planetoid – znajdującego się między Marsem a Jowiszem – gdzie spotka się z Donaldjohansonem. NASA zdecydowała właśnie, że wcześniej – 1 listopada 2023 r. – dojdzie do spotkania z 1999 VD57. W głównym pasie asteroid znajdują się miliony obiektów. Wybrałem 500 000 z nich o dobrze zdefiniowanych orbitach, by zobaczyć, czy Lucy będzie przelatywała na tyle blisko któregoś z nich, że będziemy mogli się mu przyjrzeć. Ta asteroida się wyróżniała. Oryginalna trajektoria Lucy przebiegała w odległości 40 000 mil od 1999 VD57. To co najmniej trzykrotnie bliżej niż do jakiejkolwiek innej asteroidy, mówi Raphael Marschall z Obserwatorium w Nicei. Jednak zespół nadzorujący misję zdał sobie sprawę, że wystarczy niewielki manewr, by Lucy mogła podlecieć bliżej do asteroidy. Zdecydowano więc, że w ramach testu pionierskiego systemu nawigacyjnego Lucy pojazd zbliży się do 1999 VD57. Nowy system ma rozwiązać problem trapiący misje polegające na przelocie w pobliżu asteroidy. W czasie takich misji trudno jest dokładnie określić, w jakie odległości od asteroidy znajduje się pojazd i w które miejsce należy nakierować kamery. W przeszłości radzono sobie z tym problemem wykonując bardzo duża zdjęć regionu, z którym mogła znajdować się asteroida. To metoda mało efektywna, podczas której wykonuje się dużo pustych zdjęć. Lucy będzie pierwszą misją wykorzystującą automatyczny system śledzenia asteroidy. Pozwoli na wykonanie znacznie większej liczby zdjęć obiektu, wyjaśnia Hal Levison z Southwest Research Institute Boulder. Okazało się, że 1999 VD57 powoli przetestować tę nigdy wcześniej nieużywaną technikę. Szczególnie, że położenie Lucy i asteroidy względem siebie, przede wszystkim kąt względem Słońca, pod jakim Lucy będzie zbliżała się do asteroidy, są bardzo podobne do charakterystyk planowanych spotkań Lucy z Trojanami. Dotychczas 1999 VD57 w ogóle nie była brana pod uwagę jako cel misji, gdyż jest bardzo mała. Ma zaledwie 700 metrów średnicy. Będzie więc najmniejszą asteroidą z głównego pasa planetoid, jaką odwiedzi pojazd wysłany przez człowieka. Rozmiarami przypomina bliskie Ziemi asteroidy, które były celami misji OSIRIS-REx i DART. Teraz jednak zdecydowano, że w maju Lucy przeprowadzi manewr, w wyniku którego kilka miesięcy później zbliży się do 1999 VD57 na odległość zaledwie 450 kilometrów. Jak już wspomnieliśmy, w 2025 roku pojazd odwiedzi Donaldjohansona, a następnie poleci do Greków. W latach 2027–2028 spotka się z planetoidą Eurybatesem i jej satelitą Polimele, a następnie z Leukusem i Orusem. Później wróci w pobliże Ziemi, w 2031 roku po raz trzeci skorzysta z asysty grawitacyjnej, która wystrzeli ją w stronę Trojańczyków. W 2033 roku przeleci obok układu podwójnego Patroklos-Menojtios. Lucy nie tylko jest pierwszą misją do asteroid trojańskich Jowisza, ale też misją, która odwiedzi najwięcej planetoid w historii. Teraz to jej listy celów dopisano kolejną asteroidę. « powrót do artykułu
  24. W wieku niemal 101 lat zmarł profesor Aleksander Krawczuk, wybitny znawca starożytności, autor niezwykle poczytnych książek, z najbardziej znanym Pocztem cesarzy rzymskich. Profesor Krawczuk był wykładowcą Uniwersytetu Jagiellońskiego, a w przeszłości ministrem kultury i sztuki oraz posłem na Sejm I i II kadencji. O śmierci naukowca poinformował w mediach społecznościowych Wydział Historyczny Uniwersytetu Jagiellońskiego. Ze smutkiem informujemy, że ze społeczności Wydział Historyczny Uniwersytetu Jagiellońskiego odszedł prof. dr hab. Aleksander Krawczuk (1922-2023) - wybitny znawca starożytności, filolog klasyczny, od 1949 r. związany z Uniwersytet Jagielloński, niestrudzony popularyzator wiedzy o antyku. Rodzinie i Bliskim Pana Profesora składamy wyrazy współczucia – czytamy w krótkiej nocie. Informację potwierdziła Polska Agencja Prasowa. Aleksander Krawczuk urodził się w 1922 roku w Krakowie, w czasie wojny był żołnierzem AK. W 1949 roku ukończył studia na Wydziale Filozoficzno-Historycznym UJ i rozpoczął pracę w Zakładzie Historii Starożytnej UJ. Przez dekady popularyzował historię starożytną, prowadził telewizyjny cykl dokumentalny Antyczny świat profesora Krawczuka, napisał wiele prac naukowych i książek popularnonaukowych. Jest autorem m.in. Polski za Nerona, Kroniki starożytnego Rzymu, Tytusa i Bereniki, Rodu Argeadów czy Mitologii starożytnej Italii. Uczony zmarł 27 stycznia 2023 roku. « powrót do artykułu
  25. Mimo coraz większej popularności serwisów streamingowych, wciąż wiele osób chętnie wykorzystuje systemy telewizji satelitarnej. Dla jednych jest to kwestia przyzwyczajenia i preferencji. Dla innych to jedyna opcja na dostęp do telewizji. Sygnał naziemny nie wszędzie jest odbierany, podczas gdy telewizja satelitarna nie ma z zasięgiem problemu. Jaka jest zasada jej działania? Co ją cechuje i jakie są jej zalety? Telewizja satelitarna – co to jest? Najprościej rzecz ujmując, telewizja satelitarna to jeden ze sposobów nadawania i dostarczania sygnału telewizyjnego. Wykorzystuje do tego celu satelity telekomunikacyjne znajdujące się na orbicie geostacjonarnej. Za ich pomocą sygnał jest dostarczany z nadajnika do anteny satelitarnej i odbiornika telewizyjnego. Choć lata mijają, telewizja satelitarna (sprawdź jak działa telewizja satelitarna: https://polska-telewizja.co.uk/jak-dziala-telewizja-satelitarna/) wciąż ma wiele zalet. Zdecydowanie największą z nich jest zasięg. Sygnał telewizji naziemnej nawet w Polsce nie dociera do każdego miejsca. W krajach, gdzie budowa gęstej sieci nadajników jest nieopłacalna lub trudna do realizacji na przykład ze względów terenowych, satelitarna telewizja cyfrowa pozostaje najlepszym rozwiązaniem. Nawet jednak tam, gdzie sygnał telewizji naziemnej dociera, choćby na obszarach wiejskich i w małych miejscowościach, zakres oferty telewizji satelitarnej jest na tyle szeroki, że bywa bardziej atrakcyjnym wyborem (zwłaszcza w pakiecie z dostępem do VOD i serwisów streamingowych). Dla odbiorców istotną zaletą jest także łatwość montażu. Podłączenie telewizji satelitarnej wymaga co prawda odpowiedniego ustawienia anteny, ale nie jest to trudne zadanie. Właściwie zamontowana i konserwowana antena satelitarna pozwala cieszyć się niezawodną telewizją przez długie lata. W porównaniu do telewizji kablowej można też liczyć na mniejszą liczbę przewodów. Jeśli chodzi o koszty, platformy telewizji satelitarnej nie okazują się wcale tak wysokie, jak się powszechnie uważa, zwłaszcza w zestawieniu z ofertą telewizji kablowych i serwisów streamingowych. Nawet najtańsze, podstawowe pakiety platformy telewizji satelitarnej mogą zawierać bogatszy i bardziej urozmaicony zestaw programów. Zasada działania telewizji satelitarnej Aby skorzystać z możliwości, jakie daje telewizja satelitarna, niezbędna jest odpowiednia infrastruktura. Jej początkowym elementem jest stacja nadawcza. To z niej płynie sygnał, który odbieramy w naszych telewizorach. Najpierw musi on jednak zostać odebrany przez transponder umieszczony na satelicie na orbicie okołoziemskiej. Dlatego anteny stacji nadawczej skierowane są w jego stronę. Satelita pełni tu rolę pośrednika. Odbiera sygnał audio-video, wzmacnia go i kieruje z powrotem w stronę Ziemi. Należy podkreślić, że satelity telekomunikacyjne uczestniczące w nadawaniu sygnału telewizyjnego umieszczone są na orbicie geostacjonarnej, czyli nad równikiem. Dzięki zsynchronizowaniu ich prędkości z prędkością obrotu Ziemi, satelita wydaje się pozostawać zawieszony nieruchomo w miejscu. Obiekt zachowuje stałą pozycję, co umożliwia ciągły transfer sygnału. Wystarczy skierować anteny nadawcze i odbiorcze w odpowiednią stronę. Warto przy tym uświadomić sobie to, iż strumień audio-video dociera do odbiorców z pewnym opóźnieniem w porównaniu z sygnałem telewizji naziemnej. Satelita jest bowiem umieszczony na wysokości ponad 35 tys. kilometrów nad Ziemią. Sygnał musi najpierw trafić do satelity, a potem powrócić. Siłą rzeczy zajmuje to trochę czasu. Co ważne, transponder na satelicie odbiera sygnał na jednej długości fal radiowych, a odsyła go na innej częstotliwości po wzmocnieniu. Dzięki temu telewizja satelitarna może działać bez zakłóceń. Wysyłany przez satelitę sygnał jest odbierany przez odpowiednio ustawione anteny satelitarne. Ponieważ ma on charakter cyfrowy należy go przetworzyć, by mógł zostać wyświetlony na ekranie telewizora. Służą do tego konwerter antenowy oraz dekoder telewizji satelitarnej. Warto bowiem zaznaczyć, że po odebraniu sygnał należy wzmocnić i przetworzyć, a następnie także odkodować. Platformy telewizji satelitarnej kodują swoje kanały, aby umożliwić ich odbiór tylko tym osobom, które chcą opłacać abonament. Istnieją też programy, które są nadawane w formacie free-to-air, czyli nie są zaszyfrowane i dostęp do nich jest bezpłatny. Ich jakość często odbiega jednak od tego, czego oczekiwaliby potencjalni widzowie. Jak działa telewizja satelitarna na kartę? Abonament to tylko jedna z form dostępu do telewizji satelitarnej. Dość dużą popularnością cieszy się także telewizja na kartę. Nie potrzeba w jej przypadku wiązać się umową. Nie wymaga też uiszczania regularnych opłat. Nie wiąże się z odsetkami czy karami. Z punktu widzenia użytkownika telewizja na kartę przypomina korzystanie z kart telefonicznych. To klient decyduje, kiedy chce oglądać telewizję. Wystarczy, że doładuje kartę. Całość działa w systemie prepaid. Do korzystania z telewizji w ten sposób potrzebny jest adekwatny dekoder z kartą startową. Oczywiście, niezbędna jest również odpowiednia antena satelitarna z dopasowanym konwerterem. Nie ma tu więc istotnej różnicy w porównaniu z telewizją satelitarną na abonament. « powrót do artykułu
×
×
  • Dodaj nową pozycję...