-
Liczba zawartości
37640 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Wraz z rozpowszechnieniem antybiotyków do zwalczania wielu infekcji bakterie uruchomiły swój naturalny mechanizm obronny stawiając czoła nawet najskuteczniejszym lekom. Tym samym, jeśli odporna na nie bakteria zaatakuje organizm, próżno i darmo stosować antybiotyki. Choć walka z tak groźnym i podstępnym przeciwnikiem jest trudna, to na szczęście jest sposób na ich przezwyciężenie. Z pomocą przychodzi terapia ostatniej szansy opierająca się na stosowaniu wyspecjalizowanych wirusów zwanych fagami, będąca ciężkim działem wymierzonym w podstępne i jakże wytrzymałe bakterie. Jej skuteczność zależy jednak od wielu czynników, a niektóre z nich choć nieoczywiste, mają ogromne znaczenie dla powodzenia terapii. Ostatnio naukowcy z Instytutu Chemii Fizycznej Polskiej Akademii Nauk kierowani przez dr Jana Paczesnego i prof. Roberta Hołysta wyjaśnili dlaczego w niektórych przypadkach terapia ostatniej szansy zawodzi. Wykazali bowiem, że przyczyną zmniejszenia skuteczności fagów jest materiał z jakiego wykonany jest pojemnik do ich przechowywania. Antybiotyki, od chwili pojawienia się w medycynie, znajdują zastosowanie do leczenia wielu infekcji, zarówno tych mniej, jak i bardziej groźnych dla zdrowia. Dzięki nim wiele chorób szybko odchodzi w niepamięć pacjenta, lecz coraz częściej nie pozostaje obojętne dla bakterii prowadząc do nabycia przez nie naturalnej oporności. W efekcie, niektóre szczepy są odporne na wszystkie znane nam antybiotyki. Antybiotykoopornych bakterii nie pokona nawet najmocniejszy z nich – wankomycyna, lecz gdy już dojdzie do zarażenia śmiertelnym przeciwnikiem pomocy można szukać w terapii opierającej się na bakteriofagach. Terapia ostatniej szansy to nic innego niż użycie wyspecjalizowanych wirusów zwanych także fagami lub bakteriofagami, które są groźne dla określonych szczepów bakterii. Fagi są niezwykle skuteczne w leczeniu np. chronicznych chorób układu moczowego. Niestety, zdarza się, że roztwory do iniekcji nie są sobie równe gdyż ilość fagów w przed podaniem nagle spada, a to przekłada się na pogorszenie skuteczności terapii. Przyczynę nagłego spadku ilości aktywnych fagów w roztworze rozwikłali badacze w Instytutu Chemii Fizycznej Polskiej Akademii Nauk. Zespoły naukowców dr Jana Paczesnego i prof. Roberta Hołysta udowodniły, że ilość fagów w roztworze zależy od rodzaju opakowania w jakim są przechowywane. Zaskakujące okazało się, że to czy fag znajduje się w cieczy czy “osiada” na stałe na powierzchni ścianek naczynia zależy od hydrofobowości. To właśnie ta cecha powoduje, że ich ilość w roztworze może drastycznie spaść nawet o kilka rzędów wielkości. W niniejszej pracy badacze przetestowali wiele rodzajów pojemników z powszechnie stosowanego polipropylenu dedykowanego do przechowywania próbek laboratoryjnych. I choć wydaje się, że opakowania pozyskane u jednego producenta są jednakowe, to jak się okazuje, mogą się różnić właściwościami powierzchni. Wszystko za sprawą dodatków do tworzyw sztucznych polepszających elastyczność opakowań. Dr Paczesny zauważa, Zweryfikowaliśmy, czy za obserwowany efekt malejącej liczby aktywnych fagów roztworach umieszczonych w pojemnikach polipropylenowych odpowiadają substancje, które wypłukiwane są z tworzywa sztucznego. Rozważaliśmy możliwość, że substancje wymywane z tworzywa mogą dezaktywować fagi lub chronić je przed czynnikami zewnętrznymi takimi jak temperatura. Następnie zbadaliśmy ich adsorpcję na ściankach pojemników polipropylenowych jako czynnik stojący za spadkiem ich liczebności w roztworze. Tym samym zaobserwowaliśmy niekontrolowaną adsorpcja fagów i ich późniejsze zniknięcie z roztworu, które może podawać poważne błędy i niepowtarzalne wyniki podczas wykonywania analiz laboratoryjnych. Jest to niezwykle ważne w przypadku terapii fagowych, gdzie liczebność aktywnych fagów pełni kluczową rolę. Badacze przetestowali różne pojemniki stosując standardowe procedury laboratoryjne, takie jak mieszanie, podgrzewanie lub przedłużone przechowywanie aktywnych fagów. Ich badania wykazały, że spadek liczby bakteriofagów w cieczy zależy głównie od właściwości powierzchniowych danego materiału, takich jak zwilżalność. Komplementarnie, zbadano również wpływ właściwości samych fagów, w tym właściwości elektrostatyczne ich powierzchni. Jednak, wyniki wyraźnie wskazują, że choć ilość ładunku elektrycznego na ich powierzchni nieznacznie wpływach na adsorpcję na powierzchni, za to głównym czynnikiem odpowiadającym za zjawisko „znikania” fagów z roztworu jest hydrofobowość tworzywa. Celem potwierdzenia hipotezy naukowcy zaproponowali konkretne procedury dla pojemników o specyficznych właściwościach, takich jak traktowanie powierzchni tworzywa określonym środkiem powierzchniowo czynnym ograniczając adsorpcję faga na powierzchni polipropylenu. Rozwiązanie to pozwoliło na dokładne poznanie mechanizmu adsorpcji fagów. Co najważniejsze, naukowcy wyjaśnili, dlaczego fagi mają tendencję do przylegania na niektórych powierzchniach ścianek pojemników. Okazało się, że im bardziej hydrofobowa powierzchnia, tym układ, którym jest ciecz zawierająca fagi dąży do obniżenia energii. Zatem, agregacja fagów na hydrofobowych ściankach pojemnika polipropylenowego jest bardziej opłacalna energetycznie niż ich przebywanie w głębi roztworu. Dzięki temu gdy ścianki są pokryte fagami, woda ma ograniczony kontakt z hydrofobowym materiałem. Nasze odkrycia mają kluczowe znaczenie nie tylko dla badań z użyciem fagów do terapii. Naukowcy mogą nawet nie zdawać sobie sprawy, że producent pojemników polipropylenowych może dostarczać pozornie ten sam produkt, który tak naprawdę znacznie różni się właściwościami powierzchni w zależności choćby od partii. To z kolei pozostaje nieobojętne dla wyników badań prowadzonych z użyciem różniącego się tworzywa i może prowadzić do fałszywych wniosków z badań. Co gorsza, jak w przypadku fagów – może nieść nieskuteczność terapii spowodowane tylko i wyłącznie użyciem pojemnika z innej partii lub materiału – donosi dr. Paczesny. Badania naukowców przedstawione zostały w prestiżowym czasopiśmie Scientific Reports z 1 kwietnia 2021 prezentując ważne zagadnienie dotyczące skuteczności terapii ostatniej szansy opartej na działaniu bakteriofagów. W przypadku nagłej potrzeby jej zastosowania, wybór pojemnika przez osobę podającą pacjentowi ciecz z fagami zdaje się mieć małe znaczenie, jednak nic bardziej mylnego. Okazuje się, że rodzaj tworzywa sztucznego ma diametralny wpływ na ilość aktywnych fagów w roztworze i tym samym na powodzenie terapii. W starciu ze śmiercionośnymi, antybiotykoopornymi bakteriami ilość fagów, które są jedyną bronią zredukowana przez właściwości tworzywa użytego to wytworzenia pojemnika może zaważyć o losach pacjenta. Dzięki badaczom z IChF PAN przedstawione dane i proponowane rozwiązania z pewnością przyczynią się nie tylko do poprawy badań w zakresie stosowania bakteriofagów, ale z także w innych dziedzinach, gdzie ilość substancji zawieszonej w roztworze ma znaczenie biologiczne. « powrót do artykułu
- 1 odpowiedź
-
- fagi
- antybiotykooporne bakterie
-
(i 1 więcej)
Oznaczone tagami:
-
Podczas jednych z najszerzej zakrojonych badań dotyczących genetyki otyłości, udało się zidentyfikować rzadkie warianty genetyczne, które chronią przed przybieraniem na wadze. Odkrycia dokonano dzięki sekwencjonowaniu eksomów u ponad 640 000 mieszkańców Meksyku, USA i Wielkiej Brytanii. To alternatywna metoda sekwencjonowania genomu, dzięki której odkryto już wiele interesujących genów. Po wykonaniu sekwencjonowania naukowcy szukali mutacjach w genach powiązanych z niskim lub wysokim BMI. Z 16 genów powiązanych z BMI, pięć koduje występujące na powierzchni komórek receptory sprzężone z białkami G. Naukowcy odkryli, że do ekspresji wszystkich tych genów dochodzi w podwzgórzu, obszarze odpowiedzialnym za łaknienie i metabolizm. Największy wpływ na BMI miał wariant genu GPR75. Osoby, u których występowała mutacja powodująca, że jedna z kopii genu była nieaktywna, były średnio o 5,3 kilograma lżejsze niż ludzie z aktywnymi obiema kopiami i były o 50% mniej narażone na rozwinięcie się u nich otyłości. Autorzy badań, chcąc zbadać, w jaki sposób GPR75 wpływa na przybieranie na wadze, zmodyfikowali genetycznie myszy tak, by nie występowała u nich działająca kopia genu. Gdy następnie takie myszy karmiono wysokokaloryczną dietą, przybrały one na wadze o 44% mniej niż myszy, których nie modyfikowano. Co więcej, u zmodyfikowanych genetycznie myszy stwierdzono lepszą kontrolę nad poziomem cukru we krwi i większą wrażliwość na insulinę. Niestety, wariant GPR75, w którym jedna z kopii jest nieaktywna, rzadko występuje u ludzi. Posiada go tylko 1 na 3000 osób. Jednak sam fakt, że mutacja tego genu ma tak wielki wpływ na masę ciała i związane z nią problemy, wiele mówi o biologii. Naukowcy uważają, że GPR75 może stać się w przyszłości celem dla leków zwalczających otyłość. Obecnie znamy dwie molekuły, które aktywują receptor GPR75. Potrzebujemy leku, który by go dezaktywował. Taki środek byłby niezwykle pomocy w walce z otyłością. Artykuł Sequencing of 640,000 exomes identifies GPR75 variants associated with protection from obesity autorstwa uczonych z USA, Szwecji, Meksyku i Wielkiej Brytanii został opublikowany na łamach Science. « powrót do artykułu
-
W 1971 roku Stephen Hawking stwierdził, że powierzchnia horyzontu zdarzeń czarnej dziury nie może się skurczyć. Teraz, niemal 50 lat po sformułowaniu tego prawa, fizycy z MIT i innych uczelni potwierdzili, że Hawking miał rację. Naukowcy wykorzystali przy tym sygnał grawitacyjny GW150914. To pierwsza fala grawitacyjna, wykryta przez LIGO w 2015 roku. Fala powstała w wyniku oddziaływania dwóch krążących wokół siebie czarnych dziur, w które w końcu się połączyły w jedną czarną dziurę. Jeśli Hawking miał rację, to powierzchnia horyzontu zdarzeń nowej czarnej dziury nie powinna być mniejsza od powierzchni horyzontów zdarzeń jej dwóch dziur. Fizycy przeanalizowali sygnał GW150914 sprzed i po zderzeniu dziur i stwierdzili, że po połączeniu obiektów całkowita powierzchnia nowego horyzontu zdarzeń nie zmniejszyła się. To pierwsze obserwacyjne potwierdzenie słów Hawkinga. Dotychczas specjaliści byli w stanie udowodnić je matematycznie, ale nie obserwacyjnie. Autorzy badań chcą przeanalizować inne fale grawitacyjne, by sprawdzić, czy również i w nich znajdą potwierdzenie sformułowanego przez Hawkinga prawa. Możliwe, że istnieje wiele różnych kompaktowych obiektów w przestrzeni kosmicznej. Niektóre z nich mogą być czarnymi dziurami, dla których opisy Einsteina i Hawkinga są ważne, inne zaś mogą zachowywać się nieco inaczej. To nie jest tak, że wystarczy potwierdzić coś raz i tyle wystarczy, mówi główny autor badań, Maximiliano Isi z Kavli Institute for Astrophysics and Space Research. W badaniach bali tez udział Will Farr ze Stony Brook University, Matthew Giesler i Saul Teukolsky z Cornell University oraz Mark Scheel z Caltechu. Gdy w 2015 roku LIGO wykrył fale grawitacyjne, Stephen Hawking skontaktował się z profesorem Kipem Thornem, współzałożycielem LIGO i zapytał go, czy wykrycie fal grawitacyjnych pozwala potwierdzić jego twierdzenie o powierzchni horyzontu zdarzeń. Wówczas jednak naukowcy nie byli w stanie pozyskać z sygnału odpowiednich danych sprzed i po połączeniu czarnych dziur, więc nie mogli porównać powierzchni horyzontów zdarzeń. Dopiero w 2019 roku Isi i jego koledzy opracowali technikę, która pozwoliła na pozyskanie odpowiednich informacji z konkretnych zarejestrowanych częstotliwości. Informacje te można następnie wykorzystać do obliczenia masy i spinu czarnej dziury. Z kolei masa i spin są bezpośrednio związane z powierzchnią horyzontu zdarzeń. Gdy już mieli tę technikę opanowaną, „wystarczyło” podzielić sygnał GW150914 w jego szczycie. Analiza sygnału sprzed szczytu pochodziła z dwóch krążących wokół siebie czarnych dziur, a nowa technika pozwoliła na określenie ich masy i spinu sprzed połączenia się. Na tej podstawie wyliczyli powierzchnię horyzontu zdarzeń obu czarnych dziur na około 235 000 kilometrów kwadratowych. Następnie w podobny sposób policzyli powierzchnię horyzontu zdarzeń nowo powstałej czarnej dziury i okazało się, że wynosi ona 367 000 km2. Dane bezsprzecznie pokazują, że po połączeniu powierzchnia horyzontu zdarzeń zwiększyła się, mówi Isi. « powrót do artykułu
- 3 odpowiedzi
-
- powierzchnia horyzontu zdarzeń
- czarna dziura
-
(i 1 więcej)
Oznaczone tagami:
-
5 rzeczy, o których musisz wiedzieć, gdy starasz się o dziecko
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Kiedy nadchodzi moment, by starać się o dziecko, warto szczególnie zadbać o swój organizm. Niezwykle ważny jest zarówno okres poprzedzający poczęcie, jak i pierwsze 12 tygodni ciąży. To one w dużej mierze mają wpływ na zdrowie dziecka i kondycję przyszłej mamy. O czym pamiętać, starając się o dziecko? Dieta przyszłej mamy Zanim zacznie się starania o zajście w ciążę, warto popracować nad zmianą nawyków żywieniowych i nieco bardziej zbilansować swoją dietę, by oczyścić organizm i zwiększyć jego odporność. Bezwzględnie należy zrezygnować ze wszelkich używek, w tym także z palenia papierosów – ten nałóg najtrudniej porzucić, więc im wcześniej podejmie się decyzję, tym lepiej. Dobrze również zawczasu zrezygnować z alkoholu, zwiększyć ilość owoców, warzyw i ryb w diecie, słowem – zadbać o to, by dieta była zdrowa i bogata w najważniejsze składniki odżywcze, witaminy i minerały, zapewniające siłę i witalność organizmowi przyszłej mamy. Aktywność fizyczna jako przygotowanie do ciąży Tygodnie poprzedzające ciążę warto wykorzystać na zwiększenie wydolności i odporności organizmu, wprowadzając nieco więcej aktywności. Będzie ona niezbędna również w ciąży, by zapewnić zdrowie i odporność mamie, a tym samym dziecku. Zdecydowanie należy przygotować się na to, by aktywność kontynuować także w ciąży, po konsultacji z lekarzem. Badania lekarskie przed planowaną ciążą Zanim rozpocznie się starania o dziecko, warto przeprowadzić wszystkie podstawowe badania. Powinien je zlecić lekarz ginekolog, jednak można również zrobić to na własną rękę. Badania krwi (wraz z oznaczeniem grupy) i moczu, wizyta u dentysty i okulisty oraz stała opieka ginekologiczna są niezbędne, by odpowiednio przygotować ciało do ciąży i zapewnić rozwijającemu się dziecku jak najlepsze warunki. Jeśli starania o ciążę przedłużają się – warto wykonywać podstawowe badania krwi i moczu nieco częściej. Jak przygotować psychikę do ciąży? Jednym z najważniejszych czynników, o które należy zadbać, starając się o dziecko, jest spokój. Ciągły stres i presja, jaką narzuca myśl o staraniach, mogą być czynnikami, które utrudnią zajście w ciążę. O ile ważne jest, by skupiać się na swoim organizmie, obserwować go, znać swój cykl, o tyle sprowadzanie każdej myśli i wszystkich działań do ciąży może być zbyt obciążające i zaburzające prawidłową pracę organizmu. Słowem – warto się uspokoić i pozwolić na to, by myśl o poczęciu dziecka determinowała całe życie. Kiedy zrobić test ciążowy? Jeśli jest prawdopodobieństwo, że starania mogły zakończyć się sukcesem, warto wykonać test ciążowy. Kiedy najwcześniej to zrobić? Nie wcześniej, niż w pierwszym dniu spodziewanej miesiączki, a najlepiej odczekać jeszcze jeden dzień. Warto dokładnie zapoznać się z instrukcją załączoną do testu, by prawidłowo odczytać wynik, a także powtórzyć badanie. Można również wykonać tekst ciążowy z krwi, który daje najbardziej wiarygodny wynik i również powtórzyć go po kilku dniach. « powrót do artykułu -
Międzynarodowy zespół naukowców przeprowadził eksperymenty, które miały pomóc w ocenie stężenia cząstek stałych w związku ze spalaniem paliw biomasowych (drewna i odchodów) w neolitycznych domach. Badania przeprowadzono w lipcu 2017 r. w replice domu w Çatalhöyük w Turcji. Okazało się, że w przypadku obu paliw stężenia PM2,5, czyli pyłu bardzo drobnego (ang. fine particles) o średnicach cząstek poniżej 2,5 μm, przekraczały międzynarodowe standardy (WHO i UE) dla jakości powietrza w pomieszczeniach. Autorzy artykułu z pisma Environmental Geochemistry and Health podkreślają, że o ile dość dobrze zbadano wpływ środowiskowy prehistorycznego wykorzystania paliw biomasowych, o tyle niewiele wiadomo o ich wpływie na zdrowie, zwłaszcza w neolicie, gdy ludzie przeszli od życia w stosunkowo małych grupach do zamieszkiwania w gęsto zaludnionych osadach. W typowym domu w Çatalhöyük znajdował się piec kopułowy posadowiony przy południowej ścianie (nad nim znajdował się otwór w dachu). W latach 90. (1997-1999) zbudowano replikę domu z cegły suszonej dla zwiedzających. W skład zespołu badawczego wchodzili m.in. eksperci z Uniwersytetów w Newcastle, Durham i Kopenhadze. Eksperymenty prowadzono 11, 12 i 13 lipca 2017 r. Średnia temperatura w okolicy wynosiła wtedy 24°C, nie padało i wiał jedynie lekki wiatr. By zmierzyć poziom PM2,5, przeprowadzono 5 testów. Pierwszy miał pokazać wyjściowy poziom zanieczyszczenia, testy nr 3, 4 i 5 miały unaocznić poziom PM2,5 podczas spalania paliw w piecu, zaś test nr 2 podczas spalania w palenisku. Piec był zamknięty z trzech stron; z przodu znajdował się otwór do podkładania paliwa, a od góry mniejszy otwór, przez który wydostawał się dym. Zlokalizowane z przodu palenisko było całkowicie otwarte. Mieszkańcy wsi Küçükköy dostarczyli drewno i odchody. Odchody krów karmionych trawą zostały przed eksperymentem wysuszone. Podczas testu nr 2 w palenisku spalano suszone odchody. W ramach testu nr 3 w piecu spalono drewno (zajęło to 2 h 36 min), zaś podczas testu nr 4 w piecu wykorzystano paliwo mieszane - drewno i odchody. Gdy prowadzono test nr 5, ogień rozniecono i po 3 min dodano dwa kawałki drewna. Naukowcy wykorzystali 3 stacje (urządzenia) pomiarowe. Okazało się, że maksymalny poziom PM2,5 przy spalaniu suszonych krowich odchodów wynosił >150,000 µg m−3. Maksymalny poziom związany z paleniem drewna wynosił natomiast 36,000 µg m−3. Średnie wartości dla 2-3-godzinnego spalania odchodów i drewna wynosiły, odpowiednio, 13–60,000 µg m−3 oraz 10–45,000 µg m−3. Jak podkreślili akademicy, stężenia pozostawały wysokie do 40 min od wygaszenia ognia. Analizując wyniki, ekipa doszła do wniosku, że ustawienie człowieka względem ognia miało jedynie minimalny wpływ na ekspozycję na zanieczyszczenia. Brakowało odpowiedniego komina. Ponadto konstrukcja składała się z pojedynczego, niewielkiego pomieszczenia, co lokowało palenisko w przestrzeni mieszkalnej. Przez to w wyniku zwykłych, codziennych czynności każdy z mieszkańców był narażony na niebezpieczny poziom cząstek stałych. Niemal na pewno miało to negatywny wpływ na zdrowie tych społeczności [...] - podkreśla dr Lisa-Marie Shillito z Uniwersytetu w Newcastle. Badanie zależności między zanieczyszczeniem powietrza i zdrowiem w przeszłości jest trudne, bo przez stan zachowania ludzkie szczątki nie zawsze zapewniają jasne wskazówki. Cząstki PM2,5 mogą docierać do płuc i pozostawać w tkance, a nawet dostawać się do krwiobiegu, wyzwalając odpowiedź zapalną poza płucami. W szczątkach wielu mieszkańców Çatalhöyük stwierdzono zmiany przerostowe tkanki kostnej o charakterze osteoperiostitis, co wg autorów raportu z Environmental Geochemistry and Health mogło być reakcją na infekcję; zjawisko to można by wyjaśnić właśnie przewlekłą ekspozycją na PM2,5. To badanie może mieć ważne implikacje dla współczesnych czasów. Wiele społeczności na świecie nadal wykorzystuje biomasę do gotowania i ogrzewania źle wentylowanych pomieszczeń [...]. Nasze studium sygnalizuje problem i może utorować drogę różnym rozwiązaniom - podsumowuje prof. Anil Namdeo z Northumbria University. « powrót do artykułu
- 8 odpowiedzi
-
- neolityczny dom
- palenisko
-
(i 4 więcej)
Oznaczone tagami:
-
W ciągu ostatnich kilku dni ze stanowisk redakcyjnych w recenzowanym piśmie Vaccines zrezygnowało co najmniej 6 wirusologów i wakcynologów, w tym współzałożycielka pisma Diane Harper z University of Michigan. Do rezygnacji uczonych doszło po tym, jak w piśmie ukazał się artykuł, którego autorzy stwierdzili, że na każde 3 zgony na COVID19, którym szczepionki zapobiegły, przypadają 2 zgony spowodowane przez szczepionki. Z pracy dla Vaccines zrezygnowali m.in. Florian Krammer, wirusolog z Icahn School of Medicine, immunolog Katie Ewer z University of Oxford, która brała udział w pracach nad szczepionką AstraZeneca czy Helen Petousis-Harris, wakcynolog stojąca na czele Vaccine Datalink and Research Group na University of Auckland. Dane zostały nieprawidłowo zinterpretowane, gdyż wynika z nich, że każdy zgon, który nastąpił po szczepieniu został spowodowany szczepieniem. Teraz artykuł ten jest wykorzystywany przez antyszczepionkowców i osoby zaprzeczające istnieniu pandemii, jako argument, że szczepionki nie są bezpieczne. Publikacja takiego artykułu jest wysoce nieodpowiedzialna, szczególnie ze strony pisma specjalizującego się w publikacjach na temat szczepionek, stwierdziła Katie Ewer. Fala rezygnacji rozpoczęła się w piątek, po opublikowaniu artykułu zatytułowanego The Safety of COVID-19 Vaccinations—We Should Rethink the Policy. Jego autorami są Harald Walach z Uniwersytetu Medycznego w Poznaniu, Rainer J. Klement ze Szpitala Leopoldina w Niemczech oraz Wouter Aukema z Holandii. Żaden z autorów nie jest wirusologiem, wakcynologiem czy epidemiologiem. Harald Walach to psycholog kliniczny i historyk nauki, Rainer Klement specjalizuje się w diecie ketogenicznej w leczeniu nowotworów, zaś Wouter Aukema jest niezależnym specjalistą od analizy danych. Ich artykuł był recenzowany przez trzech naukowców. Dwoje z nich jest anonimowych. Trzecim recenzentem jest Anne Ulrich, chemik z Instytutu Technologii w Karlsruhe. W swojej recenzji pani Ulrich napisała, że analiza wykonana przez autorów artykułu jest odpowiedzialna, bez błędów metodologicznych, a wnioski zostały sformułowane z odpowiednimi zastrzeżeniami. Z kolei jeden z anonimowych recenzentów napisał, że artykuł jest bardzo ważny i powinien być pilnie opublikowany. To niemal cała recenzja. Z recenzji tych jasno wynika, że recenzenci nie mają żadnego doświadczenia na polu, którego dotyczy artykuł. Również autorzy artykułu takiego doświadczenia nie posiadają, komentuje Petousis-Harris. Autorzy artykułu obliczyli liczbę zgonów, którym zapobiegły szczepionki przeciwko COVID-19, biorąc pod uwagę wcześniejsze badania nad 1,2 milionami Izraelczyków, z których połowa otrzymała szczepionkę Pfizera, a połowa była niezaszczepiona. Z obliczeń wynikało, że średnio konieczne było zaszczepienie 16 000 osób, by zapobiec jednemu zgonowi. Krytycy zauważają, że wyliczenia są błędne, gdyż w miarę, jak coraz więcej osób jest zaszczepianych, trzeba zaszczepić coraz więcej, by zapobiec każdemu dodatkowemu przypadkowi śmierci. Kolejny błąd popełniono przy obliczaniu liczby zgonów spowodowanych przez szczepionki. Autorzy badań wzięli bowiem pod uwagę holenderską narodową bazę danych dotyczącą niepożądanych skutków przyjmowania środków medycznych. Baza ta, Lareb, jest podobna do amerykańskiego systemu VAERS, który opisywaliśmy przed kilkoma miesiącami. Do Lareb, podobnie jak VAERS, każdy może wpisać wszelkie niepokojące objawy, jakich doświadczył po przyjęciu szczepionki. To jednak nie oznacza, że sygnalizowany problem rzeczywiście został spowodowany przez lek czy szczepionkę. Dlatego też tego typu baz nie wykorzystuje się do oceny ryzyk spowodowanych przez środki medyczne, a do poszukiwania wczesnych sygnałów ostrzegawczych o tego typu ryzykach. Sygnały takie są następnie weryfikowane pod kątem ich związku z przyjętą szczepionką czy lekiem. Zresztą w bazie Lareb wyraźnie zawarto informację, że umieszczenie w niej wpisu nie oznacza, iż istnieje rzeczywisty związek pomiędzy szczepionką lub lekiem, a raportowanymi objawami. Mimo to autorzy badań stwierdzili w artykule, że w bazie tej znaleźli 16 poważnych skutków ubocznych na 100 000 zaszczepionych oraz 4,11 śmiertelnych skutków ubocznych na 100 000 zaszczepionych. Zatem na każde trzy zgony, którym szczepionki zapobiegły, przypadają 2 zgony, które spowodowały. Eugene van Puijenbroek, dyrektor ds. naukowych i badawczych Lareb już dzień po publikacji kontrowersyjnego artykułu napisał do redakcji Vaccines, krytykując artykuł i domagając się jego poprawienia lub wycofania. Zgłoszone do bazy wydarzenie, do którego doszło po zaszczepieniu, niekoniecznie musi być spowodowane przez szczepienie. Tymczasem autorzy zaprezentowali nasze dane tak, jakby istniał związek przyczynowo-skutkowy. Sugerowanie, że we wszystkich wpisach, w których poinformowano o zgonie po szczepieniu, istnieje związek przyczynowo-skutkowy, jest dalekie od prawdy. Co więcej, van Puijenbroek zauważa, że w artykule pada stwierdzenie, że dane z holenderskiego rejestru, szczególnie informacje dotyczące zgonów, zostały potwierdzone przez specjalistów. To po prostu nieprawda. Wydaje się, że autorzy artykułu mają tutaj na myśli opublikowane przez nas zasady tworzenia Lareb. Tymczasem w zasadach tych nigdzie nie pada stwierdzenie, że wpisy znajdujące się w bazie są certyfikowane przez specjalistów, mówi van Puijenbroek. Harald Walach broni artykułu. Mówi, że szczepionki zostały dopuszczone do użytku w trybie przyspieszonym, a liczba osób uczestnicząca w testach klinicznych nie była wystarczająco duża, a testy nie trwały wystarczająco długo, by ocenić bezpieczeństwo. Wszyscy trzej autorzy stoją na stanowisku, że ich artykuł nie zawiera błędów. « powrót do artykułu
- 33 odpowiedzi
-
Pedro Bernardinelli i Gary Bernstein z Univeristy of Pennsylvania odkryli gigantyczną kometę, która zmierza w stronę Słońca. Już w roku 2031 zbliży się ona na najmniejszą odległość od naszej gwiazdy. Kometa Bernardinelli-Bernstein, oficjalnie nazwana C/2014 UN271, została zauważona podczas analizy zdjęć z jednego z najdoskonalszych aparatów wykorzystywanych w astronomii. Amerykańscy naukowcy analizowali obrazy z lat 2013–2019 wykonane przez 570-megapikselowy Dark Energy Camera (DECam) umieszczony na Victor M. Blanco Telscope w Chile. Urządzenie jest wykorzystywane do monitorowania około 300 milionów galaktyk, a uzyskane dane służą do lepszego zrozumienia ciemnej materii. Uczeni, analizując około 80 000 obrazów, znaleźli na nich ponad 800 obiektów z Układu Słonecznego. Na 32 z nich zauważyli olbrzymią kometę, którą po raz pierwszy widać na zdjęciach z roku 2014. Opierając się na ilości światła odbijanego przez kometę Bernardinelli-Bernstein, jej odkrywcy stwierdzili, że ma ona średnicę 100–200 kilometrów. To około 10-krotnie więcej niż średnica przeciętnej komety. Masa olbrzyma jest zaś około 1000-krotnie większa niż masa przeciętnej komety. To zaś oznacza, że mamy do czynienia z największą kometą odkrytą w czasach współczesnych oraz z największym znanym nam obiektem pochodzącym z Obłoku Oorta. Na pierwszym z wykonanych zdjęć kometa znajduje się w odległości około 25 jednostek astronomicznych (j.a.) od Słońca, czyli mniej więcej w takiej odległości jak Neptun. Uczeni oceniają jednak, że swoją podróż rozpoczęła z Obłoku Oorta, znajdującego się około 40 000 j.a. od naszej gwiazdy. Obecnie kometa Bernardinelli-Bernstein znajduje się w odległości 20 j.a. od Słońca. Z ostatnich zdjęć wynika, że jej powierzchnia na tyle się rozgrzała, że pojawił się warkocz. Jego utworzenie się pozwala oficjalnie zakwalifikować obiekt jako kometę. Pomimo olbrzymich rozmiarów i masy, nie musimy przejmować się obecnością komety. Z wyliczeń jej trajektorii wynika, że podleci ona do Słońca nie bliżej niż na odległość 11 j.a. Dla przypomnienia – jednostka astronomiczna to średnia odległość pomiędzy Ziemią a Słońcem. Bernardinelli-Bernstein nie zbliży się więc do Ziemi bliżej niż Saturn. To na tyle duża odległość, że giganta najprawdopodobniej nie będzie można obserwować gołym okiem. « powrót do artykułu
-
- kometa
- Bernardinelli-Bernstein
-
(i 3 więcej)
Oznaczone tagami:
-
Niedawno dowiedzieliśmy się o wyjątkowych upałach, jakie nawiedziły Kanadę i o kolejnych krajowych rekordach temperatury, która w końcu w miejscowości Lytton sięgnęła niemal 50 stopni Celsjusza. Tymczasem Światowa Organizacja Meteorologiczna (WMO) oficjalnie potwierdziła rekord temperatury na Antarktydzie. W lutym ubiegłego roku w argentyńskiej stacji Esperanza na Półwyspie Antarktycznym zanotowano 18,3 stopnia Celsjusza. Zweryfikowanie pomiaru najwyższej temperatury jest ważne, gdyż pozwala nam zbudować lepszy obraz pogody i klimatu na tym obszarze, stwierdził sekretarz generalny WMO, Petteri Taalas. Półwysep Antarktyczny to jeden z najszybciej ogrzewających się obszarów na Ziemi. W ciągu ostatnich 50 lat średnie temperatury wzrosły tam o 3 stopnie Celsjusza. Nowy rekord jest zatem zgodny z obserwowanym trendem. W ubiegłym roku John King z British Antarctic Survey mówił To jest ten region Antarktyki, w którym spodziewamy się od czasu do czasu niezwykle wysokich temperatur. Jest to spowodowane gorącymi wiatrami wiejącym z gór na zachód od Stacji Esperanza. Powodują one, że w ciągu kilku godzin temperatura może wzrosnąć nawet o 10 stopni Celsjusza. Samo to zjawisko nie jest niczym niepokojącym. Ale wpisuje się ono we wzorzec zmian na Antarktyce i tym należy się martwić. To najszybciej ocieplający się region Antarktyki, więc nie będę zdziwiony, jeśli w ciągu najbliższych lat obecny rekord znowu zostanie pobity, stwierdzał King. Weryfikując pomiar rekordowej temperatury, eksperci z WMO przyjrzeli się zarówno warunkom, jakie wówczas panowały, jak i samemu sposobowi przeprowadzenia pomiaru oraz wykorzystanym urządzeniom. Stwierdzili, że utworzony wówczas obszar wysokiego ciśnienia zepchnął wiatr w po zboczach gór. Z wcześniejszych badań wiemy, że takie warunku i sprzyjają szybkiemu wzrostowi temperatury w tym regionie. Odnośnie metod i narzędzi pomiarowych nie zgłoszono żadnych zastrzeżeń. Jednocześnie WMO uznało za błędny inny, jeszcze wyższy, odczyt z automatycznej brazylijskiej stacji monitorującej umieszczonej na pobliskiej Wyspie Seymoura. W tym samym czasie, gdy padł rekord na Esperanzy, stacja na wyspie wskazał temperaturę 20,75 stopni Celsjusza. Eksperci WMO uznali, że improwizowana osłona radiacyjna na brazylijskiej stacji doprowadziła do nieprawidłowego działania czujnika temperatury powietrza i nie uznali odczytu. Dane ze stacji Esperanza zostaną wpisane do prowadzonej przez WMO bazy danych zawierające ekstrema klimatyczne i pogodowe. Zawarto tam informacje o najwyższych i najniższych na Ziemi temperaturach, opadach, suszach, prędkościach wiatru i innych, w tym zgonach spowodowanych pogodowymi ekstremami. « powrót do artykułu
-
- Antarktyka
- Antarktyda
-
(i 3 więcej)
Oznaczone tagami:
-
Galaktyki, gwiazdy, planety i ich księżyce obracają się wokół własnych osi. Teraz międzynarodowy zespół badawczy dodał do tych obiektów kosmiczne włókna, skupiska gromad i supergromad galaktyk, które rozciągają się na odległość setek milionów lat świetlnych. Tym samym są to największe obracające się obiekty w przestrzeni kosmicznej. Ich ruch może wyjaśniać, dlaczego galaktyki i inne obiekty tak chętnie wirują wokół własnej osi. Naukowcy nie do końca rozumieją fenomen obracania się wokół własnej osi na skalę kosmiczną. Jednym ze sposobów zrozumienia tego zjawiska jest próba poznania obszarów, w których rotacja ustaje. Naukowcy z Instytutu Astrofizyki im. Leibnitza w Poczdamie, pracujący pod kierunkiem Noama Liebskinda, postanowili sprawdzić, czy włókna galaktyczne również się obracają. Struktury te mają długość setek milionów, a szerokość zaledwie kilku milionów lat świetlnych. Przypominają gigantyczne mosty, łączące ze sobą gromady galaktyk. Już wcześniejsze badania sugerowały, że włókna mogą być miejscami, gdzie rotacja ustaje. Jednak grupa Liebskinda, we współpracy z uczonymi z Francji, Chin i Estonii, wywróciła te przekonania do góry nogami. Galaktyki, wędrujące wzdłuż włókien, poruszają się po orbitach przypominających helisę czy też korkociąg, krążąc wokół środka włókna. Nigdy wcześniej nie obserwowaliśmy takiego ruchu obrotowego na tak wielką skalę. To wskazuje, że musi istnieć nieznany mechanizm fizyczny napędzający ten ruch, mówi Liebskind. Naukowcy odkryli ten ruch analizując dane ze Sloan Digital Sky Survey, w ramach którego gromadzone są informacje o świetle docierającym do nas z setek tysięcy galaktyk. Jako że nie jesteśmy w stanie mierzyć obrotu w tak gigantycznej skali, naukowcy badali przesunięcie galaktyk ku czerwieni i ku światłu niebieskiemu. W ten sposób mogli określić, jak szybko galaktyki przybliżają się i oddalają od nas. Aby tego dokonać przeanalizowali tysiące włókien i zbadali prędkość galaktyk równolegle do włókien. Gdy większość galaktyk z jednej strony włókien podążała ku widmu niebieskiemu, a większość z drugiej – ku czerwonemu, uczeni doszli do wniosku, że włókna wirują wokół własnej osi. Prędkość tego wirowania oszacowali na niemal 100 km/s. Innym ważnym spostrzeżeniem jest odkrycie, iż włókna przy końcach bardziej masywnych gromad galaktyk wirują szybciej. Liebskind przyznaje, że nie rozumie do końca tego zjawiska, ale być może istnieje związek grawitacyjny pomiędzy obrotem włókien a zbiorami galaktyk. Być może efekt pływowy lub pole grawitacyjne tych gromad w jakiś sposób napędza lub wywołuje obrót. « powrót do artykułu
- 8 odpowiedzi
-
- wszechświat
- ruch obrotowy
-
(i 2 więcej)
Oznaczone tagami:
-
Pojazdy kosmiczne i urządzenia znajdujące się poza Księżycem są uzależnione od komunikacji z Ziemią, dzięki której znają swoją pozycję. Przed 2 laty NASA wysłała w przestrzeń kosmiczną Deep Space Atomic Clock, dzięki któremu oddalone od Ziemi pojazdy i urządzenia mają zyskać więcej autonomii. Agencja poinformowała właśnie o ustanowieniu nowego rekordu długotrwałej stabilności zegara atomowego. W celu wyliczenia trajektorii oddalonych od Ziemi pojazdów wykorzystuje się sygnały, wysyłane z Ziemi do pojazdu i odbierane ponownie na Ziemi. Używane są przy tym duże, wielkości lodówki, zegary atomowe na Ziemi, precyzyjnie rejestrujące czasy przybycia sygnałów. Jest to niezbędne do precyzyjnego określenia położenia pojazdu. Jednak dla robota pracującego np. a Marsie czy pojazdu podróżującego w znacznej odległości od Ziemi, konieczność oczekiwania na nadejście sygnału powoduje kumulujące się opóźnienia w pracy, które mogą łącznie trwać nawet wiele godzin. Jeśli takie pojazdy czy urządzenia posiadałyby własne zegary atomowe, mogłyby samodzielnie obliczać swoją pozycję i trajektorię. Jednak zegary takie musiałyby być bardzo stabilne. Przykładem niech będą satelity GPS. Każdy z nich jest wyposażony w zegar atomowy, jednak zegary te muszą być wielokrotnie w ciągu dnia korygowane, by zachowały odpowiednią stabilność. Wszystkie zegary atomowe mają pewien stopień niestabilności, co prowadzi do odchylenia wskazań od rzeczywistego upływu czasu. Jeśli odchylenia te nie będą korygowane, zaczną się nawarstwiać, co może mieć opłakane skutki dla urządzenia nawigującego w przestrzeni kosmicznej czy pracującego na odległej planecie. Jednym z celów misji Deep Space Atomic Clock jest badanie stabilności zegara atomowego w coraz dłuższych odcinkach czasu. NASA poinformowała właśnie, że udało się jej osiągnąć stabilność rzędu poniżej 4 nanosekund na ponad 20 dni. To oznacza, że w tym czasie odchylenie wskazań pokładowego zegara atomowego od czasu rzeczywistego było nie większe niż wspomniane 4 nanosekundy. Pozornie te 4 nanosekundy to niewiele, jednak, jak mówi Eric Burt, pracujący przy misji Deep Space Atomic Clock, fizyk specjalizujący się w zegarach atomowych, przyjmuje się, że niepewność rzędu 1 nanosekundy równa się niepewności rzędu 1 stopy, czyli ok. 30 centymetrów. Niektóre zegary systemu GPS muszą być aktualizowane kilkanaście razy na dobę, by zachować odpowiedni poziom stabilności. To oznacza, że GPS jest wysoce zależny od komunikacji z Ziemią. Deep Space Atomic Clock może być aktualizowany raz na tydzień lub rzadziej, co dawałoby takim urządzeniom jak GPS więcej autonomii, dodaje Burt. Amerykanie robią więc szybkie postępy. Jeszcze jesienią 2020 roku stabilność ich eksperymentalnego zegara była 5-krotnie mniejsza niż obecnie. Ta różnica wynika nie tylko z udoskonalenia samego zegara, ale również z udoskonalenia metod pomiarów jego stabilności, co było możliwe dzięki zebraniu przez ostatnie miesiące dodatkowych danych. Misja Deep Space Atomic Clock ma zakończyć się w sierpniu. NASA już jednak pracuje nad udoskonalonym Deep Space Atomic Clock-2, który zostanie dołączony do misji VERITAS (Venus Emissivity, Radio Science, InSAR, Topography, and Spectroscopy). Podobnie jak jego poprzednik, będzie to misja demonstracyjna, której celem będzie zwiększenie możliwości urządzenia i opracowanie nieistniejących obecnie rozwiązań sprzętowych i programowych. W czasie misji VERITAS zegar będzie mógł pokazać, na co go stać i sprawdzimy jego potencjalną przydatność podczas przyszłych misji kosmicznych, zarówno w czasie badań naukowych jak i nawigacji, stwierdził Todd Ely, główny naukowiec Deep Space Atomic Clock. « powrót do artykułu
-
- zegar atomowy
- nawigacja
-
(i 2 więcej)
Oznaczone tagami:
-
Na wodach Zatoki Bengalskiej uratowano od niechybnej śmierci dwa słonie, zapędzone przez ludzi do oceanu. Zwierzęta, które odłączyły się od swego rodzimego stada w Mjanmie, trafiły do Bangladeszu, gdzie niemal straciły życie. Po odłączeniu od stada, słonie przepłynęły rzekę i znalazły się na terytorium Bangladeszu. Tam lokalni mieszkańcy, przerażeni ponoć wcześniejszymi niebezpiecznymi spotkaniami ze słoniami, zapędzili zwierzęta na plażę. Przez cztery dni tysiące gapiów krążyło wokół przerażonych zwierząt, które nie miały ani co jeść, ani co pić na piaszczystej plaży. W końcu zdesperowane zwierzęta weszły do oceanu i zaczęły płynąć w głąb Zatoki Bengalskiej. Tam zauważył je lokalny rybak, który wraz z władzami za pomocą lin zawrócił słonie na brzeg. Lokalny urzędnik, Syed Ashiq Ahmed zapewnił, że słonie otrzymały pożywienie i zostaną przetransportowane do najbliższego lasu. Ludzie coraz bardziej niszczą habitaty słoni, wycinając lasy w celu pozyskania drzewa, pod uprawy rolne. Coraz częściej dochodzi też do pożarów lasów. Jakby jeszcze tego było mało, w ostatnich latach jeden z najważniejszych szlaków migracji słoni w regionie został zablokowany, gdyż założono tam obozy dla uchodźców Rohingja z Mjanmy. Przez takie postępowanie ludzi słonie są zmuszane do zmian swoich tras migracji, co naraża je na liczne dodatkowe niebezpieczeństwa. Raquibul Amin, regionalny lider International Union for Conservation of Nature poinformował, że to już czwarty podobny incydent w bieżącym roku. Ekolog wezwał władze Mjanmy i Bangladeszu do lepszej współpracy w celu monitorowania ruchu słoni i podjęcia działań na rzecz zmniejszenia liczby konfliktów pomiędzy ludźmi a słoniami. « powrót do artykułu
- 3 odpowiedzi
-
- Bangladesz
- Zatoka Bengalska
-
(i 2 więcej)
Oznaczone tagami:
-
Mężczyźni, którzy chcą żyć dłużej, powinni zainwestować w jakość swojego małżeństwa. Badacze z Wydziału Medycyny Uniwersytetu w Tel Awiwie informują, że małżeństwo i życie rodzinne są w przypadku mężczyzn równie silnym wskaźnikiem przewidywanej długości życia, co palenie papierosów i utrzymywanie aktywności fizycznej. Nasze badania wykazały, że jakość małżeństwa oraz życia rodzinnego ma wpływ na przewidywaną długość życia. Mężczyźni, którzy postrzegają swoje małżeństwo jako porażkę, umierają wcześniej niż ci, którzy uważają je za udane. Innymi słowy, poziom satysfakcji z małżeństwa pozwala z równie dużą pewnością przewidywać długość życia, co palenie papierosów (palacze kontra niepalący) oraz aktywność fizyczna (aktywni kontra nieaktywni), wyjaśnia jeden z autorów badań, doktor Shahar Lev-Ari, dziekan Wydziału Promocji Zdrowia. Co bardzo ważne, zauważyliśmy, że większe ryzyko związane z nieudanym małżeństwem dotyczy dość młodych mężczyzn, poniżej 50. roku życia. W starszym wieku różnica pomiędzy grupą zadowoloną a niezadowoloną z małżeństwa ulega zmniejszeniu, prawdopodobnie w wyniku procesu lepszego dopasowania się partnerów przez ten czas. Naukowcy wyciągnęli swoje wnioski na podstawie ponad 30 lat obserwacji nad przyczynami zgonów 10 000 izraelskich mężczyzn. Przeprowadzili analizy statystyczne bazy danych, która powstała w latach 60. i prześledzili dane z kolejnych 32 lat dotyczące zdrowia i zachowania 10 000 mężczyzn, którzy byli zatrudnieni w instytucjach państwowych. Zwracali szczególną uwagę na zgony w wyniku udarów oraz na przedwczesne zgony. Na początku tworzenia bazy większość umieszczonych w niej mężczyzn miało pomiędzy 40 a 49 lat. W ciągu kolejnych 32 lat z powodu różnych chorób zmarło 64% z nich. Przeanalizowaliśmy dane używając różnych parametrów określających behawioralne i psychospołeczne czynniki, które pozwalają na określenie ryzyka zgonu z powodu udaru lub ryzyka przedwczesnej śmierci z jakiegokolwiek powodu, mówi Lev-Ari. Na samym początku badań uczestników poproszono o ocenę swojego małżeństwa w skali od 1 (bardzo udane) do 4 (nieudane). Ku zdumieniu badaczy okazało się, że oceny takie były równie silną wskazówką ryzyka zgonu co palenie papierosów i brak aktywności fizycznej. Okazało się, że w grupie, która dała swojemu małżeństwu ocenę 4 odsetek zgonów z powodu udaru był aż o 69% wyższy, niż w grupie oceniającej małżeństwo na bardzo udane (1). Ogólna śmiertelność wśród mężczyzn oceniających małżeństwo jako nieudane była o 19% wyższa, niż w grupie oceniającej je jako udane. Uczeni zauważyli też, że wśród mężczyzn, którzy na początku badań nie przekroczyli 50. roku życia, rozdźwięk pomiędzy obiema grupami był większy. Przeprowadzono też analizy statystyczne dla wszystkich czynników ryzyka zgonu z powodu chorób układu krążenia, jak cukrzyca, nadciśnienie czy otyłość oraz dla socjoekonomicznych czynników ryzyka. Także i tutaj okazało się, że mężczyźni tkwiący w nieudanych małżeństwach narażeni są na o 21% wyższe ryzyko zgonu. Odsetek ten zgadza się z odsetkiem zwiększonego ryzyka wśród palaczy i osób nieaktywnych fizycznie. « powrót do artykułu
- 7 odpowiedzi
-
- długość życia
- małżeństwo
-
(i 2 więcej)
Oznaczone tagami:
-
W najbliższych latach spodziewany jest lawinowy wzrost liczby miniaturowych urządzeń transmitujących dane. Rozwija się Internet-of-Things (IoT), więc tego typu urządzenia będą wykorzystywane np. w logistyce. Wszystkie one potrzebują źródła zasilania. Jednak baterie czy akumulatory wywierają negatywny wpływ na środowisko. Badacze z Empa (Szwajcarskie Federalne Laboratoria Nauk Materiałowych i Technologii) poinformowali o stworzeniu biodegradowalnego superkondensatora. Urządzenie zbudowane jest z węgla, celulozy, gliceryny i soli stołowej. To składniki tuszu dla drukarki 3D, w której wyprodukowano nowatorskie kondensatory. Składa się on z celulozowych nanowółkien i nanokryształów, węgla w postaci sadzy, grafitu i węgla aktywnego. Formę płynną nadaje gliceryna, woda i dwa rodzaje alkoholu. Do tego dochodzi nieco soli zapewniającej przewodnictwo. Superkondensator składa się z czterech warstw nakładanych jedna po drugiej przez drukarkę. Warstwy te to elastyczna podstawa, warstwa przewodząca, elektroda i elektrolit. Całość jest następnie składana na podobieństwo kanapki z elektrolitem wewnątrz. Powstaje w ten sposób całkowicie biodegradowalny kondensator, który może przechowywać energię elektryczną całymi godzinami, a jego wersja prototypowa jest zdolna do zasilania niewielkiego zegara cyfrowego. Kondensator wytrzymuje tysiące cykli ładowania/rozładowywania, może pracować przez wiele lat, działa w temperaturach ujemnych, jest odporny na nacisk i wstrząsy. Kondensator, gdy już go nie będziemy potrzebowali, można wyrzucić. Rozkłada się w ciągu 2 miesięcy, a jedyne, co możemy po tym czasie zobaczyć, to nieco fragmentów węgla. Wydaje się to proste, ale takie nie było, mówi Xavier Aeby z Empa. Stworzenie urządzenia o odpowiednich parametrach wymagało wielu prób i testów. Konieczne było bowiem stworzenie tuszu o parametrach nadających się do użycia w drukarce, z którego powstanie kondensator gotowy do wykorzystania w praktyce. Aeby studiował inżynierię mikroelektroniki na Szwajcarskim Federalnym Instytucie Technologii w Lozannie, a w Empa pisze doktorat. Jego opiekunem jest Gustav Nyström, którego grupa badawcza już od pewnego czasu prowadzi prace nad żelami bazującymi na nanoceluluzie, biodegradowalnym materiale o potencjalnie licznych zastosowaniach. Od bardzo dawna interesuje mnie biodegradowalny system przechowywania energii. Poprosiliśmy Empa o sfinansowanie naszego projektu, Printed Paper Batteries, i właśnie osiągnęliśmy pierwszy z naszych celów, mówi Nyström. Szwajcarski superkondensator może już wkrótce stać się kluczowym komponentem IoT. W przyszłości takie kondensatory można będzie szybko ładować wykorzystując np. pole elektromagnetyczne. Po naładowaniu będą one zasilały czujniki czy mikroprzekaźniki, mówią badacze. Metoda taka może być wykorzystywana np. do sprawdzania zawartości opakowań w transporcie. Biodegradowalne systemy przechowywania energii przydałyby się też w czujnikach monitorujących środowisko czy pracujących na rzecz rolnictwa. Tego typu akumulatorów nie trzeba by było zbierać, gdyż szybko uległyby rozkładowi bez szkody dla środowiska naturalnego. « powrót do artykułu
-
- superkondensator
- biodegradowalne
-
(i 3 więcej)
Oznaczone tagami:
-
Drobny chrząszcz sprzed milionów lat jest pierwszym gatunkiem owada, który został zidentyfikowany w skamieniałych odchodach – tzw. koprolicie. Pochodzą one przypuszczalnie od przodka dinozaurów, zamieszkującego obszar dzisiejszego Śląska – informują naukowcy w Current Biology. Niewielkie, pokawałkowane chrząszcze zaliczono do gatunku nazwanego Triamyxa coprolithica. Jest to pierwszy gatunek owada zidentyfikowany w koprolicie, czyli skamieniałych odchodach. Same zaś koprolity to najprawdopodobniej pozostałość po przodku dinozaurów – żyjącym 230 mln lat temu gadzie z gatunku Silesaurus opolensis. Autorzy nowej publikacji – choć nie są tego w stu procentach pewni - typują jednak właśnie przedstawiciela tej grupy ze względu na kształt, wielkość i inne cechy koprolitów. Silezaury żyły w późnym triasie na terenie; ich znane skamieniałości pochodzą z Krasiejowa (woj. opolskie). Były stosunkowo niewielkie, szacuje się, że ważyły ok. 15 kg i mierzyły ok. 2 metrów. Ich szczęki zakończone były dziobem, który mógł służyć do przeczesywania ściółki i wybierania owadów z ziemi, jak robią niektóre ptaki. Badania prowadził międzynarodowy zespół z ośrodków naukowych w Szwecji, na Tajwanie, w Niemczech i w Meksyku. Nigdy nie sądziłem, że dowiemy się, co ten triasowy poprzednik dinozaurów jadł na obiad - mówi jeden z autorów artykułu, Grzegorz Niedźwiedzki z Uniwersytetu w Uppsali (Szwecja). Naukowcy prześwietlili koprolit w synchrotronie, dzięki czemu dokonali trójwymiarowej, komputerowej rekonstrukcji jego zawartości, nie niszcząc całości znaleziska. Wewnątrz znaleźli liczne fragmenty chrząszczy, z których większość należała do jednego gatunku. Niektóre przetrwały niemal w całości, z dobrze zachowanymi, delikatnymi czułkami i odnóżami. Należały one do podrzędu myxophaga, który istnieje do dzisiaj. Obecnie chrząszcze z tej grupy zamieszkują podmokłe stanowiska i żerują na glonach. Sposób zachowania chrząszczy w koprolicie przypomina nieco sposób zachowania w bursztynach, które zwykle stanowią źródło najlepiej zakonserwowanych skamieniałości owadów. Bursztyny tworzyły się jednak dopiero w stosunkowo niedawnej przeszłości geologicznej i najstarsze, zachowane w nich owady mają ok. 140 mln lat - przypominają autorzy nowej publikacji. Ich zdaniem nowe badanie pozwala uznać koprolity za cenne źródło okazów, jak też wiedzy nt. ewolucji dużo starszych grup owadów, a zarazem – informacji nt. diety wymarłych kręgowców « powrót do artykułu
-
Członkowie polsko-gruzińskiej misji archeologicznej odkryli w mieście Kutaisi ślady osadnictwa z XIII-XII wieku p.n.e. Okres, w którym istniała osada zgadza się z okresem mitycznej wyprawy argonautów po złote runo. Odkrycie zmienia też pogląd na historię Gruzji. Dotychczas istniała chronologia określona za pomocą tradycyjnych metod oraz wskazywano na daty początku państwa gruzińskiego na obszarze zachodniej Gruzji. Obecne odkrycie, dokonane za pomocą nowych metod, wskazują, że osadnictwo na terenie Kutaisi jest o kilkaset lat wcześniejsze, a wspomniane w mitach kontakty miały miejsce i doszło do nich wcześniej niż sądzono, mówi dyrektor Polsko-Gruzińskiego Interdyscyplinarnego Centrum Badawczego, profesor Radosław Karasiewicz-Szczypiorski. Jacek Hamburg mówi, że dotychczas znaleziono pozostałości po fortyfikacjach, które początkowo datowano na VIII-VII wiek przed Chrystusem, jednak specjalistyczne analizy, w tym datowanie radiowęglowe, wskazały, że pochodzą z XIII-XII wieku p.n.e. Weryfikujemy teraz datowanie całego Kutaisi, przenosząc je na epokę brązu. Wiemy teraz, że miasto jest starsze niż początkowo sądziliśmy. Naukowcy znaleźli m.in. fosę o szerokości 10 i głębokości 6 metrów oraz pozostałości wieży strażniczej, wskazujące, że za fosą istniały drewniane fortyfikacje z palisadą i wieżami. To prawdopodobnie było największe miasto na tym terenie, dodaje Hamburg. W miejscu wykopalisk znaleziono też formy do odlewania siekier z asymetrycznym ostrzem, typowym dla kultury kolchidzkiej oraz fragmenty pieców. Wszystkie te obiekty zostały wrzucone do fosy. Gdy forma uległa uszkodzeniu i była bezużyteczna, fosa była naturalnym miejscem wrzucania tego typu odpadów, stwierdza Jacek Hamburg. Dla archeologów taka fosa to skarbnica wiedzy. Tym bardziej, że materia organiczna świetnie się w niej zachowała dzięki panującym tam warunkom beztlenowym. Naukowcy znaleźli tam pozostałości drewna, nasion winogron i nasion fig. Jacek Hamburg zauważa, że w każdym micie jest ziarno prawdy i być może uda się kiedyś potwierdzić mit o argonautach. To jednak będzie wymagało dalszych badań. Interdyscyplinarne Centrum Badawcze im. Prof. S. Krukowskiego zostało otwarte w Kutaisi w kwietniu 2018 roku. To pierwsza zagraniczna stacja archeologiczna na Zakaukaziu. Ze trony gruzińskiej zarządza nim Narodowa Agencja Ochrony Dziedzictwa Kulturowego, a jej partnerem jest Uniwersytet Warszawski. Stacja jest główną bazą dla wypraw archeologicznych m.in. z Polski. « powrót do artykułu
-
Walka z uzależnieniem od alkoholu nie jest prosta, dlatego należy wykorzystać w niej wszelkie dostępne środki. Jeszcze kilkanaście lat temu duże zastosowanie w terapii miała wszywka alkoholowa. Okazuje się, że także dzisiaj jest to metoda, która może znacznie ułatwić chorym drogę do trzeźwości. Masz wątpliwości odnośnie wszywki alkoholowej? Rozwiejemy je w poniższym artykule! Na czym polega działanie wszywki alkoholowej? Wszywką nazywany jałowe tabletki, które przeznaczone są do podskórnej implantacji. Umieszczone podpowięziowo w mięśniu, wydzielają stopniowo substancję aktywną do ustroju przez najbliższe kilka miesięcy. W przypadku wszywki alkoholowej lekiem jest esperal – związek hamujący aktywność dehydrogenazy alkoholowej. Enzym ten jest jednym z najważniejszych składowych metabolizmu alkoholu, ponieważ uczestniczy w eliminacji jego szkodliwego metabolitu, czyli aldehydu octowego. W przypadku wszywki alkoholowej inhibicja tego enzymu jest tak silna, że wypicie nawet niewielkiej dawki alkoholu powoduje szereg nieprzyjemnych objawów, takich jak: • zaczerwienienie twarzy; • uderzenia gorąca; • zwiększona potliwość; • ból i zawroty głowy; • mdłości i wymioty; • lęk i niepokój; • przyspieszona praca serca. Wszywka alkoholowa zaliczana jest do metod awersyjnych. Oznacza to, że wymusza na uzależnionej osobie abstynencję, poprzez strach przed złym samopoczuciem. Należy więc pamiętać, że wszywka z esperalem nie leczy choroby alkoholowej, ale może znacznie ułatwić terapię, a zwłaszcza jej pierwsze miesiące. Co warto wiedzieć o implantacji wszywki alkoholowej? Wszywanie esperalu to niewielki zabieg chirurgicznego, który jest przeprowadzany przez specjalistę chirurga. Lekarz jest odpowiedzialny za wykluczenie ewentualnych przeciwwskazań oraz za prawidłowe wyliczenie dawki esperalu, by jego działanie było optymalne, lecz pozbawione działań niepożądanych. Sam zabieg jest praktycznie bezbolesny, ponieważ przeprowadza się go w znieczuleniu miejscowym. Chirurg robi niewielkie nacięcie, zazwyczaj w okolicy pośladka, w którym umieszcza tabletki esperalu. Rana zostaje następnie zaszyta i zaopatrzona. Niekiedy można usłyszeć informacje o samodzielnym wyciągnięciu wszywki alkoholowej przez chorą osobę. Nie jest to dobry pomysł, ponieważ nietrudno wtedy o zainfekowanie rany niebezpiecznymi drobnoustrojami. Samej wszywki nie trzeba wyciągać – jej działanie ustępuje całkowicie po około 12 miesiącach. KacDoktor – specjaliści od odtrucia alkoholowego i wszywania esperalu Potrzebujesz pomocy w walce z nałogiem? Zgłoś się do KacDoktora! Jest to firma oferująca odtrucia alkoholowe i implantację wszywki w Warszawie i okolicznych miejscowościach. Jej kadra składa się z doświadczonych medyków, dzięki czemu zyskasz pewność, że Twoje zdrowie jest w dobrych rękach. Specjaliści zwykle przed implantacją wszywki doradzają wykonanie odtrucia alkoholowego. Procedura ta nie tylko wypłukuje resztki alkoholu i jego metabolitów z organizmu chorej osoby, ale przede wszystkim zapobiega wystąpieniu objawów zespołu odstawiennego. Dodatkowo, odpowiednio dobrane preparaty przyspieszą regenerację całego organizmu oraz uzupełnią niedobory witamin i minerałów. Gdzie można skorzystać z usług KacDoktora? Okazuje się, że pomoc może uzyskać nie tylko w specjalistycznym gabinecie, ale także w zaciszu własnego domu. Wystarczy zadzwonić i ustalić szczegóły wizyty, a specjalista dojedzie pod wskazany adres. Dużym udogodnieniem jest fakt, że usługi KacDoktora dostępne są całodobowo, w każdy dzień tygodnia. Nie musisz już zmagać się z chorobą alkoholową w pojedynkę – wszywka alkoholowa ułatwi Ci utrzymanie abstynencji i walkę o trzeźwość! « powrót do artykułu
-
Dres męski – jaki wybrać, by sylwetka wyglądała jak najlepiej
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Kiedyś dres kojarzył się przede wszystkim z aktywnością fizyczną i wyjściem na siłownię. Teraz patrzy się na niego nieco inaczej i może posłużyć jako stylowy dodatek do niejednej stylizacji. Dlatego też wybór dresu powinien być przemyślany. Dres jest dość uniwersalnym ubraniem, które sprawdzi się podczas wakacji, wieczorami, podczas wyjść na miasto, a czasem i do pracy. Wszystko zależy od tego, jaką stylizację chcemy stworzyć. Jednak niezależnie od tego, gdzie się wybieramy, musimy wyglądać dobrze, a to znaczy, że dres musi pasować do naszej sylwetki. Dlaczego warto postawić na dres? Zacznijmy od tego, że ubrania dresowe są niezwykle komfortowe w noszeniu. Są przyjemne w dotyku, przewiewne i ciepłe. Bez względu na to, jakiego typu sylwetkę posiadamy, znajdziemy taki model, w którym będziemy wyglądać dobrze. Drugim powodem jest uniwersalność. Zarówno spodnie dresowe męskie, jak i bluzy możemy dopasować do wielu części garderoby. Dres jest ważnym elementem mody streetwearowej i każdy mężczyzna powinien mieć go w swojej szafie. Od kilku lat dresy są modne, do tego są wyjątkowo komfortowe w noszeniu, więc z pewnością zostaną z nami na dłużej. W stylizacji możemy łączyć różne ubrania, nie tylko typowo sportowe. To, że założymy bluzę z dresu, nie znaczy, że spodnie też muszą być dresowe. Równie dobrze mogą to być jeansy albo szorty i będziemy wyglądać świetnie. Jaki dres podkreśli sylwetkę? Aby w dresie wyglądać dobrze, trzeba wybrać model, który będzie pasować do naszej sylwetki. Na co postawić? Zacznijmy od spodni. Jeżeli jesteśmy szczupli i chcemy podkreślić swoją sylwetkę, to dobrą propozycją są cieszące się ogromną popularnością joggery. Ich nogawki są zakończone ściągaczami i rewelacyjnie podkreślają umięśnione nogi. Jednocześnie są stylowe i uniwersalne. Dobrze komponują się na przykład z koszulką i kurtką skórzaną albo bomberką. Jeżeli mamy masywniejszą figurę, to lepszą propozycją będą luźniejsze spodnie – dopasowane dodałyby nam kilogramów. A co z bluzą? Bluzy męskie też są w różnych fasonach. Chcąc wyeksponować atuty swojej sylwetki, możemy postawić na modele z elastanem. Dopasowują się do ciała, a przez to podkreślają jego kształty. Nie chodzi o to, by bluza była obcisła, bo to nie wygląda zbyt dobrze, ale też nie może być za szeroka, bo zaburzymy swoje proporcje. Doskonały efekt uzyskamy, kiedy bluzę dresową połączymy z wąskimi spodniami, jak jeansy. Z czym możemy nosić dresy? Jak już było wcześniej, dres może komponować się z wieloma ubraniami. Spodnie dresowe wyglądają dobrze z T-shirtami, koszulkami polo, a przy niektórych fasonach można się nawet pokusić o koszulę flanelową. Idealnym odzieniem wierzchnim jest kurtka jeansowa, bomberka lub ramoneska. Bluza natomiast pasuje do chinosów, jeansów, szortów, bermudów. Możemy ją narzucić na każdą koszulkę. Na bluzę nałożymy nie tylko kurtki wspomniane wcześniej. Kiedy zrobi się chłodniej, możemy sięgnąć także po płaszcz. Jeżeli do takich zestawień dobierzemy dodatki w postaci torby, czy nakrycia głowy, będziemy wyglądać modnie i stylowo. « powrót do artykułu -
W połowie I wieku p.n.e. w Tossal de Baltarga w prowincji Lleida u podnóży Pirenejów, stacjonował rzymski garnizon. Żołnierze w pośpiechu opuścili obóz. Było to związane albo z jakimś wydarzeniem wojny domowej pomiędzy Juliuszem Cezarem a Pompejuszem Wielkim, albo z walkami toczonymi z plemionami iberyjskimi. Niezależnie jednak od przyczyny, Rzymianie pozostawili wiele przedmiotów, w tym trzy cenne pierścienie, które służyły do oznaczania dokumentów przez urzędników i oficerów. Uwagę specjalistów z Uniwersytetu Autonomicznego w Barcelonie przykuł przede wszystkim żelazny pierścień ozdobiony półszlachetnym kamieniem z wyrzeźbioną sceną z cyklu trojańskiego. Widzimy tutaj Achillesa, który chroni ciało królowej Amazonek Pentezylei po tym, jak ją zabił. Naukowcy przypuszczają, że pierścień należał do rzymskiego oficera, prawdopodobnie trybuna. Co prawda nie znaleziono żadnych śladów świadczących o tym, by rzymski obóz został nagle zniszczony, ale zgubienie aż trzech pierścieni – jeden z pozostałych wykonany jest z brązu, drugi z żelaza ozdobionego złotem – wskazuje, że doszło do jakiegoś dramatycznego wydarzenia. Tossal de Baltarga położone jest w strategicznym miejscu, skąd można kontrolować komunikację w regionie Cerdanya. Dotychczas udokumentowano tutaj trzy fazy osadnictwa. Pierwszy to przełom epok brązu i żelaza. Po nim nastąpił okres iberyjski (IV–III w. p.n.e.) z ufortyfikowanym oppidum El Castellot de Bolvir. Fortyfikacja została gwałtownie zniszczona i spalona około 200 r. p.n.e. Naukowcy łączą to wydarzenie z II wojną punicką. W drugiej połowie II wieku p.n.e. miejsce zostało ponownie ufortyfikowane i w znacznej mierze odbudowano. Zidentyfikowano tam dotychczas budynki mieszkalne, produkcyjne i wieżę strażniczą. Stacjonujący tutaj garnizon musiał odgrywać ważną rolę w okresach walk w zachodnich Pirenejach, podboju południowo-zachodniej Galii, wojny Rzymu z Sertoriuszem czy wojny domowej między Cezarem a Pompejuszem. « powrót do artykułu
-
- Tossal de Baltarga
- Rzym
-
(i 2 więcej)
Oznaczone tagami:
-
Podczas prac remontowych prowadzonych na strychu klasztornym przemyskich franciszkanów pod deskami podłogi odkryto opakowane w papier trzy późnogotyckie rzeźby. Prawdopodobnie pochodzą one z wyposażenia nieistniejącego już wcześniejszego kościoła. Figury zostały wpisane do rejestru zabytków. Jak podkreślono w komunikacie Wojewódzkiego Urzędu Ochrony Zabytków z/s w Przemyślu, rzeźby nie były dotychczas znane i odnotowane w katalogach zabytków miasta, tym bardziej więc odkrycie należy uznać za spektakularne. Wstępna analiza historyczna i porównawcza, opracowana przez dr. hab. Piotra Łopatkiewicza, profesora Karpackiej Państwowej Uczelni w Krośnie, konsultanta naukowego krakowskiej ASP, określiła datowanie i poprzez analogie środowiska artystyczne, w których rzeźby mogły powstać. Najstarsza jest figura świętej Anny Samotrzeć, datowana na przełom lat 60. i 70., a najpóźniej na początek lat 70. XV wieku (1470-75 r.). Pozostałe dwie rzeźby - świętego Mikołaja i Madonny - pochodzą z późniejszego okresu, bo z wieku XVI. Figura św. Mikołaja jest datowana na 1510-15 r., zaś figura Marii na ok. 1530 r.; specjaliści analizują, do jakiego typu ikonograficznego ta ostatnia należy. Ze względu na warunki przechowywania stan zachowania rzeźb nie jest dobry; drewno jest przesuszone i nosi ślady działalności owadów. Widoczne są spore niekiedy ubytki polichromii, uszkodzenia gruntów kredowych i warstwy malarskiej. Rzeźby są niekompletne. O ile wśród zapakowanych w oddzielnym zawiniątku fragmentów można znaleźć dłonie Marii i kawałki szaty, o tyle niektórych elementów, w tym pastorału św. Mikołaja, niestety brakuje. Wśród zbiorów zakonnych, dużo później, odnaleziono jeszcze jedną niewielką rzeźbę przedstawiającą Dzieciątko Jezus. Wstępna analiza porównawcza sposobu opracowania obu rzeźb, Marii i Dzieciątka, pozwala przypuszczać, że stanowiły one jedną grupę, Maria trzymała na lewej ręce Dzieciątko [...]. « powrót do artykułu
-
Konsorcja naukowe Virgo, LIGO i KAGRA ogłosiły pierwsze w historii odkrycie układów podwójnych składających się z czarnej dziury i gwiazdy neutronowej. Było to możliwe dzięki wykryciu w styczniu 2020 r. sygnałów fal grawitacyjnych wyemitowanych przez dwa układy (nazwane od daty ich rejestracji GW200105 i GW200115) w których wirujące wokół siebie czarna dziura i gwiazda neutronowa połączyły się w jeden zwarty obiekt. Astronomowie już kilkadziesiąt lat temu przewidzieli istnienie takich układów, ale do tej pory nigdy nie zaobserwowano ich z całkowitą pewnością, ani za pomocą sygnałów elektromagnetycznych, ani obserwując fale grawitacyjne. Wyniki nowych obserwacji i ich astrofizyczne implikacje zostały opublikowane w The Astrophysical Journal Letters. Od momentu pierwszej spektakularnej detekcji fal grawitacyjnych z koalescencji dwóch czarnych dziur, GW150914, za którą została przyznana nagroda Nobla w 2017, zarejestrowaliśmy sygnały z 50 układów podwójnych obiektów zwartych, ale były to wyłącznie pary łączących się czarnych dziur lub gwiazd neutronowych. Długo wyczekiwane odkrycie układów podwójnych gwiazdy neutronowej z czarną dziurą rzuca światło na narodziny, życie i śmierć gwiazd, jak również na otoczenie, w którym powstały – wyjaśnia prof. Dorota Rosińska Te obserwacje pokazują, ze istnieją mieszane układy podwójne zawierające gwiazdy neutronowe i czarne dziury. Istnienie takich układów było przewidziane w wielu scenariuszach, w tym rozwijanych przez mnie wraz z prof. Belczynskim od ponad dwudziestu lat. Ta detekcja jest potwierdzeniem takich przewidywań – mówi prof. Tomasz Bulik Sygnały fal grawitacyjnych zarejestrowane w styczniu 2020 r. zawierają cenne informacje o cechach fizycznych zaobserwowanych układów, takich jak ich odległości i masy składników, a także o mechanizmach fizycznych, które takie pary wygenerowały i doprowadziły do ich połączenia. Analiza danych wykazała, że czarna dziura i gwiazda neutronowa, które stworzyły GW200105, są odpowiednio około 8,9 i 1,9 razy masywniejsze od naszego Słońca, a ich połączenie miało miejsce około 900 milionów lat temu. W przypadku zdarzenia GW200115 naukowcy z konsorcjów Virgo i LIGO szacują, że dwa zwarte obiekty miały masy około 5,7 (czarna dziura) i 1,5 (gwiazda neutronowa) mas Słońca i połączyły się niemal miliard lat temu. Prof. Rosińska: Spodziewaliśmy się, że podczas koalescencji gwiazdy neutronowej z czarną dziurą, gwiazda zostanie rozerwana przez siły pływowe, gdy znajdzie się dostatecznie blisko czarnej dziury, jednak duża różnica mas obiektów spowodowała, że prawdopodobnie gwiazda neutronowa została połknięta w całości przez czarną dziurę. Ogłoszony wynik, wraz z dziesiątkami innych detekcji dokonanych do tej pory przez detektory Virgo i LIGO, pozwala po raz pierwszy na dokładną obserwację jednych z najbardziej gwałtownych i rzadkich zjawisk we Wszechświecie. Badamy proces ich tworzenia oraz miejsce ich narodzin. Obserwacje koalescencji czarnej dziury i gwiazdy neutronowej, dają możliwość testowania fundamentalnych praw fizyki w ekstremalnych warunkach, których nigdy nie będziemy w stanie odtworzyć na Ziemi. Prof. Rosińska: Mamy nadzieję, że przyszłym obserwacjom łączenia się gwiazdy neutronowej z czarną dziurą może towarzyszyć wykrycie wytworzonego w tym procesie promieniowania elektromagnetycznego, co da nam wgląd w proces rozrywania pływowego gwiazdy neutronowej przez czarną dziurę. Może to dostarczyć informacji o ekstremalnie gęstej materii, z której składają się gwiazdy neutronowe. Obserwacja dwóch układów gwiazda neutronowa-czarna dziura pokazuje, że koalescencji tego typu obiektów może być od 5 do 15 rocznie w objętości o promieniu miliarda lat świetlnych. To szacowane tempo łączenia się NSBH można wytłumaczyć zarówno izolowaną ewolucją układów podwójnych jak i dynamicznymi oddziaływaniami w gęstych gromadach gwiazd, ale dostępne do tej pory dane nie pozwalają nam na wskazanie bardziej prawdopodobnego scenariusza. W pracach uczestniczyli naukowcy z Obserwatorium Astronomicznego UW: prof. Tomasz Bulik, prof. Dorota Rosińska, mgr Małgorzata Curyło, mgr Neha Singh, dr Przemysław Figura, dr Bartosz Idźkowski, mgr Paweł Szewczyk. « powrót do artykułu
-
- czarna dziura
- gwiazda neutronowa
-
(i 1 więcej)
Oznaczone tagami:
-
Wstępne wyniki badań klinicznych wskazują, że metoda inżynierii genetycznej CRISPR-Cas9 może być stosowana bezpośrednio w organizmie w celu leczenia choroby. Po raz pierwszy zdobyto dowody wskazujące, że elementy CRISPR-Cas9 mogą być bezpiecznie wprowadzane do krwioobiegu w celu leczenia choroby. Badania przeprowadzono na osobach cierpiących na rzadką śmiertelną amyloidozą transtyretynową (ATTR). To dziedziczna choroba objawiająca się odkładaniem w całym organizmie nieprawidłowej formy białka o nazwie transtyretyna (TTR). U wszystkich 6 osób, które brały udział w testach klinicznych, zaobserwowano znaczy spadek TTR, a u osób, które otrzymały wyższą dawkę środka, spadek ten był większy i wynosił średnio 87%. Dotychczasowe próby kliniczne z wykorzystaniem techniki CRISPR-Cas9 polegały na pobraniu komórek z organizmu pacjenta, poddaniu ich edycji genów i ponownym wprowadzeniu do organizmu. Jednak możliwość edycji genów w organizmie otwiera drogę do zastosowania CRISPR-Cas9 w znacznie większej liczbie chorób niż dotychczas było to możliwe. To ważny moment na tym polu badawczym. Otwiera się całkowicie nowa epoka w medycynie, mówi Daniel Anderson, inżynier biomedyczny z Massachusetts Institute of Technology (MIT). Nowa metoda to dzieło firm Intellia Therapeutics i Regeneron. W przebiegu amyloidozy transtyretynowej dochodzi do nieprawidłowego zawijania białek TTR i ich zbijania się w włókna, które odkładają się w organach wewnętrznych. Choroba atakuje w pierwszej kolejności serce i układ nerwowy. Na całym świecie cierpi na nią około 50 000 osób, a w jej rozwój zaangażowanych jest ponad 100 mutacji w genie TTR. ATTR powoduje choroby serca, ból i ostatecznie śmierć. Obecnie niewiele można zrobić dla chorych. To okropna choroba. Jeszcze kilka lat temu mogłem jedynie przyglądać się, jak zdrowie pacjentów się pogarsza i umierają, mówi Julian Gillmore, który od 25 lat leczy różne rodzaje amyloidozy w Royal Free Hospital w Londynie. Amyloidoza transtyretynowa stała się celem nowych terapii, gdyż jest ona jednoznacznie związana z produkcją konkretnego białka. Jeśli udałoby się zablokować tę produkcję, choroba przestaje się rozwijać, a czasem się cofa. Przed czterema laty w USA zatwierdzono do użytku dwa leki na ATTR. Oba zmniejszają produkcję TTR biorąc na cel mRNA, które je koduje. Leki zmniejszają produkcję TTR o około 80%, jednak muszą być przyjmowane cały czas i nie zawsze działają. Większość TTR powstaje w wątrobie, a do organu tego łatwo trafiają leki krążące we krwi. Zastosowanie CRISPR-Cas9 w samym organizmie nie jest łatwe. Odpowiednie środki muszą bowiem nie tylko działać w ściśle wyznaczonym miejscu genomu, ale muszą jakoś doń trafić tak, by nie uległy po drodze degradacji i by znalazły się w tym miejscu organizmu, w którym powinny. Intellia zamknęła w lipidach molekuły RNA kodujące gRNA (naprowadza on na cel Cas9) oraz enzym Cas9, który wycina odpowiedni fragment DNA. Miesiąc po leczeniu u wszystkich chorych spadł poziom wytwarzanego TTR. U jednej osoby, która otrzymała wyższą z dwóch dawek środka, doszło aż do 96-procentowego spadku, co jest szczególnie obiecującym wynikiem. Im mniej bowiem TTR wytwarza organizm osoby cierpiącej na amyloidozę transtyretynową, tym większe szanse, że choroba przestanie postępować, a może nawet stan pacjenta się poprawi. Gdy osiąga się taki wynik jak 96%, można myśleć o daniu organizmowi pacjenta szansy na oczyszczenie się z tego, co się odłożyło, mówi John Leonard, prezes Intelii. Specjaliści zajmujący się ATTR z niecierpliwością czekają na wyniki kolejnych badań oraz informacje o tym, jak długoterminowo radzą sobie pacjenci leczeni nową metodą. Jednak powyższe badania niosą nadzieję nie tylko chorym na ATTR. Jeśli możliwość edycji genów w samym organizmie może pozwolić na skuteczne leczenie również innych chorób. Leonard mówi, że jego firma już wykazała, że jest w stanie dostarczyć komponenty CRISPR-Cas do komórek w szpiku kostnym myszy. Firma pracuje nad taką metodą leczenia niedokrwistości sierpowatokrwinkowej, która pozwoli na wyeliminowanie trudnego i ryzykownego przeszczepu szpiku kostnego, który jest wykorzystywany w obecnie prowadzonych testach klinicznych z edycją genów. Jeszcze inna firma, Editas Medicine, zakodowała komponenty CRISPR-Cas9 w nieaktywnym wirusie. Obecnie testuje swoją metodę na osobach z dziedziczną chorobą prowadzącą do utraty wzroku. Problemem jest tutaj konieczność wstrzyknięcia wirusa bezpośrednio w gałkę oczną. Prace nad możliwością dostarczania komponentów CRISPR-Cas9 do różnych miejsc w organizmie postępują szybko i specjaliści mają nadzieję, że w najbliższych latach pozwoli to na leczenie kolejnych chorób. Szczegóły badań opublikowano w artykule CRISPR-Cas9 In Vivo Gene Editing for Transthyretin Amyloidosis. « powrót do artykułu
- 3 odpowiedzi
-
- amyloidoza transtyretynowa
- choroba
-
(i 3 więcej)
Oznaczone tagami:
-
Z badań przeprowadzonych na Washington University wynika, że ochrona zapewniana przez szczepionkę mRNA Pfizera jest silna i potencjalnie bardzo długotrwała. Naukowcy przyjrzeli się ośrodkom rozmnażania grudki chłonnej. Powstają one w węzłach chłonnych po naturalnej infekcji lub zaszczepieniu. To „ośrodki treningowe”, w których „niedoświadczone” limfocyty uczą się rozpoznawać i zwalczać patogen wywołujący chorobę. Z artykułu opublikowanego na łamach Nature dowiadujemy się, że 15 tygodni po podaniu szczepionki ośrodki rozmnażania wciąż istnieją i wytwarzają komórki skierowane przeciwko SARS-CoV-2. Lepiej działające ośrodki rozmnażania oznaczają, że szczepionka jest bardziej skuteczna. Badania wykazały też, że przeciwciała powstające po szczepieniu w ośrodkach rozmnażania są skuteczne przeciwko trzem różnym wariantom wirusa. Co więcej, u osób zaszczepionych, które wcześniej przeszły COVID-19 odpowiedź przeciwciał jest silniejsza, niż u osób, które wcześniej nie zaraziły się, a jedynie zostały zaszczepione. Przed kilkoma miesiącami Pfizer i Moderna poinformowały, że ich szczepionki zapewniają co najmniej 6-miesięczną ochronę. Twierdzenia takie opierały się na obserwacji odsetka zachorowań u osób zaszczepionych. Dotychczas jednak nikt nie sprawdzał, w jaki sposób organizm przygotowuje odpowiedź immunologiczną po szczepieniu. A takie badania pozwalają stwierdzić, bez konieczności wielomiesięcznej czy wieloletniej obserwacji pacjentów, na ile silna jest ochrona i jak długo może potrwać. Ośrodki rozmnażania to kluczowe elementy trwałej odpowiedzi immunologicznej. To tam tworzy się pamięć immunologiczne. Im dłużej one istnieją, tym silniejsza i trwalsza ochrona organizmu, gdyż w ośrodkach tych jest prowadzony bardzo ostry proces selekcji, który przechodzą tylko najlepsze komórki układu odpornościowego, mówi jeden z autorów badań, Ali Ellebedy, profesor patologii i immunologii oraz biologii molekularnej. Stwierdziliśmy, że ośrodki rozmnażania wciąż świetnie działają po 15 tygodniach od podania pierwszej dawki szczepionki. Nadal je monitorujemy i widzimy, że ich nie ubywa. To naprawdę znaczące. Nauka wciąż nie dała odpowiedzi na pytanie, dlaczego niektóre szczepionki, jak np. przeciwko ospie prawdziwej, zapewniają silną ochronę przez całe życie, a inne wymagają powtarzania. Część naukowców podejrzewa, że różnica tkwi w jakości ośrodków rozmnażania powstających po zaszczepieniu. Naukowcy z Wydziału Medycyny Washington University pobrali próbki od 14 osób, które otrzymały szczepionkę Pfizera. Po raz pierwszy pobrano je 3 tygodnie po pierwszej dawce, a następnie w tygodniu 4., 5. i 7. Od 10 pacjentów dodatkowo pobrano próbki 15 tygodni po pierwszej dawce. Żadna z badanych osób nie chorowała wcześniej na COVID-19. Okazało się, że 3 tygodnie po szczepieniu u wszystkich 14 badanych istniały ośrodki rozmnażania z limfocytami B wytwarzającymi przeciwciała atakujące białko S wirusa SARS-CoV-2. Po drugiej dawce liczba ośrodków rozmnażania znacząco wzrosła i pozostała na wysokim poziomie. Po 15 tygodniach od podania pierwszej dawki u 8 z 10 pacjentów ośsrodki rozmnażania nadal istniały. To dowód na naprawdę silną odpowiedź immunologiczną. Nasz układ odpornościowy wykorzystuje ośrodki rozmnażania do udoskonalenia przeciwciał, by mogły zwalczać patogeny tak długo, jak to możliwe. Obecność przeciwciał we krwi to ostatni etap procesu, który rozpoczyna się w ośrodkach rozmnażania, stwierdza współautorka badań, profesor Rachel Presti. Naukowcy zbadali też próbki krwi 41 osób, które zaszczepiono preparatem Pfizera, w tym 8, które wcześniej były zainfekowane SARS-CoV-2. Próbki krwi pobrano przed podaniem każdej dawki szczepionki, a następnie w 4., 5., 7. i 15. tygodniu po pierwszej dawce. U osób, które wcześniej nie miały kontaktu z wirusem, liczba przeciwciał rosła powoli po pierwszej dawce i osiągnęła maksymalny poziom w tydzień po dawce drugiej. Osoby, które wcześniej zetknęły się z wirusem, już miały przeciwciała we krwi. Po pierwszej dawce ich liczba zaczęła szybko rosnąć i osiągnęła maksymalny poziom szybciej, niż u osób, które nie były wcześniej zainfekowane. « powrót do artykułu
- 7 odpowiedzi
-
- ośrodki rozmnażania
- szczepienie
-
(i 2 więcej)
Oznaczone tagami:
-
Muzeum Gdańska zaprezentowało 3 unikatowe inkluzje w bursztynie bałtyckim. Są to gekon, któremu nadano oficjalną nazwę gekon gdański (to 2. okaz gekona w bursztynie bałtyckim, ale jedyny tak kompletnie zachowany), chwytówka modliszkowata (to 1. dorosła chwytówka odkryta w bursztynie bałtyckim) oraz ponad 4-cm ptasznik (jego wylinka jest największą inkluzją pająka, jaką do tej pory znaleziono w bursztynie bałtyckim). Unikatowe inkluzje pokazują faunę sprzed ponad 40 mln lat Okazy zostały zaprezentowane wczoraj (28 czerwca) z okazji Światowego Dnia Bursztynu. Już od 24 lipca eksponaty będzie można podziwiać na wystawie stałej w nowej siedzibie Muzeum Bursztynu w Wielkim Młynie w Gdańsku. Projekt "Zakup kolekcji inkluzji zwierzęcych do Muzeum Bursztynu" został w 80% dofinansowany przez Narodowy Instytut Muzealnictwa i Ochrony Zbiorów w programie "Rozbudowa kolekcji muzealnych". Eksponaty kupiono od znanego litewskiego kolekcjonera Jonasa Damzena. Najcenniejsze przedmioty z bursztynu powinny znajdować się w Gdańsku – Światowej Stolicy Bursztynu. Z tą myślą do nowego Muzeum Bursztynu trafiły unikatowe eksponaty, którymi nie może się poszczycić żadne muzeum na świecie – podkreślał Waldemar Ossowski, dyrektor Muzeum Gdańska. Gekon gdański Gekon ma ponad 2 cm długości, cały tułów oraz wszystkie kończyny. Brakuje jedynie końca ogona, a lewa połowa głowy jest otwarta. Jak podkreślono w komunikacie na Facebooku, okaz jest postacią dorosłą, kompletną, z dobrze widocznymi cechami morfologicznymi. Jest on pokryty w dużej części mleczną otoczką, co świadczy, że [...] bursztyn [o wymiarach 20x29x10 mm i wadze 3,2 g] nie był klarowany oraz z pewnością jest bursztynem bałtyckim. Specjaliści wycenili okaz na 25 tys. EUR. To 2. okaz gekona z bursztynu bałtyckiego, lecz pierwszy tak kompletnie zachowany. Drugi okaz Jantarogekko balticus znany z bursztynu bałtyckiego, a właściwie jego fragment, znajduje się w zbiorach Niemieckiego Muzeum Bursztynu (Deutsches Bernsteimuseum) w Ribnitz-Damgarten. Ten okaz jest niekompletny, zachowała się tylko przednia część jego ciała (głowa, szyja i przednie kończyny). U gekonów nadrzewnych pod palcami występują przylgi umożliwiające chodzenie po pionowych powierzchniach. Tu mamy do czynienia właśnie z takim okazem, który dziś mógłby chodzić nie tylko po ścianach, ale też suficie. Współcześnie gekony występują głównie w klimacie tropikalnym i subtropikalnym, gdzie zajmują wyłącznie środowiska suche w lasach, na stepach i terenach pustynnych. We współczesnej faunie Polski nie występują - wyjaśnił cytowany przez portal Gdansk.pl specjalista z Katedry Zoologii Bezkręgowców i Parazytologii Uniwersytetu Gdańskiego prof. Ryszard Szadziewski. Światowe unikaty: chwytówka modliszkowata i ptasznik Muzeum wzbogaciło się także o pierwszą dorosłą chwytówkę znalezioną w bursztynie bałtyckim. Dotąd znajdowano jedynie inkluzje nieoznaczonych larw Mantispidae (chwytówek modliszkowatych). Okaz postaci dorosłej reprezentuje nieznany dotąd gatunek z eoceńskiego lasu bursztynowego [jego cechy są dobrze widoczne i pozwalają na opisanie w przyszłości przez paleoentomologów] - wyjaśniono w komunikacie Muzeum Bursztynu. Współcześnie larwy Mantispidae są parazytoidami larw błonkówek społecznych i pędraków poświętnikowatych. Żywią się także jajami pająków. Chwytówki są ciepłolubne, dlatego we współczesnej faunie Polski nie występują. Bryłka bursztynu, w której odkryto chwytówkę, mierzy 39x50x22 mm i waży 31,2 g. Inkluzja ptasznika pochodzi ze starej kolekcji i nie była poddawana zabiegom klarowania. Czerwonawy kolor wkoło niej jest wynikiem naturalnego starzenia bursztynu w temperaturze pokojowej. Omawiany pająk, a w zasadzie jego wylinka, czyli exuvium, to największa inkluzja pająka, jaka została dotąd znaleziona w bursztynie bałtyckim. Pająk ten należy do grupy tzw. pająków niższych Megalomorphae, zwanych także ptasznikami. Współcześnie występują [one] głównie w regionach o ciepłym klimacie - zaznaczono w opisie na FB. Wymiary ważącej 20 g bryłki bursztynu z ptasznikiem, to: 44x48x18 mm. 28 czerwca - symboliczna data Warto też przypomnieć, że 28 czerwca 2006 r. w Gdańsku podpisano akt powołujący Światową Radę Bursztynu; jest to organ doradczo-opiniodawczy w zakresie kreowania spójnej koncepcji promocji bursztynu. W jej skład wchodzą zajmujący się bursztynem specjaliści z Polski, Chin, Libanu, Litwy, Hiszpanii, Niemiec, Rosji, USA czy Ukrainy. To Światowa Rada Bursztynu ustanowiła 28 czerwca Światowym Dniem Bursztynu. « powrót do artykułu
-
- Muzeum Gdańska
- Muzeum Bursztynu
- (i 6 więcej)
-
Osoby dokonujące wymiany handlowej od tysięcy lat zmagają się z problemem ustaleniem ceny za towar. Wycena wielu towarów zależy od ich wagi, zwykle więc potrzebna jest władza centralna, która wprowadzi jednolity standard wag i miar. Tak było w przeszłości, gdy system taki ustalał król czy faraon, tak jest i obecnie, gdzie czynią to narodowe i ponadnarodowe władze i organizacje. Jednak najnowsze badania pokazują, że kupcy epoki brązu poradzili sobie bez władzy centralnej i stworzyli system wag, który był jednolity od Mezopotamii po Wyspy Brytyjskie i wykorzystywano go przez tysiące lat. Technologię ważenia stworzono około 3000 roku p.n.e. w regionie Egiptu i Mezopoatmii. Przez około 2000 lat była ona szeroko używana w całej zachodniej Eurazji. Po raz pierwszy w historii kupcy mogli polegać na obiektywnym punkcie odniesienia podczas ustalania wartości towaru. W następstwie tego pojawiły się z czasem różne systemy wag, które rozwijały się wraz z tworzeniem się rynku na skalę kontynentu. Nie wiadomo jednak było, w jaki sposób doszło do rozprzestrzeniania się tej technologii i dlaczego pojawiły się różne systemy wag. W naszej pracy wykazaliśmy, że rozpowszechnienie się technologii ważenia można wyjaśnić interakcją pomiędzy kupcami oraz pojawieniem się pierwotnych systemów wag, czytamy w artykule opublikowanym na łamach PNAS. To poważny cios w teorię mówiącą, że to elity lub władze centralne muszą ustalić taki system, mówi archeolog Maikel Kuijpers z Uniwersytetu w Leiden, który nie brał udziału w opisywanych badaniach. Przez ponad 100 lat naukowcy uważali, że standardy wag pojawiły się na dworach królewskich lub wśród elit religijnych w celu poboru podatków i z czasem zaczęły być wykorzystywane przez kupców. Pierwsze ustandaryzowane wagi znamy z Egiptu i Mezopotamii, jednak wówczas istniało niewiele państw, w których władze mogły takie standardy narzucić. Autorzy najnowszej pracy, Nicola Ialongo, Raphael Hermann i Lorenz Rahmsorf z Uniwersytetu w Getyndze postanowili sprawdzić, czy możliwe było ustandaryzowanie wag bez istnienia władzy centralnej. Naukowcy przez niemal 10 lat odwiedzali liczne muzea i kolekcje, gdzie porównywali ze sobą masę odważników używanych podczas transakcji handlowych. Porównali odważniki pochodzące z okresu 3000 lat z Europy, Anatolii i Mezopotamii. Naukowcy ze zdumieniem odkryli, że ponad 2000 obiektów używanych na przestrzeni 2000 lat i na obszarze 5000 kilometrów, od Mezopotamii po Wyspy Brytyjskie, miało niezwykle podobną masę. Wynosiła ona od 8 do 10,5 grama. Biorąc pod uwagę rozciągłość w czasie i przestrzeni, jest to niezwykle wysoka zgodność. Badacze wykazali też, że wagi w Anatolii różniły się nieco od tych z Mezopotamii, a te z Europy od tych z Anatolii. Jednak różnice w odważnikach na danym obszarze nie przekraczały akceptowalnego marginesu 5% i wynikały z dwóch błędów podczas procesu wytwarzania samych odważników. Pierwszy błąd brał się z niedoskonałości samej wagi, z której korzystał rzemieślnik wytwarzający odważniki. Drugi zaś błąd wynikał z wyboru odważnika, użytego za wzór do produkcji kolejnych odważników. Przy braku lub niedostępności jednego i tego samego wzorca, z którego można zdjąć miarę, takie błędy są nieuniknione. Naukowcy, chcąc potwierdzić taką hipotezę, postanowili samodzielnie wcielić się w rolę rzemieślników tworzących odważniki. W tym celu wykorzystali replikę kościanej wagi z epoki brązu i samodzielnie wykonali 100 kamiennych odważników. Ich pierwotny odważnik – nazwijmy go O1 – miał masę 153 gramów. Wzorując się na nim stworzyli kolejny odważnik, O2. Następnie powstał O3, w przypadku którego mogli wzorować się na O1 lub O2. Zatem tworząc 10. odważnik mogli jako wzór wybrać jeden z 9 poprzednich. Postępowali więc tak, jak musiał postępować rzemieślnik w Mezopotamii czy Europie, który miał do dyspozycji kolejną kopię oryginału. Okazało się, że największe odchylenie od 153–gramowego oryginału wyniosło 25 gramów. Jednak odchylenie od średniej nie przekraczało akceptowalnych 5%. Oczywiście, gdybyśmy mieli do czynienia z sytuacją, że kolejne odważniki są zawsze wykonywane z oryginału przechowywanego w pałacu czy świątyni, błąd byłby mniejszy. Następnie naukowcy sprawdzili wyniki swojego eksperymentu metodami statystycznymi i porównali je z rzeczywistym rozkładem wag badanych przez siebie odważników. Okazało się, że wzorce sobie odpowiadają. Christoper Pare, archeolog z Uniwersytetu Gutenberga w Moguncji skomentował: To fascynujące, że złożony system rozprzestrzenił się dzięki konwencji i dobrowolnej wymianie, a nie nakazem władzy centralnej. Ialongo, Hermann i Rahmsorf pokazali jednocześnie, w jaki sposób z czasem mogły powstać tak różnorodne systemy wag, jakie znamy z historii. W miarę, jak technologia wag rozprzestrzenia się na zachód od Mezopotamii, po drodze pojawiają się nowe jednostki wagi, nieco różne od swoich najbliższych wcześniejszych sąsiadów, ale wciąż w wysokim stopniu z nimi zgodne.[...] Obserwacje te każą zadać sobie pytanie, czy stopniowe formowanie się różnych systemów wag pomiędzy Mezopotamią i Europą można wyjaśnić propagowaniem się przypadkowego błędu od pierwotnej wartości. Uważamy, że gdy technologia ważenia jest adaptowana w nowym regionie, pojawia się nowa jednostka wagi, która pochodzi od przypadkowych różnic w masie odważników w regionie, z którego nowa technologia została zaadaptowana. Uważamy też, że głównym nośnikiem nowej technologii byli kupcy oraz zwyczajowa normalizacja nowej jednostki. W podsumowaniu uczeni stwierdzają, że całkowity rozrzut statystyczny jednostek wag na przestrzeni od Mezopotamii po Wyspy Brytyjskie w czasie około 2000 lat mieścił się w przedziale od 9 do 13 procent i był to wynik celowego działania. Potencjalny błąd był trzymany w ryzach przez systematyczne odrzucanie odważników wykraczających poza ustalone ramy. Jako, że nie istniała żadna władza centralna zdolna do narzucenia swojej woli na tak dużym obszarze i przez tak długi czas, prowadzi to do wniosku, że mieliśmy tu do czynienia z mechanizmem rynkowej samoregulacji. Dolina Indusu Naukowcy badali też odważniki znalezione w Dolinie Indusu. Tamtejszy system znacząco się jednak różnił od systemu mezopotamskiego. Ponadto pomiędzy Mezopotamią a doliną Indusu mamy rozległą Wyżynę Irańską, na której brak dowodów na używanie systemu wag. Nawet jeśli uznamy, że brak dowodów z Wyżyny Irańskiej jest skutkiem braku badań, uważamy, że system z doliny Indusu jest na tyle różny, iż nie mógł powstać metodą propagowania się błędów z systemu mezopotamskiego. Stąd też wniosek, że prawdopodobnie w dolinie Indusu system wag powstał niezależnie. To zaś może wskazywać na możliwe istnienie rynku środkowoazjatyckiego. Jednak brak dowodów na jego powstanie już w III tysiącleciu przed Chrystusem. « powrót do artykułu
- 11 odpowiedzi
-
- władza centralna
- regulacja
-
(i 3 więcej)
Oznaczone tagami:
-
Międzynarodowy zespół naukowy pod przewodnictwem specjalistów z Las Cumbres Observatory zdobył pierwsze przekonujące dowody na istnienie supernowych ECS, czyli gwiazd, w których kolaps jądra nastąpił w wyniku gwałtownego wychwytu elektronów przez jądra Ne i Mg. O możliwości takiej teoretyzuje się od 40 lat, jednak dotychczas nie zdobyto przekonujących dowodów. Historycznie znamy dwa typy supernowych. Jedne powstają w wyniku eksplozji termonuklearnej. Dochodzi do niej, gdy w układzie podwójnym biały karzeł pobierze materię z towarzyszącej mu gwiazdy. Drugi typ to kolaps jądra masywnej gwiazdy zawierającej żelazo, do którego dochodzi, czy wypala się paliwo w jądrze. W 1980 roku naukowcy z Uniwersytetu Tokijskiego wysunęli postulat istnienia supernowych z wychwytem elektronów (ECS – electron capture supernowa), które mieszczą się pomiędzy dwoma głównymi typami. Fuzja jądrowa przestaje w nich zachodzić zachodzić, gdy jądro składa się z tlenu, neonu i magnezu. Nie jest wystarczająco masywne, by powstało w nim żelazo. Część elektronów w takim jądrze uderza w jądra swoich atomów, które je przechwytują. To prowadzi do destabilizacji jądra gwiazdy, które zapada się pod własnym ciężarem, tworząc supernową. Gdyby taka gwiazda była nieco bardziej masywna, powstałyby w jej jądrze cięższe pierwiastki, to wydłużyłoby jej życie. W procesie supernowej ECS dochodzi zatem do śmierci gwiazdy, która była zbyt masywna, by zapobiec zapadnięciu się jądra i zbyt mało masywna, by przedłużyć swoje życie wytwarzając ciężkie pierwiastki. Teraz na łamach Nature Astronomy Daichi Hiramatsu z Uniwersytetu Kalifornijskiego w Berkeley i Las Cumbres Observatory opisuje odkrycia dotyczące supernowej SN 2018zd. Wraz ze swoim zespołem odkrył on, że SN 2018zd ma wiele niezwykłych cech, jakich wcześniej nie obserwowano. W badaniach pomógł fakt, że gwiazda znajduje się stosunkowo blisko, 31 milionów lat świetlnych od Ziemi. Pozwoliło to naukowcom przejrzeć archiwalne zdjęcia wykonane przez Teleskop Hubble'a przed pojawieniem się supernowej i zobaczyć gwiazdę, która była progenitorem SN 2018zd. Okazało się, że SN 2018zd pochodzi od gwiazdy, która ma właściwości odpowiadające gwiazdom Super-AGB (AGB, Asymptotic Giant Branch - gwiazda na asymptotycznej gałęzi olbrzymów diagramu Hertzsprunga-Russella). Obserwacyjnie gwiazdy takie mają postać czerwonych nadolbrzymów. Czerwone nadolbrzymy dają jednak początek drugiemu typowi supernowych, z kolapsem jądra zawierającego żelazo. Progenitor SN 2018zd nie odpowiadał modelom takich gwiazd. Autorzy badań przyjrzeli się wszystkim danym na temat supernowych. Odkryli, że co prawda niektóre z nich miały pewne cechy supernowych z wychwytem elektronów, to SN 2018zd jest jedyną, która posiada wszystkie 6 postulowanych właściwości: progenitora w postaci SAGB, silną utratę masy przed pojawieniem się supernowej, niezwykły skład chemiczny, słabą eksplozję, niską radioaktywność i jądro bogate w neutrony. Praca ekspertów z Las Cumbres rzuca też nowe światło na najsłynniejszą z supernowych – SN 1054. W 1054 roku chińscy i japońscy astronomowie donieśli o pojawieniu się na niebie nowej gwiazdy. Była tak jasna, że przez 23 dni widać ją była za dnia, a przez 2 lata w nocy. Pozostałością SN 1054 jest Mgławica Kraba, która była szczegółowo badana. Już wcześniej pojawiały się głosy, że SN 1054 była supernową typu ECS. Nowe badania zwiększają prawdopodobieństwo, że tak właśnie było. Wyjaśniają też, dlaczego była tak jasna. Jej jasność została prawdopodobnie zwiększona przez wyrzut z supernowej materii, która zderzyła się z materiałem odrzuconym przez gwiazdę progenitorową. Takie samo zjawisko zaobserwowano w przypadku SN 2018zd. Doktor Ken Nakamoto, który zaproponował istnienie ECS, powiedział, że jest bardzo zadowolony, że supernowa z wychwytem elektronów została w końcu odkryta, co wraz z kolegami przewidziałem przed 40 laty i połączyliśmy ten typ supernowych z Mgławicą Kraba. « powrót do artykułu
-
- SN 2018zd
- supernowa ECS
-
(i 3 więcej)
Oznaczone tagami: