Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36948
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Czy L4 online jest legalne? Elektroniczne zwolnienia lekarskie to efekt innowacji i wprowadzania zmian na rynku usług medycznych. Coraz więcej spraw medycznych można załatwić w zaciszu własnego domu i co ważniejsze - bez stania we frustrujących kolejkach. Coraz większą popularność zyskują internetowe konsultacje z lekarzem, teleporady czy e-zwolnienia lekarskie. Z artykułu dowiesz się więcej o cyfryzacji w medycynie i o tym, jak otrzymać zwolnienie L4 online. L4 online działa w Polsce od 2016 roku. Nie jest więc to żadna nowość, choć dopiero wraz z pandemią nabrały popularności. Ważność zwolnienia lekarskiego online jest taka sama, jak w przypadku tradycyjnego zwolnienia. Elektroniczne zwolnienie lekarskie nazywane jest również e-ZLA. L4 online jest w pełni legalne i wystawić je może każdy lekarz. Lekarz podczas elektronicznej konsultacji wpisuje zwolnienie do systemu, tak samo jakby był z pacjentem fizycznie w gabinecie. Co ważne, takie elektroniczne zwolnienie nie musi być drukowane, ponieważ trafia do wszystkich stron drogą elektroniczną. Wprowadzenie L4 przez lekarza do systemu gwarantuje natychmiastową informację w Internetowym Koncie Pacjenta, u pracodawcy, a także w ZUS. Na co można dostać L4 online? Elektroniczne zwolnienie lekarskie może dostać pracownik, który jest regularnym płatnikiem składek ubezpieczeniowych, czyli jest zatrudniony na umowę o pracę lub zlecenie. L4 online wystawia lekarz po przeprowadzeniu e-wywiadu z pacjentem i stwierdzeniu, że stan zdrowia uniemożliwia mu wykonywania pracy. Jak wygląda L4 na dziecko? Jeżeli jesteś rodzicem, pamiętaj, że możesz również wziąć L4 na swoje dziecko. Zwolnienie możesz otrzymać w sytuacji, gdy pociecha zachoruje (dziecko do czternastu lat) lub, gdy nie może iść do odgórnie zamkniętego przedszkola lub szkoły (dziecko do ósmego roku życia). Takie sytuacje często miały miejsce w czasie pandemii lub teraz w okresie zimowym, gdy placówki nie są w stanie dogrzać budynku. Zwolnienie lekarskie można wziąć nie tylko na dziecko, ale również na osobę starszą (na przykład chory rodzic), gdy jesteś jedyną osobą, która może sprawować nad nią opiekę. Takie zwolnienie na dziecko lub osobę starszą nie może wynosić więcej, niż 60 dni w roku. Jaka jest wysokość wynagrodzenia na zwolnieniu lekarskim? Pracownik, który przebywa na L4 z powodu choroby lub opieki nad dzieckiem/bliskim krewnym, otrzymuje 80% podstawy wynagrodzenia. Gdy pracownik przebywa w szpitalu, otrzymuje 70% pensji. Z kolei osoby, które miały wypadek w pracy i kobiety w ciąży, przebywające na L4 otrzymują 100% swojej pensji. Jak załatwić zwolnienie online? E-ZLA można otrzymać podczas e-konsultacji. Taka elektroniczną wizytę można umówić bezpośrednio na platformie medycznej www.eDoktorzy.pl. To miejsce, gdzie znajdziesz wielu dostępnych lekarzy, z którymi możesz umówić się na teleporadę lub wideo rozmowę w celu uzyskania zwolnienia lekarskiego. Podczas e-wizyty specjalista na podstawie przekazanych przez Ciebie informacji o dolegliwości, przedstawi Ci diagnozę, wystawi e-receptę i e-zwolnienie. Należy jednak mieć na uwadze, że po dokładnej konsultacji to lekarz, decyduje, czy dany pacjent kwalifikuje się do otrzymania e-zwolnienia chorobowego. Każde zwolnienie online jest powiązane z numerem PESEL pacjenta. Dzięki temu można je sprawdzić w każdej chwili, logując się na swój profil IKP, PUE, lub ZUS. Dokumenty automatycznie trafiają również do pracodawcy. Takie udogodnienia są szczególnie ważne dla pacjentów, którzy z powodu choroby nie mają sił, aby fizycznie udać się do przychodni. « powrót do artykułu
  2. Wiele osób nie akceptuje teorii ewolucji. Powszechnie uważa się, że czynnikiem najsilniej wpływającym na jej odrzucenie jest religijność. Włosko-brazylijski zespół naukowy przeprowadził badania na temat poziomu akceptacji teorii ewolucji wśród uczniów w wieku 14–16 lat, biorąc pod uwagę nie tylko ich religię, ale również inne czynniki społeczno-kulturowe, jak narodowość, postrzeganie nauki czy poziom dochodów. Badani mieli za zadanie zgodzić się lub nie zgodzić z szeregiem stwierdzeń dotyczących znaczenia skamieniałości, wieku Ziemi czy pochodzenia gatunków. Były to stwierdzenia takie jak: „Ziemia powstała 4,5 miliarda lat temu”, „Ludzie pochodzą od innych gatunków naczelnych” czy „Różne organizmy mogą mieć wspólnego przodka”. Analiza statystyczna wyników wykazała, że religia wcale nie była najsilniejszym czynnikiem decydującym o stosunku do teorii ewolucji. Znacznie większe znaczenie miała narodowość. Okazało się bowiem, że włoscy katolicy częściej akceptowali teorię ewolucji niż katolicy brazylijscy, a wzorzec odpowiedzi wśród brazylijskich katolików był podobny do wzorca odpowiedzi brazylijskich protestantów. Rozdźwięk pomiędzy włoskimi a brazylijskimi katolikami był większy, niż między brazylijskimi katolikami a protestantami należącymi do różnych Kościołów. Włoscy katolicy w większym stopniu akceptowali ewolucję i lepiej ją rozumieli niż katolicy brazylijscy. Głównymi czynnikami wpływającymi na akceptację dla pracy Darwina były narodowość, system edukacji, poziom dochodów, kapitał kulturowy rodziny i społeczne nastawienie względem nauki. Oba kraje są zamieszkane przez katolicką większość, jednak istnieją między nimi duże różnice kulturowe i społeczne powiązane z takimi czynnikami jak edukacja, mówi główny autor badań, profesor Nelio Bizzo z Uniwersytetu w São Paulo. Takie wnioski wspiera chociażby fakt, że teoria ewolucji jest kontrowersyjna zarówno wśród wierzących, jak i niewierzących, a np. w ostatniej dekadzie w USA wzrosła akceptacja dla teorii ewolucji, a główną rolę zdaje się odgrywać edukacja. Uczony przypomina, że np. badania przeprowadzone wśród europejskich uczniów liceów wykazały, że religia jest najważniejszym czynnikiem akceptacji bądź nie teorii ewolucji. Różnice w uzyskanych wynikach mogą wynikać z różnych metod. Jak wyjaśnia Bizzo, większość badań tego typu wykorzystuje kwestionariusze ze skalą Likerta, w której badani udzielają odpowiedzi na 5-stopniowej skali od „zdecydowanie nie zgadzam się”, przez "raczej się nie zgadzam” po „zdecydowanie się zgadzam”. Zatem pytani o to, czy zgadzają się, że Ziemia powstała 4,5 miliarda lat temu, mogliby odpowiedzieć, że „raczej się nie zgadzają”. Problem w tym, że ten instrument przypisuje wiele nieprecyzyjnych odpowiedzi do faktów naukowych. Zróżnicowanie odpowiedzi może prowadzić do nieprecyzyjnego wyliczenia danych. Dlatego też w tego typu kwestionariuszach lepiej zawrzeć tylko odpowiedzi „tak” i „nie”, uważa Bizzo. Jego zdaniem skala Likerta w ogóle nie powinna być używana do badań nad stwierdzeniami naukowymi. Ważnym jest, by pamiętać, że nasze badania oddają tylko niewielki fragment rzeczywistości, gdyż poglądy i wartości zmieniają się bardzo szybko, nawet w grupach religijnych. Na przykład poziom akceptacji dla teorii ewolucji znacznie zwiększył się wśród członków niektórych konserwatywnych Kościołów chrześcijańskich. Jednocześnie jednak widoczna jest też zmiana w przeciwnym kierunku. Antyewolucyjne grupy i Kościoły zwiększają swoje wpływ na całym świecie, w tym w Brazylii, podsumowuje Bizzo. « powrót do artykułu
  3. Dwudziestotrzyletni Wojciech Nazar z Gdańskiego Uniwersytetu Medycznego (GUMed) to najmłodszy doktor w Polsce. Nazar jest 2. osobą w historii swojej uczelni (pierwszą był Karol Steckiewicz), a 5. w kraju, która uzyskała ten stopień naukowy jeszcze przed końcem studiów. Jak podkreślono w komunikacie GUMed, Nazar rozprawę doktorską obronił z wyróżnieniem, będąc formalnie studentem, na początku V roku kierunku lekarskiego [...]. Opiekunem pracy pt. „Analiza zmian świadomości społecznej dotyczącej zanieczyszczenia powietrza w Polsce w latach 2016-2022 z uwzględnieniem okresu pandemii COVID-19” był prof. Marek Niedoszytko. Wcześniej za najmłodszego doktora w Polsce uznawano urodzonego w 1998 r. Tomasza Grzywę z Warszawskiego Uniwersytetu Medycznego (WUM). Jak jednak wyjaśniła cytowana przez PAP rzeczniczka GUMed, dr Joanna Śliwińska, Grzywa uzyskał stopień doktora pod koniec V roku studiów, a Nazar obronił się na początku V roku studiów. Należy pamiętać, że problem oddychania zanieczyszczonym powietrzem dotyczy każdego z nas. Organizacja Narodów Zjednoczonych nazywa zanieczyszczenie powietrza niewidzialnym zabójcą, który przyczynia się do dużej części zgonów z powodu raka płuca, obturacyjnych chorób płuc i chorób sercowo-naczyniowych, mówi promotor. Prof. Niedoszytko zaznaczył, że dr Nazar połączył wiedzę medyczną z nowoczesnymi metodami statystycznymi oraz informatycznymi. Wyniki swoich badań opublikował w międzynarodowych czasopismach z najwyższego kwartyla, a [jego] praca doktorska została wyróżniona przez trzech recenzentów. Wspominając o planowanych projektach, dr Nazar wyjaśnił, że chciałby się skoncentrować na wdrażaniu algorytmów diagnostycznych i prognostycznych bazujących na najnowszych osiągnięciach matematycznych, w tym algorytmach uczenia maszynowego, zwanych też algorytmami sztucznej inteligencji. To pozwoli na podejmowanie bardziej spersonalizowanych i trafniejszych decyzji dotyczących np. wyboru metody leczenia. Wojciech Nazar urodził się 26 kwietnia 1999 r. Studia na kierunku lekarskim Wydziału Lekarskiego GUMed rozpoczął w 2018 r. Dr Nazar jest stypendystą ministra zdrowia, a także Niemieckiej Centrali Wymiany Akademickiej. W bieżącym roku odbył staże naukowo-kliniczne w dziedzinie kardiologii w Magdeburgu i Lipsku. Jest współautorem czterech prac oryginalnych, czterech prac poglądowych oraz jednego doniesienia prezentowanego na zjeździe krajowym. Zajmuje się głównie analizą 1) świadomości społecznej w zakresie zanieczyszczenia powietrza w naszym kraju oraz 2) zmian zachowań Polaków podczas pandemii. Dotąd 5 razy recenzował artykuły naukowe w czasopismach zagranicznych o zasięgu międzynarodowym. Dr Nazar jest aktywnym członkiem licznych kół studenckich. Lubi narciarstwo i jazdę na rowerze. « powrót do artykułu
  4. Niedawne badania wykazały, że koty udomowiono na terenie Żyznego Półksiężyca przed około 10 000 lat, a ich przodkiem jest Felis sylvestris lybica. Jak jednak rozprzestrzeniły się po świecie i trafiły do Europy Centralnej i Polski? Wstępne odpowiedzi na te pytania uzyskał zespół naukowy z Polski, Słowacji, Serbii, Węgier, Czech, Mołdowy i Belgii. W 2016 roku zespół Magdaleny Krajcarz z Uniwersytetu Mikołaja Kopernika w Toruniu potwierdził, że w okresie rzymskim koty były zadomowione na terenie współczesnej Polski. Następnie uczeni wykazali, że koty z Bliskiego Wschodu pojawiły się w Europie Centralnej już we wczesnym neolicie. Cztery lata później stwierdzono, że istnieje silny związek pomiędzy pojawieniem się myszy domowej i kotów w Europie Wschodniej późnego neolitu. To sugeruje, że rozprzestrzeniania się myszy doprowadziło do wzrostu popularności kotów i ich rozprzestrzeniania przez ludzi po świecie. Historię podboju świata przez koty trudno jest jednak badać, gdyż ich szczątki stosunkowo rzadko znajduje się w materiale archeologicznym z okresów sprzed późnego średniowiecza. W Europie wyraźny wzrost popularności kotów widoczny w danych zooarcheologicznych nastąpił dopiero w drugiej połowie XIII wieku. Dlatego też międzynarodowy zespół specjalistów, w skład którego weszła m.in. Magdalena Krajcarz, Péter Csippán z Eötvös Loránd University w Budapeszcie czy Danijela Popović z Uniwersytetu Warszawskiego, rozpoczął projekt badań genetycznych, który ma wyjaśnić drogi rozprzestrzeniania się kotów w Europie Wschodniej. Podczas najnowszych badań pod uwagę wzięto materiał pozyskany od ponad 200 kotów ze 102 stanowisk archeologicznych datowanych od późnego plejstocenu po okres współczesny. Wstępne analizy mitochondrialnego DNA pokazały, że koty z haplogrupą A1 dzikich kotów bliskowschodnich były obecne w Europie Centralnej przed neolitem. Dotychczas najstarsze odkryte w Europie ślady tej haplogrupy pochodziły z Rumunii z ok. 7700 r. p.n.e. Nowe badania sugerują, że była one znacznie szerzej rozpowszechniona. Ich autorzy mają nadzieję, że kolejne przeprowadzone przez nich analizy pozwolą odpowiedzieć na pytanie, czy zasięg A1 to skutek naturalnego przepływu genów pomiędzy populacjami bliskowschodnią a europejską, czy też skutek powiększania zasięgu przez populację bliskowschodnią. Skoncentrowane na Polsce pomiary morfometryczne wskazują również, że pomiędzy neolitem a średniowieczem widoczny jest trend zmniejszania rozmiarów ciała kotów. Jeszcze w neolicie koty udomowione miały rozmiary podobne do europejskich dzikich kotów, których wielkość jest stabilna w czasie. Podobny trend widoczny jest wśród kotów z epok brązu i żelaza w Danii. Autorzy nowych badań wciąż zbierają dane z Bałkanów i Karpatów, regionów północnych zasięgów występowania bliskowschodnich dzikich kotów. Liczą się z tym, że zauważą tutaj bardziej złożone trendy. Na podstawie najstarszych kocich kości z Polski i Serbii oraz wcześniejszych badań, Krajcarz i jej zespół doszli do wniosku, że w Polsce występują trzy linie genetyczne kotów. Część z nich przybyła wraz z neolitycznymi rolnikami z Anatolii przez Bałkany. Najstarsze takie szczątki pochodzą z jaskini Jasna Strzegowska sprzed niemal 8000 lat, znacznie więcej materiału pochodzi natomiast z okresu od 5300 do 6300 lat temu. Druga z linii genetycznych zaczęła rozprzestrzeniać się w V wieku p.n.e z Italii, wędrując wraz z handlarzami bursztynem. Ostatnia zaś dotarła na przełomie er, przebywając długą drogę na statkach przez Morze Śródziemne po Kanał La Manche i przywędrowała do nas z zachodu i północy z Germanami. « powrót do artykułu
  5. Predyspozycja kobiet do odkładania się większej ilości większej ilości podskórnej tkanki tłuszczowej na biodrach, pośladkach i z tyłu ramion, chroni panie przed stanami zapalnymi mózgu, które mogą prowadzić do demencji czy udarów. Ochrona taka trwa co najmniej do menopauzy, informują naukowcy z Augusta University. Mężczyźni w każdym wieku wykazują większą od kobiet tendencję do odkładania się tłuszczu wokół organów w jamie brzusznej, co zwiększa ryzyko stanów zapalnych. Gdy myśli się o tym, co przede wszystkim chroni kobiety, na myśl przychodzi estrogen. Jednak powinniśmy wyjść poza uproszczenie sugerujące, że każda różnica pomiędzy płciami jest zależna od hormonów. Musimy sięgnąć głębiej i lepiej poznać mechanizmy różnic międzypłciowych. Bo dzięki temu będziemy mogli skuteczniej leczyć ludzi i przyznać, że różnice pomiędzy płciami mają wpływ na przebieg chorób i ich leczenie, mówi doktor Alexis Stranahan. Uczona zauważa, że wiele różnic międzypłciowych przypisywanych estrogenowi możne był skutkiem różnic dietetycznych i genetycznych. Stranahan wraz z zespołem chcąc zbadać, jak dochodzi do stanów zapalnych w mózgu, przyjrzeli się lokalizacji i ilości tkanki tłuszczowej oraz poziomom różnych hormonów u samic i samców myszy karmionych dietą wysokotłuszczową. Otyłe myszy, podobnie jak otyli ludzie, różnie gromadzą tłuszcz w zależności od płci. W miarę, jak myszy tyły, naukowcy nie zauważyli żadnych śladów stanów zapalnych w mózgu czy insulinooporności. W wieku około 48 tygodni u myszy rozpoczęła się menopauza. Wtedy u samic doszło do zmian rozkładu tłuszczu na bardziej podobny do rozkładu u samców. Wówczas naukowcy przeprowadzili u obu płci zabiegi podobne do liposukcji, w czasie których usunęli tłuszcz podskórny. Nie robili niczego, co wpłynęłoby bezpośrednio na poziom estrogenu. Okazało się, że utrata tłuszczu podskórnego zwiększyła u samic ryzyko wystąpienia stanów zapalnych mózgu. Nie zaobserwowano zmian w poziomach hormonów. Szczegółowe badania pokazały, że stany zapalne mózgów samic były podobne do stanów zapalnych mózgów samców. Gdy usunęliśmy podskórną tkankę tłuszczową, nagle mózgi samic zaczęły wykazywać podobne stany zapalne do mózgów samców i u samic pojawiło się więcej tłuszczu brzusznego, mówi Stranahan. Cała zmiana zaszła w ciągu ponad 3 miesięcy, co odpowiada kilkunastu latom u ludzi. W grupie kontrolnej myszy podobne zmiany zaszły u tych samic, u których nie usunięto podskórnej tkanki tłuszczowej, ale które po menopauzie pozostawały na diecie wysokotłuszczowej. Z kolei u myszy, którym w młodym wieku usunięto tłuszczową tkankę podskórną, ale które pozostawały na diecie niskotłuszczowej, pojawiło się co prawda nieco więcej tłuszczu brzusznego i nieco więcej stanów zapalnych w tkance tłuszczowej, ale nie zauważono stanów zapalnych w mózgu. Doktor Stranahan mówi, że z eksperymentów wynikają dwa podstawowe wnioski. Po pierwsze, nie należy robić sobie liposukcji, a następnie spożywać diety bogatej w tłuszcze. Po drugie, współczynnik BMI prawdopodobnie nie jest dobrym wskaźnikiem zwiększonego ryzyka chorób. Bardziej dokładnym wskaźnikiem jest łatwy do obliczenia stosunek bioder do pasa. Nie wystarczy stwierdzić, że ktoś jest otyły. Trzeba zbadać, gdzie tłuszcz się znajduje. To kluczowa sprawa, stwierdza uczona. Stranahan nie zaprzecza, że większa ilość podskórnej tkanki tłuszczowej u kobiet ma na celu zapewnienie energii na potrzeby reprodukcji. Jednak trzeba odpowiedzieć tutaj na wiele pytań, na przykład o to, ile tłuszczu potrzeba, by utrzymać odpowiedni poziom płodności, a jaki jego poziom zaczyna negatywnie wpływać na metabolizm. « powrót do artykułu
  6. Parlament Nowej Zelandii przyjął ustawę Smokefree Aotearoa 2025 Action Plan, która ma uczynić Nową Zelandię pierwszym krajem wolnym od tytoniu. Tak zwykle definiuje się państwo, w którym tytoń pali nie więcej niż 5% dorosłej populacji. Ustawa wchodzi w życie w styczniu przyszłego roku. Projekt ustawy przedstawiono w grudniu 2021 roku. Opisuje ona trzy radykalne kroki, które mają znacząco zmniejszyć liczbę palaczy w Nowej Zelandii. Po pierwsze ustawa zakazuje sprzedaży tytoniu osobom urodzonym w roku 2009 lub później. W ten sposób ma pojawić się ciągle rosnąca grupa osób, które nigdy nie paliły. Po drugie liczba punktów detalicznej sprzedaży tytoniu ma zostać zmniejszona o 95%. Jednak najbardziej radykalnym posunięciem jest, zdaniem ekspertów, wymóg zmniejszenia ilości nikotyny w papierosach poniżej poziomu, w którym pojawia się uzależnienie. To właśnie ten element ustawy ma przynieść prawdziwą zmianę reguł gry walce z tytoniem. Wiceminister zdrowia, Ayesha Verrall, która stoi za ustawą, przypomina, że badania naukowe jasno wskazują, iż zmniejszenie ilość nikotyny w tytoniu zmniejsza uzależnienie. Badania wykazały też, że – szczególnie w ubogich okolicach – mniejsza liczba punktów sprzedaży papierosów przekłada się na mniejsza liczbę palących młodych ludzi oraz ułatwia palaczom zerwanie z nałogiem. Krytycy nowej ustawy twierdzą, że doprowadzi ona do rozwoju czarnego rynku oraz będzie kryminalizowała palaczy. To jednak zbyt daleko posunięta krytyka, gdyż karom będą podlegali nie palacze, ale punkty sprzedaży i osoby dostarczające papierosy ludziom urodzonym w roku 2009 lub później. Nowa Zelandia od lat jest światowym liderem w walce z tytoniem. Już w 1990 roku zakazano tam palenia w pomieszczeniach w miejscu pracy, w 2004 pojawił się zakaz palenia w barach i restauracjach, a w 2019 zakazano palenia w pojazdach przewożących dzieci, rozpoczęto też kampanię uświadamiającą, jak palenie z drugiej ręki wpływa na zwierzęta domowe. Od roku 2010 opodatkowanie papierosów wzrosło o 165%. Z tego też powodu w Auckland paczka Marlboro kosztuje równowartość 21 USD, podczas gdy w Nowym Jorku jest to 14 USD. Taka polityka daje wyraźne skutki. Odsetek palących dorosłych w Nowej Zelandii jest jednym z najniższym wśród krajów rozwiniętych i wynosi 10,9%, to dwukrotnie mniej niż w Polsce. Mimo tego palenie tytoniu jest tam jedną z głównych przyczyny chorób i przedwczesnych zgonów. Każdego roku z tego powodu umiera około 5000 osób z liczącej 5,1 miliona populacji. « powrót do artykułu
  7. W Południowych Alpach Ötztalskich na zrównaniu szczytowym Cima Fiammante (Lodner) topniejący lód odsłonił szczątki co najmniej 15 koziorożców alpejskich (czaszki, inne części szkieletu, a nawet sierść). W oparciu o wstępne datowanie radiowęglowe ustalono, że mają ok. 7 tys. lat. Odkrycia dokonali w lipcu 4 alpiniści: Stefan Pirpamer, Tobias Brunner, Arno Ebnicher i Luca Mercuri. Zgłosi to stacji leśnej w San Leonardo in Passiria. Leśnicy przeprowadzili inspekcję i wydobyli szczątki. Fragmenty kości, czaszki i resztki sierści przekazano Fondazione Edmund Mach di San Michele.   W laboratorium genetycznym w San Michele all'Adige badania przeprowadził zespół pracujący pod kierownictwem Heidi Christine Hauffe i Mattea Girardiego. Następnie dokumentację dostarczono do laboratrium datowania radiowęglowego Queen's University Belfast. Ustalono, że szczątki koziorożców mają ok. 7018 lat; są więc o ok. 1700 lat starsze niż znaleziony w 1991 r. Ötzi. Obecnie szczątki koziorożców są przechowywane w stacji leśnej. Wkrótce zostaną przekazane do Biura Dziedzictwa Archeologicznego. Powstała grupa robocza działająca pod egidą Muzeum Historii Naturalnej. To ona zadecyduje o tym, jakie kroki zostaną jeszcze podjęte, np. jakie badania powinno się przeprowadzić, kto się ich podejmie, a także gdzie i jak szczątki będą przechowywane. « powrót do artykułu
  8. Zmiany orbity ziemskiej mogły być czynnikiem wyzwalającym gwałtowne ocieplenie klimatu sprzed 56 milionów lat. To paleoceńsko-eoceńskie maksimum termiczne (PETM) jest wydarzeniem geologicznym najbardziej podobnym do zmian klimatycznych, których obecnie doświadczamy. Dlatego też od dawna stanowi przedmiot zainteresowania naukowców. Naukowcy z Pennsylvania State University przyjrzeli się rdzeniom z PETM pobranym u wybrzeży stanu Maryland. Datowali je techniką astrochronologii polegającą na kalibrowaniu w odniesieniu do skali czasowej odnoszącej się do zjawisk astronomicznych, na przykład do cykli Milankovicia. Cykle te to okresowe zmiany trzech parametrów orbity ziemskiej: ekscentryczności, precesji i nachylenia ekliptyki. Okres tych zmian jest różny, ale raz na jakiś czas zbiegają się one i były, jak się uważa, dominującym mechanizmem paleoklimatycznym. Być może to właśnie ich zbieg był odpowiedzialny za epoki lodowe. Z ostatnich badań przeprowadzonych na Penn State dowiadujemy się, że zmiany ekscentryczności i precesji orbity Ziemi faworyzowały pojawienie się wyższych temperatur. Ten orbitalny wyzwalacz mógł doprowadzić do uwolnienie się węgla, co z kolei skutkowało globalnym ociepleniem znanym jako PETM. Stawiamy taką hipotezę w opozycji do bardziej popularnej interpretacji mówiącej, że PETM został wywołany przez gwałtowny wulkanizm, mówi profesor Lee Kump. Analizy pokazały też, że początkowy etap PETM, ten w którym temperatury rosły, trwał około 6000 lat. Wartość ta mieści się w dotychczasowych szacunkach mówiących o kilkuset do dziesiątków tysięcy lat. Jej określenie jest ważne po to, byśmy mogli zrozumieć, jak szybko następowało wówczas globalne ocieplenie. W czasie tych 6000 lat do atmosfery dostało się 10 000 gigaton węgla w postaci CO2 i metanu, co oznacza roczną emisję rzędu 1,5 gigatony. Średnia globalna temperatura wzrosła o około 6 stopni. Ówczesne tempo emisji węgla do atmosfery było o około rząd wielkości mniejsze niż obecnie. Emitujemy rocznie od 5 do 10 razy więcej węgla niż w czasie wydarzenia, które 56 milionów lat temu pozostawiło trwały ślad na naszej planecie, dodaje Kump. « powrót do artykułu
  9. W ostatnich dniach media informowały o przełomie w dziedzinie fuzji jądrowej. W National Ignition Facility (NIF) przeprowadzono fuzję jądrową (reakcję termojądrową), podczas której uzyskano więcej energii niż jej wprowadzono do kapsułki z paliwem. To ważne osiągnięcie naukowe, jednak nie oznacza, że w najbliższym czasie będziemy masowo produkowali energię tą metodą. Ilość pozyskanej energii jest bowiem co najmniej 100-krotnie mniejsza niż ilość energii użytej. Cały proces w NIF rozpoczyna się od wygenerowania 1 słabej wiązki lasera, która jest wielokrotnie rozszczepiania i wzmacniana. Po przebyciu 1500 metrów, w cel – kapsułkę z paliwem o średnicy 2-3 milimetrów – trafiają 192 potężne wiązki. Niedawno, 5 grudnia, dostarczyły one do kapsułki 2,05 megadżuli (MJ) energii inicjując reakcję, w wyniku której uwolniło się 3,15 MJ energii. Jednak cały proces generowania wiązek pochłonął... 322 MJ. Jak więc widzimy, tak naprawdę odzyskano około 1% energii, wprowadzonej do paliwa w celu uzyskania zapłonu. A mowa tutaj tylko o energii zużytej przez lasery. Co więcej, jeśli chcielibyśmy taką reakcję wykorzystać w praktyce, musielibyśmy jeszcze energię cieplną zamienić na energię elektryczną, np. za pomocą turbiny parowej. Taka zamiana nie jest darmowa i znaczna część energii cieplnej nie ulega zamianie na energię elektryczną. Straty mogą sięgać 50%. A to oznacza, że uzyskalibyśmy 200-krotnie mniej energii, niż włożyliśmy. Musimy pamiętać, że NIF to infrastruktura badawcza, a nie komercyjna. Nie projektowano jej pod kątem wydajności, ale z myślą o uzyskaniu najpotężniejszych wiązek laserowych. Instalacja służy trzem celom: badaniom nad kontrolowaną fuzją jądrową, badaniom procesów zachodzących we wnętrzach gwiazd oraz stanowi część programu utrzymania, konserwacji i zapewnienia bezpieczeństwa broni atomowej, bez konieczności przeprowadzania testów nuklearnych. Osiągnięcie z 5 grudnia jest istotne z naukowego punktu widzenia. Przede wszystkim udowodniono, że za pomocą inercyjnego uwięzienia plazmy możliwe jest zainicjowanie fuzji jądrowej, w wyniku której uzyskuje się więcej energii niż ta potrzebna do rozpoczęcia reakcji. Udany eksperyment pokazuje też, że NIF pozwoli naukowcom na badanie zjawisk zachodzących podczas eksplozji jądrowych. Wielu ekspertów wątpi, czy technologia wykorzystywana przez NIF pozwoli kiedykolwiek na komercyjną produkcję energii. Żeby w ogóle o tym myśleć stosunek energii pozyskanej do energii włożonej musiałby zwiększy się o co najmniej 2 rzędy wielkości. A to tylko jeden z wielu problemów naukowych i technologicznych, jakie należy rozwiązać. Wykorzystywane w NIF inercyjne uwięzienie plazmy to technologia inna niż magnetyczne uwięzienie plazmy, którą rozwijają naukowcy pracujący przy tokamakach czy stellaratorach. Każda z nich zmaga się ze swoimi problemami. Jednak wszystkie zapewne odniosą olbrzymie korzyści z osiągnięć specjalistów z National Ignition Facility. Osiągnięcie bowiem tak ważnego punktu w pracach nad fuzją termojądrową zwiększy zainteresowanie tymi technologiami, co powinno przełożyć się na większe inwestycje w ich rozwój. Musimy bowiem pamiętać, że świat potrzebuje nowych źródeł energii. Uranu do elektrowni atomowych wystarczy jeszcze na od 90 (według World Nuclear Association) do ponad 135 lat (wg. Agencji Energii Atomowej). Fuzja jądrowa napędzana jest trytem i deuterem, które można pozyskiwać z wody i litu. Dostępne na Ziemi zasoby wystarczą na miliony lat. Fuzja jądrowa – czyli reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączeniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii. To proces, który zasila gwiazdy. Taki sposób produkcji energii na bardzo wiele zalet. Nie dochodzi tutaj do uwalniania gazów cieplarnianych. Jest ona niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów. Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. W końcu, nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. « powrót do artykułu
  10. Amerykańscy eksperci z National Ignition Facility poinformowali o uzyskaniu z fuzji jądrowej wyraźnie więcej energii niż wprowadzono w paliwo. Uzyskano tym samym punkt tzw. breakeven. Po kilkudziesięciu latach badań pojawiła się realna nadzieja na uzyskanie niemal niewyczerpanego źródła czystej energii. Fuzja jądrowa – czyli reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączeniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii. To proces, który zasila gwiazdy.  Taki sposób produkcji energii na bardzo wiele zalet. Nie dochodzi tutaj do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody i litu, z których można pozyskać paliwo do fuzji jądrowej, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Takiego luksusu nie mamy ani jeśli chodzi o węgiel czy gaz ziemny, ani o uran do elektrowni atomowych. Tego ostatniego wystarczy jeszcze na od 90 (według World Nuclear Association) do ponad 135 lat (wg. Agencji Energii Atomowej). Fuzja jądrowa jest niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów. Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Jednak fuzja jądrowa to bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje. Fuzja jądrowa jest od wielu dekad przedmiotem zainteresowania naukowców na całym świecie. Problem w tym, że aby pokonać siły elektrostatyczne odpychające od siebie atomy potrzeba albo ekstremalnie wysokich temperatur, albo potężnych impulsów laserowych. To zaś wymaga budowy olbrzymich, bardzo skomplikowanych i kosztownych instalacji. Istnieją różne pomysły na przeprowadzeni fuzji jądrowej, a najpopularniejszym z nich jest próba wykorzystania tokamaków. Optymalna temperatura, w której dochodzi do reakcji połączenia się deuteru z trytem w tokamaku wynosi od ok. 100 do ok. 200 milionów stopni Celsjusza. Tak rozgrzana materia znajduje się w stanie plazmy. Trzeba ją uwięzić w jakiejś niematerialnej pułapce. Może być nią np. silne pole magnetyczne. I to właśnie rozwiązanie stosowane jest w tokamakach i będzie je wykorzystywał słynny budowany we Francji reaktor badawczy ITER. Uwięzienie jest konieczne zarówno dlatego, by plazma się nie rozpraszała i nie chłodziła, jak i dlatego, by utrzymać ją z dala od ścian reaktora, które zostałyby uszkodzone przez wysokie temperatury. Innym pomysłem jest zaś inercyjne uwięzienie plazmy. Z tej technologii korzysta właśnie National Ignition Facility (NIF). NIF otwarto w 2009 roku w w Kalifornii. To laboratorium badawcze, w którym zespół 192 laserów skupia wiązki na niewielkiej kapsułce zawierającej paliwo. Jest ono zgniatane prze światło lasera, a zapłon następuje w wyniku transformacji promieniowania laserowego w promieniowanie rentgenowskie. To efekt prac prowadzonych od dziesięcioleci. W latach 60. zespół fizyków z Lawrence Livermore National Laboratory – do którego należy NIF – pracujący pod kierunkiem Johna Nuckollsa, wysunął hipotezę, że zapłon fuzji jądrowej można by uzyskać za pomocą laserów. Właśnie poinformowano, że 5 grudnia bieżącego roku uzyskano długo oczekiwany zapłon. Zapłon ma miejsce, gdy ciepło z cząstek alfa powstających w wyniku fuzji termojądrowej w centrum kapsułki z paliwem jest w stanie przezwyciężyć efekt chłodzący wywołany m.in. stratami promieniowania rentgenowskiego czy przewodnictwem elektronowym, zapewniając samopodtrzymujący mechanizm ogrzewania i gwałtowny wzrost ilości uzyskanej energii, czytamy na stronach NIF. Podczas eksperymentu do paliwa dostarczono 2,05 megadżula (MJ) energii, a w wyniku reakcji uzyskano 3,15 MJ. Zapłon uzyskano w niewielkim cylindrze zwanym hohlraum, wewnątrz którego znajdowała się kapsułka z paliwem. Wewnątrz niej energia światła laserowego zmieniła się w promieniowanie rentgenowskie, doszło do kompresji kapsułki, jej implozji i pojawienia się wysokotemperaturowej plazmy, wewnątrz której panowało wysokie ciśnienie. To ważny krok, jednak zanim do naszych domów popłynie czysta energia uzyskana drogą fuzji jądrowej, musimy nauczyć się uzyskiwać wielokrotnie więcej energii niż kosztowało nas doprowadzenie do reakcji. Do tego zaś potrzeba wielu naukowych i technologicznych przełomów. Ich osiągnięcie może potrwać całe dekady. « powrót do artykułu
  11. Jedyne na świecie dziewięcioraczki zostały bezpiecznie przetransportowane do Mali; 19 pierwszych miesięcy życia spędziły w Maroku. Na lotnisku w Bamako matkę i dzieci - 5 dziewczynek i 4 chłopców - przywitała minister zdrowia Diéminatou Sangaré. Dziewięcioraczki wpisano do Księgi rekordów Guinnessa (w kategorii największej liczby dzieci, jakie przyszły na świat w trakcie pojedynczego porodu i przeżyły). Dzieci urodziły się w wyniku cesarskiego cięcia w 30. tygodniu ciąży. Nieco ponad miesiąc wcześniej, w marcu 2021 r., matkę, Halimę Cissé, przetransportowano samolotem do Maroka (było to możliwe dzięki wstawiennictwu prezydenta Mali Ba N'Daou). Trafiła do specjalistycznej kliniki Aïn Borja w Casablance. To tam stwierdzono, że kobieta spodziewa się dziewięciorga dzieci (lekarze z Mali myśleli, że urodzi się siedmioro dzieci). Ojciec, Kader Arby, podoficer marynarki, pozostał w kraju, by opiekować się starszą córką pary Soudą. Prof. Youssef Alaoui, dyrektor medyczny marokańskiej placówki, poinformował, że po urodzeniu Kadidia, Fatouma, Hawa, Adama i Oumou oraz Mohammed VI, Oumar, Elhadji i Bah ważyli 500-1000 g. Przez parę miesięcy dziewięcioraczkami zajmował się neonatolog Khalil Msaif. Później przeniesiono je do mieszkania w Casablance, gdzie nadal były objęte całodobową opieką pielęgniarek z kliniki Aïn Borja. Wprowadzono też ścisłą dietę, by upewnić się, że dzieciom podawane są wszelkie niezbędne składniki odżywcze. W październiku zeszłego roku rodzina opublikowała zdjęcia, na których uwieczniono dumnych rodziców z dziewięcioraczkami. Przy okazji pierwszych urodzin dziewięcioraczków 4 maja Arby powiedział, że każde z dzieci ma inny charakter. Niektóre są spokojne, inne zaś bardziej hałaśliwe i płaczliwe. Część domaga się [za to] ciągłego noszenia. Jak podkreślono na stronie Księgi rekordów Guinnessa, wcześniej rekord należał do ośmioraczków urodzonych w 2009 r. przez Nadyę Suleman (USA).   « powrót do artykułu
  12. Lekkie antyatomy mogą przebyć w Drodze Mlecznej duże odległości zanim zostaną zaabsorbowane, poinformowali na łamach Nature Physics naukowcy, którzy pracują przy eksperymencie ALICE w CERN-ie. Dodali oni do modelu dane na temat antyatomów helu wytworzonych w Wielkim Zderzaczu Hadronów. Pomoże to w poszukiwaniu cząstek antymaterii, które mogą brać swój początek z ciemnej materii. Fizycy potrafią uzyskać w akceleratorach cząstek lekkie antyatomy, jak antyhel czy antydeuter. Dotychczas jednak nie zaobserwowano ich w przestrzeni kosmicznej. Tymczasem z modeli teoretycznych wynika, że antyatomy, podobnie zresztą jak antyprotony, mogą powstawać zarówno w wyniku zderzeń promieniowania komicznego z materią międzygwiezdną, jak i podczas wzajemnej anihilacji cząstek antymaterii. Sygnałów takich poszukuje m.in. zbudowany przez CERN instrument AMS (Alpha Magnetic Spectrometer) zainstalowany na Międzynarodowej Kosmicznej. Jeśli jednak instrumenty naukowe zarejestrują lekkie antyatomy pochodzące z przestrzeni kosmicznej, skąd będziemy wiedzieli, że ich źródłem jest ciemna materia? Żeby to określić, naukowcy muszą obliczyć liczbę, a konkretne strumień pola, antyatomów, które powinny dotrzeć do instrumentu badawczego. Wartość ta zależy od źródła antymaterii, prędkości tworzenia antyatomów oraz ich anihilacji lub absorpcji pomiędzy źródłem powstania a instrumentem je rejestrującym. I właśnie ten ostatni element stał się przedmiotem badań naukowców skupionych wokół eksperymentu ALICE. Uczeni badali jak jądra antyhelu-3, który uzyskano w Wielkim Zderzaczu Hadronów, zachowują sią w kontakcie z materią. Uzyskane w ten sposób dane wprowadzili do publicznie dostępnego oprogramowania GALPROP, które symuluje rozkład cząstek kosmicznych, w tym antyjąder, w przestrzeni kosmicznej. Pod uwagę wzięli dwa scenariusze. W pierwszym z nich założyli, że źródłem antyhelu-3 są zderzenia promieniowania kosmicznego a materią międzygwiezdną, w drugim zaś, że są nim hipotetyczne cząstki ciemnej materii, WIMP (słabo oddziałujące masywne cząstki). W każdym z tych scenariuszy obliczali przezroczystość Drogi Mlecznej dla jądra antyhelu-3. Innymi słowy, sprawdzali, z jakim prawdopodobieństwem takie antyjądra mogą przelecieć przez Drogę Mleczną zanim zostaną zaabsorbowane. Dla modelu, w którym antyjądra pochodziły z WIMP przezroczystość naszej galaktyki wyniosła około 50%. Dla modelu interakcji promieniowania kosmicznego z materią międzygwiezdną wynosiła zaś od 25 do 90 procent, w zależności od energii antyjąder. To pokazuje, że w obu przypadkach antyjądra mogą przebyć olbrzymie odległości, liczone w kiloparsekach (1 kpc ≈ 3261 lat świetlnych), zanim zostaną zaabsorbowane. Jako pierwsi wykazaliśmy, że nawet jądra antyhelu-3 pochodzące z centrum galaktyki mogą dotrzeć w pobliże Ziemi. To oznacza, że ich poszukiwanie w przestrzeni kosmicznej jest bardzo dobrą metodą poszukiwania ciemnej materii, stwierdzają autorzy badań. « powrót do artykułu
  13. Szeroko wykorzystywany w elektronice czy biomolekułach tlenek grafenu może pośrednio wpływać na mikrobiom jelit, ostrzegają naukowcy z Karolinska Institutet. Przeprowadzone przez nich badania na danio pręgowanym wykazały, że nawet niewielka ilość tego nanomateriału powoduje zmiany w pracy układu odpornościowego. To pokazuje, że musimy brać pod uwagę, w jaki sposób nanomateriały wpływają na układ odpornościowy. Uzyskane przez nas wyniki są istotne dla zidentyfikowania potencjalnego negatywnego wpływu nanomateriałów mówi profesor Bengt Fadeel z Instytutu Medycyny Środowiskowej Karolinska Institutet. Nanomateriały bazujące na grafenie są coraz szerzej używane, dlatego też naukowcy chcą zrozumieć, jakie mogą mieć one skutki dla naszego zdrowia i środowiska naturalnego. Szwedzcy uczeni przyjrzeli się tlenkowi grafenu, który – w przeciwieństwie do grafenu – jest rozpuszczalny w wodzie i coraz częściej myśli się o jego zastosowaniu w medycynie, np. jako nośnika dostarczającego leki. Naukowcy wystawili danio pręgowane na kontakt z rozpuszczonym w wodzie tlenkiem grafenu. Podczas badań wykorzystali zarówno normalne ryby, jak i genetycznie zmodyfikowane, które nie posiadały w jelitach AhR (aryl hydrocarbon receptor – receptor węglowodorów aromatycznych). To receptor metabolitów endogennych i bakteryjnych. Wykazaliśmy, że skład mikrobiomu jelit uległ zmianie pod wpływem wystawienia ryb na działanie tlenku grafenu, nawet w niskiej dawce, oraz że AhR również wpłynęło na mikrobiom, poinformowała główna autorka badań, Guutao Peng. Badacze wykorzystali też larwy ryb, którym brak naturalnego mikrobiomu. To pozwoliło im na zbadanie kwasu masłowego, który jest wydzielany przez pewne bakterie jelitowe. Wiadomo, że kwas masłowy wiąże się z AhR. Okazało się, że połączenie tlenku grafenu i kwasu masłowego doprowadziło do pojawienia się u zwierząt reakcji typowej dla zakażenia pasożytem. Sądzimy, że mikrobiom jelit reaguje na pojawienie się tlenku grafenu w podobny sposób, jak na pojawienie się pasożyta, wyjaśnia Peng. Ze szczegółami badań można zapoznać się na łamach Nature Nanotechnology. « powrót do artykułu
  14. Chelsea Banning, bibliotekarka z północno-wschodniego Ohio, przez ponad 15 lat pracowała nad swoją debiutancką książką „Of Crowns and Legends”. Na początku grudnia w księgarni Pretty Good Books w miasteczku Ashtabula - również w Ohio - odbyło się spotkanie, na którym początkująca autorka miała podpisywać swoje dzieło. Niestety, mimo że uczestnictwo w wydarzeniu zadeklarowało 37 osób, w rzeczywistości pojawiły się tylko dwie. Chelsea wyraziła swoje rozczarowanie na Twitterze. Na jej post zareagowali najsłynniejsi pisarze, w tym Stephen King, Jodi Lynn Picoult czy Margaret Atwood. Jak można się domyślić, ich wsparcie bardzo wspomogło promocję książki... Witamy w klubie - napisała Atwood, autorka „Opowieści podręcznej”. Na moje podpisywanie nie przyszedł nikt. Pojawił się tylko człowiek, który chciał kupić taśmę klejącą i myślał, że należę do obsługi. Stephen King przypomniał, że pierwsze podpisywanie „Miasteczka Salem” zaszczycił swoją obecnością tylko jeden „klient”. Dzieciak pytał, czy wiem, gdzie znajdują się jakieś książki o nazistach. Neil Gaiman, którego pierwsza powieść „Dobry omen” - napisana razem z Terrym Pratchettem - ukazała się w 1990 r., przyznał, że gdy podpisywali z Terrym książkę na Manhattanie, nie zjawił się nikt. Masz więc dwie osoby więcej niż my - pocieszał Banning. Jodi Picoult, która jest autorką licznych powieści oraz współautorką komiksów z serii „Wonder Woman”, ujawniła Chelsea, że wielokrotnie siedziała sama przy stoliku. Tylko czasem ktoś podchodził, by zapytać, jak trafić do toalety. Post Chelsea Banning na Twitterze, który powstał pod wpływem emocji z zamiarem usunięcia po paru godzinach, doczekał się dotąd ponad 80.200 polubień, 3.415 podań dalej i 4.226 retwittów z komentarzem. W rozmowie z dziennikarzami „Washington Post” początkująca pisarka powiedziała, że nie spodziewała się, że dawanie upustu uczuciom w mediach społecznościowych zapoczątkuje wśród literatów nurt wsparcia o tak dużej viralowej mocy. Można się spodziewać, że następne spotkanie autorskie 28 stycznia przyszłego roku będzie się cieszyć o wiele większą frekwencją... Wsparcie słynnych twórców przełożyło się również na pozycję „Of Crowns and Legends” na liście bestsellerów w kategorii fantastyka arturiańska na amerykańskim Amazonie; e-book znajduje się na pierwszym miejscu, a wydanie w miękkiej okładce na drugim. Książka reprezentuje fantastykę arturiańską, bo jej głównymi bohaterami są bliźnięta Anwil i Ariadne, dzieci króla Artura. Mimo ogromnej zażyłości, bardzo się od siebie różnią. Anwil jest typowym molem książkowym, podczas gdy Ariadne trenuje, by zostać rycerzem Okrągłego Stołu. Akcja rozgrywa się ok. 20 lat po bitwie pod Camlann. To pierwsza część planowanej przez bibliotekarkę trylogii. « powrót do artykułu
  15. Zmarł Mirosław Hermaszewski, pierwszy i jedyny Polak, który poleciał w kosmos. Informację o śmierci generała potwierdził mediom jego zięć, poseł Ryszard Czarnecki. Wiemy, że 81-letni kosmonauta zmarł w jednym z warszawskich szpitali. Mirosław Hermaszewski urodził się w 1941 roku w Lipnikach w województwie wołyńskim. W 1945 roku wraz z rodziną został przesiedlony z Kresów na Dolny Śląsk. Zamieszkali w Wołowie, gdzie przyszły kosmonauta skończył podstawówkę i liceum. Od 1960 roku działał w Aeroklubie wrocławskim. W 1961 roku zdobył uprawnienia pilota szybowcowego i wstąpił do Szkoły Orląt w Dęblinie. Został pilotem odrzutowców, studiował na Akademii Sztabu Generalnego. W 1976 roku został wybrany z grona kilkuset polskich pilotów jako kandydat do lotu kosmicznego. W kosmos poleciał 27 czerwca 1978 roku wraz z Piotrem Klimukiem w ramach misji Sojuz 30. Była to druga misja w ramach międzynarodowego programu Interkosmos prowadzoego pod egidą ZSRR dla jego sojuszników. W czasie misji przeprowadzono wiele eksperymentów, m.in. badanie narastania kryształów HgCdTe w warunkach braku ciążenia, badanie funkcjonowania serca i płuc na statku kosmicznym, obserwacja zórz polarnych czy badanie wymiany ciepła organizmu z otoczeniem. Po 8 dniach, 5 lipca, obaj wylądowali w Kazachstanie. Po misji został awansowany do stopnia podpułkownika. W 1988 roku awansowany na generała brygady. Z wojska odszedł po 40 latach. Bez powodzenia próbował sił w polityce. « powrót do artykułu
  16. Stała struktury subtelnej (α) to być może najważniejsza ze stałych we wszechświecie. Opisuje siłę oddziaływań elektromagnetycznych i jest kombinacją trzech podstawowych stałych przyrody – ładunku elektronu, stałej Plancka i prędkości światła. Istnieje wiele metod pomiaru tej stałej. Zwykle pomiary takie są dokonywane pośrednio, poprzez pomiar innych właściwości fizycznych i obliczenie na tej podstawie wartości α. Na Uniwersytecie Technicznym w Wiedniu (TU Wien) przeprowadzono eksperyment, w trakcie którego udało się po raz pierwszy bezpośrednio zmierzyć wartość stałej struktury subtelnej. Stała struktury subtelnej opisuje siłę oddziaływań elektromagnetycznych. Wskazuje, z jaką siłą naładowane cząstki, takie jak elektrony, reagują z polem magnetycznym. Jej wartość wynosi 1/137, gdyby była nieco inna – powiedzmy 1/136 – świat, jaki znamy, nie mógłby istnieć Atomy miałyby inne rozmiary, wszystkie procesy chemiczne przebiegałyby inaczej, inaczej też przebiegałyby reakcje termojądrowe w gwiazdach. Co interesujące, naukowcy spierają się o to, czy stała struktury subtelnej jest rzeczywiście stałą, czy też w ciągu miliardów lat jej wartość uległa niewielkim zmianom. Większość ważnych stałych fizycznych to wartości wymiarowe, wyrażane w konkretnych jednostkach, na przykład prędkość światła wyrażamy w metrach na sekundę. Stała struktury subtelnej jest inna. Nie ma tutaj jednostek, to po prostu liczba. Jest to stała bezwymiarowa, wyjaśnia profesor Andrei Pimenow z Instytutu Fizyki Ciała Stałego na TU Wien. Pimenov oraz jego koledzy z TU Wien i naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles przeprowadzili pierwszy eksperyment, podczas którego możliwe było dokonanie bezpośrednich pomiarów wartości stałej struktury subtelnej. Światło lasera jest spolaryzowane liniowo, oscyluje wertykalnie. Gdy podczas eksperymentu trafia na dysk z materiału o grubości liczonej w nanometrach, jego polaryzacja ulega zmianie. Samo w sobie nie jest to niczym niezwykłym. Wiele materiałów powoduje zmianę polaryzacji światła laserowego. Dzięki interakcji fotonów z polem elektromagnetycznym można polaryzację można obracać. Przy silnych polach magnetycznych i w niskich temperaturach pojawia się kwantowy efekt Halla, a zmiany polaryzacji są proporcjonalne do stałej struktury subtelnej. Jednak konieczność używania silnego pola magnetycznego powoduje, że trzeba uwzględnić je w równaniach opisujących α, co utrudnia przygotowanie eksperymentu. Podczas ostatniego eksperymentu naukowcy wykorzystali światło terahercowego lasera, które nakierowali na cienki dysk izolatora topologicznego o wzorze chemicznym (Cr0.12Bi0.26Sb0.62)2Te3. Materiał zawiera chrom, ma więc wbudowane pole magnetyczne. Gdy naukowcy przyjrzeli się zmianie polaryzacji światła po przejściu przez dysk okazało się, że doszło do skokowej, a nie płynnej, zmiany kąta polaryzacji i wynosiła ona tyle, ile wartość α. Stała struktury subtelnej jest tutaj natychmiast widoczna jako kąt, cieszy się Pimenov. I mimo że pomiary te nie dały tak dokładnego wyniku, jak pomiary pośrednie, to – jak podkreśla Pimenov – główną korzyścią jest tutaj możliwość otrzymania podstawowej stałej fizycznej z bezpośredniego eksperymentu, a nie poleganie na innych pomiarach i precyzji kalibracji sprzętu. « powrót do artykułu
  17. W czasie, gdy na Ziemię wracał Orion, z należącego do Pentagonu kosmodromu Cape Canaveral Space Force Station, wystartowała rakieta Falcon 9 z prywatną japońską misją Hakuto-R (Biały królik) na pokładzie. W ramach misji przygotowanej przez japońską firmę ispace w przestrzeń kosmiczną trafił jej lądownik księżycowy, łazik ze Zjednoczonych Emiratów Arabskich (ZEA), niewielki robot Japońskiej Agencji Kosmicznej (JAXA) oraz urządzenia z Kanady i USA. Lądowanie na Srebrnym Globie zaplanowano na kwiecień przyszłego roku. Dla porównania przypomnijmy, że Orion doleciał do Księżyca w ciągu 5 dni. ispace zaprojektowała misję tak, by zużyła jak najmniej paliwa. Pozwoliło to zaoszczędzić pieniądze oraz zabrać większy ładunek. Dlatego też pojazd ispace oddali się od Ziemi na odległość 1,6 miliona kilometrów, później zawróci i pod koniec kwietnia 2023 roku spotka na swojej drodze Księżyc. Lądownik ispace ma trafić do krateru Atlas. Zabrał on na pokład niewielkiego robota zbudowanego przez Japońską Agencję Kosmiczną (JAXA), który będzie poruszał się na kołach i badał powierzchnię Księżyca. Na Srebrnym Globie wyląduje też Rashid, łazik ZEA. Jest niewielki. Waży zaledwie 10 kilogramów i będzie pracował na powierzchni przez 10 dni. To zresztą nie pierwsza misja księżycowa niewielkiego arabskiego kraju. Na orbicie Srebrnego Globu znajduje się już satelita Zjednoczonych Emiratów Arabskich. Celem Rashida jest prowadzenie badań nieeksplorowanego dotychczas regiony Księżyca oraz testowanie technologii, które mogą być przydatne podczas załogowej misji na Marsa. Jeśli się uda, będzie to pierwsza misja Emiratów i jakiegokolwiek kraju arabskiego zakończona lądowaniem na Księżycu. Na pokładzie misji ispace znalazł się też kanadyjski komputer wyposażony w algorytmy sztucznej inteligencji, który będzie identyfikował utwory geologiczne napotkane przez łazik z Emiratów oraz kanadyjskie kamery o polu widzenia 360 stopni. Japończycy zabrali też przygotowany przez NASA laser, który będzie poszukiwał lodu w ciągle zacienionych kraterach na biegunie południowym Księżyca. Firma ispace to jedno z niewielu prywatnych przedsiębiorstw, które próbują przeprowadzić lądowanie na Księżycu. Dotychczas miękkie lądowanie na Srebrnym Globie udawało się tylko państwowym agencjom kosmicznym USA, ZSRR i Chin. « powrót do artykułu
  18. Kapsuła załogowa Orion wylądowała na powierzchni Oceanu Spokojnego wczoraj o godzinie 18:40 czasu polskiego. Tym samym zakończyła się misja Artemis I, w ramach której pojazd załogowy – tym razem jeszcze bez załogi – oddalił się na największą w historii odległość od Ziemi, ponad 430 000 kilometrów. Misja trwała 25,5 doby, w czasie których NASA testowała samego Oriona jak i jego ładunek. To olbrzymi sukces NASA, Stanów Zjednoczonych, naszych międzynarodowych partnerów i całej ludzkości, stwierdził szef NASA Bill Nelson. W czasie misji Orion dwukrotnie okrążył Księżyc, podlatując do Srebrnego Globu na odległość 127 kilometrów. Przed wejściem w atmosferę Ziemi Orion odłączył się od wyprodukowanego przez Europejską Agencję Kosmiczną modułu serwisowego, który zapewniał mu napęd. Podczas lądowania pojazd musiał wytrzymać temperatury dochodzące do 2700 stopni Celsjusza. W ciągu 20 minut zwolnił z ponad 40 000 km/h do nieco ponad 500 km/h. Wówczas rozwinął spadochrony, które wyhamowały go do nieco ponad 30 km/h, pozwalając bezpiecznie wylądować na powierzchni oceanu. Po wylądowaniu kapsuła przez 2 godziny była poddawana testom, w czasie których kontrolerzy lotów zbierali informacje dotyczące m.in. właściwości jej osłon termicznych. Była dokładnie obfotografowywana, a specjalistyczne czujniki badały, czy nie doszło do wycieku niebezpiecznych toksycznych hydrazyny i amoniaku. Później pojazd został załadowany na pokład okrętu desantowego USS Portland. Jednostka ma jutro przybyć do bazy morskiej w San Diego, 2 dni później trafi na ciężarówkę i zostanie zawieziony do Centrum Kosmicznego Johna Kennedy'ego na Florydzie. Tam eksperci otworzą kapsułę i wyjmą jej ładunek, w tym wyposażone w czujniki manekiny oraz Biology Experiment-1, którego zadaniem było sprawdzenie wpływu pobytu w przestrzeni kosmicznej na próbki biologiczne. Jeden z manekinów, znajdujący się w fotelu dowódcy Moonikin Campos, został ubrany w kombinezon Orion Crew Survival System. Ma być on zdolny do utrzymania człowieka przy życiu przez 6 dni. Umieszczone na manekinie czujniki mierzyły promieniowanie, przyspieszenie i wibracje. Następnie sama kapsuła i jej osłona termiczna zostaną poddane szczegółowym wielomiesięcznym analizom. Na 2024 rok zaplanowano załogową misję Artemis II,  a w roku 2025 ma odbyć się Artemis III i lądowanie na Księżycu. « powrót do artykułu
  19. HIV(ang. human immunodeficiency virus) czyli ludzki wirus niedoboru odporności to wirus który wywołuje AIDS (ang. Acquired Immunodeficiency Syndrome) - zespół nabytego niedoboru odporności. Według danych Narodowego Instytutu Zdrowia Publicznego od początku (1985r.) epidemii HIV do 31 grudnia 2021 w Polsce potwierdzono 27552 zakażeń,u  3868 z nich rozwinął się AIDS, 1448 chorych zmarło.W Polsce przez ostatnie lata stwierdza się 1100-1300 nowych zakażeń HIV rocznie. Od wielu lat poszukuje się skutecznych metod zapobiegania transmisji HIV. Stosowanie poekspozycyjnej profilaktyki farmakologicznej (PEP- post-exposure prophylaxis) jest istotną strategią przeciw transmisji wirusa.  Opiera się ona na 28-dniowym przyjmowaniu trzech leków antyretrowirusowych w celu zminimalizowania ryzyka zakażenia HIV. PEP jest stosowana po narażeniu zawodowym , jeśli doszło do ekspozycji podczas wykonywania obowiązków zawodowych i niezawodowym  związanym z ryzykownymi zachowaniami, np. stosunki seksualne bez prezerwatywy z osobą o nieznanym statusie serologicznym HIV- główna droga transmisji HIV na świecie! Do zakażenia na tle zawodowym dochodzi najczęściej poprzez zakłucie/skaleczenie igłą lub innymi ostrymi narzędziami, szacunkowe ryzyko 0,32%(Najliczniejszą grupą zawodową narażoną na materiał biologiczny są pracownicy ochrony zdrowia. Po narażeniu na zakażenie HIV należy natychmiast zgłosić się do szpitala zakaźnego prowadzącego terapię antyretrowirusową.  Spis takich szpitali wraz z całodobowymi telefonami jest dostępny na stronie internetowej Krajowego Centrum ds. AIDS. Farmakologiczna profilaktyka przedekspozycyjna zakażenia HIV (PrEP – ang. pre-exposure prophylaxis) to używanie leków antyretrowirusowych u ludzi nie zakażonych HIV w celu zmniejszenia ryzyka nabycia tego zakażenia. Polskie Towarzystwo Naukowe AIDS rekomenduje stosowanie PrEP dorosłym osobą które: utrzymują kontakty seksualne bez prezerwatywy z osobami potencjalnie zakażonymi HIV stosowały PEP po kontakcie seksualnym w ciągu ostatniego roku świadczą usługi seksualne stosują naroktyki dożylnie mają kontakty seksualne pod wpływem substancji psychoaktywnych chorowały na choroby przenoszone drogą płciową w ciągu ostatniego roku PrEP jest wysoce zalecana u HIV(-) mężczyzn, którzy uprawiają seks z mężczyznami(MSM), szacuje się że 80% nowych zakażeń dotyczy MSM! Aktualnie w Polsce nie istnieje ustawa refundacyjna ani program profilaktyczny dajace bezpłatny dostęp do PrEP. Bibliografia: 1.A. Nitsch-Osuch, Zakażenia Krwiopochodne. Profilaktyka, 2020 2,. WHO implementation tool for pre-exposure prophylaxis (PrEP) of HIV infection – WHO 2017; EACS Guidelines version 8.2 – 2017 3. Zasady opieki nad osobami zakażonymi HIV – zalecenia PTN AIDS 2022 4. EACS. Guidelines Version 11.0. Oct 2021. https://www.eacsociety.org/guidelines/eacs-guidelines 5. Narodowy Instytut Zdrowia Publicznego, Zakażenia HIV i zachorowania na AIDS w Polsce w 2021 roku ,2021 « powrót do artykułu
  20. Test p16/Ki-67 to badanie immunocytochemiczne służące do jednoczasowego oznaczania białka p16 i Ki-67 w materiale cytologicznym pobranym z tarczy szyjki macicy. Pozwala wykrywać zmiany nowotworowe na poziomie komórkowym już na bardzo wczesnym etapie ich rozwoju. Lokalizuje komórki u których normalny i zdrowy cykl został zaburzony w wyniku infekcji wysokoonkogennym wirusem brodawczaka ludzkiego HR-HPV. Wychwytuje podejrzane zmiany tam, gdzie rutynowe badanie cytologiczne nie dało wystarczających informacji. Dzięki niemu możliwe jest uzupełnienie cytologii bez konieczności poddawania się dodatkowym badaniom jak powtórna cytologia bądź kolposkopia. Powoduje także zmniejszenie liczby nieuzasadnionych skierowań na wykonanie poszerzonych badań diagnostycznych, co skutkuje tym, że można leczyć te pacjentki, które rzeczywiście tego potrzebują. Test ten przeznaczony jest dla kobiet , u których wykonane badanie cytologiczne dało wynik ASCUS,LSIL albo gdy wynik badania HPV HR wyszedł dodatni. Pomaga on zróżnicować i doprecyzować rodzaj zmian wykrytych w cytologii. Białko p16 w głównej mierze odpowiada za prawidłowy przebieg cyklu komórkowego. Wykorzystywane jest jako badanie dodatkowe w skriningu raka szyjki macicy. Wysoka ekspresja tego białka widoczna jest w komórkach , w których doszło do zaburzeń. W zdrowych i dojrzałych komórkach nabłonkowych szyjki macicy poziom p16 jest bardzo niski i ledwie wykrywalny. Wysoka ekspresja tego białka widoczna jest natomiast w komórkach, w których doszło do zaburzeń, spowodowanych transformacją onkogennych wirusów HPV. Badanie ekspresji p16 może być wykonywane samodzielnie albo jednocześnie z badaniem ekspresji białka Ki-67. Białko Ki-67 znajduje się w jądrze komórkowym i pełni bardzo ważną rolę w procesie mitozy, tj. podziałów komórkowych. Uważa się go za dobry, wewnątrzkomórkowy wskaźnik stopnia nasilenia podziałów komórkowych, dlatego że występuje tylko i wyłącznie w komórkach dzielących się. Brak białka Ki-67 hamuje proces podziału. Białko to nazywane jest także markerem proliferacji. Wysokość wskaźnika proliferacji Ki-67 odpowiada m.in. za szybkość podziałów komórkowych, czyli szybkość namnażania się komórek nowotworowych. Oznacza to, że im wyższy jest jego wskaźnik tym komórka nowotworowa szybciej się dzieli i szybciej rośnie, a takich dzielących się komórek jest coraz więcej. W związku z tym białko Ki-67 wspólnie z białkiem p16 to doskonałe narzędzie wspomagające profilaktykę raka szyjki macicy. Test immunocytochemiczny z wykorzystaniem przeciwciał białek Ki67 i p16 jest wykonywany w przypadku, gdy podczas badania cytologicznego, uzyskano niejednoznaczny wynik opisu zmian. Dodatni wynik Ki67 oznaczał będzie wzmożone tempo podziałów komórkowych, charakterystyczne dla komórek nowotworowych. Z kolei dodatni wynik p16 będzie pośrednio wskazywał na infekcję wirusem HPV. Test ten wykonuje się z rozmazu cytologicznego. Jeżeli jednak została wykonana wcześniej cytologia płynna, zwana cienkowarstwową albo LBC (liquid-based cytology), do tego badania można wykorzystać pobrany już materiał. Eliminuje więc to konieczność wykonania powtórnej cytologii, tym samym przyspiesza proces diagnostyki, a także zmniejsza obciążenia psychiczne dla pacjentki i finansowe dla systemu opieki zdrowotnej .Utrwalony preparat cytologiczny poddawany jest specjalnym procesom barwienia. Jeśli w pobranym materiale znajdują się nieprawidłowe komórki, to cytoplazma zabarwi się na brązowo (ekspresja białka p16), zaś jądro na kolor czerwony (ekspresja białka Ki67). Pozwala to jednoznacznie stwierdzić, że mamy do czynienia z trwającym procesem rozwoju nowotworu. Dodatni wynik będzie oznaczał, że zdrowy cykl komórkowy został zaburzony z powodu przetrwałej infekcji wirusem HR- HPV. Następnie lekarz, w dalszym postępowaniu zdecyduje, czy konieczne jest skierowanie pacjentki do dalszej, pogłębionej diagnostyki oraz jakie należy wdrożyć leczenie. P16 i Ki67 to rekomendowane markery w procesie diagnostycznym zmian szyjki macicy. Zwiększają wiarygodność i obiektywność postawionej diagnozy. Pamiętajmy jednak, że podstawą diagnostyki tych zmian jest w pierwszej kolejności wykonanie cytologii. Bibliografia: 1.Giorgi Rossi P, Carozzi F, Ronco G, Allia E, Bisanzi S, Gillio-Tos A, De Marco L, Rizzolo R, Gustinucci D, Del Mistro A, Frayle H, Confortini M, Iossa A, Cesarini E, Bulletti S, Passamonti B, Gori S, Toniolo L, Barca A, Bonvicini L, Mancuso P, Venturelli F , Benevolo M; the New Technology for Cervical Cancer 2 Working Group. p16/ki67 and E6/E7 mRNA Accuracy and Prognostic Value in Triaging HPV DNA-Positive Women. J Natl Cancer Inst. 2021 Mar 1;113(3):292-300. doi: 10.1093/jnci/djaa105. Erratum in: J Natl Cancer Inst. 2021 Jul 17;: PMID: 32745170; PMCID: PMC7936054. 2.Stoler MH, Baker E, Boyle S, Aslam S, Ridder R, Huh WK, Wright TC Jr. Approaches to triage optimization in HPV primary screening: Extended genotyping and p16/Ki-67 dual-stained cytology-Retrospective insights from ATHENA. Int J Cancer. 2020 May 1;146(9):2599-2607. doi: 10.1002/ijc.32669. Epub 2019 Oct 6. PMID: 31490545; PMCID: PMC7078939. 3.Clarke MA, Cheung LC, Castle PE, Schiffman M, Tokugawa D, Poitras N, Lorey T, Kinney W, Wentzensen N. Five-Year Risk of Cervical Precancer Following p16/Ki-67 Dual-Stain Triage of HPV-Positive Women. JAMA Oncol. 2019 Feb 1;5(2):181-186. doi: 10.1001/jamaoncol.2018.4270. PMID: 30325982; PMCID: PMC6439556. 4. Wu Y, Zhao J, Hu J, Wu XW, Zhu LR. Significance of p16/Ki-67 double immunocytochemical staining in cervical cytology ASCUS, LSIL, and ASC-H. Zhonghua Fu Chan Ke Za Zhi. 2017 Nov 25;52(11):734-739. 5.Nasierowska-Guttmejer A., Kędzia W., Rokita W. et al. Polish recommendations regarding diagnostics and treatment of cervical squamous intraepithelial lesions according to the CAP/ASCCP guidelines. Ginekol. Pol. 2016; 87 (9): 670–676 (doi: 10.5603/GP.2016.0066). 6.Wentzensen N, Fetterman B, Tokugawa D, Schiffman M, Castle PE, Wood SN, Stiemerling E, Poitras N, Lorey T, Kinney W. Interobserver reproducibility and accuracy of p16/Ki-67 dual-stain cytology in cervical cancer screening. Cancer Cytopathol. 2014 Dec;122(12):914-20. doi: 10.1002/cncy.21473. Epub 2014 Aug 12. PMID: 25132656 « powrót do artykułu
  21. Naukowcy z Museum of London Archeology znaleźli przepiękny naszyjnik sprzed 1300 lat. To najwspanialszy naszyjnik tego typu odkryty na terenie Wielkiej Brytanii. Zabytek datowany na lata 630–670 znajdował się w bogato wyposażonym grobie kobiety o wysokim statusie społecznym. Został wykonany ze złota, kamieni półszlachetnych, rzymskich monet i szkła. Zdaniem ekspertów, jest to najbardziej znaczący kobiecy pochówek z epoki znaleziony w Brytanii. W grobowcu kobiety znajdowały się też inne interesujące przedmioty. Dlatego archeolodzy mówią o skarbie z Harpole (Harpole Treasure), nazwanym tak od miejscowej parafii. Gdy z ziemi zaczęły wyłaniać się pierwsze fragmenty złota, wiedzieliśmy, że to coś wyjątkowego. Nie zdawaliśmy sobie sprawy, jak bardzo. Dzięki nowoczesnym metodom analitycznym możemy więcej powiedzieć o zmarłej i sposobie pochówku, mówi Levente-Bence Balázs, który kieruje wykopaliskami. Najbardziej interesującym elementem naszyjnika jest centralny kwadratowy wisiorek z motywem krzyża. Został wykonany z granatów osadzonych w złocie. Naukowcy sądzą, że niegdyś stanowił część zapinki, a później został użyty w naszyjniku. W grobie znaleziono też dwa dekorowane garnki i miedziany talerz. Kolejnego intrygującego znaleziska dokonano w bloku ziemi wydobytym z grobu. Gdy go prześwietlono okazało się, że wewnątrz znajduje się bogato zdobiony krzyż ozdobiony niezwykłymi, wykonanymi ze srebra ludzkimi twarzami. Obecnie konserwatorzy z MOLA ostrożnie próbują wydobyć krzyż z bloku. Ich zdaniem, jego obecność może sugerować, że zmarła była lokalnym liderem wczesnej chrześcijańskiej społeczności. Bogate wyposażenie grobu sugeruje, że mogła być przełożoną klasztoru, pochodzić z rodu królewskiego, a może spełniała oba te warunki. Jej ciało uległo całkowitemu rozkładowi. Znaleziono jedynie fragmenty szkliwa. Przed archeologami jeszcze sporo pracy. Muszą m.in. poszukać, zidentyfikować i opisać ślady organiczne na znalezionych przedmiotach oraz w samym grobie. Nie można wykluczyć, że zmarłą pochowano na łóżku i uda się znaleźć jego pozostałości. Co interesujące, miejsce pochówku kobiety nie wyróżniało się niczym szczególnym. W pobliżu znaleziono jeszcze jeden grób, który nie zawierał żadnego bogatego wyposażenia, ani nie udało się go datować. Archeolodzy są też pewni, że w okolicy na odkrycie nie czeka żadne inne znalezisko. Rzymianie oficjalnie wycofali się z Brytanii w 410 roku. W V i VI wieku na Wyspy Brytyjskie zaczęła napływać ludność z terenów współczesnych Niemiec, Holandii i południowej Skandynawii, a w VI i VII wieku chrześcijaństwo zaczyna rozprzestrzeniać się na południu i wschodzie, pojawiają się pochówki chrześcijańskich elit. Znaleziony w Northamptonshire Hrapole Treasure pochodzi właśnie z tego okresu. W roku 793 dochodzi do najazdu wikingów na klasztor w Lindisfarne. To początek wikińskich ataków na Wyspy Brytyjskie. Rozpoczyna się epoka wikingów. « powrót do artykułu
  22. Komputery kwantowe mogą, przynajmniej teoretycznie, przeprowadzać obliczenia, które są poza zasięgiem tradycyjnych maszyn. Ich kluczowym elementem są splątane kwantowe bity, kubity. Splątanie jest jednak stanem niezwykle delikatnym, bardzo wrażliwym na wpływ czynników zewnętrznych, na przykład promieniowania kosmicznego. Powoduje ono, że średnio co 10 sekund dochodzi do katastrofalnego błędu i kwantowe układy scalone tracą dane. Może ono za jednym razem usunąć wszelkie dane z procesora nawet najbardziej zaawansowanej maszyny kwantowej. Fizyk Quian Xu z University of Chicago i jego koledzy poinformowali o opracowaniu metody, która aż o 440 000 razy wydłuża czas pomiędzy błędami powodowanymi przez promieniowanie kosmiczne. Zatem mają one miejsce raz na 51 dni. Badacze zaproponowali komputer kwantowy składający się z wielu układów scalonych z danymi, z których każdy posiada liczne nadprzewodzące kubity. Wszystkie te układy są połączone z układem pomocniczym, który zawiera dodatkowe kubity monitorujące dane. Wszystkie chipy korzystałyby ze standardowych metod korekcji błędów oraz dodatkowej korekcji błędów powodowanych przez promieniowanie kosmiczne. Dzięki temu, że dane są rozdzielone na różne układy, zniszczenia powodowane przez promieniowanie kosmiczne są ograniczane. Gdy już do nich dojdzie, układ pomocniczy, we współpracy z układami, których dane nie zostały uszkodzone przez promieniowanie, przystępuje do korekty i odzyskania utraconych danych. Komputer nie musi rozpoczynać pracy na nowo, gdy tylko niektóre układy utracą dane, Xu. Co więcej, metoda ta wykrywa i koryguje dane pojawiające się w układzie pomocniczym. Autorzy badań twierdzą, że ich metoda wymaga zaangażowania mniejszej ilości zasobów oraz żadnych lub niewielkich modyfikacji sprzętowych w porównaniu z dotychczasowymi próbami ochrony komputerów kwantowych przed promieniowaniem kosmicznym. W przyszłości chcieliby ją przetestować na chmurze kwantowej IBM-a lub procesorze Sycamore Google'a. Ze szczegółowym opisem metody można zapoznać się na łamach arXiv. « powrót do artykułu
  23. Ukazała się kolejna, szósta już, książka z serii „Bioróżnorodność miasta Białegostoku”. Jej bohaterami są ssaki. Autorami wydawnictwa są prof. dr hab. Mirosław Ratkiewicz i mgr Piotr Rode z Wydziału Biologii Uniwersytetu w Białymstoku (UwB). W środku znajdziemy fotografie, tabele i mapy występowania poszczególnych gatunków. Wspólne życie i bezpieczna obserwacja W publikacji zamieszczono ogólne informacje o ssakach, oprócz tego autorzy przyjrzeli się [...] typom środowisk, w jakich bytują ssaki na terenie Białegostoku, wskazali też najważniejsze i najciekawsze, ich zdaniem, miejsca, które są ostojami różnorodności ssaków - wyjaśniono w komunikacie UwB. Łącznie w publikacji opisano 41 gatunków; są to gatunki stwierdzone w Białymstoku oraz gatunki, w przypadku których na podstawie obecnego stanu wiedzy przypuszcza się, że z dużym prawdopodobieństwem w mieście występują. Należy zaznaczyć, że w wydawnictwie nie uwzględniono nietoperzy. Opracowując monografię, autorzy sięgnęli do literatury naukowej i do wyników badań pracowników, doktorantów oraz studentów Wydziału Biologii UwB. Poza tym wykorzystali ciekawe informacje, udostępnione przez autorów publikowanych fotografii. Opisujemy też, jak obserwować zwierzęta, na co zwrócić uwagę, żeby nasze i ich bezpieczeństwo było zachowane. Poświęcamy wiele uwagi bezpieczeństwu i łagodzeniu sytuacji konfliktowych ze zwierzętami, bo niestety takie często mają miejsce i czasem wynikają z naszej niewiedzy i nieprzygotowania - podkreślał na konferencji prasowej prof. Ratkiewicz. Odnosząc się do koegzystencji ludzi i dzikich zwierząt w miastach, prof. Ratkiewicz stwierdził, że jest ona możliwa i potrzebna. Oczywiście ona rodzi problemy, ale naszym zadaniem jest ich rozwiązywanie. W monografii o ssakach wskazano, co można by zrobić i jakie praktyki stosuje się już w stolicy Podlasia. By chronić bioróżnorodność, najpierw trzeba ją poznać Dotąd w ramach projektu „Bioróżnorodność miasta Białegostoku” ukazały się, oprócz „Ssaków Białegostoku”, następujące monografie: 1) „Różnorodność biologiczna miasta” Danuty Drzymulskiej i Piotra Zielińskiego, 2) „Szata roślinna Białegostoku” Dana Wołkowyckiego, 3) „Motyle dzienne Białegostoku” Marcina Sielezniewa oraz Izabeli Dziekańskiej, 4) „Porosty Białegostoku” Anny Matwiejuk, a także 5) „Ptaki Białegostoku” Pawła Mirskiego i Grzegorz Grygoruka. Książki z serii są bezpłatne. Urząd Miasta rozdaje je w ramach różnych wydarzeń. Już niebawem w cyklu, którego pomysłodawcą jest Andrzej Karolski, dyrektor Departamentu Gospodarki Komunalnej, ukażą się dwie publikacje: jedna poświęcona pająkom i druga grzybom poliporoidalnym. Jak podkreśliła w krótkim tekście Anna Kowalska z Urzędu Miasta w Białymstoku, w przygotowaniu są [również] publikacje dotyczące chrząszczy, płazów i gadów oraz owadów zapylających. W sumie cykl będzie się składał z 14 monografii. Projekt zakończy się jesienią 2024 roku; zostanie wówczas wydana podsumowująca, bardzo obszerna publikacja „Bioróżnorodność Białegostoku”. Dodatkowo planowane jest powstanie komisji, która opracuje plan ochrony najcenniejszych przyrodniczo miejsc w Białymstoku. « powrót do artykułu
  24. Badania kamiennych narzędzi z południowych Chin dostarczyły najstarszych dowodów na zbieranie ryżu przez ludzi. Wynika z nich, że nasi przodkowie żywili się tym zbożem już 10 000 lat temu. Naukowcy z Dartmouth College zidentyfikowali dwie metody zbioru, które ułatwiły udomowienie ryżu. Dziki ryż różni się od udomowionego tym, że jego nasiona, gdy dojrzeją, opadają na ziemię. W odmianach udomowionych pozostają one na roślinie. By zebrać ryż, wcześni rolnicy potrzebowali narzędzi, a gdy już je mieli, zbierali te rośliny, na których nasiona zostawały po dojrzewaniu. W ten sposób w uprawach rósł odsetek roślin, które nie zrzucały nasion i w ten sposób doszło do udomowienia ryżu. Przez długi czas zastanawiano się, dlaczego nie znajdujemy w południowych Chinach narzędzi do uprawy ryżu pochodzących ze wczesnego neolitu, z czasów, o których wiemy, że uprawiano już ryż, mówi główny autor najnowszych badań, profesor antropologii Jiajing Wang. Na neolitycznych stanowiskach w dolnym biegu Jangcy znaleziono wiele odłupków o ostrych brzegach. Wysunęliśmy hipotezę, że być może niektóre z nich były używane do zbiorów ryżu, dodaje. Naukowcy przeanalizowali 52 takie narzędzia pochodzące ze stanowisk najstarszych kultur Shangshan i Kuahuqiao. Odłupki nie były dobrze obrobione, ale miały ostre krawędzie, a ich przeciętna długość i szerokość wynosiła ok. 4 cm. Uczeni zajęli się analizą śladów zużycia i poszukiwali na nich fitolitów, krzemionkowych tworów powstających wewnątrz komórek roślinnych. Analizy zużycia pokazały, że ślady pozostawione na 30 badanych narzędziach odpowiadają śladom powstającym podczas ścinania roślin bogatych w krzemionkę. Odłupki te były bardziej wypolerowane i miały lepiej zaokrąglone brzegi od narzędzi wykorzystywanych do obrabiania drewna czy cięcia tkanki zwierząt. Okazało się, że na 28 z tych narzędzi występowały fitolity pochodzące z ryżu. Co interesujące, fitolity pochodzące z różnych części rośliny różnią się od siebie, co pozwoliło nam na określenie metody zbiórki, dodaje Wang. Ślady zużycia oraz fitolitów wskazywały, że neolityczni mieszkańcy południa Chin wykorzystywali dwie techniki zbiórki. Obie są zresztą wykorzystywane do dzisiaj. Jedna polega na odcinaniu lub zeskrobywaniu samych kłosów, a druga na odcinaniu, niczym sierpem, łodygi. Okazało się, że na starszych narzędziach, pochodzących sprzed 10–8,2 tysięcy lat temu ślady zużycia oraz rodzaj fitolitów wskazują na wykorzystywanie pierwszej z technik, zatem odcinania lub zeskrobywania kłosów. Natomiast narzędzia młodsze sprzed 8–7 tysięcy lat nosiły ślady odcinania łodygi. Druga z technik, przypominające użycie sierpa, była szerzej wykorzystywane, gdyż ryż został lepiej udomowiony i nasiona pozostawały na łodydze. Gdy odcinasz całą roślinę, na której trzymają się ziarna, masz i ziarna i liście z łodygami, których możesz użyć jako materiału opałowego, budowlanego i do innych celów. To bardziej efektywny sposób zbiórki, wyjaśnia Wang. Technika odcinania/zeskrobywania kłosów pozwala wybiórczo pozyskiwać ryż przez dłuższy czas. Jest to dobra metoda tam, gdzie ryż nie dojrzewa jednocześnie. Zmniejsza ona też opadanie ziaren podczas zbioru, pozwalając na pozyskanie większej ilości pożywienia. Metoda sierpa zwiększa zaś tempo zbiorów, a łodygi i liście mogą zostać wykorzystane na opał czy jako pożywienie dla zwierząt. Wybór techniki zbioru jest też głęboko zakorzeniona w duchowości. W wielu społecznościach Azji Południowo-Wschodniej technika pozyskiwania samych kłosów przetrwała długo po wprowadzeniu bardziej skutecznych narzędzi. Było to częściowo związane z wierzeniami, że w ten sposób chroni się duszę ryżu i zadowala boginię ryżu, dzięki czemu zbiory są obfitsze. Niewiele wiadomo o życiu duchowym społeczności wczesnego neolitu w dolnym biegu Jangcy. Uczeni sądza jednak, że metoda zbioru miała wpływ na udomowienie ryżu. Dominujące wykorzystanie techniki odcinania czy zeskrobywania kłosów przez kulturę Shangha było prawdopodobnie adaptacją do siedlisk ryżu we wczesnym holocenie. Oryza rufipogen, przodek wschodnioazjatyckiego udomowionego ryżu, rośnie na bagnistych mokradłach. Ziarno dojrzewa tam nierówno i opada do wody. Eksperymenty pokazują, że bardzo trudno jest tam zbierać ryż metodą sierpa. Obcinanie kłosów jest znacznie bardziej efektywne. Tak prawdopodobnie było też w neolicie, na początkowych etapach udomawiania ryżu. Analizy wykazały bowiem, że w późnej fazie istnienia kultury Shangshan (9000–8400 lat temu) udomowiona odmiana nie zrzucająca ziaren stanowiła tam jedynie 8,7% całości upraw. Ludność kultury Shangshan miała więc do czynienia z nierównomiernie dojrzewającym ryżem pozbywającym się dojrzałych ziaren. Podczas zbiorów pozyskiwano więc same kłosy. Rosnąca presja antropogeniczna za czasów kultury Kuahuqiao prawdopodobnie przyczyniła się do użycia metody sierpa. Przed około 8000 lat ludność Kuahuqiao opracowała system uprawy ryżu na trawiastych terenach podmokłych, kontrolując przepływ wody i selektywnie wypalając roślinność. W ten sposób mogło dojść do bardziej równomiernego dojrzewania ryżu i lepszego wzrostu, co umożliwiało ścinanie całych roślin. Obie metody zbioru prowadziły zaś do pojawienia się nieświadomej presji selekcyjnej na ryż. Na początku procesu udomowienia tej rośliny zbiory musiały być powtarzane wielokrotnie w ciągu roku, a im później ich dokonywano, tym większy był odsetek ziarna z roślin niezrzucających nasion. Jeśli ziarno z późniejszych zbiorów było następnie wykorzystywane do zasiewów, to w ten sposób pojawiła się presja, w wyniku której doszło do wyselekcjonowania roślin, które nie zrzucały ziarna. Symulacje wskazują, że używanie sierpa podczas zbiorów doprowadziłoby do bardzo szybkiej selekcji ryżu. Zakończyłaby się ona zaledwie w ciągu dwóch wieków. Tymczasem z danych archeobotanicznych wiemy, że proces udomowienia ryżu trwał około 5000 lat. Było to prawdopodobnie spowodowane czynnikami praktycznymi i kulturowymi. Bez odpowiedniej wiedzy ludzie mogli nie przechowywać ziaren z późniejszych zbiorów, by je wysiać, nie dokonywali celowego wyboru. Mogło to znacząco opóźnić udomowienie ryżu, tym bardziej, że przez tysiące lat nie stanowił on ważnego składnika diety, gdyż w dolnym biegu Jangcy istniało wiele bogatych źródeł pożywienia. « powrót do artykułu
  25. Badacze z Karolinska Institutet opublikowali na łamach Pharmacy and Clinical Pharmacology artykuł, z którego dowiadujemy się, że konopie indyjskie nie są pomocne w uśmierzaniu bólu. Wnioski płynące z przeprowadzonej przez nich metaanalizy zgadzają się z wnioskami, do jakich przed kilkoma miesiącami doszli naukowcy z Oregon Health & Science University (OHSU). W ostatnich dziesięcioleciach kolejne kraje zalegalizowały używanie marihuany do celów leczniczych. Jedną z głównych przyczyn, dla których medyczna marihuana jest używana, jest uśmierzanie bólu. Wciąż jednak nie jest jasne, na ile to skuteczna metoda. Dlatego też naukowcy z Karolinska postanowili przyjrzeć się badaniom naukowym, których autorzy szukali odpowiedzi na tak postawione pytanie. Poszukiwali randomizowanych kontrolowanych badań, podczas których używanie cannabis w celu leczenia bólu było porównywane z używaniem placebo. Szczególnie skupiali się na badaniach, w których intensywność odczuć bólowych oceniano przed i po leczeniu. Znaleźli 20 studiów, które spełniały takie kryteria. Obejmowały one w sumie niemal 1500 osób. Tak mała liczba odpowiedniej jakości badań na ten temat potwierdza, że istnieje bardzo mało dowodów wskazujących, że produkty z konopi pomagają w leczeniu bólu. Prace, które analizowali Szwedzi, opisywały badania na temat różnych rodzajów bólu, który próbowano uśmierzać za pomocą różnych produktów z konopi, od pigułek i sprejów, poprzez olejki po palenie marihuany. Analiza wykazała, że badani oceniali ból jako znacznie mniej intensywny po podaniu... placebo, niż po użyciu konopi. Generalnie rzecz ujmując, z analizy wynika, iż w leczeniu bólu nie ma różnicy pomiędzy używaniem placebo a produktów z konopi. Warto też tutaj przypomnieć, że z podobnej metaanalizy przeprowadzonej w ubiegłym roku wynika, że w wyższej jakości badaniach, z podwójną ślepą próbą, uczestnicy informują o jeszcze większym zniesieniu bólu przez placebo w porównaniu z cannabis. Szwedzi sprawdzili też, w jaki sposób media informowały o badaniach dotyczących wykorzystania konopi w leczeniu bólu. Reakcje mediów podzielono na pozytywne, neutralne i negatywne, w zależności od tego, jak informowały o wynikach poszczególnych badań. Okazało się, że w przygniatającej liczbie wiadomości podano, iż konopie miały pozytywny wpływ na leczenie bólu. Skądinąd wiadomo zaś, że wcześniejsze oczekiwania wpływają na efekt placebo. Niedawno informowaliśmy też, że użytkownicy konopi indyjskich odczuwają większy ból po zabiegach chirurgicznych. « powrót do artykułu
×
×
  • Dodaj nową pozycję...