Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36782
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    209

Odpowiedzi dodane przez KopalniaWiedzy.pl


  1. Lodowy druk 3D może być sposobem na poradzenie sobie z problemem tworzenia naczyń krwionośnych dla uzyskiwanych w laboratorium tkanek i organów do przeszczepów, uważają naukowcy z Carnegie Mellon University. Raczkujące technologie hodowania w laboratoriach organów napotykają wiele problemów, a jednym z nich są trudności ze stworzeniem w nich sieci naczyń krwionośnych, które pracowałyby tak, jak w naturalnych organach.

    Drukowanie 3D lodem polega na podawaniu strumienia wody na bardzo zimne podłoże. Nasza metoda różni się od innych tym, że nie pozwalamy wodzie całkowicie zamarznąć, na górze utrzymujemy fazę płynną. Ten ciągły proces, który nazywamy „swobodnym”, pozwala nam uzyskać bardzo gładką strukturę. Nie tworzą się warstwy typowe dla 3D, wyjaśnia magistrant Feimo Yang, który wraz z profesorem Burakiem Ozdongalarem omawiał wspomnianą technikę podczas 68th Biophysical Society Annual Meeting.

    Wydrukowane struktury z lodu są wprowadzane do stworzonego na bazie żelatyny materiału światłoczułego GelMA. Całość poddawana jest oddziaływaniu światła ultrafioletowego. GelMA twardnieje, lód się roztapia i naukowcy uzyskują sztuczne naczynia krwionośne. Badacze wykazali już, że do tak stworzonych struktur potrafią wprowadzić komórki śródbłonka – które tworzą naczynia krwionośne w naszym organizmie – a komórki mogą przetrwać dwa tygodnie. Naukowcy pracują obecnie nad wydłużeniem czasu przeżycia komórek. Podkreślają przy tym, że w przyszłości ich technologia może zostać wykorzystana do testowania wpływu leków na naczynia krwionośne. Co więcej, drukowane struktury można będzie pokryć komórkami śródbłonka konkretnego pacjenta, by przed podaniem leków sprawdzić, jak wpłyną one na jego układ krwionośny.

    Technika z Carnegie Mellon polega na dostarczaniu niewielkich kropli wody – o średnicy 50 mikrometrów – na powierzchnię schłodzoną do temperatury -35 stopni Celsjusza. Bardzo ważna jest tutaj odpowiednia prędkość. Dysza drukarki pracuje z prędkością około 200 kropli na sekundę. To na tyle powoli, że już zaczyna się proces zamarzania poprzedniej kropli, zanim następna na nią spadnie, jednak na tyle powoli, że proces ten nie dobiegł do końca, zatem obie krople zamarzają razem, tworząc gładką strukturę, a nie warstwy. Gdyby krople spadały wolniej, powstawałyby niepożądane warstwy, a gdyby były dostarczane szybciej, doszłoby do łączenia się kropli i ich niekontrolowanego rozprzestrzeniania się, zanim całkowicie zamarzną.

    W tej chwili stworzenie trójwymiarowej struktury o wysokości 3 milimetrów i średnicy 0,2 mm zajmuje około 20 sekund.


    « powrót do artykułu

  2. Jak długo wszy towarzyszą człowiekowi? Jakimi ścieżkami potoczyła się ewolucja?

    Zacznijmy o początku. Od tego, jak wszy stały się krwiopijcami. Wszy pochodzą od gryzków, drobnych, wolno żyjących owadów, które nie są pasożytami, odżywiają się najczęściej resztkami organicznymi lub grzybami. Niektórzy z czytelników pewnie mieli z nimi do czynienia, część gatunków jest synantropijna, to znaczy, że występują blisko człowieka, w naszych domach.

    Upraszczając, bo cały proces był bardzo skomplikowany, a trwał miliony lat: dawno temu jakiś gryzek „pomyślał”, że fajnie byłoby przebywać w pobliżu jakiegoś zwierzęcia i wprowadził się do gniazd, zaczęło się od ptasich. Przybywając tam, zaczął „pogryzać” właściciela: żywić się piórami, wydzielinami naskórka, łojem itd. Stąd mamy wszoły.

    Wszoły, Mallophaga, żywią się także zwierzęcą sierścią, martwym naskórkiem. Mają aparat gryzący, pasożytują u ptaków i ssaków, ale nie potrafią wysysać krwi. Jednak w którymś momencie stało się tak, że wszoł zasmakował w krwi żywiciela. Oczywiście musiał wykształcić się aparat kłująco-ssący i tak powstały wszy.

    Wszy – Anoplura – i wszoły – Mallophaga – funkcjonują we wspólnej grupie Phthiraptera.

    Z człowiekiem wszy są od dawna, wiemy, że na pewno od prehistorii. Same osobniki wszy nie zostały jeszcze odnalezione w skamieniałościach (dotychczasowe odkrycia zostały obalone), natomiast w plejstoceńskim bursztynie odnaleziono jaja Phthiraptera, a mumie egipskie miały jaja wszy na włosach (przy mumiach znajdowano również grzebienie do wyczesywania tych pasożytów).

    Są dowody, że wszy ludzkie musiały mocno modyfikować swoje zachowanie, budowę ciała, aby się do nas dostosować, zwłaszcza wtedy, gdy zrzuciliśmy „futro”, a one nie mogły już występować na całej powierzchni naszego ciała. To właśnie wtedy z jednego gatunku zrobiły się dwa.

    Czy mogłaby Pani przedstawić pokrótce historię badań nad tymi pasożytami? Przychodzą tu na myśl prof. Rudolf Weigl i jego karmiciele wszy czy prof. Feliks Piotrowski, o którym wspomina Pani w wywiadach, ale to na pewno nie koniec...

    Och, sięga ona czasów Arystotelesa (IV w. p.n.e.). To w jego zapiskach oraz wcześniejszych, papirusach egipskich, znajdziemy informacje o wszach oraz metodach ich zwalczania. Aż do XVIII w. wierzono, że wszy powstają na skutek samorództwa, głównie z braku higieny. Tak więc mało się nimi zajmowano. Za to obarczano je odpowiedzialnością za różne plagi lub śmierć, zwykle były karą dla chrześcijan.

    Tak naprawdę dopiero w XX wieku rozpoczęto intensywne badania nad tą grupą pasożytów. Ale głównie ze względu na choroby, które wywoływały lub drobnoustroje, jakie przenosiły. Naukowców interesowały głównie wszy związane z człowiekiem oraz zwierzętami gospodarskimi. Im większa epidemia chorób odwszowych, tym większe zainteresowanie. Na świecie jest wówczas kilku specjalistów zajmujących się omawianą grupą zwierząt. Jedni badają ich budowę, inni zachowania, a jeszcze inni skupiają się na chorobotwórczości. Stąd m.in. badania Polaka Rudolfa Stefana Jana Weigla (1883-1957) nad szczepionką na tyfus podczas II wojny światowej. Naukowiec uratował miliony istnień nie tylko przez stworzenie szczepionki, ale również dając pracę karmicielom wszy podczas wojny. Innym Polakiem, który je badał, był prof. Feliks Piotrowski. Badania, jakie prowadził, skupiały się na różnych aspektach, m.in. rozwoju zarodkowym, występowaniu czy chorobotwórczości.

    Jednak nie sposób wymienić wszystkich współczesnych badaczy, anoplurologów, gdyż obecnie są ich setki.


    « powrót do artykułu

  3. Czarne dziury nie tylko istniały u zarania wszechświata, ale brały udział w narodzinach gwiazd i napędzały formowanie się galaktyk. Takie – potencjalnie przełomowe – wnioski, płynące z analizy danych uzyskanych za pomocą Teleskopu Webba, stanowią poważne wyzwanie dla klasycznych teorii dotyczących formowania się pierwszych gwiazd i galaktyk. Naukowcy USA, Francji, Wielkiej Brytanii i Izraela zauważyli w danych z Webba niewielkie czerwone kropki, które zidentyfikowali jako jedne z pierwszych galaktyk.

    Niezwykłe w odkryciu Webba jest nie tylko to, że pokazał on obszar wszechświata, w którym istnieją te bardzo kompaktowe i jasno świecące w podczerwieni obiekty, ale i to, że prawdopodobnie istnieją tam olbrzymie czarne dziury. Dotychczas sądzono, że to niemożliwe, mówi profesor Mitch Begelman. Wszystko wskazuje na to, że trzeba będzie wprowadzić poważne poprawki do teorii dotyczących formowania się galaktyk.

    Dotychczas bowiem uważa się, że galaktyki tworzyły się w dość uporządkowany sposób, stopniowo przez miliardy lat. Najpierw powstały gwiazdy, a nich zaś galaktyki. Proces ten miał wyglądać tak, że wszechświat przeszedł z pierwszej generacji gwiazd do galaktyk zdominowanych przez gwiazdy. Dopiero później, pod koniec tego procesu, zaczęły pojawiać się czarne dziury, dodaje Begelan. Czarne dziury, które – co warto dodać – czasem wybuchały, spowalniając tworzenie się nowych gwiazd i utrzymując równowagę w galaktykach.

    Jednak kompaktowe jasno świecące galaktyki, zauważone przez Webba, są jaśniejsze się niż się spodziewano i zawierają gwiazdy oraz kwazary. Kwazary to najjaśniejsze obiekty we wszechświecie. Powstają w wyniku akrecji gazu wokół masywnej czarnej dziury w centrum galaktyki i świecą jaśniej niż ich galaktyki macierzyste, wyjaśnia Silk.

    Naukowcy zdali sobie sprawę, że to, co widzą, nie zgadza się ze standardowymi teoriami. Te dane wskazywały, że proces jest odwrotny, że czarne dziury powstają wraz z gwiazdami, a dopiero później formuje się reszta galaktyki. Uważamy, że czarne dziury najpierw wspomagają rozwój gwiazd, a dopiero później, gdy warunki się zmienią, przełączają się w tryb, w którym „wyłączają” gwiazdy, wyjaśnia Begelman. Innymi słowy, czarne dziury i gwiazdy są ze sobą bardziej związane, niż się wydaje. Początkowo nawzajem napędzają swój wzrost. Tworzenie się gwiazd przyspiesza tworzenie się masywnych czarnych dziur i vice versa. To nierozerwalnie powiązany proces narodzin i śmierci, który jest zaczątkiem formowania się galaktyk, uważa Silk. Dopiero później, po mniej więcej miliardzie lat, powstają supermasywne czarne dziury, które pozbawiają galaktyki gazu i hamują powstawanie gwiazd.

    Autorzy badań zaproponowali więc nową chronologią wczesnej historii wszechświata. Badając przesunięcie ku czerwieni obserwowanych obiektów stwierdzili, że do zmiany sposobu, w jakich czarne dziury oddziałują na formowanie się gwiazd, doszło około 13 miliardów lat temu, zatem około miliarda lat po Wielkim Wybuchu. Określenie tego momentu oznacza, że warto przyglądać się obiektom o przesunięciu ku czerwieni z≈6. To pozwoli lepiej zrozumieć wszechświat, cechy współczesnych galaktyk oraz ich rozmiary, kształty czy poziom aktywności.

    Begelman i Silk uważają, że zweryfikowanie wyników ich badań może zająć nieco czasu. Sprawdzenie bowiem hipotezy tym, że gwiazdy i czarne dziury jednocześnie mogły tworzyć galaktyki, wymagać będzie znacznie lepszych symulacji komputerowych, niż obecnie jesteśmy w stanie wykonać. Jednak nie trzeba czekać na symulacje. Następnym krokiem będą lepsze obserwacje. W najbliższych latach Teleskop Kosmiczny Jamesa Webba będzie mógł z pełną mocą badać światło najdalszych galaktyk, stwierdzają. Obaj uczeni uważają tez, że środowisko astronomów szybko zaakceptuje ich odkrycie.


    « powrót do artykułu

  4. Pod powierzchnią Mimasa, jednego z najmniejszych księżyców Saturna, kryje się młody ocean. O niespodziewanym odkryciu poinformował zespół doktor Valéry'ego Laineya z Observatoire de Paris-PSL. Jak dowiadujemy się z artykułu, opublikowanego na łamach Nature, ocean powstał zaledwie 5–15 milionów lat temu. Jego odkrycie może spowodować, że Mimas stanie się głównym celem badania początków życia w Układzie Słonecznym.

    Mimas to mały księżyc, ma około 400 kilometrów średnicy, a jego mocno przeorana kraterami powierzchnia nie zawiera żadnego śladu wskazującego na obecność pod nią oceanu. Dzięki temu odkryciu Mimas dołącza do ekskluzywnego klubu księżyców posiadających ocean, to którego należą Enceladus i Europa. Jednak z tą zasadniczą różnicą, że jego ocean jest bardzo młody, liczy zaledwie 5 do 15 milionów lat, mówi współautor badań, doktor Nick Cooper z Queen Mary University of London.

    Wiek oceanu określono na podstawie interakcji sił pływowych Mimasa z Saturnem. Odkryte niespodziewane nieregularności orbity księżyca pokazały, że ocean uformował się tam niedawno. Dzięki temu będziemy mogli badać młody ocean i potencjalnie formujące się tam życie. To właśnie dzięki temu młodemu wiekowi ocean Mimasa może stać się niezwykle atrakcyjnym celem dla badaczy poszukujących odpowiedzi na pytanie o początki życia w Układzie Słonecznym.

    Odkrycia dokonano dzięki bardzo szczegółowej analizie danych z sondy Cassini, która w latach 2004–2017 badała Saturna i jego otoczenie. To był wielki zbiorowy wysiłek. Wraz z kolegami z pięciu instytucji naukowych z trzech krajów wykorzystaliśmy dane z Cassini do odkrycia fascynującej, niespodziewanej tajemnicy, mówi Cooper. Badania pokazały że nawet małe, pozornie nieaktywne księżyce mogą zawierać oceany i potencjalne środowisko, w których może istnieć życie.


    « powrót do artykułu

  5. W październiku ubiegłego roku w regionie Svartsengi na półwyspie Reykjanes na Islandii uformowało się wielkie pęknięcie skorupy ziemskiej. Miało ono 15 kilometrów długości i wiele kilometrów głębokości. Naukowcy z Uniwersytetu Islandzkiego zbadali ilość magmy, która wpłynęła do szczeliny i okazało się, że był to największy wypływ tego typu. Znamy przykłady większych wypływów magmy w czasie bardzo dużych erupcji wulkanicznych, ale nie znam żadnych wyższych szacunków dotyczących wpływu magmy do szczeliny, mówi Freysteinn Sigmundsson.

    Sigmundsson i jego zespół badali wspomnianą szczelinę i magmę za pomocą czujników naziemnych oraz satelitarnych. Magma zaczęła gromadzić się wiele kilometrów pod regionem Svartsengi. Gdy pojawiła się szczelina, magma zaczęła wpływać do niej z prędkością 7400 metrów sześciennych na sekundę. To mniej więcej 100-krotnie szybciej niż przepływ magmy w latach 2021–2023 w pobliskim regionie Fagradalsfjall.

    Uformowana szczelina była niezwykle wąska, w najszerszym miejscu miała zaledwie 8 metrów szerokości. W grudniu rozpoczęła się trzydniowa erupcja szczelinowa, która powtórzyła się w połowie stycznia bieżącego roku.


    « powrót do artykułu

  6. Bezsenność jest zaburzeniem snu, które wpływa na zdolność osoby do zasypiania, utrzymania snu lub zadowalającej jego jakości. Chociaż czasami może być przejściowym zjawiskiem, u niektórych osób może stać się przewlekłym problemem zdrowotnym. Przewlekła bezsenność nie tylko wpływa negatywnie na nastrój i wydajność w ciągu dnia, ale może również prowadzić do poważnych problemów zdrowotnych, takich jak depresja, choroby serca i cukrzyca.

    Bezsenność często wiąże się z stresem lub innymi problemami psychicznymi, takimi jak lęk czy depresja. Może być również spowodowana pewnymi lekami, napojami zawierającymi kofeinę, niewłaściwymi nawykami snu lub zmianami w środowisku lub harmonogramie snu. Niezależnie od przyczyny, bezsenność może mieć poważny wpływ na jakość życia osoby, utrudniając koncentrację, utrudniając wykonywanie codziennych czynności i prowadząc do uczucia ciągłego zmęczenia.

    W przeciwdziałaniu bezsenności ważne jest zidentyfikowanie i leczenie wszelkich potencjalnych przyczyn. W niektórych przypadkach może to obejmować terapię behawioralną, mającą na celu poprawę nawyków snu, lub leczenie farmakologiczne. W każdym przypadku, zrozumienie wpływu bezsenności na zdrowie jest kluczowe dla zapewnienia efektywnego leczenia i poprawy jakości życia.

    Rola witamin w regulacji cyklu snu

    Badania naukowe wskazują, że witaminy mogą odgrywać kluczową rolę w regulacji cyklu snu. Niektóre witaminy, takie jak witamina D, są wiązane z regulacją rytmów dobowych, które kontrolują sen i czuwanie. Niedobór witaminy D został związany z problemami ze snem, takimi jak bezsenność i zaburzenia rytmu dobowego. Szczegółowe informacje na https://esperallodz.com/blog/niedobor-jakiej-witaminy-powoduje-bezsennosc/.

    Podobnie, witamina B6 jest niezbędna dla produkcji melatoniny, hormonu, który reguluje cykl snu i czuwania. Niski poziom witaminy B6 może prowadzić do problemów z zasypianiem i niskiej jakości snu. Inne witaminy z grupy B, takie jak B12 i kwas foliowy, również mogą wpływać na jakość i ilość snu.

    W związku z tym, zrównoważona dieta bogata w te i inne witaminy może pomóc zapewnić zdrowy sen. W niektórych przypadkach, suplementacja witaminami może być również korzystna. Jednak zawsze należy skonsultować się z lekarzem lub dietetykiem przed rozpoczęciem jakiejkolwiek suplementacji, aby upewnić się, że jest ona bezpieczna i skuteczna.

    Zarys przyczyn niedoborów witaminowych

    Niedobory witaminowe to problem, który dotyka wielu ludzi na całym świecie. Przyczyn może być wiele, ale najczęściej wynikają one z nieprawidłowej diety, chorób przewlekłych lub problematycznej absorpcji składników odżywczych w przewodzie pokarmowym. Wiele osób nie zdaje sobie sprawy, że ich dieta jest niewłaściwa i nie dostarcza wszystkich niezbędnych witamin i składników odżywczych.

    Wśród najczęstszych przyczyn niedoborów witaminowych należy wymienić diety eliminacyjne, takie jak weganizm czy dieta bezglutenowa, które bez odpowiedniej suplementacji mogą prowadzić do niedoborów. Inną przyczyną mogą być choroby przewodu pokarmowego, takie jak choroba Leśniowskiego-Crohna czy celiakia, które utrudniają prawidłowe przyswajanie składników odżywczych.

    Witamina D i jej wpływ na jakość snu

    Witamina D, zwana również witaminą słońca, odgrywa kluczową rolę w wielu procesach zachodzących w organizmie. Jednym z nich jest wpływ na jakość snu. Badania wykazały, że osoby z odpowiednim poziomem witaminy D w organizmie śpią lepiej i czują się bardziej wypoczęte. Witamina D wpływa na regulację rytmu dobowego, co ma bezpośredni wpływ na jakość i długość snu.

    Witamina D jest również niezbędna do prawidłowego funkcjonowania układu immunologicznego i układu nerwowego, co również może wpływać na jakość snu. Niedobór witaminy D jest często związany z problemami ze snem, takimi jak bezsenność czy częste budzenie się w nocy.

    Witamina D jest produkowana w skórze pod wpływem promieniowania UVB, dlatego jej poziom w organizmie często spada w miesiącach zimowych, kiedy słońce jest rzadko widoczne. Można ją również znaleźć w niektórych produktach spożywczych, takich jak tłuste ryby, jaja czy wątroba, ale zwykle jest to niewystarczające źródło tej witaminy. Dlatego często zaleca się suplementację witaminy D, szczególnie w sezonie zimowym.

    Podsumowując, odpowiedni poziom witaminy D jest niezbędny dla prawidłowego funkcjonowania organizmu i może znacząco wpływać na jakość snu. W przypadku problemów ze snem warto sprawdzić poziom witaminy D w organizmie i ewentualnie rozważyć jej suplementację.

    Znaczenie witaminy B12 w utrzymaniu prawidłowego rytmu dobowego

    Witamina B12 jest niezbędna dla naszego organizmu do prawidłowego funkcjonowania. Jednym z najważniejszych aspektów, które mogą być wpływane przez poziom tej witaminy w naszym ciele, jest nasz rytm dobowy. Rytm dobowy, inaczej cykl snu i czuwania, jest fundamentalnym elementem naszego zdrowia fizycznego i psychicznego.

    Badania dowodzą, że niedobór witaminy B12 może prowadzić do zaburzeń rytmu dobowego, co z kolei może prowadzić do problemów ze snem, takich jak bezsenność. Witamina B12 ma bezpośredni wpływ na produkcję melatoniny, hormonu odpowiedzialnego za regulację rytmu dobowego. Kiedy poziom witaminy B12 jest niski, nasza produkcja melatoniny może być zaburzona, co prowadzi do problemów ze snem.

    Deficyt magnezu i witaminy B6 jako potencjalne przyczyny bezsenności

    Magnez i witamina B6 są dwoma kluczowymi składnikami, które mogą wpływać na jakość naszego snu. Niedobór tych składników może prowadzić do różnych problemów zdrowotnych, w tym do bezsenności. Magnez jest niezbędny dla prawidłowego funkcjonowania układu nerwowego i mięśniowego, a także odgrywa kluczową rolę w regulacji rytmu dobowego. Z drugiej strony, witamina B6 jest ważna dla produkcji serotoniny, neuroprzekaźnika, który jest niezbędny do produkcji melatoniny - hormonu regulującego sen.

    Badania wykazują, że suplementacja magnezu i witaminy B6 może poprawić jakość snu u osób cierpiących na bezsenność. Jednak zawsze należy skonsultować się z lekarzem lub dietetykiem przed rozpoczęciem jakiejkolwiek suplementacji, ponieważ nadmiar tych składników również może prowadzić do problemów zdrowotnych.

    Rola kwasu foliowego (witaminy B9) w regulacji snu

    Kwas foliowy, znany również jako witamina B9, jest niezbędny do prawidłowego funkcjonowania naszego organizmu. Jednym z obszarów, w których odgrywa kluczową rolę jest regulacja snu. Badania wykazały, że niski poziom witaminy B9 w organizmie może prowadzić do zaburzeń snu, takich jak bezsenność czy częste budzenie się w nocy.

    Niedobór witaminy E i jego wpływ na zaburzenia snu

    Witamina E, choć często pomijana w dyskusjach o zdrowiu, odgrywa istotną rolę w procesach zachodzących w naszym organizmie. Niedobór tej witaminy może mieć poważne konsekwencje dla naszego zdrowia, w tym również dla jakości snu.

    Witamina E jest silnym antyoksydantem, który chroni nasze komórki przed szkodliwym wpływem wolnych rodników. Dzięki temu, pomaga zapobiegać wielu chorobom, takim jak choroby serca, nowotwory czy choroby neurodegeneracyjne. Niedobór witaminy E może prowadzić do osłabienia naszego układu immunologicznego, co z kolei może wpływać na jakość i długość snu.

    Badania wykazały, że osoby z niedoborem witaminy E częściej cierpią na zaburzenia snu. Mogą to być problemy z zasypianiem, częste przebudzenia w nocy czy uczucie zmęczenia mimo pozornie wystarczającej ilości snu. Dlatego też, odpowiednia ilość witaminy E w diecie jest niezbędna dla zdrowego i regenerującego snu.

    Przegląd badań naukowych na temat witamin i jakości snu

    Nauka stale dowodzi, że odpowiednie zaopatrzenie organizmu w witaminy ma kluczowe znaczenie dla zdrowia, w tym również jakości snu. Niektóre witaminy, takie jak B6 i D, są szczególnie istotne dla regulacji rytmu dobowego i poprawy jakości snu.

    W jednym z badań naukowych udowodniono, że suplementacja witaminą B6 może zwiększyć produkcję melatoniny, hormonu odpowiedzialnego za regulację rytmu dobowego. Dzięki temu, może ona pomóc w poprawie jakości snu, zwłaszcza u osób z zaburzeniami snu.

    Witamina D, często nazywana "witaminą słońca", jest kolejnym składnikiem, który może wpływać na jakość snu. Badania wykazały, że niski poziom witaminy D w organizmie może prowadzić do snu nisko-jakościowego i zaburzeń snu. Suplementacja witaminy D może poprawić jakość snu, zwłaszcza u osób z niedoborem.

    Wreszcie, badania wykazały, że antyoksydanty, takie jak witamina C i E, mogą również wpływać na jakość snu. Antyoksydanty pomagają zwalczać stres oksydacyjny, który jest często związany z zaburzeniami snu.

    Witamina B6 - zwiększa produkcję melatoniny, poprawiając jakość snu. Witamina D - niski poziom może prowadzić do gorszej jakości snu, suplementacja poprawia jakość snu. Antyoksydanty (witaminy C i E) - zwalczają stres oksydacyjny, który jest związany z zaburzeniami snu.

    Jak wykryć i leczyć niedobory witamin prowadzące do bezsenności

    Jeśli odczuwasz problemy ze snem, może to być wynikiem niedoboru witamin. Pierwszym krokiem powinno być wykonanie badania krwi, które pomoże określić, czy występuje niedobór jakiejkolwiek witaminy. Jeśli tak, możesz rozważyć suplementację.

    Badanie krwi - pomaga wykryć niedobór witamin, który może wpływać na sen. Suplementacja - jeśli badanie krwi wykaże niedobór, suplementacja odpowiednimi witaminami może pomóc poprawić jakość snu.

    Wpływ diety i suplementacji na poprawę jakości snu

    Właściwe odżywianie i suplementacja mogą znacząco wpłynąć na poprawę jakości snu. Dieta bogata w tryptofan, który jest prekursorem melatoniny - hormonu odpowiedzialnego za regulację rytmu dobowego, może pomóc w zasypianiu i utrzymaniu głębokiego snu. Również ważne jest spożywanie produktów zawierających magnez, który działa relaksująco na mięśnie oraz witaminy B6, wpływającej na produkcję melatoniny.

    Wśród suplementów, które mogą wspomóc zdrowy sen, warto wymienić melatoninę, magnez, L-teaninę, ekstrakt z Valeriany czy olej z konopi. Suplementacja powinna być jednak konsultowana z lekarzem lub dietetykiem, aby uniknąć nadmiernego spożycia i potencjalnych skutków ubocznych.

    Ważne jest również unikanie przed snem ciężkostrawnych posiłków, kofeiny i alkoholu, które mogą zakłócać sen. Ostatni posiłek powinien być spożywany na 2-3 godziny przed snem, aby organizm miał czas na trawienie.

    Podsumowanie i znaczenie kompleksowego podejścia do problemu bezsenności

    Bezsenność jest poważnym problemem, który może wpływać na jakość życia, zdrowie psychiczne i fizyczne. Dlatego tak ważne jest kompleksowe podejście do tego problemu, które uwzględnia zarówno zmiany stylu życia, diety, jak i możliwość suplementacji czy farmakoterapii.

    Styl życia ma kluczowe znaczenie w walce z bezsennością. Regularna aktywność fizyczna, unikanie stresu, odpowiednia higiena snu (m.in. utrzymanie ciemności i ciszy w sypialni, unikanie ekranów na godzinę przed snem), to tylko niektóre z zaleceń, które mogą pomóc w poprawie jakości snu.

    Dieta i suplementacja, o których mówiliśmy wcześniej, to kolejne elementy, które mogą wspierać zdrowy sen. Ważne jest jednak, aby pamiętać, że suplementy nie zastąpią zdrowego stylu życia i diety, a jedynie mogą go wspomagać.

    Jeżeli pomimo wprowadzenia zmian w diecie, stylu życia i zastosowaniu suplementacji problem bezsenności nadal występuje, warto skonsultować się z lekarzem. Może być konieczne skierowanie do specjalisty, np. neurologa czy psychiatry, oraz zastosowanie farmakoterapii.


    « powrót do artykułu

  7. Setki nasion lulka czarnego znalezionych w wydrążonej kości odkrytej w Houten-Castellum w Holandii to pierwszy jednoznaczny dowód na używanie tej rośliny w świecie rzymskim. Silnie trujący lulek znany był w starożytności nie tylko ze względu na zabójcze działanie, ale również dzięki właściwościom halucynogennym i uspokajającym. Jego stosowanie zalecali starożytni autorzy. Dotychczas nie było całkowitej pewności, czy nasiona znajdowane na stanowiskach z okresu rzymskiego trafiły tam przypadkiem czy celowo. Dopiero zmagazynowanie nasion w wydrążonej kości stanowi fizyczny dowód jego używania.

    Lulek to roślina dziko rosnąca, często spotykana wokół osad ludzkich. Jej nasiona mogą więc trafić do stanowisk archeologicznych w sposób naturalny, bez woli człowieka. Dlatego właśnie, gdy są one znajdowane na stanowiskach, to klasyfikuje się je pochodzące ze źródeł naturalnych, mówi główna autorka badań, doktor Maaike Groot. Badała ona nasiona znalezione na stanowisku Houten-Castellum wewnątrz wydrążonej kości owcy lub kozy, którą zamknięto korkiem z dziegciu. To jednoznaczny dowód, że nasiona umieszczono w kości celowo. Autorzy wcześniejszych badań sugerowali, że kość wykorzystywano jako fajkę do palenia lulka. Jednak doktor Groot stwierdziła, że wewnątrz brak śladów spalenizny, zatem kość była pojemnikiem do przechowywania nasion.

    Dotychczas w całej Europie północno-zachodniej tylko czterokrotnie trafiono na nasiona lulka czarnego w kontekście, który wskazywał na ich celowe używanie. Tylko w jednym przypadku, na średniowiecznym stanowisku w Danii, nasiona znajdowały się w pojemniku. Tutaj zaś mamy pierwszy przypadek zamknięcia nasion lulka w pojemniku z okresu rzymskiego. To unikatowy i jednoznaczny dowód wskazujący, że nasion tych celowo używano w rzymskiej Holandii, mówi doktor Groot.

    Autorzy klasyczni, jak Pliniusz Starszy, pisali o lulku i jego użyteczności w medycynie. To sugeruje, że właśnie w tym celu – a nie w celach rekreacyjnych – lulek był używany w świecie rzymskim. A obecność kości z nasionami na peryferyjnych wiejskich terenach Imperium Romanum to dowód, że i tam dotarła rzymska wiedza medyczna.


    « powrót do artykułu

  8. Turysta wędrujący po Tabor Stream Nature Reserve w Dolnej Galilei znalazł leżącego na ziemi skarabeusza z czasów Pierwszej Świątyni, sprzed 2800 lat. Wziąłem dwudniowy urlop z wojska i postanowiłem skorzystać z ładnej pogody. W czasie wycieczki zauważyłem, że coś błyszczy na ziemi. Pomyślałem, że to jakiś koralik albo pomarańczowy kamień. Gdy go podniosłem, zauważyłem grawerunek w kształcie skarabeusza. Skontaktowałem się z Izraelską Służbą Starożytności, mówi Erez Abrahamov.

    Telefon odebrał Nir Ditelfeld z Wydziału Zapobiegania Kradzieżom Izraelskiej Służby Starożytności. Zrozumiałem, że Erez znalazł coś specjalnego. Poprosiłem go, by przyjrzał się drugiej stronie znaleziska, tej płaskiej, i sprawdził, czy tam też coś wygrawerowano. Usłyszałem okrzyk zdziwienia, a Erez powiedział, że widzi tam jakąś postać.

    Okazało się, że wojskowy znalazł skarabeusza z karneolu z przedstawieniem gryfa lub postaci galopującą na koniu. Podobne pieczęcie powstawały w VIII wieku p.n.e. Zabytek został znaleziony u stóp Tel Rekhesh. Mianem „tell” określa się wzgórze powstałe w wyniku nawarstwiających się szczątków kolejnych osad ludzkich. Tel Rekhesh należy do najważniejszych takich miejsc na północy Izraela. Jest ono utożsamiane z biblijnym Anacharat [Joz 19,19] należącym do potomków Issachara.

    Jeden z najważniejszych okresów osadnictwa w tym miejscu przypada na epokę żelaza (VII-VI wiek p.n.e.). W tym czasie na szczycie wzgórza istniała wielka cytadela, fortyfikacje, łaźnie, izby i komnaty reprezentacyjne należące do asyryjskich władców tych terenów. Asyryjczycy zniszczyli Królestwo Izraela. Skarabeusz może pochodzić z okresu asyryjskiego i może wskazywać na obecność tutaj asyryjskich lub babilońskich urzędników. Gryf, obecny na pieczęci, to częsty motyw występujący w sztuce starożytnego Bliskiego Wschodu i powszechnie pojawia się na pieczęciach z epoki żelaza. Jeśli weźmiemy pod uwagę fakt, że mamy niewiele zabytków z tego okresu i jeśli na podstawie ikonografii pieczęć rzeczywiście można datować na epokę żelaza, to może być ona dowodem na obecność Asyryjczyków w Tel Rekhesh, a jeśli tak, jest to odkrycie o wielkim znaczeniu, ekscytuje się doktor Icchak Paz, który od 2006 roku prowadzi badania w Tel Rekhesh wraz z japońską misją archeologiczną.

    Znaleziony przez Ereza skarabeusz to typowa pieczęć, jakich używano w regionie od IV tysiąclecia przed Chrystusem. Wykonywano je z najróżniejszych kamieni, najczęściej ze steatytu. Mają zielonkawo-niebieski kolor, jednak barwy steatytu zachowują się dobrze w suchym egipskim klimacie. Te znajdowane w Izraelu mają szaro-biały kolor. Tym cenniejszy jest więc piękny pomarańczowy skarabeusz, który nie umknął uwagi turysty.

    Jak to się jednak stało, że zabytek sprzed tysiącleci leżał na powierzchni ziemi? Każdej zimy, wraz z nastaniem pory opadów, zabytki zaczynają „wypływać” na powierzchnię. Przypominamy o obowiązujących przepisach i prosimy osoby, które trafią na zabytek, by natychmiast informowały o odkryciu Izraelską Służbę Starożytności. Kluczową informacją dla zdobycia wiedzy o zabytku jest określenie dokładnego miejsca jego znalezienia. Ten wyjątkowy skarabeusz trafi do zbioru skarbów narodowych i będziemy mogli dokładnie go badać, skomentował Eli Escusido, dyrektor Izraelskiej Służby Starożytności.


    « powrót do artykułu

  9. Zwykle energia cieplna przemieszcza się przez rozpraszanie. Gdy jeden obszar materiału jest cieplejszy od innych, jego temperatura stopniowo obniża się i wyrównuje w otoczeniem. Jednak w rzadkich przypadkach i stanach materii, jak w ciekłym czy zestalonym helu, energia cieplna może przemieszczać się jak fala, która odbija się od przeszkody i zawraca. Naukowcy z MIT są pierwszymi, którym udało się bezpośrednio zobrazować to fascynujące zjawisko, a ich praca pomoże w lepszym zrozumieniu przepływu ciepła w nadprzewodnikach i gwiazdach neutronowych.

    Teoretycy przewidywali, że energia cieplna może przemieszczać się na podobieństwo fali dźwiękowej odbijającej się i wracającej – stąd zresztą angielska nazwa tego zjawiska, second sound (drugi dźwięk) – gdy chmurę atomów schłodzimy do ekstremalnie niskich temperatur, w których pojawia się zjawisko nadciekłości. Nikt nie potrafił jednak tego „drugiego dźwięku” bezpośrednio obserwować. Udało się to właśnie zespołowi pod kierunkiem profesora Martina Zwierleina.

    Gdy chmury atomów zostaną schłodzone do temperatury bliskiej zeru absolutnemu, pojawiają się egzotyczne stany materii. Zwerlein i jego współpracownicy badają interakcje zachodzące pomiędzy takimi ultrachłodnymi atomami. Szczególnie zaś interesuje ich zachowanie fermionów – na przykład elektronów. Okazuje się bowiem, że w szczególnych warunkach fermiony nie tylko się nie unikają, ale wchodzą w silne interakcje i mogą tworzyć pary. A pary te mogą przemieszczać się w niestandardowy sposób. Na potrzeby ostatnich eksperymentów naukowcy wykorzystali ultrazimne atomy fermionowe litu-6.

    Już w 1938 roku László Tisza stwierdził, że ciecze w stanie nadciekłym to tak naprawdę mieszanina zwykłych cieczy z ich lepkością oraz pozbawionej lepkości cieczy nadciekłej. A skoro tak, to w stanie nadciekłości powinny rozprzestrzeniać się dwa rodzaje fal, te standardowe związane ze zmianami ciśnienia i gęstości ośrodka (jak fale dźwiękowe) oraz szczególne fale temperatury, które później nazwano „drugim dźwiękiem”. Pojawienie się „drugiego dźwięku” to zatem oznaka przejścia do stanu nadciekłego, jednak w ultrazimnych gazach można było dotychczas obserwować słabe odbicie fal powodowanych zmianami gęstości. Nie obserwowano ciepła rozprzestrzeniającego się jak fala, wyjaśnia Zwierlein.

    Naukowcy chcieli wyizolować „drugi dźwięk”, oddzielić go od fizycznego ruchu fermionów. W tym celu opracowali nową technikę termografii. Zwykle do mapowania ciepła używa się czujników podczerwieni, jednak ultrazimne gazy nie emitują podczerwieni. Dlatego uczeni z MIT wykorzystali częstotliwość radiową do obserwowania przepływu energii cieplnej w licie-6. Odkryli, że badany przez nich materiał rezonuje w dwóch różnych częstotliwościach radiowych, uzależnionych od temperatury. Te fragmenty cieczy, które są cieplejsze, zawierają więc więcej standardowej cieczy, rezonują w wyższej częstotliwości. Te, które są chłodniejsze, w niższej. Uczeni byli w stanie dopasować swój sprzęt tak, by obserwować tylko interesujące ich fermiony i po raz pierwszy zarejestrowali jak energia cieplna przepływa na podobieństwo fali, odbijając się od przeszkód i zawracając.

    To tak, jakbyśmy mieli zbiornik z wodą, w którym połowa wody niemal zaczyna wrzeć. Gdy patrzymy na zbiornik, woda wydaje się całkowicie nieruchoma. Jednak nagle okazuje się, że tylko po jednej stronie zbiornika woda jest gorąca, a później tylko po drugiej, ciepło przepływa w tę i z powrotem, a woda nadal wygląda na nieruchomą, obrazowo wyjaśnia profesor Richard Fletcher.

    Teraz będziemy w stanie precyzyjnie mierzyć przewodnictwo cieplne tych systemów i projektować lepsze systemy, dodaje Zwierlein.


    « powrót do artykułu

  10. W Katedrze Chemii Uniwersytetu Przyrodniczego we Wrocławiu rozpoczyna się ostatni etap badań nad zapachami regulującymi apetyt. Zespół doktora Jacka Łyczko będzie sprawdzał, jak konsumenci reagują na zapachowe prototypy, z których 12 ma pobudzać apetyt, a 4 będą go zmniejszały. Zapachy takie mogą przydać się chociażby seniorom, którzy mają problemy z apetytem, jak i osobom otyłym, które chciałyby mniej jeść.

    Nowe zapachy powstały z naturalnych olejków eterycznych oraz aromatów spożywczych. Naszym celem nie jest odstraszenie ludzi od jedzenia, wywoływanie negatywnych skojarzeń czy poczucia winy u osób ze zbyt dużą masą ciała. Chcemy wywołać uczucie sytości, które będzie kojarzyło się np. ze zjedzeniem pysznego, ale kalorycznego deseru. Chcemy też skierować ich apetyt na zdrowsze produkty. Żeby miały na przykład ochotę na pełnoziarniste pieczywo, a nie na białą bułkę. Dzięki temu będą jadły mniej i lepiej – tłumaczy doktor Łyczko.

    Zapachy mają być alternatywą dla suplementów regulujących apetyt. Jak bowiem mówi naukowiec, skuteczność suplementów albo jest dyskusyjna, albo mają one wiele skutków ubocznych.

    Badania nad zapachami, o których rozpoczęciu informowaliśmy przed laty, trwają od 2021 roku. Najpierw naukowcy zorganizowali badania ankietowe, w których pytano Polaków, jakie aromaty kojarzą im się ze smacznym jedzeniem. Następnie skomponowano odpowiednie zapachy, które po przeanalizowaniu pod względem chemicznym, dano do oceny ekspertom. Ponadto za pomocą rezonansu magnetycznego sprawdzono wpływ poszczególnych zapachów na ludzki mózg.

    Analizy chemiczne wykazały, że największy potencjał stymulowania apetytu miały kwasy organiczne (C6, C8, C9), liniowe aldehydy (C7, C8, C10 i C12), limonen, furfural, α-pinen, benzaldehyd i 6-metylo-5-hepten-2-on. Natomiast najlepiej hamowały apetyt zapachy owocowe (np. octan izoamylu), kwiatowe (np. α-terpineol, linalol), ziołowe (np. β-pinen, kamfora, karwon) i balsamiczne (np. 2-acetylofuran).

    Na podstawie analiz chemicznych i badania konsumenckiego zaprojektowano więc 26 prototypów regulujących apetyt, które zostały ocenione przez panel sensoryczny. W rezultacie, 12 z nich zostało ocenionych jako te z potencjałem do stymulowania apetytu, 4 jako te z potencjałem do zmniejszania apetytu, wyjaśnia Łyczko.

    Obecnie trwa rekrutacja do badań konsumenckich. W pierwszym ich etapie uczestnicy otrzymają próbki do powąchania i wypełnią kwestionariusz, w etapie drugim po powąchaniu próbek uczestnikom zostanie zaoferowany posiłek. Do uczestnictwa w badaniach zgłosić mogą się osoby w wieku 65+ oraz te nadwagą lub otyłością. Za udział w badaniu przewidziane jest wynagrodzenie. Zgłoszenia: range.rekrutacja@upwr.edu.pl lub telefonicznie: 71 320 10 00.


    « powrót do artykułu

  11. Badacze z University of Cambridge i British Antarctic Survey przedstawili pierwsze bezpośrednie dowody, wskazujące, że lądolód Antarktydy Zachodniej doświadczył gwałtownego topnienia pod koniec ostatniej epoki lodowej. Dowody, znalezione w rdzeniu lodowym, wskazują, że około 8000 lat temu w przynajmniej jednym miejscu grubość lądolodu zmniejszyła się o 450 metrów w czasie krótszym niż 200 lat.

    To pierwszy pochodzący z Antarktydy dowód na tak szybką utratę lodu. Specjaliści od dawna ostrzegają, że Antarktyda Zachodnia jest zagrożona przez globalne ocieplenie, obawiają się, że w przyszłości może dojść do przekroczenia punktu, poza którym nastąpi jej gwałtowne zanikanie. Wyniki badań opublikowane właśnie na łamach Nature Geoscience pokazują, jak szybki może być to proces.

    Mamy pierwszy bezpośredni dowód, że ta masa lodu doświadczała szybkiego topnienia w przeszłości. To nie scenariusz, który istnieje wyłącznie w modelach. To może zdarzyć się naprawdę, jeśli lądolód utraci stabilność – mówi profesor Eric Wolff z University of Cambridge. Zachodnia Antarktyda jest szczególnie narażona, gdyż znaczna jej część spoczywa na skałach znajdujących się poniżej poziomu oceanu, lód jest więc podmywany od spodu przez coraz cieplejsze wody.

    Specjaliści, próbujący przewidzieć rozwój sytuacji w przyszłości, tworzą modele pokazujące, jak będzie zachowywał się lądolód w zależności od temperatury. Żeby jednak zbudować wiarygodny model, trzeba mieć jak najwięcej jak najbardziej dokładnych danych z przeszłości. Teraz zdobyto dane pokazujące, że proces utraty lodu na Antarktydzie może być naprawdę szybki. Chcieliśmy wiedzieć, co działo się z Antarktydą Zachodnią pod koniec ostatniej epoki lodowej, gdy temperatury na Ziemi rosły, chociaż nie tak szybko, jak obecnie. Badania rdzeni lodowych pokazują nam grubość i zasięg pokrywy lodowej, mówi wyjaśnia Isobel Rowell z British Antarctic Survey.

    Naukowcy zbadali 651-metrowy rdzeń pobrany w 2019 roku ze Skytrain Ice Rise. Obszar ten znajduje się blisko miejsca, w którym lądolód przechodzi w lodowiec szelfowy Ronne Ice Shelf.

    Badając rdzeń naukowcy analizowali izotopy pierwiastków tworzących wodę, które wskazują na temperaturę panującą w czasie, gdy na lód spadały kolejne warstwy śniegu budujące lądolód. Zmierzyli też ciśnienie panujące w uwięzionych w lodzie bąbelkach powietrza, co pozwoliło im określić grubość warstwy lodu. Okazało się, że 8000 lat temu doszło do gwałtownego zmniejszenia grubości warstwy. Gdy lód tracił grubość, cały proces odbywał się niezwykle szybko. Z całą pewnością został tu przekroczony punkt krytyczny, mówi Wolff.

    Naukowcy przypuszczają, że ciepłe wody oceanu podmyły wtedy Antarktydę Zachodnią, powodując odłączenie się jej części od skalistego podłoża. To wówczas powstał Ronne Ice Shelf i doszło do gwałtownego topnienia Skytrain Ice Rise, który nie był już ograniczony lądolodem. Badacze zauważyli tez, że zawartość sodu w lodzie – który trafia doń wraz z wodą morską przenoszoną przez podmuchy wiatru – zwiększyła się około 300 lat po tym, gdy warstwa lodu stała się cieńsza. To oznacza, że gdy lód się roztopił, lodowiec szelfowy zmniejszył swój zasięg tak, że otwarte wody oceaniczne znalazły się o setki kilometrów bliżej Skytrain Ice Rise niż poprzednio.

    Naukowcy już wcześniej wiedzieli z modeli komputerowych, że doszło do utraty lodu, jednak modele pokazywały, że stało się to pomiędzy 5000 a 12 000 lat temu. Teraz nie tylko możemy precyzyjnie datować to wydarzenie, ale wiemy też, jak szybko proces ten przebiegał.

    Zasięg lodu Antarktydy Zachodniej skurczył się szybko 8000 lat temu, a następnie ustabilizował na mniej więcej obecnym poziomie. Teraz najważniejsze pytanie brzmi, czy w ocieplającym się klimacie może dojść do ponownego zdestabilizowania tego obszaru i kurczenia się zasięgu lodu, dodaje Wolff.


    « powrót do artykułu

  12. Podczas wykopalisk przy Holborn Viaduct w Londynie archeolodzy znaleźli niezwykle rzadkie rzymskie łoże pogrzebowe. Co więcej, jest to pierwsze kompletne łoże tego typu odkryte na Wyspach Brytyjskich. Zostało wykonane z wysokiej jakości dębu, ma rzeźbione nogi, a poszczególne elementy zostały połączone drewnianymi kołeczkami. Przed umieszczeniem w grobie zostało rozłożone na części, jednak niewykluczone, że podczas pogrzebu niesiono na nim zwłoki.

    Prawdopodobnie łóżko miało służyć zmarłemu po śmierci. Trzeba bowiem przypomnieć, że na nagrobkach na całym terytorium Imperium Rzymskiego widzimy sceny z przedstawieniami pochowanych osób, które biesiadują, jakby były żywe.

    Na odkrytym cmentarzu naukowcy trafili też na szczątki ludzkie, szklane ampułki oraz wysokiej jakości biżuterię z gagatu i bursztynu. Wśród dóbr grobowych była też dekorowana lampka oliwna, na której przedstawiono pokonanego gladiatora. Eksperci sądzą, że pochodzi ona z lat 48–80, zatem z samego początku rzymskiego panowania. Wiemy, że Rzymianie chowali zmarłych wzdłuż dróg, poza centrami miast, więc nie byliśmy zaskoczeni, gdy w tym miejscu trafiliśmy na pochówki. W czasach rzymskich obszar ten położony był 170 metrów na zachód od murów miejskich i obok dużej drogi, która biegła tak, jak dzisiejsze Watling Street. Jednak stan zachowania zabytków, a przede wszystkim licznych zabytków drewnianych, dosłownie zwalił nas z nóg, cieszy się Heather Knight, odpowiedzialna za prace archeologiczne.

    W zachowaniu drewna pomógł fakt, że stanowisko znajduje się w pobliżu największej londyńskiej rzeki podziemnej River Fleet. Podmokły grunt zapewnił drewnu odpowiednie warunki. Dzięki nim zachowały się też zabytki znacznie młodsze. Archeolodzy trafili bowiem również na XVI-wieczny cmentarz, który mógł być powiązany z pobliskim kościołem St. Sepulchre. Po wielkim pożarze Londynu z 1666 roku cały ten region został przebudowany, powstały nowe domy, sklepy i magazyny, które przykryły pozostałości cmentarza.


    « powrót do artykułu

  13. Używanie dużych ilości marihuany wiąże się ze znacznym ryzykiem wystąpienia zaburzeń lękowych, informują kanadyjscy uczeni. Specjaliści z Bruyère Research Institute, University of Ottawa Department of Family Medicine, The Ottawa Hospital oraz Institute for Clinical Evaluative Sciences przeprowadzili najszerzej zakrojone badania dotyczące związku używania marihuany a zaburzeniami lękowymi. Przeanalizowali oni dane medyczne z lat 2008–2019 dotyczące ponad 12 milionów mieszkańców prowincji Ontario. Badacze sprawdzali, jakie jest prawdopodobieństwo rozwoju zaburzeń lękowych u osób, które trafiły na szpitalny oddział ratunkowy z powodu używania marihuany, w porównaniu z całą populacją badanych.

    Uzyskane przez nas wyniki sugerują, że osoby, które zostały przyjęte na szpitalny oddział ratunkowy z powodu marihuany są narażone zarówno na większe ryzyko rozwoju zaburzeń lękowych, jak i na pogorszenie się objawów, jeśli już wcześniej na zaburzenia takie cierpiały, mówi główny autor badań, doktor Daniel Myran.

    Analizy wykazały, że u 27,5% osób, które trafiły na SOR z powodu używania marihuany, w ciągu kolejnych trzech lat diagnozowano zaburzenia lękowe. W całej populacji odsetek ten wynosił zaś 5,6%, co – po uwzględnieniu innych czynników społecznych i zdrowotnych – oznaczało, że wspomniani użytkownicy marihuany byli narażeni na 3,9-krotnie większe ryzyko. U użytkowników marihuany przyjętych na SOR ryzyko ciężkich zaburzeń lękowych lub pogorszenia wcześniej zdiagnozowanych zaburzeń było 3,7-krotnie większe niż w całej populacji. Ponadto użytkownicy marihuany, których trzeba było leczyć na SOR, byli narażeni na 9,4-krotnie większe ryzyko późniejszej hospitalizacji lub przyjęcia na SOR z powodu zaburzeń lękowych niż pozostała część populacji. Mimo iż zwiększone ryzyko dotyczyło obu płci i wszystkich grup wiekowych, to na szczególnie mocno na rozwój zaburzeń były narażone osoby młode (10–24 lata) oraz mężczyźni.

    W środowisku naukowym wciąż trwa spór o to, czy używanie marihuany powoduje rozwój zaburzeń lękowych, czy też osoby z zaburzeniami lękowymi sięgają po marihuanę, by sobie z nimi poradzić. Wspomniane powyżej badania wskazują, że marihuana może pogarszać zaburzenia.

    Niezależnie od tego, jak wygląda związek przyczynowo-skutkowy, autorzy badań ostrzegają przed używaniem marihuany w celu radzenia sobie z lękiem. Brak bowiem dowodów, że marihuana pomaga, jej używanie może zamaskować inne objawy, a dostępne dowody wskazują, że jej używanie może pogarszać zaburzenia lękowe.


    « powrót do artykułu

  14. Znalazła się Pani w zeszłorocznym zestawieniu 100 najbardziej inspirujących i wpływowych kobiet świata BBC (BBC 100 Women 2023). Jak Pani odbiera to wyróżnienie? Co to dla Pani oznacza?

    Dla mnie najważniejsze jest to, że otrzymałam wyróżnienie za to, co dobrego faktycznie jestem w stanie wnieść w życie innych ludzi. Cieszę się, że to, co robię, ma duży potencjał dzielenia się z ludźmi dobrem i pięknem, a nie polega tylko na jakiejś rozkrzyczanej obecności w mediach. Bo sława trwa pięć minut, ale to, jacy jesteśmy dla innych i jak się w ich sercach zapiszemy, zostaje na zawsze.

    Nagrywa Pani przyrodę. Od czego rozpoczęła się ta pasja?

    Odkąd pamiętam, zawsze byłam bardzo wrażliwa na dźwięki, zwłaszcza te pochodzące z przyrody. Od wczesnego dzieciństwa zwracałam uwagę na miejskie wróble, na koniki polne na podmiejskich łąkach, na głosy żab w stawie...

    Impulsem, który zainspirował mnie do poważnego zainteresowania się dźwiękami ptaków, była seria kilkusekundowych, niskiej jakości nagrań ptaków, z którymi w wieku 10 lat zetknęłam się, przeglądając pewną komputerową encyklopedię PWN na płycie CD-ROM. Ta dziecięca ciekawość sprawiła, że zaczęłam zapamiętywać tamte ptasie głosy i wkrótce zapragnęłam znaleźć ich więcej. Pojawiły się pierwsze kasety, płyty kompaktowe, i to nie tylko z głosami ptaków, ale i płazów. W miarę jak moja fascynacja dźwiękami przyrody rosła i zaczynałam coraz bardziej szczegółowo odkrywać odgłosy zwierząt, wszystko, dosłownie „wszystko”, stało się dla mnie interesujące.

    Jednocześnie zaczęłam stopniowo rejestrować głosy ptaków, które słyszałam w najbliższym otoczeniu – tak powstały moje pierwsze nagrania. W drodze do szkoły i ze szkoły, przed lekcjami, przed domem, z balkonu, przez okno, na spacerach – nagrywałam wszystko i wszędzie, gdzie tylko mogłam. Na początku miałam zwykły rzężący dyktafon i sukcesem było, jeśli ptaka w ogóle było słychać... Dziś bym powiedziała, że nie da się tego słuchać, ale wtedy byłam zadowolona ze wszystkiego, co udało mi się uchwycić.

    Gdzie ukazywały się płyty z Pani nagraniami? Czytałam o współpracy z australijskim Listening Earth, polskim Solitonem czy słowackim wydawnictwem LOM. Ile wydała Pani do tej pory albumów? Znajdziemy Panią na serwisach streamingowych?

    Z wydawnictwem „Listening Earth” nawiązałam współpracę w roku 2015. Znałam ich już wtedy od dawna, bo odkryłam ich przypadkiem lata wcześniej dzięki... ich nagraniu dzikich papużek falistych z Australii (papugi to jedna z moich ulubionych grup ptaków). Opublikowałam tam trzy albumy: „Echoes from the ancient forest”, „Morning at the Lutownia river” oraz „Morning soundscapes from the Biebrza marshes”.

    W roku 2016 wydałam na rynek polski dwie płyty: „Echa krainy żubra” z Puszczy Białowieskiej i „Echa krainy łosia” z obszaru doliny Biebrzy. Ukazały się nakładem wydawnictwa Soliton, które też znałam już wcześniej poprzez ich serię nagrań przyrody.
    W tym samym roku dość przypadkowo zetknęłam się ze słowackim wydawnictwem LOM, które opublikowało płytę „Soundscapes of summer”, a rok później również płytę „Soundscapes of spring”. Docelowo mają one stanowić element cyklu poświęconego czterem porom roku, który planuję opublikować też w języku polskim poprzez wydawnictwo Soliton. Niedługo też w wydawnictwach LOM i Soliton ukażą się moje nagrania z wyprawy do rezerwatu Tambopata w Peru, którą odbyłam w roku 2017 – oba wydawnictwa mają już wszystkie materiały, czekamy tylko na publikację.

    Jeśli chodzi o obecność moich albumów w Internecie, wydawnictwo LOM udostępnia swoje płyty poprzez serwis Bandcamp, a wydawnictwo Soliton jest obecne w serwisach takich jak Spotify, chociaż ja nie śledzę bardzo dokładnie tego, gdzie konkretnie te publikacje się pojawiają.


    « powrót do artykułu

  15. Pięć niezależnych zespołów badawczych opublikowało artykuły [1, 2, 3, 4, 5] w których potwierdziły, że w grudniu 2022 roku w National Ignition Facility (NIF) doszło do pierwszej w historii fuzji jądrowej, z której uzyskano więcej energii niż dostarczono do kapsułki z paliwem celem zainicjowania reakcji. W NIF udowodniono, że możliwa jest produkcja dodatkowej energii z fuzji jądrowej i że można to uzyskać za pomocą technologii inercyjnego uwięzienia plazmy. To znaczące osiągnięcie naukowe. Jednak do komercyjnej produkcji energii z fuzji droga jest bardzo daleka, liczona w dziesięcioleciach. A niektórzy wątpią, czy będzie to kiedykolwiek możliwe.

    Fuzja jądrowa – czyli reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączeniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii. To proces, który zasila gwiazdy.  Taki sposób produkcji energii na bardzo wiele zalet. Nie dochodzi tutaj do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody i litu, z których można pozyskać paliwo do fuzji jądrowej, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Takiego luksusu nie mamy ani jeśli chodzi o węgiel czy gaz ziemny, ani o uran do elektrowni atomowych. Tego ostatniego wystarczy jeszcze na od 90 (według World Nuclear Association) do ponad 135 lat (wg. Agencji Energii Atomowej). Fuzja jądrowa jest niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów.

    Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Jednak fuzja jądrowa to bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje.

    National Ignition Facility powstało w 2011 roku i potrzeba było 11 lat badań i ciągłych udoskonaleń, by w końcu osiągnąć zapłon i uzyskać więcej energii niż trafiło do kapsułki z paliwem. Jednak to co uzyskano, to zaledwie ok. 1% energii zużytej do zainicjowania całego procesu. Nie wspominając o tym, że w elektrowni komercyjnej konieczna byłaby jeszcze zamiana uzyskanej energii cieplnej w energię elektryczną. Co wiązałoby się z kolejnymi stratami.

    Istnienie zjawiska fuzji jądrowej zaproponował w 1915 roku amerykański chemik William Draper Harkins. Jest ono badane od około 100 lat, a wykorzystywane techniki możemy zaliczyć do dwóch kategorii. Jedna polega na uwięzieniu plazmy w polu magnetycznym. Tak działają tokamaki czy stellaratory. To metoda lepiej zbadana, uważana za bardziej obiecującą. Z niej będzie korzystała największy na świecie eksperymentalny reaktor ITER, budowany właśnie we Francji.

    Metoda druga wykorzystuje uwięzienie plazmy za pomocą pola elektrostatycznego. To inercyjne uwięzienie plazmy. Gdy stworzono lasery, niektórzy eksperci zaczęli rozważać możliwość użycia ich do zainicjowania fuzji jądrowej. Fizyk John Nuckolls z Lawrence Livermore National Laboratory stworzył koncepcję inercyjnego uwięzienia plazmy, w którym to lasery mają kompresować, podgrzewać i utrzymywać plazmę. Wielu ekspertów wątpi, czy ta metoda w ogóle nadaje się do komercyjnej produkcji energii.

    Musimy pamiętać, że NIF to infrastruktura badawcza, a nie komercyjna. Nie projektowano jej pod kątem wydajności, ale z myślą o uzyskaniu najpotężniejszych wiązek laserowych. Instalacja służy trzem celom: badaniom nad kontrolowaną fuzją jądrową, badaniom procesów zachodzących we wnętrzach gwiazd oraz stanowi część programu utrzymania, konserwacji i zapewnienia bezpieczeństwa broni atomowej, bez konieczności przeprowadzania testów nuklearnych.

    W NIF 192 lasery kierują potężną wiązkę na niewielki złoty cylinder – hohlraum – zawierający kapsułkę z paliwem. Gdy wiązki lasera trafiają w cylinder, ich energia jest absorbowana i wypromieniowywana w postaci promieniowania rentgenowskiego. Trafia ono do kapsułki paliwowej, zbudowanej z diamentowej skorupki pokrytej od wewnątrz deuterem i trytem. Niezwykle istotne jest, by hohlarum był jak najbardziej symetryczny. Tylko wtedy promieniowanie rentgenowskie rozkłada się równomiernie w kapsułce, dzięki czemu paliwo jest identycznie kompresowane z każdej strony, co pozwala na osiągnięcie bardzo wysokich temperatury i ciśnienia, koniecznych do zainicjowania fuzji.

    Parametry wiązek laserów również muszą być starannie dobrane tak, by nie rozpraszały się na powierzchni cylindra, co prowadzi do zmniejszenia efektywności i grozi uszkodzeniem elementów optycznych laserów. Dodatkową trudnością jest fakt, że gdy tylko światło lasera trafia w hohlraum, w kapsułce paliwowej tworzy się plazma, która wchodzi w interferencje z wiązką. To wyścig z czasem, w którym trzeba dostarczyć odpowiednią ilość energii do wnętrza kapsułki, zanim uniemożliwi to plazma. A to tylko niektóre z problemów, jakie napotykają naukowcy pracujący w NIF. Problemów tym poważniejszych, że wciąż słabo rozumiemy procesy zachodzące w tak ekstremalnych środowiskach jak wysokotemperaturowa plazma.

    NIF korzysta z najpotężniejszych laserów na świecie i jest w stanie użyć ich pełnej mocy tylko kilka razy w roku, co poważnie spowalnia badania. A gdy już kolejny raz lasery zostaną uruchomione i naukowcy przeprowadzą analizy wyników eksperymentu, to z powodu słabego rozumienia zachodzących zjawisk, trudno jest przewidzieć, jakie będą skutki wprowadzanych poprawek i jak przebiegnie kolejny eksperyment.

    Od grudnia 2022 roku w NIF przeprowadzono 6 kolejnych eksperymentów. Podczas 2 uzyskano tyle energii, ile wprowadzono do paliwa, a podczas 4 energii tej było znacznie więcej. To dobry znak, gdyż pokazuje, że specjaliści z NIF są coraz bliżej chwili, w której każdy z eksperymentów da nadmiarową energię. Jednak będą musieli poradzić sobie z faktem, że ilość energii uzyskiwana w różnych eksperymentach może znacznie się od siebie różnić. Nie jest to zaskoczeniem, gdyż jest to ściśle powiązane z tym, jak długo reakcja termojądrowa jest w stanie się podtrzymać, a na to z kolei mają wpływ minimalne różnice w konfiguracji eksperymentu.


    « powrót do artykułu

  16. Koreańscy naukowcy znaleźli związek pomiędzy otyłością a spożyciem kimchi. Spożywanie 1–3 porcji kiszonki dziennie zmniejsza ryzyko rozwoju otyłości u mężczyzn, a kimchi z rzodkwi powiązane jest z mniejszym ryzykiem wystąpienia otyłości brzusznej u kobiet i mężczyzn. Głównymi składnikami kimchi są zwykle kapusta i rzodkiew. Warzywa są solone, doprawiane cebulą, czosnkiem, sosem rybnym i fermentowane. Danie zawiera dużo błonnika, bakterie sprzyjające zdrowiu mikrobiomu, witaminy i liczne polifenole.

    Już wcześniejsze badania wykazywały, że obecne w kimchi bakterie Lactobacillus brevis oraz L. plantarum chronią przed otyłością. Autorzy najnowszych badań chcieli sprawdzić, czy regularne spożywanie kimchi można połączyć ze zmniejszeniem ryzyka otyłości lub otyłości brzusznej.

    Naukowcy przeanalizowali dane dotyczące 36 756 mężczyzn i 78 970 kobiet. Średni wiek badanych wyniósł 51 lat. Osoby te brały udział w prowadzonych przez rząd Korei długoterminowych badaniach Health Examinees (HEXA), których calem jest sprawdzenie genetycznych i środowiskowych czynników ryzyka chorób u osób w wieku powyżej 40. roku życia. Uczestnicy tych badań wypełniali kwestionariusze, w których pytano między innymi o spożycie 106 produktów. Było wśród nich kilka rodzajów kimchi, a za pojedynczą porcję uznano – w zależności od jej rodzaju – od 50 do 95 gramów kiszonki.

    Badacze zauważyli, że w grupie osób spożywających do 3 porcji kimchi dziennie odsetek osób otyłych był o 11% niższy, niż w grupie, która jadła mniej niż 1 porcję dziennie. Jeśli chodzi o mężczyzn spożycie 3 lub więcej porcji dziennie baechu kimchi (z kapusty pekińskiej) było powiązane z 10% mniejszym ryzykiem otyłości i otyłości brzusznej. U kobiet zaś spożycie 2-3 porcji baechu dziennie wiązało się z 8% niższym ryzykiem otyłości, a 1-2 porcji była powiązana z o 6% niższym ryzykiem otyłości brzusznej.

    Panowie, którzy jedli 25 gramów kkakdugi kimchi (z rzodkwi koreańskiej) dziennie mieli o 8% niższe ryzyko otyłości brzusznej. U kobiet wystarczyło 11 gramów tego kimch dziennie, by ryzyko otyłości spadało o 11%.

    Autorzy analizy podkreślają, że prowadzili jedynie badania obserwacyjne, nie dały one więc odpowiedzi na pytanie, dlaczego spożywanie niewielkich ilości kimchi jest powiązane z mniejszym ryzykiem otyłości. Niewielkich, gdyż – jak zauważyli naukowcy – duże spożycie kimchi może być powiązane z rosnącym ryzykiem otyłości. Ponadto, podkreślają uczeni, kimchi zawiera dużo soli, zatem powinno być spożywane w umiarkowanych ilościach. Być może jednak potas, który obecny jest w fermentowanych warzywach, pomaga w pewnym przynajmniej stopniu zapobiegać negatywnemu wpływowi soli.


    « powrót do artykułu

  17. Przed 55 laty inżynier Herbert Saffir i dyrektor amerykańskiego National Hurricane Center Bob Simpson opracowali 5-stopniową skalę klasyfikacji huraganów, która od tamtej pory służy do szacowania potencjalnych szkód, jakie huragan może wyrządzić, gdy wejdzie na ląd. Teraz, w obliczu rosnącej temperatury oceanów, która powoduje powstawanie coraz silniejszych huraganów, pojawiło się pytanie, czy 5-stopniowa otwarta skala wystarczająco dobrze oddaje ryzyko.

    W skali Saffira-Simpsona do kategorii 1. należą huragany o prędkości wiatru 119–153 km/h, a w kategorii 5. znajdziemy wiatry o prędkości co najmniej 250 km/h. Zaczęliśmy się zastanawiać, czy otwarta skala Saffira-Simpsona może doprowadzić do niedoszacowania ryzyk, a przede wszystkim, czy to niedoszacowanie może być problemem w ocieplającym się świecie, mówi Michael Wehner z Lawrence Berkeley National Laboratory. Przez całą karierę naukową zajmuje się on ekstremalnymi zjawiskami pogodowymi oraz bada, do jakiego stopnia na powstanie każdego z nich miał wpływ człowiek.

    Wehner i James Kossin z First Street Foundation przeprowadzili szczegółowe analizy, w których wprowadzili hipotetyczną kategorię 6. do skali Saffira-Simpsona, i opublikowali swoje wnioski na łamach PNAS. Zaliczyli tam wiatry o prędkości co najmniej 309 km/h, a granicę kategorii 5. wyznaczyli badając rozpiętość prędkości wiatrów w niższych kategoriach.

    W wyniku globalnego ocieplenia w regionach występowania sztormów doszło do znacznego wzrostu temperatury powierzchni oceanów i troposfery. To ciepło dostarcza wiatrom dodatkowej energii. Gdy uczeni przeanalizowali dane dotyczące huraganów z lat 1980–2021 znaleźli pięć takich wydarzeń, które zakwalifikowali do stworzonej przez siebie kategorii 6. Wszystkie one miały miejsce w ciągu ostatnich 9 lat.

    Badacze nie skupiali się tylko na przeszłości. Przeprowadzili analizy wpływu zmian klimatycznych na intensywność huraganów w przyszłości. Wynika z nich, że jeśli średnie temperatury wzrosną o 2 stopnie Celsjusza w porównaniu z okresem przedprzemysłowym, ryzyko wystąpienia sztormów kategorii 6. w pobliżu Filipin wzrośnie o 50%, a w Zatoce Meksykańskiej się podwoi. Te dwa regiony, oraz Azja Południowo-Wschodnia, są najbardziej narażone na tak znaczy wzrost siły sztormów.

    Wehner i Kossin mówią, ze celem ich badań nie było zaproponowanie zmian w skali Saffira-Simpsona, a dodanie kolejnej kategorii nie rozwiąże problemu, jednak może posłużyć zwiększeniu świadomości na temat niebezpieczeństw związanych ze wzrostem siły huraganów.


    « powrót do artykułu

  18. W 2019 r. CERN opublikował wstępny raport projektowy nowego akceleratora cząstek. Future Circular Collider miałby być 4-dłuższy i 6-krotnie potężniejszy niż Wielki Zderzacz Hadronów. W ubiegłym roku rozpoczęto badania polowe w miejscu ewentualnej lokalizacji FCC. Potrwają kilka lat i obejmą ocenę oddziaływań na środowisko, badania sejsmiczne i geotechniczne. Zaś w ostatni piątek (2 lutego) CERN przedyskutował wstępne wnioski z przygotowywanego studium wykonalności FCC.

    Jeśli w CERN-ie zapadnie decyzja o budowie FCC to w ciągu 5 najbliższych lat organizacja zwróci się o zatwierdzenie planów. Na razie musimy poczekać na ukończenie prac nad studium wykonalności, które powinno powstać w 2025 roku. Ostateczna decyzja w CERN zapadnie nie wcześniej niż w 2028 roku. Jeśli będzie pozytywna, a projekt uzyska akceptację i finansowanie, to w 2048 roku powinien rozpocząć pracę zderzacz elektronów i pozytonów. Jego celem będzie dalsze badanie Bozonu Higgsa oraz oddziaływań słabych. Po kolejnych dziesięcioleciach, w roku 2070 miałyby rozpocząć się zderzenia protonów z protonami.

    Długość tuneli FCC miałaby wynieść niemal 91 kilometrów (tunele LHC mają 27 km), a energia zderzeń ma sięgnąć 100 teraelektronowoltów (TeV). LHC osiągą maksymalną energię zderzeń rzędu 14 TeV. Szacuje się, że koszt budowy FCC może wynieść 20 miliardów euro.

    Jednocześnie nie ustaje spór pomiędzy zwolennikami a przeciwnikami FCC. Profesor Fabiola Gianotti, dyrektor generalna CERN mówi, że będzie to najpotężniejszy kiedykolwiek zbudowany mikroskop, służący do badania praw natury w najmniejszych skalach i największych energiach. Dodaje, że akcelerator może dać odpowiedź na liczne pytania z dziedziny fizyki oraz poszerzyć naszą wiedzę o wszechświecie. To urządzenie przyszłej generacji: większe, szybsze, potężniejsze, które może pozwolić na opisanie wielu szczegółów budowy wszechświata. Dzięki niemu poznamy cechy bozonu Higgsa i pola Higgsa, jakich nie jesteśmy w stanie badać za pomocą Wielkiego Zderzacza Hadronów. Dzięki FCC spojrzymy w inny sposób na ciemną materię i przetestujemy nowe pomysły z dziedziny fizyki, zapewnia profesor Tara Shears z University of Liverpool, która pracuje przy eksperymencie LHCb w CERN-ie.

    Nie wszyscy są jednak równie entuzjastycznie nastawieni. Sir David King, były główny doradca ds. naukowych rządu Wielkiej Brytanii stwierdził, że wydawanie miliardów euro na FCC jest lekkomyślne w obliczu znacznie większych wyzwań, jak zmiany klimatu. A doktor Sabine Hossenfelder z Munich Center for Mathematical Philosophy stwierdza, że nie ma najmniejszych dowodów na to, iż nowy zderzacz zdradzi nam coś, czego nie wiemy. Prawda jest taka, że najbardziej prawdopodobną rzeczą, która ta maszyna zrobi, będą dokładniejsze pomiary pewnych stałych Modelu Standardowego. I to wszystko. Nie sądzę, by znaczenie społeczne tego projektu uzasadniało tak duży wydatek.


    « powrót do artykułu

  19. Szkoła podstawowa Kinderfmanngasse znajduje się w historycznym centrum Wiednia. Gdy więc przystąpiono do jej gruntownego remontu, rozpoczęto prace archeologiczne. Okazało się, że 1900 lat temu, w miejscu, gdzie obecnie uczą się dzieci, stał duży rzymski budynek przemysłowy, prawdopodobnie cegielnia. A w jego pozostałościach znaleziono coś wyjątkowo interesującego – cegły oznaczone przez Legio XIII Gemina, legion, z którym Juliusz Cezar przekroczył Rubikon.

    Archeolodzy nie mają całkowitej pewności, że trafili na cegielnię, nie znaleźli bowiem jeszcze ostatecznego dowodu, jakim byłyby pozostałości pieca do wypalania cegieł, jednak plan podłogi wskazuje na takie właśnie przeznaczenie struktury. A stosy cegieł, które w przeszłości tworzyły filary podpierające podłogę, pod którą mieściło się hypocaustum – system centralnego ogrzewania – zostały oznaczone przez Legio XIII.

    Gdy była taka potrzeba, legiony zajmowały się produkcję cegieł w miejscach, w których stacjonowały. To dzięki nim rozprzestrzeniły się one po całej Europie.

    W I wieku Rzym wchłonął Noricum, obszar obejmujący znaczną część dzisiejszej Austrii i Słowenii. Około 100 roku, w celu zabezpieczenia granic, nad brzegiem Dunaju powstał fort Vindobona, dzisiejszy Wiedeń. W tym samym czasie cesarz Trajan przeniósł do Vindobony Legio XIII Gemina. Był to spadkobierca legionu Juliusza Cezara, z którym ten przekroczył Rubikon. Legion XIII został założony przez Cezara w 57 roku p.n.e., brał udział w wojnach w Galii oraz w wojnie domowej. W 45 roku p.n.e. Juliusz Cezar rozwiązał legion. W 41 roku p.n.e. został on ponownie powołany do życia przez Oktawiana Augusta. Zyskał wówczas przydomek Gemina. Brał udział w wojnach w całej Europie. Istniał do V wieku, kiedy to stacjonował w Egipcie.


    « powrót do artykułu

  20. Naukowcy z MIT i Harvard Medical School opracowali nową technikę mikroskopową, dzięki której mogli lepiej niż dotychczas przyjrzeć się tkance mózgu i zobaczyć nowe struktury oraz komórki. Dzięki niej odkryli, że niektóre guzy mózgu, uważane za mało agresywne, zawierają więcej podejrzanych agresywnych komórek, niż sądzono. To sugeruje, że guzy te mogą być bardziej niebezpieczne niż się przypuszcza. Naukowcy mają nadzieję, że ich technika pozwoli lepiej i dokładniej diagnozować guzy, umożliwiając wybór bardziej skutecznych metod leczenia.

    Zaczynamy rozumieć, jak istotne dla rozwoju guzów są interakcje pomiędzy neuronami, synapsami, a otaczającą je tkanką mózgu. Wielu z tych rzeczy nie jesteśmy w stanie zobaczyć za pomocą konwencjonalnych technik. Teraz widzimy to w skali nano i próbujemy zrozumieć te interakcje, mówi główny autor badań, Pablo Valdes z University of Texas.

    Nowa technologia korzysta z mikroskopii ekspansyjnej (ExM), opracowanej w 2015 roku przez profesora Edwarda Boydena z MIT, jednego ze współautorów obecnych badań. Przed laty Boyden i jego zespół uznali, że zamiast używać potężnych i drogich mikroskopów do uzyskania obrazów w wysokiej rozdzielczości, warto powiększyć badaną tkankę tak, by uzyskać obraz o wysokiej rozdzielczości za pomocą zwykłego mikroskopu. Badaną tkankę, po oznaczeniu interesujących ich komórek czy protein, umieścili w żelu, który zwiększa objętość pod wpływem wody, usunęli z tkanki białka trzymające ją razem i poddali żel działaniu wody, która zwiększyła objętość żelu. Otrzymują w ten sposób trójwymiarowy fluorescencyjny powiększony odlew badanej tkanki.

    Powiększenie próbki ma znakomite znaczenie dla mikroskopii optycznej, która jest ograniczona przez limit dyfrakcyjny, który nie pozwala na obserwowanie obiektów mniejszych niż połowa długości fali światła, za pomocą których je obrazujemy. TO oznacza, że standardowa mikroskopia optyczna nie pozwala na obrazowanie struktur mniejszych niż około 200 nanometrów. ExM umożliwiła zaś obserwowanie struktur wielości około 70 nm, co wcześniej było możliwe wyłącznie za pomocą specjalistycznych kosztownych urządzeń, jak skaningowe mikroskopy elektronowe.

    Naukowcy od lat rozwijają ExM, jednak dotychczas mieli problem z obserwowaniem białek. Ulegały one bowiem zniszczeniu przez substancje dodawane podczas przygotowywania próbek. Teraz opracowali nową technikę, która pozwala rozdzielić tkankę w celu jej powiększenia, ale nie niszczy białek. Po powiększeniu próbki białka są oznaczane, a całość jest wielokrotnie obrazowana. Za każdym razem uczeni obrazują 3-4 różne białka, a do ich oznaczania używają przeciwciał, które nie mogły dostać się do białek, gdy próbka nie była rozciągnięta. Otwieramy przestrzenie pomiędzy białkami tak, że przeciwciała mogą dotrzeć do ciasnych miejsc, w które wcześniej nie mogły się przedostać. Okazało się, że możemy powiększyć tkankę, możemy zrobić więcej luzu między białkami i możemy obrazować wiele protein w tej samej próbce dzięki wielokrotnemu ich oznaczaniu, wyjaśnia Valdes.

    Rozwijając swoją technikę naukowcy korzystali zarówno z tkanki zdrowej, jak i z próbek dwóch rodzajów glejaka, jednego o niskim, a drugiego o wysokim stopniu złośliwości. Podczas badań, by zidentyfikować agresywne komórki glejaka, uczeni oznaczali wimentynę. To białko obecne w wysoce agresywnych glejakach. I zauważyli, że w próbkach glejaków o niskim stopniu złośliwości znajduje się znacznie więcej komórek zawierających wimentynę, niż jest znajdowanych za pomocą innych metod. To pokazuje nam, że niektóre z tych guzów mogą być bardziej złośliwe, niż wynika z badań za pomocą standardowych technik, wyjaśnia Valdes.

    Agresywne glejaki są praktycznie nieuleczalne. Dlatego naukowcy mają nadzieję, że dzięki swojemu odkryciu i nowej technice obrazowania będą w stanie określić, które molekuły należy wciąć na cel podczas opracowywania przyszłych terapii.


    « powrót do artykułu

  21. Robotnicy zakończyli kopanie wielkich podziemnych jaskiń, w których w przyszłości zostaną zbudowane olbrzymie wykrywacze cząstek Deep Underground Neutrino Experiment (DUNE). To międzynarodowy projekt, w którym udział bierze też Polska. Nasz kraj bierze udział w rozbudowie kompleksu akceleratorowego w Fermilab. PIP-II, urządzenie zdolne do generowania wiązek protonów o mocy przekraczającej 1 megawat, będzie najpotężniejszym na świecie źródłem neutrin. Jego najważniejszym zadaniem będzie dostarczanie neutrin dla Deep Underground Neutrino Experiment.

    W jaskiniach znajdujących się 1,5 kilometra pod ziemią zmieszczą się 4 wykrywacze DUNE, każdy wysokości 7-piętrowego budynku. Dzięki nim naukowcy będą mogli badać neutrina, jedne z najbardziej tajemniczych cząstek we wszechświecie. Poszukają odpowiedzi na pytania, dlaczego wszechświat zbudowany jest z materii, w jaki sposób z eksplodujących gwiazd rodzą się czarne dziury, czy neutrina mają związek z ciemną materią, a może z innymi – nieznanymi jeszcze – cząstkami. Gigantyczne detektory zostaną wypełnione argonem, a czujniki będą rejestrowały interakcje pomiędzy neutrinami a atomami argonu.

    W każdej sekundzie przez nasze ciała przenikają biliony neutrin. Nic o tym nie wiemy, ani nie odczuwamy skutków działania tych cząstek, gdyż niemal nie wchodzą one w interakcje z materią. I my, i nasza planeta jesteśmy dla nich przezroczyści. Niezwykle rzadko zdarza się, że neutrino zderzy się z inną cząstką. I właśnie śladów takich zderzeń będzie poszukiwał DUNE. Neutrina będą wysyłane w kierunku detektorów ze wspomnianego już PIP-II, położonego niemal 1300 kilometrów na wschód od DUNE. Cząstki przelecą przez ziemię i skały, dotrą do detektorów DUNE, w których czujniki odnotują wszelkie interakcje.

    Ukończenie budowy jaskiń to niezwykle ważny etap całego projektu. Dzięki niemu jeszcze w bieżącym roku rozpoczniemy instalowanie detektorów, mówi dyrektor projektu Chris Mossey. Stworzenie jaskiń na głębokości 1,5 kilometra pod ziemią nie było proste. Najpierw powstał szyb, przez który opuszczono rozmontowany ciężki sprzęt. Tam go ponownie złożono i przez dwa lata robotnicy rozkopywali i wysadzali skały. Spod ziemi wydobyto niemal 800 000 skał, które przetransportowano na powierzchnię i zasypano nimi pobliską kopalnię odkrywkową Open Cut.

    Za kilka miesięcy pod ziemią rozpocznie się instalacja stalowego rusztowania, które będzie utrzymywało pierwszy z detektorów. Twórcy DUNE planują, że będzie on gotowy do pracy pod koniec 2028 roku.

    W projekcie DUNE bierze udział ponad 1400 inżynierów i naukowców z ponad 200 instytucji z 36 krajów. Przetestowali oni już technologie i proces konstrukcyjny pierwszego z detektorów, a produkcja jego komponentów idzie pełną parą.


    « powrót do artykułu

  22. Filozof eksperymentalny Jonathon Keats z University of Arizona jest autorem projektu o nazwie Millennium Camera. W jego ramach na Tumamoc Hill w Tucson w Arizonie ustawiono aparat, który przez 1000 lat będzie fotografował miasto. Został on skierowany w stronę osiedla Star Pass na zachodzie od wzgórza. Ma nie tylko rejestrować przeszłość dla ludzi z przyszłości. Keats chce, by projekt stał się przyczynkiem do dyskusji na temat działań obecnie żyjących pokoleń i ich wpływu na przyszłość.

    Aparat, by przetrwać 1000 lat, musi być niezwykle prosty. I taki właśnie jest. Na stalowym słupie umieszczono niewielki miedziany cylinder, do którego światło wpada przez miniaturową dziurkę w blaszce z 24-kratowego złota. Światło pada na warstwę barwnika olejnego wykonanego na bazie marzanny barwierskiej. Przez 1000 lat pod wpływem światła liczne warstwy barwnika będą stopniowo blakły, rejestrując obraz Tucson.

    Nie wiemy, co będzie za tysiąc lat. Wiele osób pesymistycznie patrzy w przyszłość. Czy ludzie będą posiadali technologie pozwalające odczytywać zdjęcia wykonane za pomocą obecnie używanych technik fotografii cyfrowej, czy w ogóle będą posiadali jakiekolwiek zaawansowane technologie? Ponadto żadna z obecnie istniejących technologii rejestracji obrazu nie pozwala na rejestrowanie go przez tak długi czas, jak założył sobie Keats. Stąd też pomysł na powoli blaknący naturalny barwnik.

    Tysiąc lat to dużo czasu i jest wiele powodów, dla których może to nie zadziałać. Za tysiąc lat ten aparat może nie istnieć. Mogą go unicestwić siły natury czy ludzkie działania, stwierdza filozof. Jeśli jednak aparat przetrwa, to uczony wyobraża sobie, że najbardziej stałe z cech krajobrazu będą na obrazie najbardziej ostre. Oczywiście w naturze nie ma niczego stałego, zatem nawet te stałe fragmenty mogą być nieco rozmazane. Natomiast najbardziej zmienne fragmenty obrazu, będą najmniej ostre, A tam, gdzie będzie dochodziło do znacznych zmian, otrzymamy nałożone na siebie obrazy.

    Przyjmijmy scenariusz, w którym wszystkie widoczne w kamerze budynki znikną w ciągu 500 lat. W efekcie na obrazie zobaczymy wyraźne góry oraz półprzezroczyste budynki, wyglądające jak duchy. Wszystkie te zmiany będą zarejestrowane na kolejnych warstwach, które – złożone razem – utworzą końcowy obraz, stwierdza filozof. I ma nadzieję, że nikt aparatu nie będzie otwierał przez 1000 lat, to jeśli to zrobi, nie zostanie zarejestrowany obraz, o jaki mu chodzi.

    Decyzję o miejscu postawienia aparatu poprzedziły intensywne konsultacje z wieloma osobami. Tumamoc Hill to ważne miejsce dla mieszkańców Tucson. Służy nam ono zarówno do dosłownej, jak i metaforycznej, obserwacji przewijających się tutaj pokoleń – wyjaśnia filozof. Znajdują się tam prehistoryczne petroglify, pozostałości osadnictwa sprzed wieków czy cmentarz Apaczów. Znajdziemy tam też liczne przekaźniki radiowe i telewizyjne, rezerwat ekologiczny czy niewielkie obserwatorium astronomiczne.

    Keats chciałby zamontować na Tumamoc jeszcze co najmniej jeden aparat, skierowany w inną stronę, najlepiej na wschód, by oba urządzenia były jakby lustrzanym odbiciem i pokazywały, jak ludzie wchodzą w interakcje ze środowiskiem. Ma jednak znacznie bardziej ambitne plany. Chciałby, żeby podobne urządzenia stanęły na całym świecie. Jedną z kamer planuje ustawić w chińskim Chongqing, kolejną w Griffith Park w Los Angeles, a w maju Millennium Camera stanie w austriackich Alpach.


    « powrót do artykułu

  23. Wiele osób pomniejsza skutki globalnego ocieplenia lub zaprzecza, by było ono spowodowane działalnością człowieka. Profesor Florian Zimmermann z Uniwersytetu w Bonn postanowił sprawdzić, czy nie jest to skutkiem naturalnej tendencji człowieka do tzw. rozumowania umotywowanego. To sposób myślenia, który pozwala nam zachować dobry obraz samych siebie i usprawiedliwić swoje zachowanie. Wnioski, do których doszedł Zimmermann, mogą z jednej strony napawać optymizmem, z drugiej zaś strony wcale nie skłaniają do radości.

    Przykładem rozumowania umotywowanego może być np. przypadek osoby, która wielokrotnie w ciągu roku lata na wakacje samolotem. Jeśli zwrócimy jej na to uwagę w kontekście olbrzymiej emisji węgla, jaka jest związana z tymi lotami, osoba taka będzie zapewne argumentowała, że samolot i tak bez niej by poleciał, że jeden czy kilka lotów nie zmieniają sytuacji, czy w końcu zaprzeczy wpływowi antropogenicznej emisji na klimat. Innymi słowy, rozumowanie motywowane to zjawisko, w ramach którego akceptujemy tok rozumowania wspierający nasz tok rozumowania i krytykujemy poglądy przeciwne. Do tego dochodzi błąd konfirmacji, w ramach którego preferujemy tylko informacje wpasowujące się w nasze poglądy.

    Zimmerman i Lasse S. Stoetzer, również z Uniwersytetu w Bonn, sprawdzali, jaką rolę rozumowanie umotywowane spełnia w poglądach na zmiany klimatu. Do swoich badań zaangażowali 4000 dorosłych Amerykanów. W ramach pierwszego z eksperymentów przypisali ich losowo do jednej z dwóch grup. Badani mieli do dyspozycji po 20 dolarów. Osoby, które trafiły do pierwszej grupy mogły zdecydować, między jakie 2 organizacje – walczące z ociepleniem klimatu – podzielą te pieniądze. Członkowie drugiej grupy nie musieli dawać pieniędzy organizacjom, mogli je zatrzymać. Jednak każdy, kto zdecydował, że weźmie pieniądze dla siebie, musiał powiedzieć, dlaczego tak zrobił. Jednym z usprawiedliwień, mogło być zaprzeczenie istnieniu zmian klimatu, mówi Zimmerman.

    Niemal 50% osób z drugiej grupy zatrzymało pieniądze. Jako że do obu grup przypisywano losowo to, bez obecności rozumowania umotywowanego, obie grupy powinny przejawiać podobne postawy wobec antropogenicznych zmian klimatu. Jeśli jednak osoby, które zatrzymały dla siebie pieniądze, wykorzystałyby rozumowanie umotywowane, druga grupa powinna, jako całość, przejawiać większy sceptycyzm wobec wpływu człowieka na zmiany klimatyczne.

    Naukowcy nie zauważyli w drugiej grupie śladów typowego rozumowania umotywowanego. A spostrzeżenie to potwierdzili w dwóch kolejnych eksperymentach. Innymi słowy, nasze badania nie dały żadnych podstaw by sądzić, że osoby odrzucające wpływ człowieka na zmiany klimatu wykorzystywały przy tym ten sposób samooszukiwania się, mówi Zimmerman.

    Z jednej strony to dobra informacja, bo wynik badań może oznaczać, że dostarczenie takim osobom lepszych informacji może zmienić ich postawę. Gdyby zaś osoby takie naginały rzeczywistość, to bardzo trudno byłoby je przekonać kolejnymi faktami do zmiany poglądów.

    Jednak wnioski z badań Zimmermanna nie są tak optymistyczne. W naszych badaniach widzimy pewne wskazówki sugerujące, że mamy tutaj do czynienia z pewną odmianą rozumowania umotywowanego. Wygląda na to, że zaprzeczanie antropogenicznym zmianom klimatu stało się częścią identyfikacji politycznej pewnych grup społecznych, mówi uczony. Innymi słowy, niektóre osoby definiują się politycznie poprzez zaprzeczanie wpływowi człowieka na zmiany klimatu. To istotna cecha ich tożsamości, szczególnie w kontraście do przeciwników politycznych, zatem może ich po prostu nie obchodzić to, co na temat zmian klimatycznych mówi nauka.


    « powrót do artykułu

  24. Gdy 40 lat temu w torfowisku Glen Affric odkryto fragment tkaniny, nikt nie przypuszczał, jak wyjątkowy to zabytek. Przeprowadzone przed rokiem badania wykazały, że tkanina pochodzi z XVI wieku i jest to najstarszy zachowany szkocki tartan. Na terenie Szkocji znajdowano starsze fragmenty ubrań, jednak ten jest najstarszym, na którym widać wzór tartanu – liczne przecinające się pod kątem prostym linie, zabarwione na różne kolory. Teraz każdy może kupić tartan z wzorem sprzed wieków.

    Firma House of Edgar zaangażowała do pomocy Petera MacDonalda, najwybitniejszego historyka tartanu i dyrektora ds. badań i zbiorów w Scottish Tartans Authority. To organizacja, której celem jest promowanie i zachowanie tradycji szkockiego tartanu. We współpracy z Macdonaldem jak najdokładniej odtworzono wzór i kolorystykę najstarszego szkockiego tartanu, zwanego Glen Affric Tartan.

    Badania naukowe sprzed roku ujawniły, że do produkcji najstarszego tartanu wykorzystano zieleń, żółć i czerwień. Dokładnie przyjrzano się też rodzajowi splotu i go odtworzono. Codziennie pracuję nad nowymi wzorami, ale to było wyjątkowe doświadczenie, jedyna w życiu okazja, by odtworzyć część historii, stwierdziła projektantka Emma Wilkinson z House of Edgar. Miałem przyjemność badać zabytek z Glen Affric. Analizy barwników, datowanie radiowęglowe i inne dokładne badania oraz współpraca z House of Edgar pozwoliły przywrócić ten tartan to życia, cieszy się MacDonald.

    Tartan, który tak bardzo kojarzy nam się obecnie ze Szkocją, jest nowożytnym wynalazkiem. Jednoznaczne odniesienia pisane do tartanu pojawiają się dopiero w XVII wieku. Najstarsze znane przedstawienie w sztukach wizualnych to obraz „Highland Chieftain” Johna Michaela Wrighta, z którego możemy się dowiedzieć, że podobny do współczesnego wzór był stosowany około 1660 roku. Pochodzące z późniejszych wieków obrazy wskazują, że stosowano przypadkowe wzory krat i dowolnie je mieszano. Dopiero pod koniec XVIII wieku tartan stał się symbolem narodowego stroju Szkocji, a w XIX wieku konkretne wzory tartanów zaczęły być kojarzone z konkretnymi klanami.


    « powrót do artykułu

  25. Homo sapiens pojawił się w północnej części Europy ponad 45 000 lat temu, na wiele tysięcy lat zanim z południa zniknął neandertalczyk. Szczątki znalezione w jaskini Ilsenhöhle w Ranis w Niemczech pozwalają też po raz pierwszy zidentyfikować przedstawiciela technokompleksu LRJ (Lincombian-Ranisian-Jerzmanowician). To zespół europejskich kultur archeologicznych, do którego należy m.in. kultura jerzmanowicka. Odkrycie dokonane przez międzynarodowy zespół naukowy kierowany przez specjalistów z Instututu im. Maxa Plancka może rozstrzygnąć spór o to, kto – neandertalczyk czy człowiek współczesny – był twórcą LRJ.

    Charakterystyczne dla technokompleksu (przemysłu) LRJ częściowo dwustronnie obrobione ostrza liściowate spotyka się w całej Europie, od Walii po wschodnią Polskę. Obecnie większość badaczy uznaje, że LRJ jest dziełem neandertalczyka, chociaż pojawiały się głosy mówiące, że nosicielem tej kultury był Homo sapiens. Odkrycie w Ilsenhöhle pozwala połączyć ten przemysł z obecnością przedstawicieli naszego gatunku.

    Jaskinia w Ranis dostarcza nam najstarszych dowodów obecności Homo sapiens na wyższych szerokościach geograficznych w Europie. Okazuje się, że kamienne artefakty, o których sądziliśmy, że były wytwarzane przez neandertalczyka, to w rzeczywistości wczesne narzędzia H. sapiens. To całkowicie zmienia nasz dotychczasowy pogląd na ten okres w historii. H. sapiens dotarł na północny zachód Europy na długo zanim neandertalczyk zniknął z południowo-zachodniej części kontynentu, mówi profesor Jean-Jacques Hublin, emerytowany dyrektor Instytutu Antropologii Ewolucyjnej im. Maxa Plancka w Lipsku.
    Hublin stał na czele zespołu, który w latach 2016–2022 prowadził ponowne wykopaliska w Ranis. Ich celem było poszukiwanie śladów, które mogli przeoczyć archeolodzy prowadzący prace w latach 30. XX wieku, dokładniejsze określenie stratygrafii i chronologii stanowiska oraz zidentyfikowanie cech charakterystycznych technokompleksu LRJ.

    Na dnie wykopu 8-metrowej głębokości badacze trafili na ślady LRJ. Trafiliśmy na 1,7-metrową skałę, przez którą wcześniejsi badacze się nie przedostali. Po jej ręcznym usunięciu odkryliśmy ślady LRJ oraz ludzkie szczątki. To było sporym zaskoczeniem, bo dotychczas nigdzie w warstwach LRJ nie znaleziono szczątków człowieka. To była nagroda za ciężką pracę, mówi Marcel Weiss z Uniwersytetu Fryderyka i Aleksandra w Erlangen i Norymberdze.

    Archeolodzy znaleźli tysiące niewielkich fragmentów kości. Analizy zooarcheologiczne wykazały, że jaskinia była zajmowana na przemian przez hieny jaskiniowe, niedźwiedzie jaskiniowe i niewielkie grupy ludzi. Mimo że ludzie zajmowali ją przez krótkie okresy, żywili się mięsem wielu gatunków zwierząt, w tym nosorożców włochatych czy koni. Kości były co prawda silnie pofragmentowane, ale świetnie się zachowały, co pozwoliło na wykorzystanie najnowszych technik badawczych z dziedziny archeologii, genetyki i proteomiki, wyjaśnia Geoff Smith z University of Kent.

    Proteomika to nauka zajmująca się badaniem białek. Paleoproteomika to stosunkowo nowa dziedzina wiedzy, która pozwala identyfikować niezidentyfikowane wcześniej szczątki kostne. W Ranis pozwoliła nam ona na zidentyfikowanie pierwszych ludzkich szczątków związanych z warstwą LRJ. Następnie poddaliśmy je dalszym analizom DNA, datowania radiowęglowego i badaniom stabilnych izotopów, dodaje Dorothea Mylopotamitaki z Instytutu im. Maxa Plancka.

    Ponadto naukowcy przeprowadzili nowe analizy kości znalezionych w czasie prac wykopaliskowych w latach 1932–1938. Skupili się na poszukiwaniu ewentualnych fragmentów ludzkich kości. I udało im się takie kości zidentyfikować.

    W sumie w materiale z dawnych i obecnych wykopalisk znaleziono 13 fragmentów ludzkich kości. Potwierdziliśmy, że należą one do gatunku Homo sapiens. Co interesujące, część kości miała takie same mitochondrialne DNA, nawet fragmenty z różnych wykopalisk. To oznacza, że albo kości te należały do tego samego człowieka, albo są to szczątki ludzi spokrewnionych po linii matki, dodaje Elena Zavala z University of California w Berkeley. Równie ważnym osiągnięciem było znalezienie DNA ssaków w warstwie LRJ. Obecnie trwają analizy, które mają dać odpowiedź na pytanie, jakie gatunki trafiły do jaskini.

    Naukowcy przeprowadzili też datowanie radiowęglowe kości zwierzęcych z różnych warstw, by odtworzyć chronologię miejsca wykopalisk. Szczególnie skupili się na tych kościach, które nosiły ślady obróbki przez człowieka. Dzięki temu mogli dowiedzieć się, kiedy ludzi zajmowali jaskinię. Badania te wykazały wysoką zgodność pomiędzy datowaniem kości H. sapiens, kości zwierząt z warstwy LRJ i kości zwierząt obrabianych przez człowieka. To wskazuje na bardzo silny związek pomiędzy szczątkami ludzi, a LRJ. Dowody wskazują na to, że Homo sapiens sporadycznie bywał w tej jaskini już 47 500 lat temu, wyjaśnia Helen Fewlass z Instytutu Francisa Cricka w Londynie.

    Analizy stabilnych izotopów z kości i zębów zwierząt wykazały, że w czasie gdy w okolicach Ranis przebywał H. sapiens był tam stepn, na którym panował bardzo zimny klimat kontynentalny. Warunki były podobne do tych, jakie obecnie występują na Syberii i w północnej Skandynawii. A w warstwie odpowiadającej LRJ widać, że doszło do dalszego ochłodzenia. To dowód, że nawet pierwsi H. sapiens, którzy dotarli tak daleko na północ Europy potrafili zaadaptować się do takich warunków. Dotychczas sądzono, że taka zdolność adaptacji pojawiła się u naszego gatunku tysiące lat później. Być może zimne stepy z wielkimi stadami zwierząt były bardziej atrakcyjne dla ludzi, niż dotychczas sądziliśmy, dodaje Sarah Pederzani z Universidad de La Laguna na Teneryfie.

    Wyniki badań zostały opublikowane w trzech artykułach [1, 2, 3], które ukazały się na łamach Nature.


    « powrót do artykułu
×
×
  • Dodaj nową pozycję...