Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37344
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    239

Zawartość dodana przez KopalniaWiedzy.pl

  1. Wyewoluowanie dużego mózgu wiąże się ze zwiększeniem rozmiarów czaszki. To z kolei niesie ze sobą ryzyko przy porodzie. Historia dostarcza nam wiele przykładów kobiet, które zmarły w wyniku komplikacji okołoporodowych. Do dzisiaj w krajach o słabo rozwiniętej opiece medycznej w czasie porodu umiera około 1,5% kobiet. Naukowcy z Austrii i Japonii wykazali właśnie, że samice makaków japońskich – gatunku u którego stosunek rozmiarów miednicy do czaszki jest taki sam, jak u ludzi – rodzą znacznie łatwiej niż kobiety i nie dochodzi u nich do zgonów okołoporodowych. Naukowcy przeanalizowali długoterminowe dane zebrane w ciągu 27 lat w półdzikiej populacji makaków japońskich żyjących w Affenberg Landskron w Austrii. W analizowanym okresie 112 samic urodziło 281 młodych. Wykazaliśmy, że w tej populacji przez 27 lat żadna samica nie zmarła z powodu urodzenia dziecka, mówi współautorka badań, antropolog ewolucyjna i położna Katharina Pink z Uniwersytetu Medycznego w Wiedniu. To pokazuje, że – mimo równie niekorzystnego stosunku wymiarów miednicy do czaszki – makaki japońskie nie są narażona na podobne ryzyko co kobiety podczas porodu. Naukowcy nie wiedzą, dlaczego tak się dzieje. Być może mięśnie obręczy biodrowej i przepony miednicy są bardziej elastyczne w czasie porodu w porównaniu z ludzkimi mięśniami, a różnice w morfologii miednicy powodują, że dynamika porodu u makaków jest inna niż u ludzi, zastanawia się inna z współautorek badań, Barbara Fisher. Nauka dysponuje pojedynczymi opisanymi obserwacjami porodów u wolno żyjących naczelnych. Porody takie zwykle odbywają się w nocy lub nad ranem, są trudne do dokumentowania. Z raportów tych wynika, że małpy podczas porodu stoją lub kucają. Być może w ten sposób idealnie wykorzystują naturalną elastyczność miednicy. Nasze obserwacje mogą zainspirować przyszłe badania, które pozwolą nam zrozumieć, jak swoboda ruchu podczas fizjologicznego poziomu może prowadzić do rozwinięcia bardziej zindywidualizowanej i mniej inwazyjnej opieki nad matkami, dodaje Katharina Pink. « powrót do artykułu
  2. Na południe od skrzyżowania Old Kent Road i Ilderton Road w Londynie archeolodzy trafili na dobrze zachowaną rzymską drogę. To fragment Watling Street, jednej z najważniejszych dróg w Brytanii rzymskiej i post-rzymskiej. W czasie prac wykopaliskowych odsłonięto fragment o szerokości 5,8 i wysokości 1,4 metra. Wyraźnie widoczne warstwy pozwalają dokłanie zbadać konstrukcję drogi. Podstawę drogi stanowi ubity żwir zamknięty między dwoma warstwami kredy. Powyżej znajduje się warstwa z ubitego piasku i żwiru. Górną warstwę prawdopodobnie stanowił podobny materiał, jednak obecnie warstwa na nie istnieje. Współczesna droga spoczywa bowiem bezpośrednio na drodze rzymskiej. Watling Street była przez wieki jedną z najważniejszych dróg Brytanii. Biegła z dzisiejszego Dover (Portus Dubris) do Londynu (Londinium), stamtąd do St. Albans (Verulamium) i kończyła się we Wroxeter (Viroconium). Nazwa drogi pochodzi od anglosaskich osadników, którzy rzymskie Verulamium nazwali Wætlingaceaster. Do IX wieku cała rzymska droga była już nazywana Wæclinga stræt. Rzymianie, wielcy budowniczowie dróg – dość wspomnieć, że w Imperium Romanum istniało ponad 80 000 kilometrów utwardzonych dróg – wykorzystali do budowy drogi szlak używany od wieków przez celtyckich Brytów. Biegnący przez Londinium fragment Watling Street wybudowano zimą z 47 na 48 rok. Odkrycie drogi zachowanej w tak doskonałym stanie zaskoczyło archeologów. Dave Taylor z Museum of London Archaeology (MOLA), które prowadzi prace wykopaliskowe stwierdził: To zaskakujące, że ten fragment drogi przetrwał przez niemal 2000 lat. Tutaj tak wiele się działo w ciągu ostatnich kilkuset lat - budowano kanalizację, kładziono kable, powstawały linie tramwajowe i współczesna droga. Jesteśmy naprawdę podekscytowani znalezieniem tak ważnego fragmentu rzymskiej kultury materialnej. « powrót do artykułu
  3. Przed 11 milionami lat w Marsa uderzyła asteroida, która wyrzuciła w przestrzeń kosmiczną fragmenty Czerwonej Planety. Jeden z tych fragmentów trafił na Ziemię i jest jednym z niewielu meteorytów, których pochodzenie można powiązać bezpośrednio z Marsem. Kto znalazł ten kawałek Marsa, nie wiadomo. Odkryto go w 1931 roku w jednej szuflad na Purdue University i nazwano Lafayette Meteorite, od miasta, w którym znajduje się uniwersytet. Nie wiadomo bowiem nawet, gdzie dokładnie meteoryt został znaleziony. Jednak jego stan zachowania wskazuje, że nie leżał na ziemi zbyt długo. Na kawałek skały jako pierwszy zwrócił uwagę dr O.C. Farrington, który zajmował się klasyfikacją kolekcji minerałów z uniwersyteckich zbiorów geologicznych. I to właśnie Farrington stwierdził, że skała uznana wcześniej za naniesioną przez lodowiec, jest meteorytem. Już podczas jednych z pierwszych badań Lafayette Meteorite naukowcy zauważyli, że na Marsie miał on kontakt z wodą w stanie ciekłym. Od tamtego czasu nie było jednak wiadomo, kiedy miało to miejsce. Dopiero teraz międzynarodowa grupa naukowa określiła wiek znajdujących się w meteorycie minerałów, które powstały w wyniku kontaktu z wodą. Wyniki badań zostały opublikowane na łamach Geochemical Perspective Letters. Profesor Marissa Tremblay z Purdue University wykorzystuje gazy szlachetne, jak hel, neon i argon, do badania procesów chemicznych i fizycznych kształtujących powierzchnię Ziemi. Uczona wyjaśnia, że niektóre meteoryty z Marsa zawierają minerały, które powstawały na Marsie w wyniku interakcji z wodą. Datowanie tych minerałów pozwoli nam więc stwierdzić, kiedy woda w stanie ciekłym istniała na powierzchni lub płytko pod powierzchnią Marsa. Datowaliśmy te minerały w Lafayette Meteorite i stwierdziliśmy, że powstały one 742 miliony lat temu. Nie sądzimy, by wówczas na powierzchni Marsa było zbyt dużo wody. Uważamy, że pochodziła ona z roztapiania się marsjańskiej wiecznej zmarzliny, a roztapianie się było spowodowane aktywnością magmy, do której sporadycznie dochodzi i dzisiaj, stwierdza uczona. Co ważne, naukowcy w trakcie badań wykazali, że ich datowanie jest wiarygodne. Na wiek minerałów mogło wpłynąć uderzenie asteroidy, która wyrzuciła z Marsa nasz meteoryt, ogrzewanie się meteorytu podczas pobytu przez 11 milionów lat w przestrzeni kosmicznej, czy też podczas podróży przez ziemską atmosferę. Wykazaliśmy, że żaden z tych czynników nie miał wpływu minerały w Lafayette, zapewnia Tremblay. « powrót do artykułu
  4. Zapalenie jamy ustnej jest częstym schorzeniem, które wpływa na błonę śluzową jamy ustnej u dzieci, powodując dyskomfort i podrażnienie. W jego wyniku mały pacjent może odmawiać spożywania posiłków, jest rozdrażniony i płaczliwy. Sprawdź, co musisz wiedzieć o zapaleniu jamy ustnej u dzieci i poznaj najlepsze metody profilaktyki tej dolegliwości.   Zapalenie jamy ustnej u dzieci – zwróć uwagę na charakterystyczne objawy Najprostszym sposobem na rozpoznanie stanu zapalnego w jamie ustnej dziecka jest obserwacja błony śluzowej w buzi. Prawidłowo wyglądająca śluzówka jest jednolita, nie ma plam, wybroczyn i innych wykwitów. Ma jasny, różowy kolor. Wszelkie mocniejsze zaczerwienienia, a także białe naloty na wybroczynach, świadczą o nieprawidłowościach [1]. Zmiany powstałe w wyniku zapalenia mogą obejmować jedynie fragmenty błony śluzowej w jamie ustnej, ale także całą śluzówkę wraz z językiem i dziąsłami [1]. Charakterystyczne objawy toczącego się stanu zapalnego to m.in. [2]: obrzęk i zaczerwienienie błony śluzowej w buzi; białe, kożuchowate naloty w pojedynczych miejscach lub na całej śluzówce; nieprzyjemny zapach z ust. Ponadto dziecko może odczuwać ból, swędzenie i pieczenie.   Przyczyny zapalenia jamy ustnej u dzieci – patrz na choroby współwystępujące Istotne w profilaktyce chorób jamy ustnej u dzieci jest zwrócenie uwagi na inne choroby, które dotykają malucha. Stany zapalne w jamie ustnej u dzieci mogą pojawić się przy infekcji wirusowej gardła, ospie wietrznej, odrze, pryszczycy, cukrzycy, a nawet zakażeniu wirusem HIV [1]. W przypadku dzieci uczęszczających do żłobka zapalenie błony śluzowej jamy ustnej może być związane z zakażeniem wirusem opryszczki zwykłej [3]. Zmiany zapalne mogą powstać również na skutek [1]: osłabionej odporności i nieprawidłowej pracy układu odpornościowego; aftowego zapalenia z wrzodziejącymi zmianami; reakcji alergicznych; niedoboru witamin A, C i z grupy B; urazów chemicznych, mechanicznych lub termicznych; chemioterapii lub radioterapii. Warto także zwrócić uwagę na zdrowie uzębienia dziecka, ponieważ zapalenie jamy ustnej może mieć związek z chorobami zębów i przyzębia [2].   Zapobieganie zapaleniu jamy ustnej u dzieci – poznaj najlepsze metody Podstawą profilaktyki są prawidłowe nawyki higieny jamy ustnej. Należy do nich regularne szczotkowanie zębów, a także unikanie dzielenia się przedmiotami osobistymi, aby ograniczyć rozprzestrzenianie się zarazków. Zwracaj większą uwagę na to, by dziecko miało własną szczoteczkę do zębów, korzystało tylko ze swoich sztućców, nie piło z butelek lub szklanek innych osób itp. Na zapalenie jamy ustnej, zwłaszcza postać wywołaną wirusem opryszczki zwykłej typu 1., najczęściej chorują dzieci w wieku przedszkolnym. Zachorowaniu sprzyja bliski kontakt małych dzieci w żłobkach i przedszkolach [3]. Dlatego warto zadbać o odporność dziecka, by jego układ immunologiczny lepiej radził sobie z czynnikami chorobotwórczymi. Znaczenie mają pożywna dieta, odpowiednie nawodnienie organizmu, szczepienia ochronne oraz zachęcanie do utrzymania właściwej higieny rąk. Istotne jest także unikanie kontaktu z osobami zakażonymi w czasie epidemii chorób wirusowych. Dodatkowo powinno się zniechęcać dziecko do praktykowania szkodliwych dla jamy ustnej nawyków, takich jak ssanie kciuka, wkładanie zabawek lub innych przedmiotów do buzi. To pomaga zmniejszyć ryzyko podrażnienia błony śluzowej jamy ustnej i ogranicza ryzyko wystąpienia stanu zapalnego.   Dziecko ma zapalenie w jamie ustnej? Działaj od razu! Leczenie i pielęgnacja jamy ustnej w obliczu stanu zapalnego mają na celu złagodzenie objawów, wspomaganie gojenia się zmian i zapobieganie powikłaniom [2]. W celu łagodzenia bólu i zmniejszenia stanu zapalnego w jamie ustnej można zastosować lek Chlorchinaldin o smaku czarnej porzeczki. Tabletki do ssania zawierają chlorochinaldol, czyli substancję czynną, która wykazuje skuteczność w leczeniu pleśniawek, zakażeń bakteryjnych oraz grzybiczych jamy ustnej i dziąseł [4]. Forma leku w tabletkach zalecana jest dla dzieci powyżej 6. roku życia ze względu na ryzyko zachłyśnięcia u młodszych dzieci. Należy także uważać na podawane pokarmy. Najlepiej, by posiłki były łagodne, niegorące, półpłynne, by nie powodowały dyskomfortu i nie nasilały objawów bólowych [2]. Artykuł na zlecenie marki Chlorchinaldin Bibliografia: 1. Wypych A. i in., Zapalenia jamy ustnej u dzieci, z uwzględnieniem pacjentów w trakcie terapii przeciwnowotworowej, Borgis - Nowa Medycyna 1/2007, s. 13-17. 2. Zagor M. i in., Ostre zapalenie błony śluzowej jamy ustnej, 2018 (witryna internetowa: https://www.mp.pl/pacjent/otolaryngologia/choroby/choroby-jamy-ustnej-i-gardla/106153,ostre-zapalenie-blony-sluzowej-jamy-ustnej (dostęp: 16.10.2024)). 3. Stopyra L., Jakie są najczęstsze przyczyny zapalenia jamy ustnej i dziąseł u dzieci uczęszczających do żłobka?, 2023 (witryna internetowa: https://www.mp.pl/pytania/pediatria/chapter/B25.QA.19.25.11. (dostęp: 16.10.2024)). 4. Witryna internetowa: https://www.chlorchinaldin.pl/chlorchinaldin-o-smaku-czarnej-porzeczki/ « powrót do artykułu
  5. Jeszcze do niedawna Antarktyda była jedynym kontynentem, na którym nie znaleziono bursztynu. Właśnie się to zmieniło. Naukowcy z Alfred-Wegener-Institut (AWI) i TU Bergakademie Freiberg opublikowali na łamach Antarctic Science artykuł, w którym informują o odkryciu najbliższych biegunowi południowemu kawałków bursztynu. Dowodzi to, że około 90 milionów lat temu na Antarktydzie rosły drzewa, z których wyciekała żywica. Bursztyn znaleziono w rdzeniu pobranym podczas wyprawy badawczej na pokładzie lodołamacza Polarstern w 2017 roku. Rdzeń został pobrany w Zatoce Pine Island z osadów dennych znajdujących się na głębokości 946 metrów. Dokładne współrzędne geograficzne miejsca pochodzenia rdzenia to 73 stopnie 57 minut szerokości geograficznej południowej i 107 stopni 9 minut długości geograficznej zachodniej (73.57°S, 107.09°W). Żywica znajdowała się w 5-centymetrowej warstwie węgla brunatnego. Po wysuszeniu, węgiel został pokruszony na 1-milimetrowe kawałki i zbadany pod mikroskopem. Właśnie wtedy zauważono liczne fragmenty bursztynu o długości 0,5–1 mm. Miały one barwę od intensywnie żółtej po brązowawą. Analizowane fragmenty dają nam bezpośredni wgląd w warunki naturalne, jakie 90 milionów lat temu panowały w Zachodniej Antarktyce. To również fascynujące szczegółowe uzupełnienie wiedzy o funkcjonowaniu lasu, który opisaliśmy w Nature w 2020 roku, mówi geolog morski Johann P. Klages z AWI. Widzimy więc, że w pewnym momencie swojej historii każdy z siedmiu współczesnych kontynentów zapewniał warunki do życia drzewom wytwarzającym żywicę. Naszym celem jest dowiedzenie się jak najwięcej o tym lesie. Czy dochodziło tam do pożarów, czy w bursztynie znajdziemy ślady życia. Nasze odkrycie pozwala nam na bezpośrednią podróż w czasie, stwierdza uczony. Znalezienie bursztynu to kolejny kawałek układanki, dzięki któremu lepiej zrozumiemy bagnisty, pełen drzew iglastych las strefy umiarkowanej, jaki na biegunie południowym istniał we wczesnej kredzie, dodaje Henny Gerschel z TU Bergakademie Freiberg. « powrót do artykułu
  6. Przed dwoma tygodniami osoba spacerująca plażą w pobliżu miejscowości Denmark w Australii Zachodniej zauważyła pingwina. Nie byłoby w tym nic dziwnego, gdyby nie rozmiary zwierzęcia. Na plaży stał zdezorientowany 1-metrowy pingwin cesarski. Wyczerpane niedożywione zwierzę znajdowało się tysiące kilometrów od domu. Szczęściem w nieszczęściu, że w Australii występuje kilka gatunków pingwinów, są więc i ośrodki ich rehabilitacji. Wsadzenie go do samochodu nie było łatwe, mówi Carol Biddulph, prowadząca jeden z takich ośrodków. Umieściliśmy go w transporterze i zabraliśmy do domu. Pierwszą rzecz, którą trzeba zrobić w takich wypadkach, jest zważenie zwierzęcia. Jeśli zna się jego wagę, można mu podać odpowiednie płyny i leki. Mam specjalne pomieszczenie dla pingwinów. Nigdy jednak nie trafił tam tak wielki ptak. To pomieszczenie dla naszych rodzimych małych pingwinów, dodaje. Od czasu znalezienia pingwina Carol pomaga Department of Biodiversity, Conservation and Attractions, może też liczyć na specjalistyczne porady od lokalnego weterynarza oraz od doktor Belindy Cannell z University of Western Australia. Eksperci zachodzą w głowę, jak to się stało, że pingwin cesarski trafił do miejsca oddalonego o tysiące kilometrów na północ od naturalnego występowania gatunku, które ma zupełnie inny klimat niż ten, do jakiego ptak jest przystosowany. Niewykluczone, że to najbardziej na północ znaleziony pingwin cesarski w historii. « powrót do artykułu
  7. Naukowcy pracujący nad Global Carbon Project, informują, że w bieżącym roku emisja CO2 ze spalania paliw kopalnych osiągnie rekordowo wysoki poziom. Z szacunków wynika, że do końca bieżącego roku ludzkość, spalając paliwa kopalne, wyemituje do atmosfery 37,4 miliardów ton dwutlenku węgla. To o 0,8% więcej niż w roku ubiegłym. Do tego należy dodać emisję związaną ze zmianami w użytkowaniu gruntów (np. wycinkę lasów), z której emisja wyniesie 4,2 miliarda ton. W sumie więc tegoroczna antropogeniczna emisja dwutlenku węgla osiągnie 41,6 miliarda ton, czyli o miliard ton więcej, niż w roku ubiegłym. W ciągu ostatniej dekady emisja ze spalania paliw kopalnych rosła, a z użytkowania gruntów zmalała aż o 20%, dzięki czemu średni poziom emisji utrzymywał się mniej więcej na tym samym poziomie. W bieżącym roku jest jednak inaczej. Rośnie zarówno emisja z paliw, jak i ze zmian użytkowania gruntu. W tym drugim przypadku jest to w znacznej mierze spowodowane przez susze, które pogarszają emisję ze zdegradowanych przez człowieka lasów. Pomimo rosnącej emisji autorzy raportu wykazują umiarkowany optymizm. Mówią, że po raz pierwszy widać wyraźnie, iż zmniejszanie wycinki lasów w ostatnich dekadach przynosi efekty, a coraz większy udział energii odnawialnej zarówno w energetyce, jak i transporcie, pokazuje, że szczyt zużycia paliw kopalnych jest coraz bliżej. Wciąż jednak nie wiadomo, jak odległy jest moment, gdy użycie paliw kopalnych zacznie spadać. Z przeprowadzonych szacunków wynika, że w roku bieżącym – w porównaniu z rokiem ubiegłym – emisja CO2 z węgla wzrośnie o 0,2%, z ropy naftowej o 0,9%, a z gazu o 2,4%. Udział tych paliw w emisji będzie wynosił, odpowiednio 41%, 32% i 21%. Uczeni przewidują, że emisja Chin, które odpowiadają obecnie za 32% emisji światowej, wzrośnie o 0,2%, chociaż możliwy jest też niewielki spadek. USA (13% globalnej emisji) zmniejszą swoją emisję o 0,6%. Indie (8% emisji CO2), wyemitują w bieżącym roku o 4,6% więcej niż w ubiegłym, a emisja UE (7%) zmniejszy się o 3,8%. Cała reszta świata wyemituje o 1,1% dwutlenku węgla więcej, niż w roku ubiegłym. Szacunki mówią też, że lotnictwo i transport morski, które emitują 3% całości CO2, a z których emisje nie są przypisywane do żadnego kraju, wyemitują o 7,8% więcej, ale wciąż będzie to o 3,5% mniej niż z czasów sprzed pandemii. Średni poziom CO2 w atmosferze w 2024 roku wyniesie 422,5 części na milion. To o 2,8 części na milion więcej niż w roku ubiegłym i o 52% więcej, niż w okresie przedprzemysłowym. Naukowcy zauważają też, że zjawisko El Niño doprowadziło do zmniejszenia absorpcji atmosferycznego CO2 przez ekosystemy w roku 2023, jednak sytuacja wkrótce powinna wrócić do normy. Lądy i oceany wciąż pochłaniają około połowy CO2 emitowanego przez człowieka. Uczeni z Global Carbon Budget uważają, że obecnie istnieje 50% ryzyko, że już za 6 lat każdy kolejny rok będzie o co najmniej 1,5 stopnia Celsjusza cieplejszy niż w okresie preindustrialnym. Stwierdzają również, że niemal skończył się czas, by powstrzymać globalne ocieplenie na poziomie poniżej 1,5 stopnia Celsjusza. « powrót do artykułu
  8. Punktem wyjścia dla szacowania poziomu antropogenicznego ocieplenia jest zwykle rok 1850, kiedy na wystarczająco dużą skalę prowadzono wiarygodne pomiary temperatury. Jednak w roku 1850 rewolucja przemysłowa trwała od dawna, więc przyjmując ten rok jako podstawę dla pomiarów, trudno jest mówić o wpływie człowieka na temperatury na Ziemi od czasów preindustrialnych. Andrew Jarvis z Lancaster University i Piers Forster z University of Leeds, wykorzystali rdzenie lodowe z Antarktyki do opracowania nowej osi referencyjnej temperatur w czasach przedprzemysłowych. Uczeni przeanalizowali bąbelki powietrza zamknięte w rdzeniach lodowych i w ten sposób określili stężenie dwutlenku węgla w latach 13–1700. Następnie, zakładając liniową zależność pomiędzy koncentracją CO2 a temperaturami, obliczyli średnie temperatury panujące na Ziemi. Z pracy opublikowanej na łamach Nature Geoscience dowiadujemy się, że od okresu przed 1700 roku do roku 2023 ludzie podnieśli średnią temperaturę na planecie o 1,49 (±0,11) stopnia Celsjusza. Dodatkową zaletą wykorzystanej metody jest niezależna weryfikacja obecnych szacunków. Z badań Jarvisa i Forstera wynika, że od roku 1850 wzrost temperatury wyniósł 1,31 stopnia Celsjusza. Dokładnie zgadza się to z dotychczasowymi ustaleniami, ale badania z rdzeni lodowych są obarczone mniejszym marginesem błędu. Niektórzy eksperci uważają, że nowa metoda, chociaż sprawdza się teraz, może nie być przydatna w przyszłości. Nie wiemy bowiem, czy w nadchodzących dekadach liniowa zależność pomiędzy stężeniem dwutlenku węgla a temperaturą się utrzyma. Ich metoda bazuje na korelacji stężenia CO2 z antropogenicznym ociepleniem klimatu. Ta widoczna w przeszłości silna korelacja może być czystym przypadkiem i, w zależności od tego jak będą się układały proporcje CO2 i innych czynników w przyszłości, może się ona nie utrzymać, stwierdza Joeri Rogelj z Imperial College London. Richard Betts z Met Office chwali nową metodę, zauważa, że może dostarczać ona lepszych danych na temat przeszłości, ale nie widzi potrzeby zmiany punktu odniesienia dla badań nad ociepleniem klimatu. « powrót do artykułu
  9. W 1980 roku doszło do największej erupcji wulkanicznej w historii USA i jednej z najpotężniejszych erupcji wulkanicznych XX wieku, wybuchu wulkanu Mount St. Helens. Wybuch zabił życie w promieniu wielu kilometrów. Niecałe trzy lata później naukowcy przeprowadzili wyjątkowy, trwający zaledwie jeden dzień, eksperyment nad odrodzeniem życia w regionie. Wypuścili gofferniki krecie (Thomomys talpoides), gryzonie z rodzaju gofferowatych. Dzisiaj, ponad 40 lat później, pozytywne skutki eksperymentu wciąż są widoczne. Gofferowate prowadzą podziemny tryb życia. Kopiąc nory napowietrzają i mieszają ziemię. Na powierzchnię ziemi wychodzą nocą, poszukując pożywienia. Rolnicy uważają je za szkodniki. Gdy materiał, który został wyrzucony przez wulkan, wystygł, naukowcy wysunęli hipotezę, że gryzonie, przekopując się przez ziemię, mogą doprowadzić do przemieszczenia bakterii i grzybów na powierzchnię, pomagając w ten sposób w odtworzeniu życia, wspomagają wzrost roślin i powrót zwierząt. Dwa lata po eksplozji postanowili tę hipotezę przetestować. Nie spodziewali się jednak, że wyniki eksperymentu będą widoczne do dzisiaj. W latach 80. po prostu testowaliśmy krótkoterminowy wpływ gofferowatych na pozbawiony życia krajobraz. Kto mógł przewidzieć, że wystarczy wypuścić te zwierzęta na 1 dzień, a skutki tego będą widoczne do dzisiaj, 40 lat później, mówi mikrobiolog Michael Allen z Uniwersytetu Kalifornijskiego w Riverside. Wtedy, w 1983 roku Allen i James McMahon z Utah State University, polecieli śmigłowcem nad obszary zniszczone przez erupcję. Zauważyli tam kilka rachitycznych roślinek, które wyrosły z nasion upuszczonych przez ptaki, ale z powodu braku składników odżywczych w glebie nie rozwijały się zbyt dobrze. Allen i McMahon wypuścili w 2 ściśle wyznaczonych miejscach kilka gofferników krecich. Po 1 dniu zwierzęta zabrano z powrotem. Już sześć lat później w miejscach gdzie wypuszczono zwierzęta, naukowcy naliczyli 40 000 roślin. Miejsca sąsiednie, do których zwierzęta nie dotarły, nadal były niemal pozbawione życia. Gryzonie, mieszając ziemię, wydobyły na powierzchnię grzyby mykoryzowe. Z wyjątkiem nielicznych gatunków korzenie nie są wystarczająco wydajne, by zapewnić roślinie potrzebne składniki odżywcze i wodę. Grzyby transportują te składniki do roślin, a w zamian otrzymują węgiel, którego potrzebują do własnego wzrostu, mówi Allen. Rola grzybów mykoryzowych jest szczególnie ważna w środowiskach ubogich w składniki odżywcze. Wystarczył jeden dzień, by gryzonie przygotowały środowisko potrzebne do wzrostu roślin. Drugim z ważnych aspektów badań jest pokazanie, jak ważne są grzyby dla ponownego wzrostu roślin po katastrofach naturalnych. Na jednym ze zboczy wulkanu rósł stary las iglasty. Popioły wulkaniczne pokryły drzewa, doprowadziły do przegrzania i opadnięcia igieł. Naukowcy obawiali się, że utrata igieł doprowadzi do zagłady lasu. Tak się jednak nie stało. Drzewa miały bowiem bogate kolonie grzybów mykoryzowych. Te bardzo szybko wykorzystały składniki odżywcze z opadniętych igieł i dostarczyły je do drzew. Drzewa odrodziły się niemal natychmiast. Nie zginęły, jak wszyscy się obawiali, mówi współautorka najnowszych badań, mikrobiolog Emma Aronson. Co więcej, jeszcze przed erupcją, po drugiej strony wulkanu, wycięto wiele hektarów lasu. Drzewa zostały stamtąd zabrane, więc nie było igieł, które zasiliłyby glebę składnikami odżywczymi. Do dzisiaj mało co tam rośnie. To naprawdę szokujące porównanie, gdy widzi się stary las, którego gleba została zasilona przez igły i martwy obszar zniszczony przez człowieka, dodaje Aronson. Badania pokazują, jak wielka jest odporność natury na katastrofy naturalne i jak może się ona. Nie możemy ignorować sieci współzależności w naturze. Szczególnie tych elementów, których nie widzimy, jak grzyby i mikroorganizmy, stwierdzają badacze. Z pracą Microbial community structure in recovering forests of Mount St. Helens można zapoznać się na łamach Frontiers in Microbiomes. « powrót do artykułu
  10. W grudniu 2020 roku miała miejsce spektakularna katastrofa. Zawalił się jeden z najbardziej znanych instrumentów naukowych na świecie, radioteleskop w Arecibo. W raporcie opublikowanym właśnie przez amerykańskie Narodowe Akademie Nauk czytamy, że główną przyczyną katastrofy było – wywołane potężnym promieniowaniem elektromagnetycznym – zmęczenie cynku w mocowaniach lin nośnych, które utrzymywały 900-tonową platformę odbiornika na wysokości 120 metrów nad czaszą radioteleskopu. Już wcześniejsze raporty wspominały o deformacji cynku, ale jako możliwe przyczyny katastrofy wskazywano też błędy konstrukcyjne czy uszkodzenia przez huragan Maria, który przeszedł w 2017 roku. Inspekcja wykonana po przejściu huraganu znalazła dowody na ślizganie się lin nośnych, jednak – jak dowiadujemy się z obecnego raportu – nie odnotowano wówczas wzorców zużycia i większości nie wyjaśniono. Ponadto na zdjęciach z roku 2019 widoczne jest poważne zużycie uchwytów lin, miejsc w których były one mocowane. Mimo to nie przeprowadzono żadnych badań. Zaskoczyło to autorów raportu. Ich zdaniem niepokojący jest fakt, że inżynierowie wynajęci do badania stanu lin pomiędzy przejściem huraganu Maria a zawaleniem się teleskopu nie wszczęli alarmu z powodu zauważonego zużycia elementów nośnych. Główną przyczyną katastrofy była deformacja cynkowych uchwytów lin. W wyniku olbrzymich naprężeń i pod wpływem temperatury doszło do ich deformacji oraz pękania drutów w linach, co osłabiało miejsca mocowania lin. Za główną zaś przyczynę deformacji uznano generowane przez teleskop promieniowanie elektromagnetyczne. Zdaniem badaczy, potężne nadajniki teleskopu indukowały w linach i miejscach mocowania prąd elektryczny, który wywoływał długoterminową elektroplastyczność cynku, co znacząco przyspieszało naturalne zmęczenia materiału. Twórcy raportu dodają, że – o ile im wiadomo – mamy tu do czynienia z pierwszym w historii udokumentowanym przypadkiem awarii wywołanej pełzaniem cynku. Dlatego też w raporcie zaproponowano, by Narodowa Fundacja Nauki, do której należy Arecibo, przekazała pozostałe liny i ich uchwyty społeczności naukowej, w celu dalszych badań zjawiska zmęczenia cynku pod wpływem silnego promieniowania elektromagnetycznego. « powrót do artykułu
  11. Z europejskich stanowisk archeologicznych znamy przykłady manipulacji szczątkami zmarłych. Widzimy powtórne pochówki, zmiany ułożenia szkieletów czy wykorzystywanie poszczególnych kości. Z dwóch szkockich stanowisk z epoki brązu – Cladh Hallan i Cnip Headland – znamy też przykłady złożenia szkieletów z kości różnych osób. Naukowcy z Belgii, USA, Niemiec, Hiszpanii i Włoch donoszą o pochówku, gdzie szkielet – któremu nadano pozory pochodzenia od jednej osoby – został złożony z kości ludzi, żyjących w różnych tysiącleciach. W latach 70. ubiegłego wieku w Pommerœul w Belgii znaleziono cmentarz zawierający 76 pochówków ciałopalnych i jeden pochówek szkieletowy (Grób 26). Istnienie cmentarza związane było z tamtejszym gallo-rzymskim miastem. Na podstawie cech charakterystycznych osady, pochówki ciałopalne datowano na II-III wiek. Szkielet znajdował się w niższej warstwie. Mimo że był on ułożony w pozycji nietypowej dla rzymskich pochówków, ze zgiętymi nogami na prawym boku, przez obecność kościanej szpilki do włosów w pobliżu czaszki uznano, że i tutaj mamy do czynienia z pochówkiem gallo-rzymskim. Niedawne datowanie radiowęglowe ujawniło, że pochówki ciałopalne rzeczywiście pochodzą z okresu rzymskiego, ale datowanie szkieletu wskazywało na późny neolit. Takie datowanie zgadza się natomiast z ułożeniem zwłok. W ten sposób w regionie tym grzebano ludzi w późnym neolicie i wczesnej epoce brązu. Szczegółowe badania szkieletu wykazały jednak, że został on złożony z kości co najmniej 5 dorosłych i 2 osób sprzed osiągnięcia dorosłości. Naukowcy poddali więc datowaniu radiowęglowemu 11 ze znalezionych kości i odkryli, że chociaż wszystkie pochodzą z późnego neolitu, to można wyróżnić trzy okresy, z których żyły osoby wykorzystane do złożenia szkieletu. Najstarsze kości mogą pochodzić nawet z roku 3333 przed naszą erą, najmłodsze zaś datowane są na rok 2675. To jednak nie koniec tajemnic niezwykłego szkieletu. Jego czaszki nie udało się datować, ale znaleziona obok niej szpilka pochodzi z lat 69–210 naszej ery. Analiza DNA wykazała, że czaszka należała do kobiety, która była spokrewniona z dwójką dzieci, pochowaną na rzymskim cmentarzu w położonym 150 kilometrów dalej Tongeren. Te spokrewnione ze sobą dzieci – dziewczynka w wieku 4-5 lat i chłopiec w wieku 2-4 lat – spoczęły w grobie z dorosłym mężczyzną, który nie był ich ojcem. Szczątki dziewczynki udało się datować na lata 211–335, co jest zgodne z innymi pochówkami z Tongeren oraz z kremacjami z Pommerœul. Stopień pokrewieństwa pomiędzy dziećmi z Tongeren, a kobietą z Pommerœul wynosi od 0 do 28 pokoleń, co oznacza, że różnica w czasie, w którym osoby te żyły wynosi od 0 do 784 lat (przy założeniu 28 lat na pokolenie). Cmentarz w Tongeren pochodzi z czasów gallo-rzymskich, nawet jeśli przyjmiemy wspomniane 784 lata różnicy, to pomiędzy czaszką, a najmłodszymi kośćmi, z którymi została pochowana, jest ponad 2000 lat różnicy. Według badaczy istnieją dwa możliwe wyjaśnienia tak niezwykłego pochówku. Wedle pierwszego z nich podczas pochówków ciałopalnych w okresie gallo-rzymskim trafiono na złożony z kości różnych osób pochówek z czasów neolitu. Szkieletowi albo brakowało czaszki, albo postanowiono zastąpić ją czaszką z okresu rzymskiego. Jako dobro grobowe dodano zaś rzymską szpilkę do włosów. Znamy przypadki, gdy spokój wcześniejszych grobów był przypadkowo zakłócany w czasach rzymskich, jednak brak dowodów, by dokonywano celowego „przemodelowania” takich grobów. Drugi zaś scenariusz zakłada, że w czasach gallo-rzymskich złożono cały szkielet, wykorzystując znalezione lokalnie kości z neolitu, a całość uzupełniono rzymską czaszką. Jeśli tak było, jest to prawdopodobnie pierwszy znany przypadek, by w czasach rzymskich złożono nowy szkielet z kości prehistorycznych i rzymskich. « powrót do artykułu
  12. Badania DNA ludzi zabitych w Pompejach przez Wezuwiusza pokazały, jak błędne były czynione przez wieki założenia. Okazuje się, że rzekome rodziny nie były rodzinami, zmarłym źle przyporządkowano płeć. Okazało się ponadto, że ludność Pompejów w większości stanowili emigranci ze wschodnich regionów Morza Śródziemnego. Erupcja Wezuwiusza nie dała szans na ucieczkę wielu mieszkańcom miasta. Ci, którzy przeżyli pierwszą jej fazę, zabiły lawiny piroklastyczne, szybko przemieszczające się chmury gorących gazów i popiołów. Pokryły one ciała ofiar grubą warstwą, na zawsze zachowując ich kształt. Od XIX wieku naukowcy wykonują w Parco Archeologico di Pompei odlewy ciał, wstrzykując gips z puste miejsca, pozostałe po rozłożeniu się tkanek. Uczonym, którzy prowadzili zabiegi konserwatorskie, udało się pozyskać DNA z pofragmentowanych szkieletów zatopionych w 14 z 86 tych odlewów. To zaś pozwoliło na określenie płci zmarłych, ich pochodzenia oraz związków genetycznych pomiędzy nimi. I pokazało, jak błędne były dotychczasowe założenia, które opierano na wyglądzie i pozycji ciał. Na przykład w Domu Złotej Bransolety, jedynym miejscu z którego mamy DNA całej grupy ciał, okazało się, że cztery osoby, które interpretowano jako rodzice z dwójką dzieci, nie były w żaden sposób ze sobą spokrewnione, mówi profesor David Caramelli z Uniwersytetu we Florencji. To nie jedyne błędne przypuszczenia, zweryfikowane przez DNA. Innym znanym przykładem jest dorosła osoba nosząca złotą bransoletę i trzymająca dziecko. Tradycyjnie interpretowano je jako matkę z dzieckiem. Okazało się, że to mężczyzna i dziecko, którzy nie byli ze sobą spokrewnieni. Mamy też dwie obejmujące się osoby, które interpretowano jako matka z córką lub siostry. Teraz wiemy, że jedna z tych osób to mężczyzna, dodaje David Reich z Uniwersytetu Harvarda. Ponadto wszyscy mieszkańcy Pompejów, w przypadku których udało się zdobyć dane z całego genomu, okazali się w głównej mierze potomkami emigrantów ze wschodnich regionów Śródziemiomorza. Pochodzenie takie widoczne jest też w genomach współczesnych im mieszkańców Rzymu, co tylko pokazuje, jak kosmopolityczne było Imperium Romanum w tych czasach. « powrót do artykułu
  13. Badacze z MIT, University of Cambridge i McGill University skanowali mózgi ludzi oglądających filmy i dzięki temu stworzyli najbardziej kompletną mapę funkcjonowania kory mózgowej. Za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) naukowcy zidentyfikowali w naszej korze mózgowej 24 sieci połączeń, które pełnią różne funkcje, jak przetwarzanie języka, interakcje społeczne czy przetwarzanie sygnałów wizualnych. Wiele z tych sieci było znanych wcześniej, jednak dotychczas nie zbadano ich działania w warunkach naturalnych. Wcześniejsze badania polegały bowiem na obserwowaniu tych sieci podczas wypełniania konkretnych zadań lub podczas odpoczynku. Teraz uczeni sprawdzali ich działanie podczas oglądania filmów, byli więc w stanie sprawdzić, jak reagują na różnego rodzaju sceny. W neuronauce coraz częściej bada się mózg w naturalnym środowisku. To inne podejście, które dostarcz nam nowych informacji w porównaniu z konwencjonalnymi metodami badawczymi, mówi Robert Desimone, dyrektor McGovern Institute for Brain Research na MIT. Dotychczas zidentyfikowane sieci w mózgu badano podczas wykonywania takich zadań jak na przykład oglądanie fotografii twarzy czy też podczas odpoczynku, gdy badani mogli swobodnie błądzić myślami. Teraz naukowcy postanowili przyjrzeć się mózgowi w czasie bardziej naturalnych zadań: oglądania filmów. Wykorzystując do stymulacji mózgu tak bogate środowisko jak film, możemy bardzo efektywnie badań wiele obszarów kory mózgowej. Różne regiony będą różnie reagowały na różne elementy filmu, jeszcze inne obszary będą aktywne podczas przetwarzania informacji dźwiękowych, inne w czasie oceniania kontekstu. Aktywując mózg w ten sposób możemy odróżnić od siebie różne obszary lub różne sieci w oparciu o ich wzorce aktywacji, wyjaśnia badacz Reza Rajimehr. Bo badań zaangażowano 176 osób, z których każda oglądała przez godzinę klipy filmowe z różnymi scenami. W tym czasie ich mózgi były skanowane aparatem do rezonansu magnetycznego, generującym pole magnetyczne o indukcji 7 tesli. To zapewnia znacznie lepszy obraz niż najlepsze komercyjnie dostępne aparaty MRI. Następnie za pomocą algorytmów maszynowego uczenia analizowano uzyskane dane. Dzięki temu zidentyfikowali 24 różne sieci o różnych wzorcach aktywności i zadaniach. Różne regiony mózgu konkurują ze sobą o przetwarzanie specyficznych zadań, gdy więc mapuje się je z osobna, otrzymujemy nieco większe sieci, gdyż ich działanie nie jest ograniczone przez inne. My przeanalizowaliśmy wszystkie te sieci jednocześnie podczas pracy, co pozwoliło na bardziej precyzyjne określenie granic każdej z nich, dodaje Rajimehr. Badacze opisali też sieci, których wcześniej nikt nie zauważył. Jedna z nich znajduje się w korze przedczołowej i wydaje się bardzo silnie reagować na bodźce wizualne. Sieć ta była najbardziej aktywna podczas przetwarzania scen z poszczególnych klatek filmu. Trzy inne sieci zaangażowane były w „kontrolę wykonawczą” i były najbardziej aktywne w czasie przechodzenia pomiędzy różnymi klipami. Naukowcy zauważyli też, że były one powiązane z sieciami przetwarzającymi konkretne cechy filmów, takie jak twarze czy działanie. Gdy zaś taka powiązana sieć, odpowiedzialna za daną cechę, była bardzo aktywna, sieci „kontroli wykonawczej” wyciszały się i vice versa. Gdy dochodzi do silnej aktywacji sieci odpowiedzialnej za specyficzny obszar, wydaje się, że te sieci wyższego poziomu zostają wyciszone. Ale w sytuacjach niepewności czy dużej złożoności bodźca, sieci te zostają zaangażowane i obserwujemy ich wysoką aktywność, wyjaśniają naukowcy. « powrót do artykułu
  14. Przez lata uważano, że jedynie silnie zaangażowani politycznie, a jednocześnie mniej wykształceni odbiorcy informacji medialnych, przedkładają potwierdzenie własnych poglądów nad prawdę. Innymi słowy, że wierzą w informacje potwierdzające ich poglądy, niezależnie od tego, czy są prawdziwe. W ostatnich latach zaczęły się ukazywać badania, które wykazały, że konsumenci informacji – bez względu nad wykształcenie – przedkładają poglądy nad prawdę. W 2021 roku jedno z badań wykazało nawet, że wiarygodność informacji była oceniana czterokrotnie wyżej wówczas, gdy informacja potwierdzała poglądy odbiorcy. Nowe badania przynoszą więcej szczegółów na ten temat i pokazują, w jakim stopniu ludzie są skłonni poświęcić prawdę dla ideologii. W czasie naszych badań obserwowaliśmy, że większą odgrywa polityczne samookreślenie niż prawda. Widzieliśmy to po obu stronach sporu politycznego, nawet u ludzi, którzy dobrze wypadali w testach racjonalnego rozumowania. Zdziwiło nas, jak szeroko rozpowszechnione to zjawisko. Ludzie bardzo mocno angażują się, by nie poznać niewygodnej prawdy, mówi główny autor badań, doktor Michael Schwalbe z Wydziału Psychologii w School of Humanities and Sciences na Uniwersytecie Stanforda. Co interesujące, zjawisko to jest bardziej widoczne w przypadku prawdziwych informacji niż fałszywych, co oznacza, że ludzie z większym prawdopodobieństwem odrzucą prawdziwe informacje jeśli przeczą ich poglądom, niż zaakceptują fałszywe informacje, potwierdzające ich poglądy. Wszyscy uważają, że to problem, który ich nie dotyczy. Twierdzą, że w ich przypadku jest inaczej. Jednak jak wykazują kolejne badania, to zjawisko stale występujące w całym spektrum poglądów politycznych i niezależny od wykształcenia. Problemem nie jest tutaj sama dezinformacja, a filtry, które zbudowaliśmy w naszym mózgu, mówi profesor Geoffrey L. Cohen. Autorzy badań mówią, że ich wyniki różnią się od badań wcześniejszych, ze względu na inną metodologię. Na przykład wcześniejsze badania korzystały z prawdziwych nagłówków prasowych, a Cohen i Schwalbe stworzyli własne nagłówki. Ponadto podczas wcześniejszych badań osoby biorące w nich udział miały wgląd w to, z jakich mediów pochodziły prezentowane im nagłówki i informowano ich, jaki jest cel badań. Uczeni ze Stanforda nie zdradzili, co naprawdę badają. Poinformowali badanych, że chodzi o kwestie związane z pamięcią i komunikacją, wykorzystali też pytania dotyczące tych właśnie zagadnień, by badani nie domyślili się prawdziwego celu eksperymentu. Cohen i Schwalbe prowadzili swoje badania w 2020 roku, podczas wcześniejszych wyborów, które Donald Trump przegrał z Joe Bidenem. Zespół naukowy przedstawił badanym fałszywe nagłówki prasowe, na przykład Trump pokonał arcymistrza szachowego czy Trump, przebrany za papieża, wziął udział prywatnej orgii z okazji Halloween. Okazało się, że obie strony sporu politycznego bardziej wierzyły w fałszywe informacje potwierdzające ich poglądy, niż w prawdziwe informacje przeczące ich poglądom. Naukowcy zauważyli, że jednym z głównych powodów odrzucania prawdy na rzecz własnej ideologii, jest coraz silniejsze skupienie się na mediach przedstawiających jeden punkt widzenia oraz przekonanie o obiektywizmie i braku tendencyjności po własnej stronie sporu politycznego w porównaniu ze stroną przeciwną. Innymi słowy, im kto więcej konsumował informacji z mediów prezentujących jego punkt widzenia i im bardziej był przekonany, że jego strona sporu politycznego jest obiektywna, tym bardziej odrzucał niewygodną prawdę na rzecz potwierdzenia swoich poglądów. Sytuację pogarsza zamykanie się we własnych bańkach informacyjnych w mediach społecznościowych. Schwalbe i Cohen mówią, że problemu tego nie rozwiąże walka z fałszywymi informacjami, gdyż ludzie odrzucają prawdziwe informacje, które nie potwierdzają ich poglądów. Zdaniem uczonych, ważną rolę mogłoby odegrać nauczenie ludzi nieco intelektualnej skromności. Uświadomienie konsumentom informacji, że rozum może ich zwodzić i nauczenie ich kwestionowania swojego punktu widzenia, gdyż nie jest on jedynym słusznym i prawdziwym. « powrót do artykułu
  15. Do National Maritime Museum w Greenwich trafił niezwykły zabytek – mundur oficera napoleońskiej służby celnej, w który przebrał się nastoletni chorąży Royal Navy, Charles Hare, podczas ucieczki z niewoli we Francji. To jedyny znany przypadek ucieczki w takim przebraniu. Historycy nie mieli pojęcia, o istnieniu munduru. Potomkowie Hare'a przechowali go przez wieki, a sam zabytek jest jeszcze bardziej niezwykły przez fakt, że zachowali też dziennik żołnierza, który szczegółowo opisywał brawurową ucieczkę, podczas której wiernie towarzyszył mu pies. Po tym, jak mundur trafił do muzeum, został poddany zabiegom konserwatorskim i został umieszczony w galerii Nelson, Navy, Nation. Podczas wojen napoleońskich zaszły ważne zmiany w traktowaniu jeńców wojennych. Złapani brytyjscy żołnierze i marynarze spędzali całe lata we francuskiej niewoli. Niektóry próbowali uciekać, przebierając się za chłopów czy praczki. Hare to jedyna osoba, o której wiemy, że przebrała się za francuskiego oficera. Jeńcy prawdopodobnie tak nie robili, gdyż było to niezwykle niebezpieczne. W przypadku schwytania zostaliby straceni, jako szpiedzy. Hare musiał być bardzo odważny, mówi kuratorka Katherine Gazzard. Chorąży zdawał sobie sprawę z niebezpieczeństwa. W swoim dzienniku napisał: jeśli zostanę złapany w mundurze, z bronią lub fałszywymi dokumentami, czeka mnie natychmiastowa śmierć z dekretu Bonapartego. To złamanie prawa, o którym dobrze wiem. Ten straszny obraz nie opuszcza mojej głowy i to prawdopodobnie dlatego na mej twarzy rysuje się roztargnienie. Słuchając, jak toczą się koła powozu, wydaje mi się, że współpasażerowie coraz bardziej mi się przyglądają. Moja podejrzliwość rośnie z minuty na minutę. Muszę powstrzymywać się, by nie zacząć uciekać. Hare bardzo szczegółowo opisał swoją podróż ku wolności, swoje rozterki i obawy, żarty które robił Francuzom. Na koniec zaś wspomina o psie, który mu towarzyszył. Nie mógłbym zakończyć, bez poinformowania moich przyjaciół czytelników, że towarzyszył mi terier angielski, którego cztery lata wcześniej otrzymałem od pewnego dżentelmena w Verdun. Był on bardzo pomocny podczas mej podróży. Za każdym razem, gdy podczas posiłku czy przy innej okazji kierowane było do mnie niewygodne pytanie, udawałem, że nie słyszę, gdyż cały czas bawiłem się z psem i go pieściłem. Ta strategia nigdy mnie nie zawiodła dzięki niezwykłej uprzejmości Francuzów, który widzieli, że jestem bardziej zainteresowany psem niż konwersacją z nimi. Hare wrócił do domu w Lincolnshire w sierpniu 1809 roku, sześć lat po tym, jak trafił do niewoli. Charles Hare urodził się w 28 września 1789 roku w rodzinie oficera marynarki. W wieku 11 lat wstąpił do Royal Navy, jego ojciec zmarł w tym samym roku. W 1803 roku Francuzi przechwycili „Minerwę” – okręt na którym służył już w stopniu chorążego. Jeńców przetransportowano do Verdun. Oficerowie, w tym Hare, mogli swobodnie poruszać się po mieście. W 1806 Hare został przeniesiony do więzienia w forcie Sarre-Libre (obecnie Saarlouis). Z fortu uciekł 12 sierpnia 1809 roku. Najpierw pojechał powozem do Moguncji, następnie kolejnymi łodziami płynął Renem, aż dotarł do Rotterdamu. Dnia 25 sierpnia 1809 roku zameldował się na pokładzie „Royal Oak”, brytyjskiego okrętu wojennego, który brał udział w blokadzie duńskiego wybrzeża. Kilka dni później okręt popłynął do Wielkiej Brytanii. Hare opuścił jego pokład w Grimsby. Stamtąd, już pieszo, udał się do domu w Summer Castle, gdzie powitały go matka i siostry. « powrót do artykułu
  16. Chińsko-amerykański zespół naukowy zdobył pierwsze bezpośrednie dowody geochemiczne na to, że Ziemia była w pewnym momencie „błotnistą planetą”, co z kolei potwierdza hipotezę Ziemi-śnieżki, czyli etapu globalnego zlodowacenia. Zakończyło je gwałtowne ocieplenie klimatu spowodowane wzrostem stężenia dwutlenku węgla w atmosferze. Zgodnie ze wspomnianą hipotezą, zlodowacenie Marinoan miało miejsce 650–635 milionów lat temu. Gdy globalne temperatury się obniżyły, lód na biegunach zaczął się rozrastać, zwiększyło się albedo Ziemi, co spowodowało kolejne obniżenie temperatur i dalsze rozprzestrzenianie się lodów na obie półkule. Gdy zamarzła znaczna część oceanów, a lód morski sięgał tropików, zatrzymany został cykl hydrologiczny. Nie zachodziło parowanie, opady deszczu i śniegu były minimalne. Bez wody doszło do olbrzymiego spowolnienia procesu wietrzenia chemicznego skał. To bardzo ważny proces, w ramach którego z atmosfery wycofywana jest znaczna część węgla. Bez chemicznego wietrzenia skał i bez kontaktu z wodami oceanicznymi, atmosfera nie miała jak pozbywać się węgla. Więc dwutlenek węgla, który do niej trafiał np. w wyniku erupcji wulkanicznych, nie był usuwany. Tylko kwestią czasu było, aż dwutlenek węgla osiągnie poziom wystarczająco wysoki, by jego wpływ był silniejszy, niż chłodzący wpływ pokryw lodowych. A gdy to się stało, zjawisko takie miało katastrofalne rozmiary, mówi Shuhai Xiao, Wydziału Nauk o Ziemi na Virginia Tech. Doszło do gwałtownego wzrostu globalnych temperatur. W ciągu 10 milionów lat średnia temperatura na Ziemi wzrosła z -45 do 48 stopni Celsjusza. Do bardzo słonych starych (bo zamkniętych pod lodem przez miliony lat) wód oceanicznych zaczęła gwałtownie spływać słodka woda z roztapiającego się lodu. Wody te się nie wymieszały. Lżejsza słodka woda utworzyła grubą warstwę na powierzchni oceanów. I to właśnie istnienie tej hipotetycznej warstwy, a zatem prawdziwość takiego scenariusza, postanowili sprawdzić autorzy wspomnianych badań. Zgodnie bowiem z tym scenariuszem, śladem istnienia takiego błotnistego rozmokłego świata z warstwą słodkiej wody unoszącą się na starych mocno słonych wodach oceanu, powinny być różnice w sygnaturze biochemicznej skał. Otóż znajdujące się w pobliżu wybrzeży skały, które miały kontakt z tą słodką wodą, powinny mieć wyraźnie różną sygnaturę izotopów litu, niż położone w głębi oceanów skały, które takiego kontaktu nie miały. Analizy przeprowadzone przez uczonych z Chin i USA wykazały, że rzeczywiście skład izotopów litu w skałach jest taki, jakiego należałoby oczekiwać, gdyby hipoteza o słodkich wodach tworzących warstwę na starych wodach słonych, była prawdziwa. Z artykułem opisującym wyniki badań można zapoznać się na łamach PNAS. « powrót do artykułu
  17. Jezioro Genezaret (Morze Kinneret), największe słodkowodne jezioro Izraela, jest od tysięcy lat ważnym regionalnym miejscem ludzkiej aktywności. Wokół niego koncentrowała się też znaczna część działalności Jezusa Chrystusa i jego uczniów, z których część była rybakami. Nad brzegiem jeziora Jezus dokonał jednego z najbardziej znanych cudów – rozmnożenia chleba i ryb. Cud miał miejsce dwukrotnie, a pierwsze rozmnożenie jest jedynym cudem opisanym we wszystkich Ewangeliach. Grupa uczonych uważa, że do rozmnożenia ryb mogło rzeczywiście dojść, ale zjawisko to ma całkowicie naturalne wytłumaczenie. Już sam fakt, że wspomniany cud został jako jedyny opisany we wszystkich Ewangeliach, wskazuje na jego olbrzymie znaczenie dla rozwoju chrześcijaństwa, wraz ze wszystkimi tego konsekwencjami dla historii ludzkości. Nic więc dziwnego, że nauka stara się dowiedzieć jak najwięcej o tym wydarzeniu. Ponadto w Ewangelii Łukasza opisany jest cudowny połów ryb, kiedy to Jezus zachęcił swoich uczniów, by – pomimo nieudanych prób połowu prowadzonych przez całą noc – jeszcze raz wypłynęli na jezioro. Uczniowie posłuchali i złowili olbrzymią liczbę ryb. Autorzy nowych badań uważają, że cuda te można wyjaśnić za pomocą naturalnego zjawiska. Tradycja chrześcijańska przekazała, że do cudów miało dojść na północnym wybrzeżu, w regionie zwanym Tabga. Pod koniec IV wieku region ten odwiedziła hiszpańska pątniczka Egeria, która pozostawiła zapiski ze swojej podróży. Wspomina w nich o istnieniu kamienia, czczonego przez pierwszych chrześcijan, na którym to Chrystus miał spożywać posiłek oraz informuje o istniejącym tam kościele. Kilkaset lat później o kościele wspomina też mnich Epifaniusz. Podczas badań archeologicznych przeprowadzonych w XX wieku odkryto pozostałości trzech kościołów, z jasnymi nawiązaniami do cudów. Naukowcy są zgodni, że to rzeczywiście Tabga jest tym miejscem, które wcześni chrześcijanie identyfikowali jako miejsce, gdzie Chrystus rozmnożył chleb i ryby. Teraz dowiadujemy się, że jest też miejscem, w którym występuje pewne naturalne zjawisko, które mogło doprowadzić do pojawienia się wielkiej obfitości ryb. Genezaret należy do jezior holomiktycznych (czyli takich, w których mieszaniu ulega cała masa wody), do podgrupy jezior monomiktycznych ciepłych, co oznacza, że mieszanie zachodzi tylko zimą. Takie jeziora praktycznie nigdy nie zamarzają. Latem górna warstwa jeziora – epilimnion – jest ciepła i spoczywa na chłodnej dolnej warstwie, hypolimnionie. Pomiędzy nimi znajduje się metalimnion o bardzo dużym gradiencie temperatur (termoklina). Od kwietnia do października nad jeziorem dominują wiatry północno-zachodnie, które zaczynają wiać po południu i wieją przez 5–8 godzin. Wiejący wiatr wywołuje poziomy gradient ciśnienia, spychając wody powierzchniowe w dół wiatru. Powoduje to powstanie na jeziorze sejszy, fali stojącej. Termoklina zwiększa się w kierunku, w którym wieje wiatr. W wyniku oddziaływania wiatru i ruchu obrotowego Ziemi w jeziorze pojawiają się również fale wewnętrzne – fale Kelvina i Poincarego. Naukowcy od dłuższego czasu je badają i zauważyli, że w wyniku oscylacji fal wewnętrznych dochodzi do pionowego przemieszczania się mas wody w Genezaret, a zjawisko to jest najsilniejsze u zachodnich wybrzeży jeziora. Wiemy też, że w ciągu 4-6 tygodni od zakończenia mieszania wód jeziora w marcu-kwietniu warstwa hypolimnionu zostaje pozbawiona tlenu, a zjawisko to jest dodatnio skorelowane z wiosenną produktywnością fitoplanktonu. Autorzy nowych badań przypominają o zaobserwowaniu dwóch przypadków masowego śnięcia ryb w regionie Tabga. Do jednego wydarzenia doszło 31 maja 2012 roku, a do drugiego 27 czerwca 2012 roku. Ich zdaniem ryby zginęły, gdy w wyniku działalności wiatru i fal wewnętrznych doszło do wypłynięcia na powierzchnię (upwelling) u wybrzeży Tabgi pozbawionych tlenu wód hypolimnionu. Brak tlenu zabił ryby pływające w górnych warstwach jeziora. Hipotezę tę autorzy zweryfikowali tworząc trójwymiarowy model komputerowy jeziora, za pomocą którego symulowali warunki panujące w całym zbiorniku wodnym w czasie, gdy ryby zginęły. Podobne trudne do wytłumaczenia epizody śmierci ryb obserwowane są w również w innych jeziorach. W Genezaret występują rzadko. Jeden z autorów badań, Tamar Zohary z Kinneret Limnological Laboratory, który od 34 lat bada jezioro, mówi, że pamięta tylko dwa tego typu przypadki. Jeden miał miejsce na początku lat 90., a drugi w kwietniu 2007 roku. Od roku 2012 podobna sytuacja nie miała miejsca. Mamy więc do czynienia z rzadkim zjawiskiem, które może pojawić się, jeśli zaistnieją specyficzne warunki. Warunkiem wstępnym do pojawienia się masowego pomoru ryb jest pogodna wiosna, zapewniająca dobrą produktywność roślinną. Do pomoru dochodzi późną wiosną w ciągu kilku tygodni od zaprzestania mieszania się wód. Dane z osadów w jeziorze i z przekazów historycznych wskazują, że warunki te były spełnione w czasach, gdy Jezus nauczał u wybrzeży Genezaret. Dlatego też autorzy badań uważają, że mogło dojść do nagłego masowego wypłynięcia martwych ryb u wybrzeży Tabga lub do nagromadzenia tam dużej liczby żywych ryb, szukających tlenu po tym, jak doszło do częściowego upwellingu pozbawionych tlenu wód. Zjawisko to zbiegło się z obecnością w tym miejscu Jezusa, który nauczał zgromadzone tłumy, zostało uznane za cud i na stałe weszło do kanonu kulturowego. « powrót do artykułu
  18. Oceany pochłaniają około 26% dwutlenku węgla emitowanego przez człowieka. Są więc niezwykle ważnym czynnikiem zmniejszającym nasz negatywny wpływ na atmosferę. Większość tego węgla – około 70% – wykorzystuje fitoplankton i inne organizmy żywe. Gdy one giną, resztki ich ciał opadają w postaci przypominającej płatki śniegu. Ten zawierający węgiel „śnieg” zalega na dnie, jest przykrywany osadami i pozostaje bezpiecznie zamknięty na bardzo długi czas, nie trafiając z powrotem do atmosfery. Jednak badania, których wyniki ukazały się właśnie na łamach Science wskazują, że proces ten nie wygląda tak prosto, jak byśmy chcieli. Grupa naukowców z Uniwersytetu Stanforda, Woods Hole Oceanographic Institution oraz Rutgers University zbudowała specjalny mikroskop, potocznie nazwany Gravity Machine, który pozwala badać mikroorganizmy i inne niewielkie elementy występujące w kolumnie wody o dowolnej długości. Okazało się, że „morski śnieg” nie opada na dno tak szybko, jak sądziła nauka. Mikroskop pozwolił na symulowanie zachowania „śniegu” w środowisku naturalnym i okazało się, że „płatki śniegu” ciągną za sobą śluzowe warkocze, która spowalniają ich opadanie. Czasem warkocze te całkowicie uniemożliwiają opadnięcie i „śnieg” pozostaje zawieszony w górnych częściach kolumny wody. Żyjące tam organizmy mogą go pochłaniać i w procesie oddychania wydalić do wody znajdujący się tam węgiel, a to z kolei zmniejsza tempo pochłaniania przez ocean CO2 z atmosfery. Mikroskop, za pomocą którego prowadzono badania, wykorzystuje koło o średnicy kilkunastu centymetrów. Do koła naukowcy wlewali wodę pobraną w oceanie na różnych głębokościach. Koło się obracało, a obecne w wodzie mikroorganizmy mogły swobodnie opadać pod wpływem grawitacji. Dzięki ruchowi obrotowemu koła, mikroorganizmy mogły bez końca opadać, w ten sposób możliwe jest symulowanie opadania na dowolną odległość. Temperatura, oświetlenie i ciśnienie wewnątrz koła dobiera jest odpowiednio do symulowanej głębokości, na której „znajduje się” badana próbka. Jednocześnie to, co dzieje się w próbce jest bez przerwy monitorowane za pomocą mikroskopu. Dzięki takiej konstrukcji instrumentu badawczego zauważono, że poszczególne „płatki śniegu” tworzą, niewidoczną goły okiem, śluzowatą strukturę ciągnącą się na podobieństwo warkocza komety. Odkrycia warkocza dokonano, gdy do próbki dodano niewielkie mikrokoraliki, by zbadać, jak będą one przepływały wokół „płatków”. Zauważyliśmy, że koraliki utknęły w czymś niewidzialnym, co ciągnęło się za płatkami, mówi jeden z badaczy. Bliższe badania pokazały, że ten śluzowaty warkocz dwukrotnie wydłuża czas pobytu „płatków” w górnych 100 metrach kolumny wody. Odkrycie pokazuje, że proces pochłaniania węgla przez oceany jest bardziej złożony niż sądziliśmy. Jest jednak mało prawdopodobne, by oznaczało ono, że oceany pochłaniają mniej węgla, niż sądzimy. Ilość tego węgla została bowiem określona metodami empirycznymi, więc wpływ warkocza został - choć nieświadomie - uwzględniony. « powrót do artykułu
  19. Spożycie alkoholu wśród zwierząt jest bardziej rozpowszechnione, niż sądzimy – uważają naukowcy w University of Exeter, University of Calgary i College of Central Florida. Przypominają oni, że etanol jest obecny niemal w każdym ekosystemie, należy więc przyjąć, że prawdopodobnie jest regularnie spożywany przez większość zwierząt odżywiających się owocami i nektarem. Swoje wnioski uczeni opublikowali na łamach pisma Trends in Ecology & Evolution. Niejednokrotnie słyszeliśmy doniesienia o zwierzętach, które upiły się sfermentowanymi owocami. Jednak poza tymi anegdotycznymi informacjami, nauka stoi na stanowisku, że zwierzęta – z wyjątkiem człowieka – rzadko spożywają alkohol. Autorzy wspomnianej pracy uważają, że pogląd ten wymaga rewizji. Musimy porzucić antropocentryczny punkt wiedzenia, zgodnie z którym etanolu używają ludzie. Substancja ta jest znacznie bardziej rozpowszechniona w środowisku, niż sądziliśmy, i większość zwierząt jedzących owoce jest wystawionych na działanie alkoholu, mówi doktor Kimberley Hockings z University of Exeter. Etanol powszechnie pojawił się na Ziemi około 100 milionów lat temu, gdy rośliny kwitnące zaczęły wytwarzać nektar i owoce zawierające cukier, które mogły zostać poddane fermentacji przez drożdże. Obecnie etanol jest z sposób naturalny obecny w niemal każdym ekosystemie, a jego stężenie jest wyższe na niższych szerokościach geograficznych i w wilgotnych tropikach. Tam też pojawia się on przez cały rok. W większości przypadków w wyniku naturalnej fermentacji w owocach stężenie alkoholu sięga 2%. Jednak na przykład w przejrzałych owocach palm w Panamie zanotowano stężenie sięgające 10,3%. Geny pozwalające na rozkładanie etanolu są starsze niż sam etanol. Mamy też dowody, że u ptaków i ssaków doszło do udoskonalenia możliwości trawienia etanolu już po jego pojawieniu się. Najbardziej efektywnie etanol jest metabolizowany przez naczelne i wiewióreczniki. Dlaczego właśnie u nich? Wyjaśnienie jest proste. Z ekologicznego punktu widzenia nie jest zbyt korzystnym chodzenie po drzewach w stanie upojenia alkoholowego. To przepis, by nie przekazać dalej genów, mówi Matthew Carrigan z College of Central Florida. Uczony dodaje, że w przypadku zwierząt mamy do czynienia z odmiennym mechanizmem niż u ludzi. Ludzie chcą się upić, a nie chcą przy tym dodatkowych kalorii. Zwierzęta poszukują kalorii, ale nie chcą się upijać. Nie jest jasne, czy zwierzęta spożywają etanol dla samego etanolu. Tutaj potrzeba dalszych badań, na przykład nad wpływem etanolu na fizjologię i ewolucję zwierząt. Jednak, jak zauważają naukowcy, spożycie etanolu może przynosić dzikim zwierzętom korzyści. Przede wszystkim zawiera on sporo kalorii, a jego silny zapach prowadzi zwierzęta do źródła pożywienia. Chociaż, jak uważają naukowcy, jest mało prawdopodobne, by zwierzęta wyczuwały sam etanol. Etanol może przynosić też korzyści zdrowotne. Muszki owocówki celowo składają jajka tam, gdzie jest etanol, gdyż chroni on je przed pasożytami. Zauważono też, że larwy owocówek zwiększają spożycie etanolu jeśli zostaną zarażone pasożytem. Kwestią otwartą pozostaje pytanie, czy po spożyciu etanolu zwierzęta również czują się przyjemnie, są odprężone, chętniej nawiązują kontakty społeczne. By to zbadać musimy sprawdzić, jaka jest fizjologiczna reakcja zwierząt na etanol, mówi Anna Bowland z Exeter. « powrót do artykułu
  20. Jednym z najważniejszych czynników, który znacząco oddziałuje na wycenę diamentu, jest jego masa wyrażona w karatach. Karat, oznaczany skrótem kt, to specyficzna jednostka miary, używana do określania wielkości diamentów oraz innych kamieni szlachetnych. Historia i pochodzenie jednostki karat Jednostka miary, jaką jest karat, pełni istotną funkcję w branży jubilerskiej, zwłaszcza w przypadku diamentów i innych kamieni szlachetnych. Nazwa „karat” pochodzi od drzewa zwanego szarańczyn strąkowy, znanego również jako karob. W starożytności, na Bliskim Wschodzie, nasiona karobu były używane jako odważniki do ważenia kamieni szlachetnych, ponieważ cechowały się one niezwykłą regularnością masy – każde ziarno ważyło około 0,2 grama. To właśnie ta właściwość sprawiła, że nasiona te stały się podstawą do określenia jednostki masy kamieni szlachetnych, która przetrwała do dziś. Karat jako miara masy diamentów W jubilerstwie karat metryczny (ct) jest standardową jednostką miary masy diamentów. Jeden karat odpowiada 200 miligramom, czyli 0,2 grama. Warto zauważyć, że choć karat określa wagę kamienia, nie odnosi się bezpośrednio do jego wielkości. Dwa diamenty o tej samej masie mogą mieć różne wymiary, w zależności od ich gęstości, kształtu i szlifu. Dlatego karat jest tylko jednym z wielu czynników, które wpływają na ocenę i wycenę diamentów. Zasada 4C – karat jako jeden z najważniejszych parametrów Karat jest jednym z czterech podstawowych kryteriów, znanych jako zasada 4C, które mają decydujący wpływ na wartość diamentu. Oprócz masy, na cenę diamentu wpływają także jego czystość, kolor i szlif, które wspólnie determinują jakość i piękno kamienia. W przypadku diamentów o większej masie nawet niewielka różnica w wadze może znacząco podnieść ich wartość, co jest szczególnie istotne przy ocenie rzadkich i dużych egzemplarzy. Dlatego precyzyjne określenie masy jest niezwykle ważne w procesie wyceny kamienia, a dokładność pomiaru jest niezwykle ważna, aby zapewnić sprawiedliwą ocenę jego wartości rynkowej. Co więcej, waga w karatach jest jednym z parametrów, który jest szczególnie brany pod uwagę przez kolekcjonerów i inwestorów, poszukujących diamentów o wyjątkowej jakości. Przykłady i znaczenie masy diamentu Największy diament, jaki kiedykolwiek odkryto – Cullinan – miał imponującą masę 3106 karatów, co odpowiada około 621,2 gramom. Diamenty o tak ogromnej masie są niezwykle rzadkie i stanowią nie tylko skarb o ogromnej wartości historycznej, ale także finansowej, często stając się obiektem zainteresowania kolekcjonerów i muzeów na całym świecie. Warto również wspomnieć, że masa diamentu jest precyzyjnie mierzona i podawana z dokładnością do dwóch miejsc po przecinku, co pozwala na bardzo dokładne określenie jego wagi, a tym samym znacząco wpływa na jego wycenę. Ta precyzja jest istotna, zwłaszcza przy obrocie diamentami, gdzie nawet najmniejsza różnica w masie może prowadzić do znacznych różnic w cenie biżuterii, podkreślając tym samym unikalność każdego egzemplarza. Gdzie najlepiej kupować diamenty? Diamenty najlepiej kupować w renomowanych i zaufanych sklepach jubilerskich, które oferują certyfikowane kamienie szlachetne. Certyfikaty, takie jak te wydawane przez GIA (Gemological Institute of America), gwarantują autentyczność i jakość diamentu. Można również rozważyć zakup diamentów na aukcjach, które często oferują unikatowe i rzadkie egzemplarze. Godnym polecenia miejscem do zakupu diamentów jest atelier House of Diamond, które oferuje diamenty i biżuterię najwyższej jakości, opatrzone certyfikatami GIA lub IGI. Ważne jest, aby unikać zakupów od niezweryfikowanych sprzedawców, szczególnie online, gdzie ryzyko oszustwa jest wyższe. Najważniejsze jest upewnienie się, że sprzedawca jest godny zaufania, a diament posiada pełną dokumentację, co zapewnia bezpieczeństwo inwestycji. Podsumowując, masa diamentów jest określana w karatach, jednostce miary, która ma swoje korzenie w starożytnych metodach ważenia kamieni szlachetnych na Bliskim Wschodzie. Dziś karat jest międzynarodowym standardem w branży jubilerskiej, a jego precyzyjne określenie ma ogromne znaczenie dla wyceny diamentów. Warto pamiętać, że diamenty o większej masie są nie tylko bardziej wartościowe, ale także trudniejsze do znalezienia, co dodatkowo podnosi ich cenę na rynku jubilerskim. « powrót do artykułu
  21. Niskocukrowa dieta matki w czasie ciąży oraz dziecka przez dwa lata po urodzeniu, znacząco zmniejsza ryzyko rozwoju cukrzycy i nadciśnienia u dorosłego człowieka. Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley, Uniwersytetu Południowej Kalifornii (USC) w Los Angeles i kanadyjskiego McGill University w Montrealu zauważyli, że dzieci, które przez pierwszych 1000 dni od poczęcia spożywały niewiele cukru, miały o 35% mniejsze ryzyko rozwoju cukrzycy typu II i o 20% mniejsze ryzyko rozwoju nadciśnienia w dorosłym życiu. Już ograniczenie ekspozycji na cukier przed urodzeniem wiązało się z obniżeniem ryzyka wystąpienia tych chorób, a ograniczenie cukru po urodzeniu dodatkowo zwiększa uzyskane korzyści. Naukowcy wykorzystali w swoich badaniach niezamierzony naturalny eksperyment, jakim była II wojna światowa. Sprawdzili, jak ówczesna polityka racjonowania cukru wpłynęła długoterminowo na zdrowie obywateli. W Wielkiej Brytanii racjonowanie cukru rozpoczęto w 1942 roku, a zakończono je dopiero we wrześniu 1953 roku. Naukowcy wykorzystali bazę danych U.K. Biobank. Znajdują się w niej dane genetyczne, medyczne, informacje dotyczące stylu życia i innych czynników ryzyka olbrzymiej liczby obywateli. Dzięki niej mogli porównać zdrowie dorosłych mieszkańców Wielkiej Brytanii z czasów przed ograniczenia sprzedaży cukru i po niej. Badania długoterminowych skutków spożywania cukru dodawanego do żywności jest trudne. Ciężko jest bowiem znaleźć takie sytuacje, gdy duże grupy społeczeństwa na początkowych etapach życia mają do czynienia z różnymi składnikami odżywczymi, a potem śledzić tych losy tych ludzi przez kolejnych 50 czy 60 lat, mówi główna autorka badań, Tadeja Gracner z USC. Gdy cukier był racjonowany, średnie spożycie na głowę wynosiło 40 gramów dziennie. Po zakończeniu ograniczeń zwiększyło się ono do około 80 gramów dziennie. Co ważne dla badań, racjonowanie żywności w czasie wojny nie wiązało się z ekstremalnymi ograniczeniami składników odżywczych. W tym czasie dieta przeciętnego mieszkańca Wielkiej Brytanii była mniej więcej zgodna z obecnymi zaleceniami WHO czy amerykańskiego Departamentu Rolnictwa, które radzą, by dzieci do 2. roku życia nie spożywały w ogóle dodatkowego cukru, a spożycie u dorosłych nie przekraczało 50 gramów (12 łyżeczek) dziennie. Natychmiastowy olbrzymi wzrost spożycia cukru po zniesieniu restrykcji, który nie wiązał się ze wzrostem spożycia innych rodzajów żywności, stał się więc interesującym przypadkiem naturalnego eksperymentu. Ludzie zostali wystawieni na ekspozycję różnych ilości cukru na samym początku życia, w zależności od tego, czy zostali poczęci bądź urodzili się przed czy po wrześniu 1953 roku. To pozwoliło na porównanie tych, którzy zostali poczęci lub urodzili się w czasach, gdy cukier racjonowano, z tymi, z czasów po zniesieniu ograniczeń. Naukowcy porównali więc tak wyodrębnione dwie grupy osób i stwierdzili, że ci, którzy przez 1000 dni od poczęcia spożywali mniej cukru, byli narażeni na mniejsze ryzyko cukrzycy i nadciśnienia. Jednak to nie wszystko. W grupie tej, jeśli już ktoś zapadł an cukrzycę, to pojawiała się ona cztery lata później, a w przypadku nadciśnienia było to dwa lata później, niż chorowały osoby spożywające więcej cukru w ciągu pierwszych 1000 dni życia. Co ważne, już mniejsze spożycie cukru w łonie matki zapewniało korzyści zdrowotne kilkadziesiąt lat później. Wyniki badań pokazują, jak ważne jest znaczące zmniejszenia spożycia cukru przez kobietę w ciąży, gdyż ograniczenie cukru dziecku po urodzeniu jest o tyle trudne, że cukier dodawany jest bardzo wielu produktów spożywczych, a dzieci są bez przerwy bombardowane reklamami słodyczy. Średnie miesięczne koszty ekonomiczne cukrzycy w USA wynoszą 1000 USD na osobę. Ponadto cukrzyca skraca oczekiwany czas życia, a im wcześniej się pojawi, tym większa jest utrata lat życia. Wynosi ona 3-4 lata na każdą dekadę, zatem osoba, która zapadła na cukrzycę w wieku 30 lat może żyć o 6–8 lat krócej, niż osoba, u której choroba pojawiła się w wieku 50 lat. « powrót do artykułu
  22. Archeolodzy ze szwedzkich Narodowych Muzeów Historii prowadzili prowadzili prace wykopaliskowe w Tvååker w miejscu, o którym sądzili, że jest pozostałością po osadzie z epoki kamienia. Okazało się jednak, że pracują na gigantycznym cmentarzu z epoki wikingów. Dotychczas odkopano 139 pochówków, w tym kurhan w kształcie łodzi. Wraz ze zmarłymi złożono ceramiczne naczynia, broszki czy zwierzęce kości. Gdy tylko zaczęliśmy wykopaliska, zdaliśmy sobie sprawę, że to wielki cmentarz wikingów. Dotychczas odsłoniliśmy jedynie 6% jego powierzchni, mówi kierująca pracami Petra Nordin z Narodowych Muzeum Historii. Do pierwszych prac przystąpiono tutaj w maju 2017 roku przed planowaną budową drogi. Na planach teren ten oznaczono jako prawdopodobną osadę z epoki kamienia. Wcześniej znaleziono tam bowiem pozostałości pieca oraz kamienne narzędzia. Mimo że Tvååker wspomniane jest w sagach, informacje o znajdującym się powyżej cmentarzu zniknęły w mroku dziejów. Pierwsze wykopaliska przeprowadziliśmy w maju 2017 roku i znaleźliśmy 5 pochówków, ślady ognia, kości ludzi i psów. Zdaliśmy sobie sprawę, że w rzeczywistości to cmentarz wikingów, wyjaśnia uczona. Problem w tym, że cały ten teren objęty był działalnością rolniczą. Wszystko, co znajdowało się powyżej terenów mieszkalnych, zostało wyrównane. Pochówki zaorano i zamieniono na pastwiska. To zaś oznacza, że wszystko musieliśmy interpretować z bardzo mocno poszatkowanych pozostałości. Nasze badania pokazały, gdzie znajdowały się stosy pogrzebowe. Znaleźliśmy też coś, co interpretujemy jako ułożony z kamieni 50-metrowej długości pochówek w kształcie łodzi, dodaje Nordin. W sumie znaleziono trzy pochówki w kształcie łodzi ułożone z kamieni oraz kurhan w kształcie łodzi. Znaczna część cmentarza prawdopodobnie znajduje się pod współczesną zabudową. Nordin wyjaśnia, że zwykle podczas podobnych wykopalisk archeolodzy skupiają się na pochówkach. Tutaj jednak zostały one tak bardzo zniszczone, że większy nacisk uczeni kładą na pozostałości po miejscach kremacji zwłok. Większość znalezionych tam artefaktów nosi ślady działania ognia. Badacze natrafili między innymi na arabską monetę z lat 795–806. Jej wiek zgadza się z wiekiem najstarszych pochówków. Wraz ze zmarłymi wikingowie kremowali ich psy, które były towarzyszami ludzi za życia. Później, po złożeni skremowanych zwłok do grobu, na wierzch kładziono nieskremowane zwłoki innych zwierząt, najczęściej krów. Dopiero wówczas zamykano pochówek. Archeolodzy nie wiedzą, gdzie mieszkali pochowani ludzie. Z sag wiemy, że w okolicy prawdopodobnie istniała osada. Być może na jej miejscu stoi dzisiejsze Tvååker. Być może jednak to któraś z okolicznych miejscowości. Tego obecnie nie wiadomo. Tym ważniejszy jest badany cmentarz, gdyż może on zdradzić wiele informacji o tym, jak żyli okoliczni mieszkańcy. « powrót do artykułu
  23. W imieniu Obserwatorium Astronomicznego Uniwersytetu Jagiellońskiego w Krakowie i Fundacji Antares zapraszamy uczniów polskich szkół i ich nauczycieli do udziału w tegorocznej, już VIII edycji naszego Konkursu. Rejestracja uczestników jest otwarta! Celem Konkursu „Astrolabium” jest upowszechnianie znaczenia i piękna nauk ścisłych, a w szczególności astronomii i badań kosmicznych, wśród uczniów szkół podstawowych i średnich wszystkich typów. Uczestnictwo w Konkursie pozwala pogłębić i usystematyzować dotychczasową wiedzę astronomiczną, może też być zachętą do samodzielnych obserwacji nieba i dalszego rozwijania astronomicznej pasji. Nasz Konkurs dedykowany jest, podobnie jak w ubiegłych latach, dla czterech grup wiekowych: uczniów klas I-III, IV-VI i VII-VIII szkół podstawowych oraz wszystkich klas szkół średnich. Przeprowadzany jest w dwóch etapach. Pierwszy z nich polega na wykonaniu przez uczniów publikowanych na stronie Konkursu doświadczeń, opracowanych z osobna dla poszczególnych grup wiekowych. Uczniowie mogą przeprowadzać je samodzielnie lub w grupach, a także z pomocą nauczycieli lub rodziców. W ramach tych doświadczeń mają bezpośredni kontakt z zagadnieniami współczesnej astronomii i posługują się podobnymi metodami i narzędziami, jakie na co dzień wykorzystują naukowcy. W obecnej edycji Konkursu w doświadczeniach poruszona będzie m.in. tematyka zanieczyszczenia światłem, wielozakresowych obserwacji meteorów, aktywności słonecznej, współczesnych wielkich teleskopów do obserwacji nieba oraz radiowej struktury naszej Galaktyki, Drogi Mlecznej. Drugi etap Konkursu będzie polegać na samodzielnym wypełnieniu końcowego testu zdobytej wiedzy, który uczniowie napiszą w zgłoszonych szkołach w kwietniu 2025 r. Dla uczestników, którzy w teście końcowym uzyskają najwyższe wyniki, przewidujemy atrakcyjne nagrody, w tym profesjonalne teleskopy i lornetki, wejściówki do obserwatoriów, książki i czasopisma o tematyce astronomicznej. W tym roku uczestnictwo w Konkursie „Astrolabium” jest bezpłatne – nie obowiązuje opłata wpisowa. Z przyjemnością informujemy, że Konkurs uzyskał dofinansowanie z Narodowego Instytutu Wolności - Centrum Rozwoju Społeczeństwa Obywatelskiego. Już teraz zapraszamy do rejestracji szkoły i uczniów w Konkursie „Astrolabium”! Można to zrobić pod tym adresem: https://astrolabium.oa.uj.edu.pl/ « powrót do artykułu
  24. Ubezpieczenie to forma ochrony finansowej zapewniane przez towarzystwo ubezpieczeniowe, która chroni osoby i mienie przed skutkami nieprzewidzianych zdarzeń. Polega na zawarciu umowy między ubezpieczycielem a ubezpieczonym, gdzie ubezpieczyciel zobowiązuje się do wypłaty odszkodowania w zamian za opłacaną przez ubezpieczonego składkę. W zależności od potrzeb i rodzaju ryzyka dostępne są różne rodzaje ubezpieczeń.   Czym jest ubezpieczenie? Ubezpieczenia można podzielić na dwie główne kategorie: ubezpieczenia osobowe i majątkowe. Ubezpieczenia osobowe obejmują ochronę życia i zdrowia. Ubezpieczenia majątkowe dotyczą ochrony mienia, np. ubezpieczenie nieruchomości czy samochodów. Dodatkowo, istotnym rodzajem są ubezpieczenia odpowiedzialności cywilnej (OC), które chronią przed skutkami szkód wyrządzonych osobom trzecim. Wybór odpowiedniego ubezpieczenia zależy od indywidualnych potrzeb, rodzaju działalności czy posiadanych aktywów. Ubezpieczenia są kluczowe dla zapewnienia stabilności finansowej w sytuacjach, które mogą prowadzić do znacznych strat. W wyborze najlepszego ubezpieczenia pomagają nam internetowe rankingi i porównywarki ubezpieczeń. Pozwalają one m.in kupować ubezpieczenie online. Jeden z takich rankingów dostępny jest na stronie rankingubezpieczennazycie.pl.   Ubezpieczenie samochodu Ubezpieczenie samochodu to popularny typ ubezpieczenia majątkowego, który obejmuje zarówno obowiązkowe, jak i dobrowolne polisy. Sposób funkcjonowania ubezpieczeń OC reguluje ustawa o ubezpieczeniach obowiązkowych. Ubezpieczenie OC (odpowiedzialność cywilna) – jest to obowiązkowa polisa, która chroni kierowcę przed kosztami odszkodowań dla osób trzecich w razie spowodowania wypadku. W Polsce brak tego ubezpieczenia wiąże się z karami finansowymi. Ubezpieczenie AC (Autocasco) – dobrowolna polisa, która obejmuje ochronę samochodu w przypadku jego uszkodzenia, kradzieży czy zniszczenia. Jest to szczególnie ważne dla właścicieli droższych pojazdów. Ubezpieczenie NNW (następstw nieszczęśliwych wypadków) – chroni kierowcę i pasażerów przed skutkami wypadków drogowych, oferując wypłatę odszkodowania w razie uszczerbku na zdrowiu lub śmierci. Ubezpieczenie Assistance – zapewnia pomoc w przypadku awarii, holowanie i wsparcie techniczne w razie problemów na drodze. Ubezpieczenie turystyczne Ubezpieczenie turystyczne zapewnia kompleksową ochronę podczas podróży, zarówno krajowych, jak i zagranicznych. Jego głównym celem jest zabezpieczenie finansowe w przypadku nieprzewidzianych sytuacji, takich jak: Nagłe zachorowanie lub wypadek, które mogą wymagać kosztownego leczenia za granicą, Zagubienie lub uszkodzenie bagażu, Odwołanie lub opóźnienie lotu, Odpowiedzialność cywilna za szkody wyrządzone osobom trzecim. Polisa turystyczna może również obejmować ubezpieczenie od rezygnacji z podróży, co jest przydatne w sytuacji, gdy plany muszą zostać zmienione z przyczyn niezależnych od podróżującego. Przed wyborem polisy warto porównać dostępne oferty i upewnić się, że zakres ochrony odpowiada charakterowi i miejscu planowanego wyjazdu.   Ubezpieczenie domu Ubezpieczenie domu to kluczowy element ochrony majątku, który zabezpiecza przed różnorodnymi ryzykami, takimi jak pożar, zalanie, kradzież czy zniszczenia spowodowane przez czynniki atmosferyczne, np. burze i wichury. Polisa może obejmować nie tylko sam budynek, ale także elementy stałe (np. instalacje, okna, drzwi) oraz wyposażenie, takie jak meble, sprzęt RTV czy AGD. Ubezpieczenie domu pozwala na uzyskanie odszkodowania, które pokryje koszty naprawy lub odbudowy nieruchomości oraz wymiany uszkodzonego mienia. Warto dopasować zakres ochrony do wartości posiadłości i indywidualnych potrzeb, aby zapewnić pełne bezpieczeństwo i minimalizować skutki potencjalnych strat.   Co zawierają umowy ubezpieczenia? Umowy ubezpieczenia stanowią podstawę prawną relacji między ubezpieczycielem a ubezpieczonym. Każda umowa zawiera istotne informacje, takie jak: Zakres ochrony, Okres obowiązywania ubezpieczenia, Wysokość składki ubezpieczeniowej, Warunki wypłaty odszkodowania, Wyłączenia odpowiedzialności towarzystw ubezpieczeniowych, które wskazują, w jakich sytuacjach ubezpieczyciel nie wypłaci świadczenia. Umowy ubezpieczenia różnią się w zależności od rodzaju polisy oraz specyfiki chronionego mienia lub ryzyka. Przed zawarciem umowy warto dokładnie zapoznać się z jej treścią, aby zrozumieć swoje prawa i obowiązki.   Co oznacza suma ubezpieczenia? Suma ubezpieczenia mieszkania, samochodu lub życia to maksymalna kwota, jaką ubezpieczyciel zobowiązuje się wypłacić w przypadku wystąpienia szkody. Wysokość sumy ubezpieczenia jest kluczowa, gdyż wpływa bezpośrednio na zakres ochrony i wysokość potencjalnych odszkodowań. W ubezpieczeniach majątkowych suma ubezpieczenia powinna być zgodna z rzeczywistą wartością chronionego mienia, aby w przypadku szkody można było uzyskać pełne pokrycie strat. W ubezpieczeniach na życie suma ubezpieczenia jest ustalana na podstawie potrzeb osoby ubezpieczonej i jej sytuacji życiowej. « powrót do artykułu
  25. Badacze z Wessex Archaeology poinformowali o odkryciu jednego z najstarszych i najlepiej zachowanych drewnianych narzędzi znalezionych na terenie Wielkiej Brytanii. Wstępne datowanie drewnianego szpadla znalezionego na podmokłym terenie przy Poole Harbour wskazuje, że pochodzi on z epoki brązu. Drewniany zabytek przetrwał więc tysiące lat. Zwykle drewno rozkłada się w ciągu dziesięcioleci. Szpadel zachował się dzięki wyjątkowym warunkom, jakie panują w miejscu jego znalezienia. Archeolodzy bardzo szybko zdali sobie sprawę, że wydobywają z ziemi coś wyjątkowego. Gdy narzędzie przesłano do laboratorium, okazało się, że zostało ono wykonane z drewna dębu, a jego wiek określono na 3400–3500 lat. Szpadel wykonano z jednego kawałka drewna, a jego wykonanie z pewnością wymagało wiele pracy. Był więc cennym narzędziem. Dzięki temu, że wyprodukowano go z pojedynczego kawałka, w razie uszkodzenia można go było przerobić na inne narzędzie. Co interesujące, w okolicy znalezienia szpadla odkryto dotychczas niewiele dowodów wskazujących na stałe osadnictwo. Badana jest hipoteza, że ludzie okazyjnie odwiedzali do miejsce. W czasach, z których pochodzi szpadel, okolica ta była prawdopodobnie podatna na zalania w ziemi i wysychała latem. Można więc było wykorzystywać ten obszar do wypasu zwierząt, rybołówstwa, polowań czy pozyskiwania torfu, wikliny, być może na potrzeby upraw. Szpadel znaleziono w okrągłym wykopie, który mógł służyć wielu różnym celom, w tym suszeniu czy przechowywaniu lokalnie pozyskanych zasobów. Dotychczas na terenie Wielkiej Brytanii znaleziono tylko jedno podobne drewniane narzędzie z epoki brązu. W 1875 roku odkryto długi przedmiot o kształcie liścia, który z czasem nazwano „łopatą z Brynlow”. Być może odkrycie szpadla pozwoli na lepsze zrozumienie roli tego i innych drewnianych narzędzi, dowiemy się skąd wynikają podobieństwa i różnice pomiędzy nimi. « powrót do artykułu
×
×
  • Dodaj nową pozycję...