Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37617
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    246

Zawartość dodana przez KopalniaWiedzy.pl

  1. Piękna stabilna piana to jeden z elementów piwa, którego poszukują miłośnicy tego napoju. Niestety, często spotyka ich zawód. Tworząca się podczas nalewania pianka błyskawicznie znika, zanim zdążymy wziąć pierwszy łyk. Są jednak rodzaje piwa, szczególnie piwa belgijskie, na których pianka jest wyjątkowo stabilna. Naukowcy z Politechniki Federalnej w Zurychu, pracujący pod kierunkiem profesora Jana Vermanta, odkryli właśnie sekret długotrwałego utrzymywania się piany na piwie. Poznanie tej tajemnicy zajęło 7 długich lat badań. Do niedawna nauka uważała, że stabilność pianki na piwie zależy przede wszystkim od bogatych w proteiny warstw na powierzchni pianki. Jednak badania Vermanta wykazały, że sprawa jest znacznie bardziej skomplikowana. Okazuje się, że jeśli chodzi o belgijskie piwa typu ale to najbardziej stabilną pianę mają Tripel, mniej stabilną Dubbel, a najmniej stabilną te, które przeszły mniej intensywną fermentację i mają najniższą zawartość alkoholu (Singel). Dwa lagery z dużych szwajcarskich browarów również miały piankę, której stabilność można było porównać z belgijskimi ale, jednak reguły fizyczne zapewniające tę stabilność były inne. W piwach typu lager elementem decydującym o stabilności pianki jest lepkosprężystość powierzchni. O niej zaś decydują białka obecne w piwie oraz ich denaturacja. Im więcej białek, tym bardziej sztywna błona tworzy się wokół bąbelków w piance i tym bardziej stabilna pianka. Jednak w piwach typu Tripel lepkosprężystość jest minimalna. Tutaj o niezwykłej stabilności pianki decyduje efekt Marangoniego, transfer masy wzdłuż granicy faz w wyniku gradientu napięcia powierzchniowego. Można go zaobserwować w domu wsypując do szklanki wody nieco pokruszonych liści herbaty. Rozłożą się one równomiernie na powierzchni. Gdy dodamy teraz kroplę mydła, zostaną one gwałtownie ściągnięte ku brzegom, przez co na powierzchni powstają prądy. Na piwie, jeśli utrzymają się one dłużej, stabilizują pęcherzyki w pianie. W belgijskich Singel bogate w białka otoczki wokół pęcherzyków piany zachowują się jak drobne kuliste cząstki, układają się gęsto na powierzchni pęcherzyków, tworząc coś na podobieństwo dwuwymiarowej zawiesiny – mieszaniny cieczy i drobnych ciał stałych – co stabilizuje pęcherzyki. W Dubbel białka tworzą strukturę siatki, rodzaj siatkowatej błony, co jeszcze lepiej stabilizuje pianę. Z kolei w Tripel zachodzą skomplikowane zjawiska podobne do tych, które obserwuje się w prostych surfaktantach, co czyni piankę wyjątkowo stabilną. Mimo siedmiu lat badań naukowcy nie dowiedzieli się dokładnie, skąd to odmienne zachowanie. Wszystko wskazuje jednak na to, że kluczową rolę w stabilizacji piany odgrywa białko LTP1. Profesor Vermant podkreśla, że stabilność pianki na piwie nie jest zależna od czynników liniowych. Nie wystarczy zmienić jednego elementu i uzyskać ideał. Na przykład jeśli zwiększymy lepkość, pianka stanie się bardziej niestabilna, gdyż osłabi to efekt Marangoniego. Kluczowe jest dostrojenie jednego czynnika w danym czasie tak, by nie doprowadził to do zmiany innych elementów. W piwie odbywa się to w sposób naturalny. Badania nad pianką na piwie mogą wydawać się mało poważne, jednak ich znaczenie wykracza znacznie poza spożycie złotego napoju. Na przykład lubrykanty stosowane w samochodach elektrycznych mogą ulec spienianiu, co stanowi poważny problem. Dlatego też zespół Vermanta współpracuje obecnie z Shellem i innymi firmami badając, w jaki sposób można uniknąć powstawania piany tam, gdzie jest to niepożądane. Inną korzyścią z badań Vermanta jest poczynienie postępu w kierunku stworzenia surfaktantów wolnych od silikonu czy fluoru. Szwajcarscy uczeni zaangażowani są też w badania nad pianami jako systemami do przenoszenia bakterii oraz nad stabilizacją piany z mleka. Więcej o badaniach nad stabilnością piwnej pianki można przeczytać w piśmie Physics of Fluid. « powrót do artykułu
  2. Solar Orbiter, misja Europejskiej Agencji Kosmicznej, wyróżniła dwa rodzaje wysokoenergetycznych cząstek wystrzeliwanych ze Słońca i wyśledziła źródła obu rodzajów. O ile oba typy były znane już wcześniej, teraz dzięki misji ESA wiemy, skąd się one biorą i jak powstają. W ten sposób dodatkowo poszerzyliśmy naszą wiedzę o Słońcu, największym akceleratorze cząstek w Układzie Słonecznym, który decyduje o tym, co dzieje się na Ziemi i wokół niej. Wysokoenergetyczne elektrony pochodzące ze Słońca mają dwa źródła. Jednym są rozbłyski słoneczne, czyli eksplozje mające miejsce na niewielkich obszarach, a drugim źródłem są koronalne wyrzuty masy, czyli duże erupcje. Widzimy wyraźną różnicę pomiędzy gwałtownymi impulsami, gdy wysokoenergetyczne elektrony są wyrzucane z powierzchni Słońca oraz stopniowo rozwijającymi się erupcjami, w wyniku których przez dłuższy czas wyrzucane są różnorodne cząstki, mówi główny autor badań Alexander Warmuth z Instytutu Astrofizyki im. Leibniza w Poczdamie. Teraz mogliśmy podlecieć na tyle blisko Słońca, by zbadać te cząstki na wczesnym etapie powstawania i dokładnie określić czas i miejsce ich narodzin na Słońcu, dodaje uczony. W czasie badań wykorzystano 8 z 10 instrumentów naukowych Solar Orbitera, a dane zbierano od listopada 2020 do grudnia 2022. Pojazd mierzył cząstki in situ, przelatując przez ich strumienie i jednocześnie obserwując to, co dzieje się na Słońcu oraz zbierając informacje na temat obszaru pomiędzy Słońcem a sobą samym. Orbiter badał cząstki w różnych odległościach od Słońca, co pozwoliło odpowiedzieć na wiele pytań ich dotyczących. Często bowiem, gdy obserwujemy rozbłysk czy koronalny wyrzut masy mija bardzo dużo czasu, zanim wykryjemy wysokoenergetyczne elektrony. Okazuje się, że częściowo dzieje się tak przez sposób ich podróżowania w przestrzeni. Może być to spowodowane opóźnieniem w wystrzeleniu elektronów, ale również opóźnieniem w ich wykryciu. Elektrony na swojej drodze napotykają różne turbulencje, zostają rozproszone itp. itd. A tego typu przeszkody mnożą się, im dalej jesteśmy od Słońca. Więc nie wykrywamy elektronów natychmiast, dodaje Laura Rodríguez-García. Musimy pamiętać, że przestrzeń w Układzie Słonecznym nie jest pusta. Wypełniona jest wiatrem słonecznym, który niesie ze sobą pole magnetyczne Słońca. Decyduje on, w jaki sposób mogą rozprzestrzeniać się elektrony. Nie podróżują one swobodnie, o tym, jak się przemieszczają decyduje wiatr słoneczny i pole magnetyczne. Zdobyta właśnie wiedza może okazać się w przyszłości ważna dla bezpieczeństwa na Ziemi i wokół niej. Elektrony związane z koronalnymi wyrzutami masy są zagrożeniem dla satelitów, pojazdów kosmicznych i astronautów. Lepsze zrozumienie tych cząstek pozwoli w przyszłości na stosowanie lepszych metod ochrony. « powrót do artykułu
  3. Wysokogórskie obszary Azji – głównie Himalaje i Tybet, ale też Karakorum, Hindukusz czy Pamir – zwane są „trzecim biegunem”, gdyż zawierają największe rezerwy lodu poza Arktyką i Antarktyką. Znajdują się tam dziesiątki tysięcy lodowców, od których zależy byt 1,5-2 miliardów ludzi. Lodowce zapewniają im wodę do picia, generowania energii i na potrzeby rolnictwa. Nie od dzisiaj wiadomo, że w wyniku globalnego ocieplanie utrata lodu przez te lodowce przyspiesza. Obecnie każdego roku tracą one ponad 22 gigatony (miliardy ton) lodu rocznie. Naukowcy z University of Utah i Virginia Tech dowiedli właśnie, że sezonowe zmiany opadów deszczu i śniegu, szczególnie monsuny w Azji Południowej, również przyspieszają topnienie lodowców „trzeciego bieguna”. Główny autor badań, Sonam Sherpa z University of Utah mówi, że jeśli intensywność monsunów oraz czas ich początku i końca nadal będą ulegały zmianie, może to przyspieszyć topnienie lodowców i zagrozić życiu setek milionów ludzi. Lodowce są bowiem pewnym, stabilnym i przewidywalnym źródłem wody. Jeśli ich zabraknie, to w przyszłości ludzie będą musieli polegać na znacznie mniej pewnych opadach deszczu i śniegu. To zaś będzie groziło niedoborami wody i suszami w regionach, w których lodowce zapewniają wodę ponad 1,5 miliardowi ludzi. Lodowce w wysokich górskich partiach Azji akumulują masę latem. Niskie temperatury panujące na dużych wysokościach powodują, że niesiona monsunami wilgoć opada w postaci śniegu, zwiększając masę lodowców. Lodowce mogą tracić masę albo z powodu szybszego niż zwykle topnienia, albo zmniejszenia się opadów. Globalne ocieplenie już powoduje, że lodowce szybciej topnieją. Teraz dochodzą do tego niepokojące zmiany w monsunach. Mogą one spowodować skrócenie sezonu opadów, zmniejszenie ich ilości czy też zamianę opadów śniegu w deszcz, który dodatkowo przyspiesza topnienie. Szybsze wycofywanie się lodowców niesie też za sobą ryzyko gwałtownych, niespodziewanych powodzi powodowanych przez jeziora lodowcowe. Jeziora takie powstają na przedpolach lub powierzchni lodowca. Tworzą się za moreną, barierą z lodu czy w zagłębieniu w powierzchni lodowca. W wyniku topnienia lodu wewnątrz bariery, jej erozji wewnętrznej, może dojść do gwałtownego pęknięcia takiej naturalnej tamy. Mamy więc tutaj do czynienia nie tylko z długoterminowym ryzykiem braku wody, ale też z codziennymi zagrożeniami dla położonych w dolinach wsi, dróg, mostów i wszelkiej innej infrastruktury. Najważniejszymi wnioskami, płynącymi ze wspomnianych badań jest spostrzeżenie, że w środkowych i zachodnich Himalajach – gdzie lodowce zwykle przyrastają latem – utrata lodu spowodowana jest przez coraz częściej zdarzające się opady deszczu; na wschodzie Himalajów za utratą lodowców odpowiadają zmniejszone opady śniegu; powtarzające się cykle wycofywania się lodowców są powiązane z cyklami monsunów. Wyniki badań zostały opublikowane w artykule Investigating the Influence of Climate Seasonality on Glacier Mass Changes in High Mountain Asia via GRACE Observations. « powrót do artykułu
  4. Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy. Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.   Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak. Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.   Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne. Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.   Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.   Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.   Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka. « powrót do artykułu
  5. W nieopisanym pudełku w brytyjskim Public Record Office ponownie odkryto oryginał testamentu, który stał się powodem sporu sądowego o spadek po Williamie Shakespearze. Dokument ten ostatni raz był widziany w połowie XIX wieku. Teraz niezwykły testament, z powodu którego wnuczka wielkiego poety musiała przed sądem tłumaczyć, dlaczego nie uszanowała woli zmarłego męża, został znaleziony przez doktora Dana Goslinga, głównego specjalistę ds. dokumentów prawnych w The National Archives. Testament został sporządzony przez Thomasa Nasha, męża wnuczki Szekspira Elizabeth, który mieszkał z żoną i teściową w domu dramaturga w Stratford-upon-Avon. Dom, znany jako New Place, został kupiony przez Szekspira w 1597 roku. Miał trzy piętra, 20 pokojów, 10 kominków, a w skład posiadłości wchodził też dziedziniec, sad i dwa budynki gospodarcze. Pod koniec XVI wieku był to drugi największy prywatny dom w Stratford. Szekspir zapisał znaczną część swojego majątku, w tym New Place, swojej córce Susannie, z zastrzeżeniem, że po jej śmierci majątek ma przejść na własność jej synów, a gdyby nie miała synów, to ma stać się własnością jej córki Elizabeth i jej męskich spadkobierców. Z jakichś powodów Thomas Nash, mąż Elizabeth, sporządził testament, w którym przekazywał New Place swojemu kuzynowi. Jeśli nawet przyjmiemy, że Thomas nie wiedział, iż nie ma praw do domu, to sporządzając testament z pominięciem żony i teściowej, wykazał się olbrzymim optymizmem. Musiał bowiem zakładać, że przeżyje obie panie. Tymczasem w chwili spisywania ostatniej woli miał 59 lat, tyle co teściowa. Żona była od niego o 25 lat młodsza. Thomas zmarł w 1647 roku, pięć lat po spisaniu testamentu, a rok później Edward pozwał Elizabeth do sądu. Argumentował, że testament Thomasa został zarejestrowany w sądzie, a Elizabeth, jako jego spadkobierczyni i wykonawczyni testamentu, miała obowiązek postąpić zgodnie z jego zapisami. Elizabeth stwierdziła, że jej mąż nigdy nie był właścicielem domu, gdyż został on zapisany w testamencie jej matce i jej. W ramach postępowania sądowego Elizabeth musiała przedstawić testament Thomasa i właśnie tak trafił on do akt sądowych. Nie znamy wyroku sądu, jednak nic nie wskazuje na to, by Edward Nash wszedł w posiadanie New Place. Elizabeth zmarła w 1670 roku. Wraz z nią wygasła linia bezpośrednich potomków Szekspira. We własnym testamencie zapisała, zgodnie z obietnicą złożoną Edwardowi, że ma on prawo do nabycia domu. Nie istnieją żadne dokumenty wskazujące Edwarda jako właściciela New Place. Po śmierci Elizabeth właścicielami była bogata rodzina Cloptonów, a w 1702 roku budynek został rozebrany. « powrót do artykułu
  6. Wczesna diagnoza jest często kluczem do wyleczenia wielu chorób. Jednak wiele osób nie korzysta z możliwości badań przesiewowych, nie idzie do lekarza gdy zauważy niepokojące objawy, nie bada się pod kątem ewentualnego nawrotu choroby czy pogorszenia stanu zdrowia. W bardzo wielu krajach takiego postępowania nie można tłumaczyć brakiem informacji czy wysokimi kosztami, gdyż informacje są powszechnie dostępne, a koszty pokrywane przez publiczne systemy opieki zdrowotnej. Z badań Instytutu Rozwoju Człowieka im. Maxa Plancka wynika, że aż 33% ludzi wybiera coś, co badacze nazwali „świadomą ignorancją”, ludzie ci nie chcą wiedzieć o poważnej chorobie, nawet jeśli mogą być chorzy. Naukowcy przeprowadzili metaanalizę 92 badań, w których wzięło udział w sumie 564 497 osób z 25 krajów. Chcieli wiedzieć, jak szeroko rozpowszechniona jest chęć unikania informacji o swoim stanie zdrowia i jakie są tego przyczyny. Analizowane badania dotyczyły postaw pacjentów w obliczu poważnych schorzeń, m.in. choroby Alzheimera, pląsawicy Huntingtona, AIDS, nowotworów i cukrzycy. Autorzy metaanalizy zdefiniowali unikanie jako każde zachowanie, którego celem jest uniknięcie lub odwleczenie pozyskania dostępnej, ale potencjalnie niechcianej informacji. Zachowania takie to np. unikanie umówionych wizyt u lekarza, odmawianie poddaniu się badaniom, nieodebranie wyników badań czy ignorowanie informacji dotyczących stanu zdrowia. Analiza wykazała, że niemal 33% osób cierpiących na poważne choroby unika informacji na temat swojego stanu zdrowia. Największy odsetek występuje wśród cierpiących na alzheimera (41%) i pląsawicy Huntingtona (40%). Dla chorób poddających się leczeniu odsetek unikających był niższy i wynosił 32% w przypadku zarażenia HIV, 29% w przypadku nowotworów i 24% w przypadku cukrzycy. Gdy naukowcy postanowili zbadać przyczyny, dla których ludzie chorzy unikają informacji, okazało się, że najważniejszymi z nich były przeciążenie poznawcze (diagnoza takich chorób jak nowotwory może być bardzo stresująca), zbyt mała wiara w siebie (chory nie wierzy, że sobie poradzi w trakcie leczenia z podejmowaniem właściwych decyzji), strach przed stygmatyzacją (dotyczy to np. HIV) oraz brak zaufania do systemu opieki zdrowotnej w połączeniu z niską wiarą w powodzenie leczenia. Niestety, badacze nie dysponowali danymi, które pozwoliłyby na stwierdzenie, jak unikanie informacji wpłynęło na rezultaty leczenia badanych osób. « powrót do artykułu
  7. Jeśli trend dla obecnych pokoleń byłby taki, jak w pierwszej połowie XX wieku, to osoba urodzona w latach 80. mogłaby spodziewać się, że dożyje 100 lat, mówi José Andrade z Instytutu Badań nad Demografią im. Maxa Plancka. W pierwszej połowie XX wieku wzrost spodziewanej długości życia był imponujący. Dla osoby urodzonej w 1900 roku było to 62 lata, dla urodzonej w roku 1938 – 80 lat. Jednak przyrost średniej spodziewanej długości życia wyraźnie zwolnił. Nowe badania pokazały, że średnia długości życia dla osób urodzonych w latach 1939–2000 nie rośnie tak szybko, jak dla ludzi urodzonych wcześniej. O ile osoby, które urodziły się przed rokiem 1939 mogły spodziewać się, że średnia długość życia każdego rocznika będzie o 5,5 miesiąca większa niż rocznika poprzedniego, to dla urodzonych w latach 1939–2000 wzrost ten wynosi od 2,5 do 3,5 miesiąca. Andrade oraz Carlo Giovanni Camarda z Institut national d'études démographiques – INED i Héctor Pifarré i Arolas z University of Wisconsin-Madison postanowili sprawdzić, jak szybko obecnie rośnie średnia spodziewana długość życia. Analizę przeprowadzili na przykładzie 23 krajów o wysokich dochodach i niskiej śmiertelności niemowląt. Wykorzystali dane z Human Mortality Database, które przeanalizowali za pomocą sześciu różnych metod statystycznych służących do analizowania średniej spodziewanej długości życia. Chcieliśmy być pewni wyników, dlatego wykorzystaliśmy nie jedną metodę, ale kilka. Użyliśmy zarówno takich, które są uznane i powszechnie używane od dawna, jak metody wykorzystywane przez United Nations World Population Prospects, jak i najnowocześniejszych metod prognozowania śmiertelności, mówi Andrade. Wszystkie metody wykazały, że spodziewana długość życia dla osób urodzonych w latach 1939–2000 rośnie wolniej, niż dla tych urodzonych wcześniej. W zależności od metody spowolnienie wynosił od 37 do 52 procent. Przewidujemy, że dla osób urodzonych w roku 1980 średnia długość życia nie wyniesie 100 lat i żadna kohorta, jaką braliśmy pod uwagę, nie osiągnie takiego wieku, stwierdza uczony. Spadek tempa przyrostu średniej spodziewanej długości życia jest spowodowany głównie faktem, że w przeszłości zjawisko to było napędzane głównie imponującymi spadkami śmiertelności w najmłodszym wieku. Od początku XX wieku odsetek zgonów wśród niemowląt zaczął gwałtownie spadać dzięki postępom medycyny i innym zjawiskom. Dlatego też przez trzy pierwsze dekady tamtego stulecia szybko rosła średnia długość życia. Obecnie jednak śmiertelność wśród niemowląt jest tak niska, że pozostaje niewiele miejsca na poprawę. A śmiertelność wśród osób starszych nie spada na tyle szybko, by to skompensować. Naukowcy są pewni uzyskanych przez siebie wyników, jednak trzeba pamiętać, że są to jedynie przewidywania, które mogą się nie sprawdzić. Takie wydarzenia jak pandemie, wynalezienie nowych leków czy zmiany społeczne mogą znacząco wpłynąć na średnią długość życia w danym pokoleniu. Badania nad spodziewaną długością życia są zaś o tyle ważne, że zjawisko to wpływa na planowanie dotyczące gospodarki, systemów emerytalnych czy systemów opieki zdrowotnej. Ze szczegółami badań można zapoznać się na łamach PNAS. « powrót do artykułu
  8. Przez 200 lat w zbiorach duńskiego Muzeum Narodowego (Nationalmuseet) znajdowała się 3-centymetrowia bierka do gier, przedstawiająca głowę i tors wikinga. Pochodzący sprzed 1000 lat zabytek stał się teraz przedmiotem badań, na podstawie których naukowcy określili, jaka fryzura była modna w czasach Haralda Sinozębego. Oczywiście przyjęto przy tym założenie, że wierzymy temu, w jaki sposób wikingowie przedstawiali samych siebie. Kurator Peter Pentz jest zachwycony sposobem, w jaki uchwycono w figurce portret wikinga. Gdy kilka lat temu trafiłem na tę figurkę w jednym z naszych magazynów, byłem naprawdę zaskoczony. Stała tam patrząc się na mnie. Nigdy, przez tyle lat pracy w muzeum, nie trafiłem na taki portret wikinga, cieszy się Pentz. Sztuka wikingów znana jest ze wzorów geometrycznych i przedstawień zwierząt. Jednak rzadko przedstawiano ludzi. A znaleziona przez kuratora figurka jest tym bardziej wyjątkowa, że to portret pełen ekspresji. Do tego ze szczegółowo zaznaczonym stylem uczesania. Figurka ma przedziałek pośrodku głowy, fala włosów układa się na bok, ale ucho jest widoczne, a włosy przycięte z tyłu. Figurka ma też duży wąs, długą zaplecioną kozią bródkę i bokobrody. Dotychczas nie dysponowaliśmy tak szczegółowymi przedstawieniami fryzur wikingów. Tutaj widoczny jest nawet niewielki lok nad uchem. Po raz pierwszy widzimy tutaj przedstawienie mężczyzny wikinga, na którym możemy podziwiać jego fryzurę pod dowolnym kątem. To coś unikatowego, mówi Pentz. Wyjątkowa figurka została odkryta w 1797 roku w grobie jeźdźca z Viken w pobliżu Oslofjord. Pochówek datowano na 2. połowę X wieku. To okres rządów Haralda Sinozębego. Wykonana z kła morsa figurka jest bierką do gry w hnefetafl, rodzaj szachów. Sama figurką przedstawia najważniejszą bierkę, króla. Zatem jego uczesanie było modne wśród wikińskiej elity końca I tysiąclecia naszej ery. Hnefetafl była popularna od VIII do XI wieku, kiedy to została zastąpiona przez szachy. Ze szczegółami badań można zapoznać się na łamach Medieval Archaeology. « powrót do artykułu
  9. Zęby rekinów to niezwykle skuteczne narzędzie do cięcia mięsa upolowanych zwierząt. Rekiny znane są z tego, że przez całe życie wymieniają tę śmiercionośną broń. W końcu od ostrych zębów zależy ich przeżycie. Okazuje się jednak, że w miarę zakwaszania się oceanów, zęby rekinów mogą stawać się słabsze i bardziej podatne na uszkodzenia. A to może postawić pod znakiem zapytania możliwość przetrwania rekinów. Naukowcy z Niemiec postanowili zbadać, jak zachowają się zęby rekinów w różnych scenariuszach zakwaszenia oceanów. Wzrost kwasowości wód oceanicznych jest napędzany głównie przez antropogeniczną emisję dwutlenku węgla, który jest pochłaniany przez oceany. Obecnie średnie pH oceanów wynosi 8,1. Do roku 2300 spodziewane jest jego obniżenie do 7,3, co oznacza, że woda stanie się niemal 10-krotnie bardziej kwaśna. Podczas swoich badań uczeni wykorzystali zęby żarłaczy rafowych czarnopłetwych zebranych przez nurków w akwarium, z którym przetrzymywane są te ryby. Z ponad 600 zębów wybrano 16, które były w doskonałym stanie oraz 36, które zostały użyte do pomiarów. Zęby podzielono na 2 grupy, z których każda była przez 8 tygodni przechowywana w 20-litrowym zbiorniku z morską wodą. W jednym zbiorniku woda miała odczyn pH 8,1, w drugim zaś – pH 7,3. Okazało się, że zęby ze zbiornika z bardziej kwaśną wodą były znacznie bardziej uszkodzone. Naukowcy stwierdzili obecność widocznych uszkodzeń, takich jak pęknięcia i dziury, uszkodzenia korzeni i osłabienie struktury. Zęby ze zbiornika z bardziej kwaśną wodą miały też większy obwód. Nie oznacza to, ze urosły, ale ich powierzchnia stała się bardziej nieregularna, co skutkowała jej zwiększeniem. Takie nieregularności mogą z jednej strony zwiększać zdolność zębów do cięcia mięsa, jednak z drugiej osłabiają zęby i powodują, że są one bardziej narażone na pękanie. Autorzy badań podkreślają, że użyli zębów, których rekiny się pozbyły. Zatem nie zachodziły w nich potencjalne procesy ponownej mineralizacji. W przypadku zębów znajdujących się w szczęce rekina sytuacja może być znacznie bardziej złożona. Może mieć miejsce szybsza remineralizacja czy wymiana zębów. Jednak w wodach bardziej kwaśnych procesy te będą z pewnością bardziej kosztowne energetycznie, mówi profesor Sebastian Fraune z Uniwersytetu Heinricha Heine w Düsseldorfie. Nawet niewielki wzrost kwasowości wód oceanicznych może mieć negatywny wpływ na wiele gatunków zwierząt. Uszkodzenia mogą kumulować się przez długi czas, a zwierzęta nie będą w stanie ich naprawić lub też koszt naprawy będzie bardzo duży. To zaś może zagrozić przetrwaniu poszczególnych osobników lub całych gatunków. To przypomnienie, że zmiany klimatu mają wpływ na całe łańcuchy pokarmowe i ekosystemy, ostrzega główny autor badań, Maximilian Baum z Düsseldorfu. Z badaniami można zapoznać się na łamach Frontiers in Marine Science. « powrót do artykułu
  10. Naukowcy z University of Hawai'i ostrzegają, że do roku 2080 rosnący poziom oceanów zacznie zagrażać słynnym moai z Wyspy Wielkanocnej. Z artykułu opublikowanego na łamach Journal of Cultural Heritage dowiadujemy się, że za nieco ponad 50 lat poziom oceanów wzrośnie na tyle, że sezonowo fale będą dosięgały największej platformy ceremonialnej (ahu) na Wyspie, Ahu Tongariki, na której ustawionych jest 15 posągów, w tym najcięższe moai, jakie kiedykolwiek powstały na wyspie. Ponadto wody oceaniczne zagrożą 51 innym zabytkom. Główny autor badań, doktorant Noah Paoa i jego zespół stworzyli szczegółowy wirtualny obraz wybrzeża i symulowali oddziaływanie fal morskich w różnych przewidywanych dla przyszłości scenariuszach wzrostu poziomu oceanów. Niestety, z naukowego punktu widzenia, wyniki naszej pracy nie są zaskakujące. Wiemy, że wzrost poziomu oceanów zagraża wybrzeżom na całym świecie. Nie pytaliśmy, czy dane miejsca zostaną zagrożone, ale kiedy i jak poważne będzie to zagrożenie. Odkrycie, że fale morskie mogą dosięgnąć Ahu Tongariki do roku 2080 pokazuje, że należy rozpocząć dyskusję na ten temat i zastanowić się nad planami na przyszłość, mówi uczony. Wzrost poziomu oceanów to poważny problem dla wybrzeży na całym świecie oraz dla znajdującego się tam dziedzictwa kulturowego. Z podobnym problemem już w najbliższym czasie będą zmagały się i Hawaje i wszystkie inne wyspy Pacyfiku. Niebezpieczeństwo wisi nad świętymi miejscami, świątyniami czy cmentarzami. « powrót do artykułu
  11. Wbrew temu, co możemy przeczytać w mediach, najbardziej świadomą ekologicznie grupą Polaków nie jest ani pokolenie milenialsów (ur. w latach 1980–1994), ani pokolenie Z (1995–2012), a baby boomersi (1946–1964). Tak wynika z badań przeprowadzonych przez doktor Martę Makowską z Akademii Leonka Koźmińskiego, która wraz z dr Rafałem Boguszewskim i dr Arletą Hrehorowicz z SGGW zbadała związek między pokoleniami a zachowaniami konsumenckimi dotyczącymi żywności i decyzji proekologicznych. Naukowcy wzięli pod uwagę wszystkie pokolenia urodzone w latach 1946–2012. Naukowcy badali codzienne nawyki proekologiczne, takie jak segregacja śmieci, oszczędzanie energii i wody, korzystanie z toreb wielorazowych, unikanie plastiku, rezygnacja z jazdy samochodem czy ograniczenie konsumpcji mięsa czy zakupów odzieży. To najstarsi, generacja powojennego wyżu demograficznego prowadzą bardziej zrównoważoną konsumpcję. Można ich uznać za najbardziej odpowiedzialnych spośród wszystkich pokoleń, mówi doktor Makowska. Boomersi najczęściej ze wszystkich pokoleń zwracają uwagę na skład kupowanej żywności, kraj pochodzenia i certyfikat ekologicznej żywności. Starsi częściej niż młodsi przyglądają się też dacie ważności produktu i kupują tylko tyle ile im potrzeba. Nieznacznie częściej od młodszych zwracają uwagę, czy opakowanie nadaje się do recyklingu. Za to młodsze pokolenia więcej uwagi przywiązują do opinii innych o produkcie. Kobiety częściej niż mężczyźni sprawdzają jakość produktu, jego termin przydatności do spożycia i częściej kupują tylko tyle ile trzeba. Większą wagę przywiązują też do tego, czy opakowanie jest biodegradowalne. Badanie jasno wskazuje, że to kobiety są bardziej świadomymi konsumentkami żywności. To oczywiście wynika z uwarunkowań społeczno-kulturowych i ich większej odpowiedzialności za gospodarstwo domowe, a także zdrowie domowników. Tego typu zachowania mogą świadczyć także o większej podatności kobiet na kampanie edukacyjne, prozdrowotne oraz większej wrażliwości na kwestie środowiskowe i potrzeby ekologiczne, dodaje Marta Makowska. Widoczne są też różnice w zależności od wykształcenia. Osoby z wyższym wykształceniem częściej zwracają uwagę na jakość i skład, rzadziej kierują się ceną, promocjami i opiniami innych. Mniejsze znaczenie ma też dla nich kraj pochodzenia i certyfikat ekologiczny oraz rzadziej zwracają uwagę na to, czy opakowanie można poddać recyklingowi. Częściej też deklarują, że kupują tyle ile potrzebują. Nawyki dotyczące zakupów żywności to niezwykle ważny element świadomych działań konsumenckich. Żywność jest często niepotrzebnie pakowana w plastik, co nie tylko powoduje zanieczyszczenie jej mikro- i nanoplastikiem, ale jest też źródłem zanieczyszczeń plastikiem środowiska naturalnego. Jej produkcja, przetwarzanie i transport powodują znaczną degradację środowiska naturalnego, zatem świadomy wybór każdego z konsumentów ma olbrzymie znaczenie. Tymczasem aż 1/3 żywności marnowana, uznawana za niezdatną do spożycia lub wyrzucana. W UE każdego roku wyrzuca się aż 59 milionów ton żywności, czyli 132 kg na mieszkańca. W Polsce marnuje się niemal 5 milionów ton żywności, czyli 127 kilogramów rocznie na osobę. « powrót do artykułu
  12. Nanokropki z perowskitów metalohalogenkowych to niezwykle obiecujące materiały na polu optoelektroniki. Stosowane są w fotowoltaice, wyświetlaczach, diodach i urządzeniach z dziedziny inżynierii kwantowej. Mają świetne właściwości optyczne, jednak ich pełnie wykorzystanie jest trudne ze względu na gigantyczne zróżnicowanie parametrów ich syntezy. Opracowywanie i udoskonalanie nanokropek wymaga przeprowadzania olbrzymiej liczby eksperymentów. Na pomoc może przyjść tutaj Rainbow, w pełni zrobotyzowane autonomiczne laboratorium autorstwa uczonych z North Carolina State University. Rainbow to całkowicie autonomiczne laboratorium, w którym połączono zautomatyzowaną syntezę nanokryształów i maszynowe uczenie się. Laboratorium jest w stanie przeprowadzić do 1000 eksperymentów dziennie bez pomocy człowieka. To znakomicie przyspiesza tempo pracy nad nowymi rozwiązaniami. Rainbow to miejsce jednoczesnej pracy wielu robotów, które autonomicznie badają i optymalizują złożone reakcje chemiczne z niezwykłą efektywnością. Roboty automatycznie przygotowują składniki, mieszają je i przeprowadzają w reaktorach do 96 reakcji jednocześnie. Następnie przenoszą produkty reakcji do robotów odpowiedzialnych za ich scharakteryzowanie. Cały proces jest w pełni zautomatyzowany i skoordynowany, mówi profesor Milad Abolhasani. Praca z Rainbow zaczyna się od określenia poszukiwanych parametrów materiału wyjściowego. Użytkownik może też określić, ile eksperymentów ma laboratorium wykonać przed zaprzestaniem pracy. Od tej pory laboratorium pracuje samodzielnie. Wykonuje eksperymenty, analizuje ich wyniki i na tej podstawie decyduje, jaki kolejny eksperyment należy wykonać, by uzyskać pożądany materiał. Innymi słowy, na podstawie doświadczenia i wyników poprzednich eksperymentów autonomicznie tworzy przepis na kolejny eksperyment, przybliżając się do wykonania zadania. Rainbow nie śpi, pracuje 24 godziny na dobę, w ciągu dni robi to, co naukowcom zajmuje lata. Nie ma jednak za zadanie ich zastąpić, a wyręczyć w wykonywaniu monotonnych czasochłonnych zadań, by mieli więcej czasu nad pracami projektowymi i opracowywaniem innowacji, mówi Abolhasani. Rainbow zostało opisane na łamach Nature. « powrót do artykułu
  13. Ibuprofen i paracetamol to najpowszechniej używane na świecie środki przeciwbólowe stosowane bez recepty. Najnowsze badania przeprowadzone na University of South Australia sugerują, że napędzają one jedno z największych zagrożeń zdrowotnych dla ludzkości: antybiotykooporność. Uczeni z Australii chcieli sprawdzić interakcje zachodzące pomiędzy lekami nie będącymi antybiotykami, ciprofloksacyną, która jest antybiotykiem o szerokim spektrum działania oraz bakterią E. coli. I odkryli wysoce niepokojący wpływ ibuprofenu i paracetamolu na bakterię. Antybiotykooporność od lat uważana jest za jedno z największych zagrożeń dla ludzkości. Powszechne i nadmierne stosowanie antybiotyków u ludzi oraz zwierząt hodowlanych powoduje, że coraz więcej szkodliwych mikroorganizmów zyskuje oporność na coraz liczniejsze antybiotyki. Specjaliści obawiają się, że w przyszłości może dojść do sytuacji, w której coraz więcej osób będzie umierało na choroby zakaźne, które jeszcze niedawno nie były śmiertelnym zagrożeniem, gdyż mieliśmy zwalczające je antybiotyki. Z badań, które ukazały się w 2022 roku w piśmie The Lancet dowiadujemy się, że w 2019 roku antybiotykooporne bakterie zabiły 1,27 miliona osób, a w sumie przyczyniły się do śmierci 4,95 miliona ludzi. Największe śmiertelne żniwo zebrały Escherichia coli, Staphylococcus aureus, Klebsiella pneumoniae, Streptococcus pneumoniae, Acinetobacter baumannii i Pseudomonas aeruginosa. Antybiotyki od dawna są główną obroną przed chorobami zakaźnymi, jednak ich nadmierne i niepotrzebne stosowanie doprowadziło do pojawienia się na całym świecie antybiotykoopornych bakterii, mówi główna autorka nowych badań, profesor Rietie Venter. Ma to szczególne znaczenie w domach opieki społecznej, gdzie osobom starszym z większym prawdopodobieństwem przepisuje się wiele leków, nie tylko antybiotyków, ale również środków przeciwbólowych, nasennych czy obniżających ciśnienie. W ten sposób powstaje idealne środowisko, w którym bakterie mikrobiomu mogą stać się oporne na antybiotyki, dodaje uczona. Naukowcy z Australii zauważyli, że gdy obok ciprofloksacyny – stosowanej w leceniu infekcji skóry, układu moczowego i układu pokarmowego – podaje się też ibuprofen czy paracetamol, u bakterii E. coli pojawia się więcej mutacji niż wówczas, gdy podaje się sam antybiotyk. W wyniku tych mutacji bakterie szybciej się namnażają i są bardziej oporne na działanie antybiotyków. A co gorsza, nie tylko na działanie ciprofloksacyny, ale szerokiego spektrum antybiotyków różnych klas. Badacze oceniali 9 leków powszechnie stosowanych w domach opieki społecznej: ibuprofen, diklofenak, paracetamol, furosemid, metforminę, tramadol, atorwastatynę, temazepam i pseudoefedrynę. Ich badania wykazały, że mechanizm nabywania antybiotykooporności jest bardzo złożony i nie ma związku wyłącznie z antybiotykami. Badania zostały opublikowane w artykule The effect of commonly used non-antibiotic medications on antimicrobial resistance development in Escherichia coli. « powrót do artykułu
  14. Szybkie rozbłyski radiowe (FRB) wciąż stanowią zagadkę. Astronomowie ciągle nie wiedzą, co jest ich źródłem, jak powstają, często nie potrafią też określić położenia źródła. Niedawno dzięki rozbudowanemu Canadian Hydrogen Intensity Mapping Experiment (CHIME) zarejestrowano najjaśniejszy z FRB i dokładnie określono jego położenie. To zaś może się przyczynić do rozwiązania zagadki rozbłysków. Teleskop CHIME powstał, by wykrywać i tworzyć mapę rozkładu wodoru we wszechświecie. Pracę rozpoczął w 2018 roku i od tej pory wykrył około 4000 FRB. Nie był jednak w stanie dokładnie określić lokalizacji rozbłysków. Ostatnio jednak został rozbudowany. Dodano do niego CHIME Outriggers, trzy miniaturowe wersje CHIME rozsiane po całej Ameryce Północnej. Dzięki temu teleskop jest w stanie zlokalizować miejsce rozbłysku. Precyzja narzędzia jest zadziwiająca. Wyobraź sobie, że jesteśmy w Nowym Jorku, a na Florydzie przez tysięczną część sekundy – tyle trwają FRB – rozbłysł świetlik. Zlokalizowanie tej części galaktyki, w której doszło do FRB jest jak wskazanie nie tylko tego, z którego drzewa świetlik pochodzi, ale na której gałęzi przysiadł, mówi Shion Andrew z Kavli Institute. Wspomniany na wstępie rozbłysk zyskał nieoficjalną nazwę RBLOAT, od „radio brightest flash of all time” (najjaśniejszy rozbłysk radiowy wszech czasów). Jego jasność, w połączeniu ze stosunkowo niewielką odległością, w jakiej do rozbłysku doszło, daje astronomom bezprecedensową okazję do badania tego typu zjawisk. RBFLOAT miał bowiem miejsce w odległości około 130 milionów lat świetlnych od Ziemi, w Gwiazdozbiorze Wielkiej Niedźwiedzicy. Ultrajasny rozbłysk został wykryty 16 marca 2025 roku. Był tak jasny, że początkowo naukowcy nie byli pewni, czy to FRB czy też jakieś zjawisko, do którego doszło na Ziemi. Okazało się jednak, że teleskopy CHIME Outrigger wskazały, że zjawisko miało miejsce w galaktyce spiralnej NGC4141. Mieliśmy więc do czynienia z jednym z najbliższych i najjaśniejszych z wykrytych FRB. Dzięki kolejnym obserwacjom tego obszaru astronomowie dowiedzieli się, że FRB pochodził zza krawędzi regionu aktywnego formowania się gwiazd. Autorzy badań wysunęli hipotezę, że źródłem RBFLOAT był magnetar, młoda gwiazda neutronowa o potężnych polach magnetycznych. Lokalizacja miejsca rozbłysku, zaraz za krawędzią regionu formowania się gwiazd, może sugerować, że to magnetar w nieco starszym wieku. Uczeni przeszukali cały zestaw danych CHIME i nie znaleźli w tym regionie innego rozbłysku. Zatem przynajmniej w ciągu ostatnich 6 lat nie doszło tam do podobnego wydarzenia. Wciąż nie wiadomo, czy powtarzające się i unikatowe FRB mają to samo źródło. Istnieją pewne dowody wskazujące, że nie wszystkie rozbłyski powstają tak samo. Dzięki takim urządzeniom jak CHIME naukowcy mogą rejestrować setki FRB rocznie, porównywać je ze sobą i próbować rozwiązać zagadkę tych niezwykłych zjawisk. Badania zostały szczegółowo opisane na łamach Astrophysical Journal Letters. « powrót do artykułu
  15. Od wielu lat inżynierowie z Uniwersytetu Harvarda tworzą elastyczne robotyczne stroje dla osób z upośledzeniem ruchu w wyniku udarów czy chorób neurodegeneracyjnych. Stroje takie służą nie tylko pomocą przy wykonywaniu codziennych czynności, ale równie pomagają przy terapii, której celem jest odzyskanie mobilności. Jednak nie ma dwóch identycznych osób, a nasz sposób poruszania się jest wysoce zindywidualizowany. Szczególnie jest to widoczne u osób z zaburzeniami mobilności. To zaś powoduje, że bardzo trudno jest stworzyć urządzenie, które nadawałoby się dla różnych osób. Rozwiązaniem tego problemu może być wykorzystanie systemów maszynowego uczenia się. Profesor Conor Walsh i jego zespół z John A. Paulson School of Engineering and Applied Sciences (SEAS) na Uniwersytecie Harvarda od sześciu lat współpracują z lekarzami z Massachusetts General Hospital oraz naukowcami z Harvard Medical School. Efektem współpracy ze specjalistą od udarów i rehabilitacji układu nerwowego doktorem Dawidem Linem oraz specjalistką od stwardnienia rozsianego doktor Sabriną Paganoni jest specjalna kamizelka zdolna do uczenia się ruchów indywidualnego pacjenta i pomagająca mu poruszać kończyną wymagającą rehabilitacji. Problemem dla osób z upośledzeniami ruchomości jest na przykład wykonanie serii powtarzalnych ruchów, potrzebnych na przykład przy myciu zębów czy jedzeniu. Mają problemy z uniesieniem ramienia na odpowiednią wysokość, utrzymaniem go, ramię bardzo szybko się męczy, gdy trzeba takie ruchy powtarzać. Wstępne wersje samouczącej się kamizelki zwracały uwagę tylko na ruchy pacjenta. Okazało się, że gdy kamizelka pomogła unieść ramię, chorzy mieli problem z jego opuszczeniem. Niektórzy nie mieli siły, by przezwyciężyć opór robota. Dlatego też w nowej wersji dodano model fizyczny, który przewiduje minimalną siłę, potrzebną do pomocy w poruszeniu kończyny. Dzięki temu pacjenci nie tylko odczuwają pomoc jako bardziej naturalną, ale nie mają większych problemów z samodzielnym opuszczaniem ramienia. Nowe urządzenie przetestowano na 9 osobach, 5 po udarach i 4 ze stwardnieniem zanikowym bocznym. Dla osób ze stwardnieniem rozsianym najważniejszymi aspektami są komfort, łatwość użycia i dostosowywanie się urządzenia do ich specyficznych potrzeb i wzorców ruchu. Personalizacja jest tutaj kluczowym elementem pozwalającym pacjentom na osiągnięcie niezależności i poprawienie jakości ich życia. Nasze urządzenie ma potencjał znaczącej poprawy funkcjonowania górnych kończyn, zwiększenia aktywności pacjentów oraz redukcji wykonywanych przez nich ruchów kompensujących, stwierdza Paganoni. Testy wykazały, że już obecna wersja kamizelki jest w stanie z 94-procentową dokładnością odróżniać ruchy ramienia, pozwala chorym uzyskać większy zakres ruchu ramienia, łokcia i nadgarstka, dzięki czemu nie muszą oni całym ciałem kompensować niedoborów. To zaś powoduje, że ich sposób poruszania się jest bardziej dokładny i efektywny. Więcej informacji: Personalized ML-based wearable robot control improves impaired arm function. « powrót do artykułu
  16. W Mieście Dawida odkryto największą zaporę wodną w starożytnym Izraelu. To jednocześnie najstarsza tego typu konstrukcja w Jerozolimie. Instytut Weizmanna oraz Izraelska Służba Starożytności datują powstanie monumentalnej konstrukcji na rządy królów Judy Joasza (836–796 p.n.e.) lub Amazjasza (796–767 p.n.e.). Archeolodzy uważają, że zbudowanie tamy było odpowiedzią na kryzys klimatyczny sprzed 2800 lat. Wielka zapora, odkryta w pobliżu Sadzawki Siloam, powstała około lat 805–795. To największa zapora kiedykolwiek odkryto w Izraelu i najstarsza zapora w Jerozolimie. Ma imponujące rozmiary: około 12 metrów wysokości, ponad 8 metrów szerokości, jej długość sięga 21 metrów i wykracza poza zakres obecnych wykopalisk. Jej zadaniem było gromadzenie wody ze źródła Gichon oraz wód opadowych spływających z Jerozolimy do Doliny Cedronu. Spełniała więc dwa zadania: gromadziła wodę pitną i zapobiegała powodziom błyskawicznym, informują archeolodzy. Dzięki precyzyjnemu datowaniu zapory można było, po raz pierwszy, określić czas powstania pierwszych struktur, które miały dać w przyszłości początek ważnej w historii Jerozolimy sadzawce Siloam. Dotychczas chronologię tego miejsca znano jedynie ze źródeł biblijnych i innych źródeł historycznych. Datowanie starożytnej struktury z dokładnością do 10 lat jest niezwykłym osiągnięciem. Udało się to, dzięki temu, że w strukturze zapory znalazły się gałęzie. Uzyskane z nich dane porównano z danymi klimatycznymi z rdzeni z Morza Martwego i jaskini Soreq. Dzięki temu wiemy, że w czasach budowy zapory w regionie zmniejszyła się ilość opadów, dochodziło za to do krótkotrwałych gwałtownych burz powodujących powodzie błyskawiczne. Nowo odkryta zapora łączy dwie inne struktury hydrologiczne powstałe w tym samym okresie – zaporę na źródle Gichon oraz kanały zbierające wodę ze źródła i prowadzące ją do sadzawki Siloam. To zaś oznacza, że już w IX wieku przed naszą erą Jerozolima była na tyle bogatym i potężnym miastem, iż jej władze były zdolne do skomplikowanego planowania i prowadzenia złożonych prac inżynieryjnych. « powrót do artykułu
  17. Około 250 roku na terenie Japonii pojawił się nowy zwyczaj grzebalny. Mieszkańcy wysp zaczęli konstruować wielokomorowe kurhany, tzw. kofun. W mieście Sakai w prefekturze Osaka znajduje się największy z japońskich kurhanów - Daisen-ryo kofun. To prawdopodobnie grobowiec Nintoku, 16. cesarza Japonii. Otoczony trzema fosami kurhan w kształcie dziurki od klucza ma 486 metrów długości, jego tylna część ma 249 metrów średnicy, a wysokość sięga 36 metrów. Na teren kurhanu nie wolno wchodzić, nie prowadzi się w nim też prac archeologicznych. A mimo to pojawiły się przedmioty, zabrane z grobowca przed 150 laty. W kwietniu 1872 roku podczas prac porządkowych na terenie Daisen-ryo kofun zauważono, że w wyniku osunięcia się ziemi doszło do odsłonięcia komory grobowej zawierającej sarkofag. Na miejsce wysłano Kashiwagigo Kaichiro, architekta specjalizującego się w budowie pawilonów herbacianych, uznanego kolekcjonera starożytności i eksperta ds. sztuki. Kaichiro sporządził plany i rysunki, na których widać komorę grobową i duży sarkofag, wewnątrz którego znaleziono m.in. złoconą zbroję, szklane naczynia, żelazne miecze. Po oględzinach komora została zasypana. Okazuje się jednak, że Kaichiro zabrał z grobowca niewielki pozłacany nożyk i fragmenty zbroi. Przez lata znajdowały się one w jego prywatnej kolekcji, a po jego śmierci w 1898 roku przeszły na własność Masudy Takashiego, urzędnika z Ministerstwa Finansów, a później przedsiębiorcy związanego z koncernem Mitsui, dla którego zlecenia wykonywał też Kaichiro. Takashi zlecił też Kaichiro budowę pawilonu herbacianego w swoim domu. Przejął też od niego wiele dzieł sztuki, w tym zwoje, które później uznano za skarby narodowe. Gdy zaś Masuda Takashi zmarł w 1938 roku, przedmioty z cesarskiego grobu krążyły wśród kolekcjonerów, aż zostały kupione przez Muzeum Uniwersytetu Kokugakuin. Dzięki temu stały się znane opinii publicznej i można było je zbadać. Do muzeum trafiły małe fragmenty złoconej miedzi, które nakładano na żelazną zbroję, oraz rytualny nożyk. Analizy fragmentów zbroi wykazały obecność miedzi, złota, rtęci i żelaza. Zachowany fragment nożyka ma 10,5 cm długości i 2,2 cm szerokości. Całość miała około 15 cm. długości. Zabytek znajduje się w pochwie z drewna cyprysika tępołuskowego, która została obita miedzią pozłacaną amalgamatem (Cu, Au, Hg), a jej brzegi wzmocniono srebrnymi nitami. Grubość złocenia wynosi zaledwie 0,5 milimetra, co wskazuje na wysoki poziom zaawansowania technologicznego. Przedmioty datowane są na 2. połowę V wieku. Prawdopodobnie zostały wykonane na zlecenie rodziny cesarskiej. Sam kurhan był prawdopodobnie budowany i używany przez dłuższy czas, a pochówki następowały tam w różnych latach. « powrót do artykułu
  18. Politechnika Wrocławska koordynuje prace nad wykorzystującą siłę grawitacji nowatorską metodą przechowywania energii. Współfinansowany przez Unię Europejską projekt „GrEnMine – Gravitational Energy storage in the post-Mine areas” ma za zadanie wspierać system elektroenergetyczny korzystający z odnawialnych źródeł energii. Demonstracyjna instalacja powstanie zaś w Kopalni Węgla Brunatnego Turów. Zespół z Wrocławia, na czele którego stoi profesor Przemysław Moczko, otrzymał milion euro na opracowanie koncepcji, obliczenia, symulacje i stworzenie systemu RM-GES (Rail-Mounted Gravitational Energy Storage). Najbardziej znaną i najpowszechniej stosowaną metodą grawitacyjnych magazynów energii są elektrownie szczytowo-pompowe. Gdy w sieci jest nadmiar energii, woda jest pompowana do wyżej położonego zbiornika, gdy zaś potrzebna jest dodatkowa energia, woda jest spuszczana i napędza turbinę. Projekt GrEnMine wykorzystuje podobną zasadę. Przy nadwyżce energii w sieci masę się unosi, gdy chcemy wykorzystać zgromadzoną w ten sposób energię, opuszczamy masę. Jeden z pomysłów zakłada wykorzystanie mechanizmu dźwigu podnoszącego dużą masę na wysokość nawet 100 metrów. Elementem przetwarzającym zgromadzoną energię potencjalną na prąd elektryczny może być generator z przemiennikiem częstotliwości. Odnawialne źródła energii (OZE) odgrywają coraz większą rolę w produkcji energii na całym świecie. Jeszcze w 2015 roku ze źródeł odnawialnych pochodziło ok. 24% energii elektrycznej używanej na świecie. Obecnie ze źródeł odnawialnych świat produkuje 32% energii. Wzrosty widać we wszystkich najważniejszych regionach. Na przykład w 2022 roku w USA udział źródeł odnawialnych w produkcji energii energetycznej wynosił 21,4%, co oznaczało wzrost o 161% w porównaniu z rokiem 2000. W Chinach w roku 2022 było to 30,2% (wzrost o 82%). W Polsce zaś udział źródeł odnawialnych w produkcji energii elektrycznej w 2022 roku wynosił 21,1%, czyli o 1219% więcej niż w roku 2000. Im większy udział mają OZE w produkcji energii, tym większym problemem staje się ich niestabilność i nieprzewidywalność. Konieczne jest przechowywanie energii w czasach jej nadpodaży i jej odzyskiwanie, gdy popyt jest większy. Magazynowanie energii jest bardzo ważnym wyzwaniem w dobie zwiększającego się wykorzystania odnawialnych, mniej stabilnych źródeł energii. Zadanie, którego się podjęliśmy, jest złożone i wymaga precyzyjnych obliczeń, symulacji, konstrukcji odpornych na ekstremalne obciążenia. Cały projekt to także sposób na nadanie nowej funkcji terenom, które przez dekady służyły wydobyciu. Teraz mogą znów służyć gospodarce, chociaż już w inny sposób – mówi prof. Moczko. Projekt potrwa do czerwca 2027 roku. Ma on zaowocować powstaniem gotowej instalacji demonstracyjnej oraz skalowalnym oodelem wdrożeniowym, dzięki któremu możliwe będzie zastosowanie opracowanego rozwiązania w całej Europie. « powrót do artykułu
  19. Wystawienie rozwijającego się w łonie matki dziecka na działanie paracetamolu zwiększa ryzyko rozwoju zaburzeń neurologicznych, w tym autyzmu i ADHD ostrzegają autorzy niedawnej metaanalizy. Na łamach BMC Environmental Health ukazała się metaanaliza 46 wcześniejszych badań, w których udział wzięło w sumie ponad 100 000 osób z różnych krajów. Jej autorzy, Diddier Prada z Icahn School of Medicine at Mount Sinai, Beate Ritz z Uniwersytetu Kalifornijskiego w Los Angeles, Ann Z. Bauer z University of Massachusetts oraz Andrea A. Baccarelli z Uniwersytetu Harvarda, wykorzystali Navigation Guide Systematic Review. To złoty standard systematycznych przeglądów badań dotyczących toksykologii i medycyny środowiskowej. Wydawany bez recepty paracetamol (acetaminofen) to najczęściej stosowany środek przeciwbólowy w czasie ciąży. Wiadomo, że używa go ponad połowa ciężarnych. Uważany jest za najbezpieczniejszy środek przeciwbólowy, który mogą stosować ciężarne. Autorzy metaanalizy przeszukali bazę PubMed pod kątem badań, których autorzy skupili się na istnieniu ewentualnych związków pomiędzy ADHD, autyzmem i zaburzeń neurorozwojowych a używaniem paracetamolu przez matkę w ciąży. Następnie za pomocą Navigation Guide wybrali badania o najwyższej jakości. W ten sposób zidentyfikowali 20 badań dotyczących używania paracetamolu i ADHD, 8 dotyczących używania paracetamolu i autyzmu (ADD) oraz 18 opisujących wpływ zażywania przez ciężarną paracetamolu na wystąpienie u dziecka innych zaburzeń neurorozwojowych (NDD). Analiza wykazała, że wśród 46 badań było 25, które wskazały na istnienie pozytywnego związku pomiędzy zażywaniem paracetamolu przez matkę a wystąpieniem zaburzeń u dziecka (dla ADHD było to 14 badań, ASD - 5, NDD - 6). Kolejnych 5 badań wykazało istnienie negatywnego związku, co oznacza, że zażywanie paracetamolu mogło chronić przed zaburzeniami. W tym przypadku wynik taki uzyskano dla 1 badania odnośnie ADHD i 4 dotyczących NDD. Kolejnych 7 badań nie wykazało żadnego związku między lekiem a zaburzeniami, a 9 dało niejednoznaczne wyniki. Naukowcy stwierdzili też, że im wyższej jakości badania, tym częściej wykazywały istnienie pozytywnego związku między środkiem przeciwbólowym a zaburzeniami. Autorzy analizy podkreślają, że nie wykazuje ona, iż paracetamol bezpośrednio powoduje zaburzenia. Biorąc jednak po uwagę, jak powszechne jest używanie tego środka, wzywają do ostrożności, przeprowadzenia dodatkowych badań i przejrzenia zaleceń klinicznych. Przypominają, że ból również szkodzi i ciężarnej, i jej rozwijającemu się dziecku. Dlatego nie zniechęcają do zażywania paracetamolu, ale apelują do kobiet w ciąży, by przyjmowały go tylko pod nadzorem lekarza, jak najkrócej i w jak najmniejszych dawkach. Kobiety w ciąży nie powinny zaprzestawać przyjmowania leków bez konsultacji z lekarzem. Nieleczony ból czy gorączka również mogą być szkodliwe dla dziecka. Nasza analiza pokazuje, że ważne jest przedyskutowanie najbezpieczniejszych sposobów postępowania i, tam gdzie to możliwe, rozważenie leczenia bólu innymi metodami niż farmakologiczne, mówi doktor Prada. « powrót do artykułu
  20. Endometrioza postrzegana jest jako choroba ginekologiczna, jednak coraz więcej dowodów wskazuje, że dotyka ona całego organizmu i różnych jego funkcji. Dotychczas wykazano na przykład, że zwiększa ona ryzyko choroby niedokrwiennej serca, cukrzycy, raka jajnika, nadciśnienia tętniczego, reumatoidalnego zapalenia stawów czy stwardnienia rozsianego. Kobiety z endometriozą doświadczają też większego wzrostu ciśnienia krwi przy aktywności fizycznej. Teraz naukowcy z Pennsylvania State University, że endometrioza wpływa na reakcje autonomicznego układu nerwowego. I to w niespodziewany sposób. Autonomiczny układ nerwowy reguluje te elementy organizmu, które nie są świadomie kontrolowane, jak ciśnienie krwi, puls, oddech czy trawienie. Naukowcy z Penn State, którzy specjalizują się w badaniu różnych aspektów endometriozy, prowadzili eksperymenty, w ramach których mierzyli ciśnienie krwi u kobiet, których jedna dłoń była zanurzona w zimnej wodzie. Okazało się, że u kobiet z endometriozą – wbrew temu czego się spodziewano – ciśnienie w takiej sytuacji rosło w mniejszym stopniu, niż u pań zdrowych. Odkrycie to może mieć duże znaczenie dla diagnozy i zarządzania endometriozą. Niemal wszystkie założenia, jakie poczyniliśmy podczas tych badań, okazały się błędne, ale błędne w najbardziej interesujący i znaczący sposób. Współczesna medycyna bardzo słabo rozumie endometriozę. By lepiej diagnozować i leczyć tę chorobę, musimy dobrze rozumieć wszelkie jej aspekty oraz jej wpływ na ciało kobiety, mówi jedna z badaczek, doktor Auni Williams. Autorzy badań chcieli lepiej zrozumieć wpływ umiarkowanego stresu na ciśnienie krwi u kobiet chorujących na endometriozę. Do badań zaangażowali 21 pań, wśród nich było 12 chorych. Podczas jednego z eksperymentów mierzono puls i ciśnienie przed jego rozpoczęciem oraz po tym, jak dłoń badanej zanurzono na 3 minuty w wodzie o temperaturze od 4 do 8 stopni Celsjusza. Następnie po wyjęciu dłoni z wody oba parametry były monitorowane jeszcze przez 15 minut. Drugi eksperyment polegał na ściskaniu dłonią urządzenia do pomiaru siły uścisku. Panie miały ścisnąć najmocniej jak potrafią. Później odpoczywały tak długo, dopóki tętno i ciśnienie nie powróciły do normy, a następnie przez 2 minuty miały utrzymać ściśniętą dłoń na 30% siły uścisku. Bezpośrednio przed zakończeniem tych 2 minut badacze dodatkowo wokół ściskającego ramienia rękaw pompowali do pomiaru ciśnienia i utrzymywali go tak przez trzy minuty. Po upuszczeniu powietrza z rękawa, ciśnienie monitorowano przez 5 kolejnych minut. Gdy nasze ciało doświadcza stresu, jak zanurzenie w zimnej wodzie czy wysiłku fizycznego, ciśnienie rośnie. Badacze spodziewali się, że u kobiet z endometriozą wzrost pulsu i ciśnienia będzie wyższy niż u zdrowych pań. Tymczasem okazał się niższy. Wynik eksperymentu wskazuje, że endometrioza osłabia reakcję autonomicznego układu nerwowego. A to może wyjaśniać zawroty głowy, na które skarżą się chorujące panie. W porównaniu z paraliżującym bólem, jakiego doświadczają chore kobiety, zawroty głowy wydają się czymś trywialnym. Jednak tym co ważne, jest spostrzeżenie, że autonomiczny układ nerwowy działa u kobiet z endometriozą inaczej. Większość kobiet, które brały udział w badaniu, była po chirurgicznym zabiegu usunięcia ognisk endometriozy. O ile więc problem ginekologiczny został czasowo usunięty, to zmiany w układzie nerwowym wciąż były obecne, dodaje Williams. Wydawałoby się, że zawroty głowy nie są powiązane z chorobą ginekologiczną, ale nasze badania pokazują, że istnieje taki związek, dodaje profesor Lacy Alexander. Endometrioza ma zgubny wpływ na jakość życia dotkniętych nią kobiet. Szacuje się, że cierpi na nią nawet ponad 10% pań w wieku reprodukcyjnym. Choroba, w wyniku której komórki wyściółki macicy (endometrium), rozprzestrzeniają się poza macicę, powoduje ciągłe silne bóle, chroniczny stan zapalny, wielotygodniowe krwawienia i związaną z nimi anemię, bezpłodność, chroniczne zmęczenie, depresję. Endometrium może pojawić się w wielu niespodziewanych miejscach – chociażby na jelitach, pęcherzu, nerkach – powodując silne bóle i powoli niszcząc zaatakowane organy. Artykuł o wpływie endometriozy na autonomiczny układ nerwowy został opublikowany w piśmie Hypertension. « powrót do artykułu
  21. W 1931 roku w grocie Magharat as-Suchul w masywie Góry Karmel w dzisiejszym Izraelu znaleziono pierwszy szkielet rodzaju Homo. Należał on do dziecka w wieku 3–5, które zmarło przed około 140 000 lat i zostało pochowane. Początkowo naukowcy nie mogli dojść do zgody, czy szkielet należał do dziecka H. sapiens, H. neanderthalensis czy też do hybrydy obu gatunków człowieka. Obecnie przyjmuje się, że to anatomicznie współczesny człowiek. W czasie wykopalisk niekompletna żuchwa oddzieliła się od reszty szkieletu. Została ona zrekonstruowana, ale brak środkowej części twarzy i części podstawy czaszki uniemożliwiają połączenie jej z resztą. Niedawno zespół złożony z naukowców z francuskiego Narodowego Muzeum Historii Naturalnej, Uniwersytetu w Liège oraz Uniwersytetu w Tel Awiwie podjął się ponownego zbadania szczątków dziecka, wirtualnej rekonstrukcji czaszki oraz określenia jego przynależności gatunkowej. Żuchwa dziecka wykazuje prymitywne cechy, z wyraźnym pokrewieństwem z neandertalczykami. Tomografia komputerowa mózgoczaszki wykazała, że sklepie jest niskie, kość potyliczna jest wydłużona ze słabo zaznaczoną płaszczyzną karkową, a otwór wielki umieszczony jest bardziej grzbietowo – w kierunku tyłu – niż u H. sapiens. To cechy charakterystyczne neandertalczyka. Jednak wirtualnie zrekonstruowany prawy błędnik kostny wykazuje współczesną budowę anatomiczną. Co więcej taki mieszany układ cech H. sapiens, neandertalczyków i elementów prymitywnych zauważono też w pozostałej części szkieletu. Badania sugerują zatem, że dziecko było hybrydą Homo sapiens i Homo neanderthalensis. Nie może być to całkowitym zaskoczeniem, gdyż w czasie, gdy dziecko zostało pochowane, region ten był miejscem przepływu genów pomiędzy Europą, Afryką i Azją. Jeśli więc dokonana identyfikacja jest prawidłowa, mamy tutaj do czynienia z najstarszą znaną hybrydą H. sapiens i H. neanderthalensis. Co więcej, nie wiemy, kto pochował dziecko, nie możemy więc wykluczyć, że byli to neandertalczycy. Byłby to kolejny dowód, że gatunek ten grzebał swoich zmarłych. Ze szczegółami można zapoznać się na łamach pisma L'Anthropologie. « powrót do artykułu
  22. Przed laty rząd w Pekinie postanowił zadbać o Jangcy, najważniejszą z chińskich rzek. Od stycznia 2020 roku na 332 obszarach ochronnych wzdłuż rzeki wprowadzono całkowity zakaz połowu ryb, a rok później ogłoszono 10-letnie moratorium na połowy na całej rzece, jej głównych dopływach i przyległych jeziorach. Profesor Liu Huanzhang z Instytutu Hydrobiologii Chińskiej Akademii Nauk, który  przeanalizował wstępne dane dotyczące wpływu zakazu połowów na bioróżnorodność, apeluje do władz o przedłużenie zakazu. Widać bowiem, jak wspaniale odradza się bioróżnorodność rzeki. W 2007 roku informowaliśmy, że baiji, słodkowodny delfin z Jangcy, wyginął, stając się pierwszym gatunkiem walenia, który zniknął z powierzchni Ziemi w wyniku działalności człowieka. Kilka lat później okazało się, że na skraju zagłady – znowu w wyniku działań człowieka – jest też morświnek bezpłetwy. Teraz, po kilku latach od wprowadzenia zakazu połowu ryb dowiadujemy się, jak bardzo jest on skuteczny. Tak skuteczny, że być może udałoby się ocalić baiji, gdyby wprowadzono go wcześniej. Populacja skrajnie zagrożonego morświnka bezpłetwego gwałtownie się zmniejszała. W 2006 roku szacowano, że w Jangcy żyje 1800 morświnków, w 2017 było to jedynie 1012 sztuk. Po prowadzeniu zakazu połowów liczba morświnków zaczęła rosnąć. Obecnie populacja liczy około 1300 osobników. Rośnie też liczba gatunków ryb i zwiększa się ich liczebność, o czym świadczą szybkie przyrosty liczby gatunków, które udało się zaobserwować w poszczególnych latach. Jeszcze na początku 2020 roku w rzece odnotowano 168 gatunków ryb. W 2022 zauważono 193 gatunki, w 2024 odnotowano obecność 227 gatunków. To wyniki dorocznych monitoringów, wskazujące, że liczba osobników poszczególnych gatunków rośnie na tyle, że są one odnotowywane przez naukowców. Profesor Liu Huanzhang mówi, że po wprowadzeniu zakazu połowów w całym czteroletnim okresie monitorowania odnotowano w Jangcy 344 gatunki ryb. To o 36 gatunków więcej, niż zauważono podczas wcześniejszego czteroletniego okresu monitoringu w latach 2017–2020, jeszcze przed wprowadzeniem zakazu. Uczony uważa, że moratorium powinno zostać wydłużone, bo tylko w ten sposób można przywrócić bioróżnorodność Jangcy i uchronić rzadkie gatunki przed zagładą. Po wprowadzeniu moratorium chińskie władze przesiedliły ponad 160 000 osób, które utrzymywały się z rybołówstwa i znalazły im inne źródła utrzymania. « powrót do artykułu
  23. Psycholodzy z Uniwersytetu Kalifornijskiego w Riverside postanowili sprawdzić dynamikę plotkowania i jakość związków. A z przeprowadzonych badań wynika, że plotkowanie prowadzi do większego poczucia szczęścia i dobrostanu w związku. Naukowcy znaleźli dowody na to, że plotkowanie z partnerem ma znacznie większe znaczenie niż tylko niezobowiązująca rozmowa. Jest ono silnie powiązane z poczuciem szczęścia. W badaniach wzięło udział 76 par z Południowej Kalifornii. Uczestnicy mieli przy sobie elektroniczne rejestratory aktywowane głosem. Nagrania były następnie analizowane przez badaczy. Okazało się, że każdy z uczestników spędzał na plotkowaniu około 38 minut na dobę, z czego przez 29 minut plotkował z osobą, z którą był w związku. Najwięcej plotkowały ze sobą pozostające w związkach panie. Zdaniem autorów badań, plotkowanie wzmacnia więzi w związku. Gdy na przykład wracamy samochodem ze spotkania z grupą znajomych, plotkujemy o tym, kto co powiedział, co się dzieje w związkach każdej z osób, jak kto wyglądał i jak się miewa, jakie są relacje pomiędzy znajomymi. Mówienie po drodze do domu negatywnych rzeczy o znajomych sugeruje, że relacja w parze jest silniejsza, niż relacja ze znajomymi. Z kolei mówienie rzeczy pozytywnych przedłuża dobrze przeżycia. Może to wzmacniać poczucie, że para stanowi jeden zespół, wzmacniać poczucie dobrego porozumienia, zaufania i inne pozytywne wartości pozostawania w parze, stwierdza jedna z autorek badań, profesor Megan Robbins. Badacze uważają, że w plotkowaniu nie ma niczego złego. To rozmowa o kimś, kto nie jest przy niej obecny. Plotkując możemy wymieniać informacje pozytywne, neutralne lub negatywne. « powrót do artykułu
  24. W Kompleksie Archeologicznym Ollape w peruwiańskiej prowincji Chachapoyas odkryto dwie rzeźbione głowy i ponad 200 nieznanych prehiszpańskich struktur. Odkrycie pozwala lepiej zdać sobie sprawę z zasięgu osadnictwa w tym regionie. Najbardziej interesujące są wspomniane głowy, które zostały znalezione przy ścianie jednej z okrągłych struktur. To pierwsze tego typu zabytki znalezione w kontekście archeologicznym, a ich pozycja wskazuje, że stanowiły dekorację murów. Nazwa kompleksu pochodzi od miejscowości Ollape, ufortyfikowanej osada kultury Chachapoya. Na pewno była ona zasiedlona w późnym okresie przejściowym, datowanym na lata 1000–1470, natomiast dowody znalezione w Kompleksie wskazują, że Chachapoya zasiedlali ten region co najmniej od roku 900. Według niektórych specjalistów w Ollape znajdowało się centrum ceremonialne. Badaniami kompleksu i kultury Chachapoya zajmują się naukowcy z Instituto de Investigación de Arqueología y Antropología Kuélap znajdującego się na Universidad Nacional Toribio Rodríguez de Mendoza. Kultura Chachapoya często dekorowała mury, jednak zwykle dekorację stanowią geometryczne freski, a nie rzeźby mocowane do ścian. Już wcześniej znajdowano rzeźbione głowy przypisywane tej kulturze. Jednak dopiero teraz odkryto tego typu zabytki w kontekście, który pozwala określić ich przeznaczenie. Oprócz głów archeolodzy trafili też na inne wyjątkowe znalezisko, fresk z motywem zygzakowatym. Oba znaleziska pozwolą na lepsze poznanie tajemniczej kultury Chachapoya. Terminem Chachapoya określa się dawne andyjskie społeczności zamieszkujące pasma górskie pomiędzy rzekami Marañón i Huallaga. Około połowy XV wieku region ten został podbity przez Inków, którzy narzucili swój język, co obecnie utrudnia rekonstrukcję oryginalnego języka lub języków regionu, a co za tym idzie, utrudnia określenie obszaru zamieszkiwanego przez Chachapoya. Nie wiemy nawet, czy na terenie tym istniał jeden organizm polityczny. Widoczne są ślady podobnej kultury, oddawania czci podobnym bogom, podobne zwyczaje czy stroje, jednak niewykluczone, że Chachapoya nigdy nie utworzyli żadnych zalążków państwowości, a jedynie zawierali doraźne sojusze w obliczu zewnętrznego zagrożenia. Archeolodzy dokumentują ślady istniejących hierarchii społecznych, jednak nie można być do końca pewnym, czy nie powstały one dopiero podczas inkaskiego lub hiszpańskiego podboju. Nawet nazwa Chachapoya została prawdopodobnie nadana przez Inków na określenie obszaru i zamieszkujących ją ludzi, których dołączyli do swojego państwa. Niektórzy badacze uważają, że Chachapoya zaczęli wznosić monumentalne grobowce i osady około 800 roku naszej ery. Prawdopodobnie wpływ na nich miała kultura imperium Huari. Widać go w ceramice i strojach. W późnym okresie przejściowym Chachapoya doświadczyli wzrostu liczby ludności, rozprzestrzeniania osadnictwa i rozkwitu artystycznego. Przyczyny tego zjawiska nie są znane, jednak z pewnością ma to związek z procesami toczącymi się w okresie Horyzontu Środkowego (600–1000), kiedy wśród kultur andyjskich dochodziło do centralizacji władzy, ekspansji politycznej i kulturowej. To wówczas powstały imperia Huari i Tiahuanaco. Kultura Chachapoya wciąż pozostaje tajemnicą. Nie jest i nie była ona nigdy całkowicie nieznana. Informacje o nich pozostawili Juan de Betanzos (1551), Pedro Cieza de León (1553) czy Cristóbal de Molina (1575). Są to jednak relacje obcych. Poznanie tej kultury w sposób możliwie obiektywny wymaga kolejnych badań archeologicznych. « powrót do artykułu
  25. Zdaniem naukowców z Chin i USA, niektóre bakterie mikrobiomu mogą odpowiadać za bezsenność, podczas gdy inne wspomagają zdrowy sen. Dotychczasowe badania skupiały się na wpływie mikrobiomu na różne cechy snu, jednak nie przynosiły one odpowiedzi na pytanie, w jaki sposób mikrobiom wpływa na ryzyko bezsenności. Tymczasem jest to ważne pytanie, gdyż na bezsenność cierpi od 10 do 20 procent ludzi. Naukowcy z Uniwersytetu Nankińskiego oraz George Mason University wykorzystali dane 386 533 osób z bezsennością, których genom został przeanalizowany w ramach wcześniejszych badań oraz 26 548 osób, które wzięły udział w dwóch różnych badaniach nad mikrobiomem. Uczeni przeprowadzili analizę statystyczną metodą randomizacji Mendla i odkryli, że istnieje związek pomiędzy pewnymi bakteriami a bezsennością. Okazało się, że 14 grup bakterii było dodatnio skorelowanych z bezsennością, zwiększając jej ryzyko od 1 do 4 procent, a 8 grup bakterii zmniejszało ryzyko wystąpienia bezsenności o 1 do 3 procent. Ponadto sam fakt, że dany pacjent cierpiał na bezsenność związane było ze zmianami mikrobiomu. U takich osób zaobserwowano spadek liczebności 7 grup bakterii, w przypadku których liczba mikroorganizmów zmniejszyła się o 49 do 79 procent, a w przypadku 12 grup bakterii liczba mikroorganizmów zwiększyła się od 65 do ponad 400 procent. Szczególnie silnie z ryzykiem wystąpienia bezsenności powiązane był rodzaj Odoribacter. Autorzy badań zauważają, że zgadzają się one z wnioskami z wcześniejszych prac naukowych, co tylko wzmacnia przypuszczenie, że mikrobiom odgrywa rolę w jakości snu. Jednocześnie przypominają, że pod uwagę brano tylko dane osób o europejskich korzeniach. Nie można więc wprost przekładać uzyskanych przez nich wyników na całą ludzkość, gdyż skądinąd wiadomo o występowaniu różnic w składzie mikrobiomu u ludzi o różnym pochodzeniu etnicznym. Z całością pracy można zapoznać się na łamach General Psychiatry. « powrót do artykułu
×
×
  • Dodaj nową pozycję...