Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36674
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    204

Zawartość dodana przez KopalniaWiedzy.pl

  1. Atomy mogą absorbować i ponownie emitować światło. Jednak zwykle te zaabsorbowane fotony są emitowane we wszystkich możliwych kierunkach. Naukowcy z Uniwersytetu Technologicznego w Wiedniu teoretycznie dowiedli, że za pomocą soczewek można doprowadzić do sytuacji, w której foton emitowany przez atom trafi do drugiego atomu, przez który zostanie zaabsorbowany, a następnie zostanie emitowany do pierwszego atomu. W ten sposób atomy będą przekazywały sobie foton z niezwykłą precyzją. Jeśli atom emituje foton gdzieś w przestrzeni, to kierunek emisji jest całkowicie przypadkowy, jest zatem niemal niemożliwe, by atom położony gdzieś w przestrzeni przechwycił ten foton. Foton propaguje się jako fala, co oznacza, że nikt nie jest w stanie dokładnie określić, w jakim kierunku się rozprzestrzenia. Tylko przypadkiem może on trafić do drugiego atomu, mówi profesor Stefan Rotter. Sytuacja może jednak ulec zmianie, gdyż eksperyment z atomami i fotonem przeprowadzimy w zamkniętym środowisku. Naukowcy z Austrii przywołują tutaj przykład galerii szeptów, najczęściej sferycznych czy elipsoidalnych struktur, gdzie dwie osoby – ustawione w konkretnych miejscach – mogą porozumiewać się szeptem na duże odległości. Coś podobnego można zbudować dla światła, umieszczając dwa atomy w odpowiednich punkach elipsy. W praktyce jednak atomy takie trzeba by umieścić w tych punktach z niezwykłą precyzją, wyjaśnia Oliver Diekmann, główny autor artykułu opublikowanego w Physical Review Letters. Austriacy postanowili się opracować lepszą strategię umożliwiającą przekazywanie fotonu pomiędzy atomami. W swoich rozważaniach wykorzystali soczewki typu rybie oko. Dzięki nim możliwe jest spowodowanie, że wszystkie promienie emitowane z jednego atomu dotrą po zakrzywionym do krawędzie soczewki, gdzie zostaną odbite i po innym zakrzywionym torze dotrą do atomu docelowego, mówi Diekmann. Wykazaliśmy, że sprzężenie pomiędzy atomem, a licznymi drganiami swobodnymi pola świetlnego można wykorzystać w taki sposób, by precyzyjnie skierować foton z jednego atomu do drugiego, dodaje profesor Rotter. Uczeni z Wiednia przeprowadzili dowód teoretyczny, jednak zapewniają, że jego przetestowanie jest możliwe już przy użyciu obecnie dostępnych technologii. W praktyce wydajność takiego systemu można zwiększyć, używając nie dwóch atomów, a dwóch grup atomów. Eksperymenty tego typu mogą być interesującymi punktami wyjścia dla kwantowych systemów kontroli służących badaniu interakcji światła i materii, zapewnia Rotter. « powrót do artykułu
  2. Dzięki opracowaniu nowej technologii badania chromosomów w dawnych genomach naukowcom udało się zidentyfikować pierwszą żyjącą w starożytności osobę, która cierpiała na zespół Turnera z kariotypem mozaikowym. Zespół Turnera to zespół wad wrodzonych spowodowanych całkowitym lub częściowym brakiem jednego chromosomu X. Cierpiące nań kobiety charakteryzuje niski wzrost, nieprawidłowe proporcje ciała, nieprawidłowe ukształtowanie gonad prowadzące do niepłodności czy słabiej zaznaczone cechy płciowe. Z artykułu opublikowanego na łamach Communications Biology naukowcy z Francis Crick Institute, University of Oxford, University of York i Oxford Archeology donieśli również o zidentyfikowaniu najwcześniejszego – pochodzącego z wczesnego średniowiecza – przypadku zespołu Jacoba (charakteryzuje się on dodatkowym chromosomem Y u mężczyzn – XYY), trzech osób z zespołem Klinefeltera (dodatkowy chromosom lub chromosomy X u mężczyzn – XXY) oraz niemowlęcia z zespołem Downa. Komórki ludzkiego organizmu mają zwykle 23 pary chromosomów, a chromosomy płciowe to XX (kobiety) i XY (mężczyźni). Aneuploidia to termin oznaczający nieprawidłową liczbę chromosomów w jądrze komórkowym. Gdy dotyczy ona chromosomów płci, w okresie dojrzewania mogą pojawić się różnego typu zaburzenia rozwojowe. Problem z badaniem materiału genetycznego dawno zmarłych osób związany jest zarówno z jego degradacją w czasie, jak i ryzykiem zanieczyszczenia przez otoczenie lub archeologów czy ekspertów analizujących szczątki. Zespół z Instytutu Cricka opracował metodę obliczeniową, która koncentruje się na chromosomach płciowych. Za jej pomocą oblizcna jest liczba kopii chromosomów X i Y, a uzyskany wynik porównywany jest z wynikiem oczekiwanym. W ten sposób wyłapywane są wszelkie odchylenia od normy. Uczeni wykorzystali nową metodę do przeanalizowania danych zgromadzonych w bazie Thousand Ancient British Genomes, w której zebrano informacje o genomach osób żyjących na Wyspach Brytyjskich w różnych epokach historycznych. W ten sposób zidentyfikowali pięć osób z różnymi aneuploidiami w chromosomach płci. Ich szczątki znaleziono w Somerset, Yorkshire, Oxford i Lincoln. Wszystkie zostały pochowane zgodnie ze zwyczajami społeczeństw, w których żyły. Przy żadnej z nich nie znaleziono dóbr grobowych, które rzuciłyby więcej światła na ich życie. Trzy osoby z zespołem Klinefeltera żyły w różnych okresach, wszystkie były nieco wyższe niż średnia w ich społeczności – wysoki wzrost to jedna z cech charakterystycznych tego zaburzenia – i wykazywały oznaki opóźnionego rozwoju w okresie dojrzewania. Kobieta cierpiąca na zespół Turnera żyła 2500 lat temu. Analiza jej kości pokazała, że prawdopodobnie nie przeszła ona dojrzewania i nie miesiączkowała, mimo że zmarła w wieku 18–22 lat. Występował u niej mozaicyzm, w niektórych komórkach organizmu znajdował się jeden chromosom X, a w niektórych były oba, XX. Z kolei mężczyzna z najstarszym znanym przypadkiem zespołu Jacoba żył 1200 lat temu. Pontus Skoglund z Instytutu Cricka zauważa, że wykorzystana metoda może w wielu przypadkach posłużyć do klasyfikacji zanieczyszczeń DNA i pomóc w analizie niekompletnego DNA, zatem można jej używać do pracy ze szczątkami, które są trudne w analizie. Połączenie tak uzyskanych danych z kontekstem pochówku i dobrami grobowymi mogą pomóc w określeniu, jak płeć i tożsamość były postrzegane przez dawne społeczeństwa. Mam nadzieję, że nasze narzędzie będzie wykorzystywane do analizy ciągle zwiększającej się bazy danych dawnego DNA. « powrót do artykułu
  3. Podczas budowy najdłuższego na świecie lądowego i podmorskiego interkonektora Viking Link, łączącego Wielką Brytanię i Danię, odkryto 50 stanowisk archeologicznych, datowanych od prehistorii po nowożytność. Najbardziej interesującym z nich jest pozostałość po anglosaskim cmentarzu z VI-VII wieku. Wśród znalezionych tam pochówków wymienia się grób nastolatki oraz dziecka przytulonego do jej pleców. Cmentarz jest umiejscowiony wewnątrz rowu obwodowego pochodzącego z epoki brązu, co wskazuje, że miejsce to wykorzystywano na długo przed jego założeniem. Połowa pierwszego tysiąclecia w Brytanii to tajemniczy okres, mamy mało źródeł na ten temat. Dlatego każde odkrycie archeologiczne z tego czasu jest tak cenne i pomaga nam zrozumieć, co się wówczas działo. W pochówkach znaleźliśmy piękne dobra grobowe, ale osobiście nie mogę doczekać się informacji o pogrzebanych tutaj ludziach, które uzyskamy z analizy ich kości i zębów, mówi profesor Alice Roberts z University of Birmingham. Na cmentarzu znaleziono szczątki 23 osób, a z ich grobów wydobyto 250 artefaktów. Są wśród nich noże, biżuteria i naczynia ceramiczne. Przy głowie i na piersi wspomnianej na początku nastolatki archeolodzy odkryli dwa niewielkie złote wisiorki ozdobione granatami i srebrny wisiorek z bursztynem. Obok spoczywały dwa niebieskie szklane paciorki oraz fibula tarczowata. Osteoarcheolog Jacqueline McKinley z Wessex Archeology mówi, że w Linconshire odkryto już wiele anglosaskich cmentarzy, jednak większość z nich znaleziono przed dziesięcioleciami. Wówczas specjaliści skupiali się na badaniu wyposażenia grobów, a nie szczątków ludzkich. Teraz możemy skorzystać z wielu osiągnięć nauki, w tym analiz izotopowych i genetycznych. To pozwoli nam lepiej zrozumieć ówczesnych mieszkańców, ich migracje, pochodzenie, a nawet poznać ich dietę, wyjaśnia uczona. Na razie nie wiadomo, co łączyło nastolatkę z dzieckiem. Naukowcy mają nadzieję, że dzięki badaniom uda się określić związki rodzinne zarówno w ich przypadku, jak i odnośnie do całej społeczności oraz opisać je w szerszym regionalnym kontekście. « powrót do artykułu
  4. Nowo odkryta gigantyczna struktura w przestrzeni kosmicznej rzuca wyzwanie naszemu rozumieniu wszechświata. Wielki Pierścień (The Big Ring) ma średnicę 1,3 miliarda lat świetlnych, a jego obwód liczy 4,1 miliardów lat świetlnych. Znajduje się w odległości 9,2 miliarda lat świetlnych od Ziemi. To już druga wielka struktura odkryta przez doktorantkę Alexię Lopez z University of Central Lancashire. Przed dwoma laty Alexia zauważyła Wielki Łuk na Niebie (Giant Arc on the Sky) o długości 3,3 miliarda lat świetlnych. Obie struktury znajdują się w podobnej odległości od Ziemi i dzieli je zaledwie 12 stopni. Istnienia żadnej z nich nie da się łatwo wytłumaczyć na gruncie obecnych teorii kosmologicznych. Ich olbrzymie rozmiary, wyjątkowe kształty i nieduża odległość jaka je dzieli mówią nam coś ważnego. Jednak nie wiemy co, wyjaśnia młoda uczona. Początkowo sądzono, że Wielki Pierścień ma coś wspólnego z Barionowymi Oscylacjami Akustycznymi (BAO). To wahania w gęstości barionów spowodowane akustycznymi falami gęstości w plazmie wczesnego wszechświata. Zgodnie z teoriami BAO powinny objawiać się współcześnie jako sferyczne układy galaktyk. Analiza Wielkiego Pierścienia pokazała jednak, że nie pasuje on do tej hipotezy, jest zbyt duży i nie tworzy sfery. To może prowadzić do próby wyjaśnienia na gruncie Konforemnej Kosmologii Cyklicznej. To hipoteza autorstwa wybitnego matematyka i kosmologa, noblisty Rogera Penrose'a. Proponuje ona istnienie szeregu następujących po sobie wszechświatów. Kres jednego wszechświata jest tożsamy z Wielkim Wybuchem wszechświata kolejnego. Być może jednak istnienie takich struktur to wynik istnienia strun, czyli „defektów topologicznych” o olbrzymich rozmiarach, które powstały na początku istnienia wszechświata. Niedawno inny noblista, Jim Peebles, stwierdzł, że jeśli takie kosmiczne struny istnieją, mogły one przyczynić się do nietypowego rozłożenia galaktyk we wszechświecie w wielkich skalach. Trzeba również zauważyć, że istnienie Wielkiego Pierścienia oraz Wielkiego Łuku na Niebie narusza zasadę kosmologiczną, która mówi, że w dużych skalach wszechświat jest jednorodny i izotropowy, zatem dla dowolnie położonego obserwatora wygląda zawsze podobnie. W jego budowie nie powinny istnieć nieregularności powyżej pewnych rozmiarów. Obecnie przyjmuje się, że górną granicą dla takich nieregularności jest 1,2 miliarda lat świetlnych. Tymczasem obie odkryte przez Lopez struktury są znacznie większe. Z punktu widzenia dzisiejszych teorii kosmologicznych struktury takie nie powinny istnieć. Moglibyśmy spodziewać się istnienia jednej takiej zbyt dużej struktury w całym obserwowalnym wszechświecie. Tymczasem mamy dwie tego typu struktury, które dodatkowo są kosmologicznymi sąsiadami, co jest niezwykle ekscytujące, stwierdza Lopez. Wielki Pierścień wydaje się idealnym okręgiem, jednak przeprowadzone przez Alexię badania wykazały, że ma on bardziej kształt korkociągu zwróconego na wprost Ziemi. Z kolei Wielki Łuk zajmuje 1/15 średnicy całego obserwowalnego wszechświata, a tworzą go galaktyki ułożone w niemal symetryczny półksiężyc. To nie jedynie wielkie struktury, które poznaliśmy ostatnio. Przed 11 laty odkryto największą strukturę we wszechświecie, Wielką Grupę Kwazarów. Rok później naukowcy donieśli o istnieniu Wielkiej Ściany, a już w kolejnym roku zauważono Wielki Pierścień Rozbłysków Gamma. Natomiast niecałe cztery lata temu informowaliśmy o istnieniu Ściany Bieguna Południowego. « powrót do artykułu
  5. Google twierdzi, że opracowało system sztucznej inteligencji oparty na dużym modelu językowym, który dokładniej niż lekarz podstawowej opieki zdrowotnej diagnozuje choroby układu oddechowego i krążenia. Podczas konwersacji z pacjentem model zebrał podobną ilość informacji, co lekarz, a lepiej wypadł w kwestii okazywania empatii. Artykuł opisujący system oraz jego osiągnięcia opublikowano w arXiv i nie został on jeszcze zrecenzowany. Chatbot Articulate Medical Intelligence Explorer (AMIE) to wciąż system eksperymentalny. Nie testowano go na prawdziwych pacjentach, a na aktorach udających osoby z konkretnymi schorzeniami. Chcemy, by z ostrożnością podchodzić do wyników naszych testów, mówi naukowiec z Google Health, Alan Karthikesalingam. Podstawą medycyny jest dialog pomiędzy lekarzem a pacjentem. W jego trakcie odpowiednie zebranie informacji otwiera drogę do dokładnej diagnozy, efektywnego zarządzania i wzajemnego zaufania. Systemy sztucznej inteligencji zdolne do prowadzenia dialogu w celu postawienia diagnozy mogą zwiększyć dostępność i jakość opieki zdrowotnej. Jednak nawet zbliżenie się do doświadczenia lekarzy to poważne wyzwanie. Dlatego też przedstawiamy AMIE (Articulate Medical Intelligence Explorer), oparty na dużym modelu językowym system sztucznej inteligencji zoptymalizowany pod kątem zbierania informacji diagnostycznych, czytamy w artykule Towards Conversational Diagnostic AI. Vivek Natarajan, jeden z twórców AMIE, mówi, że poważnym problemem była niewielka liczba prawdziwych rozmów pomiędzy lekarzami a pacjentami, na podstawie których można by uczyć model. Dlatego badacze opracowali system, w ramach którego – po dostarczeniu AMIE danych klinicznych oraz dostępnych transkrypcji rozmów lekarzy i pacjentów – system „dyskutował” sam ze sobą, odgrywając rolę i lekarza, i pacjenta. Później przed AMIE postawiono dodatkowe zadanie. Miał odegrać rolę osoby oceniającej sposób interakcji lekarza z pacjentem. W ten sposób uczono go, jak udoskonalić tę interakcję i jak ważna jest empatia. Później przystąpiono do testów AMIE. Wzięło w nich udział 20 aktorów, którzy odgrywali łącznie 149 scenariuszy, udając pacjentów z różnymi schorzeniami. Aktorzy nie wiedzieli, czy prowadzą dialog z maszyną, czy z jednym z 20 lekarzy biorących udział w testach. Po rozmowie mieli ocenić przebieg rozmowy. Ponadto interakcje te były analizowane przez grupę specjalistów, którzy oceniali jak sprawował się AMIE, a jak lekarze biorący udział w testach. Analizy pokazały, że AMIE postawił diagnozę dokładniejszą niż lekarze we wszystkich 6 testowanych specjalnościach. Chatbot został też lepiej niż lekarze oceniony w 24 z 26 kryteriów prowadzenia rozmowy. Kryteria te obejmowały takie zagadnienia jak kultura osobista, wyjaśnienie choroby i sposobów leczenia, empatia, szczerość, troska i zaangażowanie. Autorzy chatbota podkreślają, że wyniki testów nie oznaczają, iż lepiej wypada on w rzeczywistych warunkach klinicznych. Przypominają też, że dla lekarzy prowadzenie dialogu z pacjentem za pomocą komputera było czymś nowym, więc mogło to wpłynąć na ich pracę. Ponadto chatbot jest lepszy od ludzi w szybkim konstruowaniu dużych wypowiedzi na piśmie i nie męczy się przy tym. Maszyna miała więc tutaj przewagę. W najbliższym czasie Google będzie chciał przeprowadzić znacznie szerzej zakrojone testy, tym razem z osobami rzeczywiści chorymi i o różnorodnym statusie społecznym. « powrót do artykułu
  6. Naukowcy z Katalońskiego Instytutu Bioinżynierii (IBEC) oraz CIC biomaGUNE zaprezentowali napędzane mocznikiem nanoroboty, które – przenosząc radioizotopy – doprowadziły do zmniejszenia o 90% rozmiarów guza pęcherza u myszy. Co więcej, tak dobry wynik osiągnięto za pomocą pojedynczej dawki terapeutycznej. Badania dają nadzieję na opracowanie nowej skutecznej metody walki z nowotworem pęcherza. Wykorzystane nanomaszyny składają się z porowatej sfery z krzemionki, na powierzchni której umieszcza się różne elementy. Jednym z nich jest ureaza, enzym wchodzący w reakcje z obecnym w moczu mocznikiem, dzięki czemu nanocząstka zyskuje napęd. Kolejnym ważnym elementem jest radioaktywny jod. Pierwiastek ten jest od dziesięcioleci wykorzystywany na przykład w leczeniu chorób tarczycy. Dzięki pojedynczej dawce uzyskaliśmy 90-procentowe zmniejszenie objętości guza. Jest więc to znacznie bardziej efektywny sposób leczenia niż obecnie stosowane, gdyż zwykle pacjent z tym typem guza wymaga od 6 do 14 wizyt w szpitalu, by osiągnąć podobny wynik. Zaproponowana przez nas metoda zwiększy efektywność, a zmniejszy czas hospitalizacji i związane z nią koszty, wyjaśnia główny autor badań, profesor Samuel Sánchez. Obecnie jego zespół sprawdza, czy po leczeniu dojdzie do nawrotu guza. Naukowcy już wcześniej wykazali, że wstrzyknięte przez nich nanoroboty są w stanie samodzielnie dotrzeć do ścianek pęcherza. Już to oznaczało postęp, gdyż obecnie po wprowadzeniu leku do pęcherza, pacjent musi zmieniać pozycję co pół godziny, by być pewnym, że lek dotrze do wszystkich ścianek. W trakcie obecnych badań uczeni dowiedli również, że nanocząstki akumulują się w guzie. Za pomocą zaawansowanych technik obrazowania, w tym dzięki systemowi mikroskopii fluorescencyjnej opracowanemu specjalnie na potrzeby tych badań, wykazali nie tylko, że nanoroboty dotarły do guza, ale również, że to niego wniknęły, zwiększając działanie radiofarmaceutyków, wyjaśnia Julien Colombelli z Advanced Digital Microscopy w Instytucie Badań Biomedycznych w Barcelonie. Fakt, że nanoroboty wniknęły do guza stanowił zagadkę dla ekspertów. Nie zostały bowiem wyposażone w przeciwciała rozpoznające nowotwór. Zauważyliśmy jednak, że nasze nanoroboty mogą przerwać macierz pozakomórkową guza zwiększając lokalnie pH za pomocą samonapędzającej się reakcji chemicznej. To zwiększyło ich przenikanie właśnie do guza, dodaje współautorka badań Meritxell Serra Casablancas. Naukowcy doszli do wniosku, że pomocny był też fakt, że nabłonek przejściowy – urotelium – znajdujący się w miejscu występowania guza jest bardziej gąbczasty. Fakt, że nanoroboty z radioterapeutykiem podawane są lokalnie zmniejsza ryzyko wystąpienia skutków ubocznych, a akumulowanie się jodu w guzie wzmacnia jego działanie. « powrót do artykułu
  7. Na terenie Fonmon Castle w pobliżu Barry w Walii archeolodzy odsłonili pozostałości po średniowiecznym cmentarzu oraz inne zabytki datowane na lata 400–1100, która uzupełnią wiedzę historyczną o tym regionie. Na cmentarzu odkryto liczne fragmenty kości zwierzęcych – z których część nosiła ślady gotowania – kawałki metalu oraz fragmenty rzadkich importowanych naczyń szklanych. Zdaniem badaczy, pozostałości te mogą wskazywać, że w ramach rytuałów pogrzebowych na cmentarzu odbywały się też uczty. Specjaliści szacują, że na badanym przez nich terenie znajduje się 80 pochówków. Niektóre z grobów są nietypowe. Na przykład trafiono na pochówki, w których zmarłych pogrzebano w pozycji kucznej. To niezwykle interesujące odkrycie. Stanowiska z tego okresu są w Walii bardzo rzadkie i najczęściej nie zachowują się w nich ani kości, ani artefakty. Cmentarz z Fonmon pozwoli nam odkryć wiele informacji o ludziach, którzy żyli tutaj 1400 lat temu. W innych podobnych miejscach znajdowano już pochówki w pozycji kucznej. Biorąc jednak pod uwagę liczbę zbadanych przez nas grobów, wydaje się, że tutaj mamy duży odsetek takich pochówków. Może być to znak jakichś szczególnych obrzędów pogrzebowych, które tutaj odbywano. Nic jednak nie wskazuje, by ludzie mieszkali w pobliżu cmentarza, zatem ślady gotowania i resztki szkła prawdopodobnie świadczą o ucztach, prawdopodobnie ku czci zmarłych, mówi doktor Andy Seaman, wykładowca archeologii wczesnośredniowiecznej na Cardiff University. Badania przeprowadzone w 2021 roku za pomocą georadaru wykazały istnienie jakichś struktur. Archeolodzy początkowo sądzili, że znaleźli starożytną farmę. Dopiero po bardziej szczegółowe badania pokazały, że mają do czynienia ze średniowiecznym cmentarzem. Fonmon Castle powstał jako struktura obronna i centrum administracyjne około 1180 roku. Jego właścicielami był normański ród St John. W roku 1658 został on sprzedany najbogatszemu człowiekowi w Walii, pułkownikowi Philipowi Jonesowi. Od 2019 roku ma nowego właściciela. « powrót do artykułu
  8. Przed 11 laty naukowcy z Uniwersytetu w Manchesterze szacowali, że grzybice zabijają około 2 milionów ludzi rocznie. Niedawno profesor David W. Denning, współautor tamtych badań, przeprowadził nowe szacunki i stwierdził, że roczna liczba zgonów z powodu grzybic wzrosła do 3,8 miliona. To oznacza, że choroby te odpowiadają za około 6,8% zgonów. Grzybice są więc jednym z największych zabójców ludzi. Choroby układu krążenia zabijają bowiem około 16% zmarłych, a udar odpowiedzialny jest za 11% zgonów. Na choroby płuc spowodowanych paleniem tytoniu umiera około 3 228 000 osób rocznie. To 6%, a w tej liczbie około 1/3 zgonów powodowanych jest przez grzybice. Profesor Denning szacuje, że grzybice odpowiadają na przykład za część zgonów w przebiegu zapalenia płuc oraz znaczną część zgonów w przebiegu gruźlicy. Na potrzeby swoich badań uczony wziął pod uwagę statystyki zdiagnozowanych przypadków grzybic, do których dodał szacunki dotyczące przypadków niezdiagnozowanych. A diagnostyka to poważny problem na całym świecie. Denning podaje przykład RPA, gdzie istnieje godny pozazdroszczenia system diagnozowania powodowanego przez grzyby zapalenia opon mózgowo-rdzeniowych czy zakażenia krwi grzybami z rodzaju Candida. Jednocześnie praktycznie nie istnieje tam diagnostyka infekcji bardzo rozpowszechnionym rodzajem Aspergillus. Tymczasem powodujące zapalenie płuc Aspergillus fumigatus i Aspergillus flavus to jedni z zabójców ludzi. Najbardziej narażone są osoby cierpiące na choroby płuc, jak astma, gruźlica czy nowotwory płuc. Jednak Aspergillus zagraża też osobom z osłabionym układem odpornościowym, jak chorzy na białaczkę, osoby po przeszczepach czy osoby poddawane intensywnej terapii medycznej. W wielu przypadkach lekarze nie rozpoznają infekcji grzybicznej lub rozpoznają ją zbyt późno. Poważnym problemem jest też niedoskonałość dostępnych obecnie testów. A sytuację pogarsza stosowanie fungicydów w rolnictwie. Wiemy bowiem, że z ich powodu znacząco wzrosła oporność grzybów na niektóre leki przeciwgrzybiczne. Bardzo niebezpieczne są infekcje grzybami z rodzaju Candida. Są one jedną z przyczyn sepsy, łączy się je z cukrzycą i chorobami nerek, do infekcji może dojść w wyniku zabiegu chirurgicznego czy urazu. Candida to część mikrobiomu naszych jelit, jednak gdy bardzo poważnie zachorujemy, mogą przedostać się z jelit do krwioobiegu, powodując poważną infekcję. Każdego roku Candida zabijają około miliona osób. Tymczasem obecnie dostępne testy z krwi wykrywają jedynie około 40% zagrażających życiu infekcji. Grzybice zagrażają przede wszystkim ludziom ciężko chorym. Szacuje się, że to właśnie one zabijają około połowy z 600 000 osób umierających na AIDS. W Afryce i Azji Południowo-Wschodniej poważnym problemem jest zaś histoplazmoza. Z powodu niedoskonałych metod diagnostycznych lekarze często mylą ją z gruźlicą lub jakąś inną chorobą, której towarzyszy gruźlica i nie rozpoznają śmiertelnej infekcji grzybiczej. O tym, jak niebezpieczne mogą być infekcje grzybicze, może świadczyć przykład z Indii. W 2012 roku Denning i jego koledzy szacowali, że co roku na całym świecie występuje 10 000 przypadków mukormykozy. Tymczasem w czasie pandemii COVID w samych tylko Indiach zdiagnozowano 51 000 przypadków tej choroby. Przyczynami tak gwałtownego wzrostu było m.in. nadużywanie sterydów w celu walki z COVID oraz źle kontrolowana cukrzyca. Grzybice z nami pozostaną. Jesteśmy otoczeni przez grzyby, żyją w naszych jelitach i na naszej skórze. Nie ma szczepionek przeciwko grzybicom. Wiele z nich atakuje, gdy ludzie już są chorzy. Istnieją też nieliczne przypadki grzybic u zdrowych ludzi oraz u osób przebywających w zagrzybionych domach czy miejscach pracy. Dlatego bardzo potrzebujemy dokładnych narzędzi diagnostycznych, stwierdza profesor Denning. « powrót do artykułu
  9. Ludzie zanieczyszczali środowisko metalami ciężkimi na długo przed epoką przemysłową. Badania takie są prowadzone przede wszystkim dla półkuli północnej i dowiedzieliśmy się z nich o zanieczyszczeniach powodowanych przez starożytny Rzym czy o wpływie wydarzeń politycznych w średniowiecznej Anglii na stan zanieczyszczeń. Teraz podobne badania przeprowadzono dla Półkuli Południowej. Ślady zanieczyszczeń generowanych przed 800 laty przez kultury andyjskie oraz później przez działalność górniczą i metalurgiczną w koloniach hiszpańskich znaleziono w położnej 9000 kilometrów dalej Antarktyce. To było dość zaskakujące, przyznaje profesor hydrologii Joe McConnel, który stał na czele międzynarodowej grupy badawczej pracującej pod egidą Desert Research Institute (DRI). W jej pracach, obok Amerykanów, brali udział specjaliści z Norwegii, Austrii i Niemczech. Są oni pierwszymi, którzy określili antropogeniczne zanieczyszczenie Antarktyki ołowiem w ciągu ostatnich 2000 lat. Ich badania to również pierwsza szczegółowa ocena zanieczyszczenia talem, bizmutem i kadmem. Naukowcy stwierdzili, że do pierwszego wzrostu stężenia metali ciężkich na Antarktydzie – szczególnie ołowiem – doszło około 1200 roku. Zbiega się to w czasie z pojawieniem się na północnym wybrzeżu Ameryki Południowej społeczności miejskich ludu Chimú. Społeczności te używały dużo srebra, a jego rudom często towarzyszy ołów. Badania z Antarktydy znajdują też potwierdzenie w badaniach z osadów jezior w regionie Potosi w Boliwii, w których również widać emisję ołowiu w XII i XIII wieku. Z antarktycznych rdzeni lodowych dowiadujemy się też, że większe i bardziej stałe zanieczyszczeni metalami ciężkimi miało miejsce po roku 1532, zatem po przybyciu Hiszpanów, kiedy to Potosi stało się podstawowym źródłem srebra dla Hiszpanii i największym na świecie pojedynczym źródłem tego metalu. Badanie rdzenie pokazało również, że w latach 1585–1591 doszło do spadku zanieczyszczeń. Wiemy, że w tym czasie andyjskie społeczności zostały zdziesiątkowane przez epidemię. Gdy zespół McConnela przejrzał zapiski dotyczące pracy pracy mennicy w Potosi okazało się, że jej produkcja również się w tym czasie zmniejszyła. To zadziwiające, że XVI-wieczna epidemia w Boliwii zmieniła poziom zanieczyszczeń na Antarktydzie i całej Półkuli Południowej, mówi współautorka badań, doktor Sophia Wensman. Antarktyda położona jest tysiące kilometrów od Ameryki Południowej, więc docierało tam niewiele zanieczyszczeń, ale tym bardziej wskazuje to, że działalność ludzi musiała wpływać na całą półkulę. A rdzenie lodowe pozwalają na bardzo precyzyjne datowanie, wiemy więc kiedy i gdzie zanieczyszczenia się pojawiały. Oczywiście, jak można się było spodziewać, do olbrzymich wzrostów stężenia metali ciężkich doszło wraz z industrializacją. Największe zaś skoki widoczne są na początku XIX wieku, gdy rozpoczęto produkcję ołowiu w Australii. Widać też i duże spadki, do których doszło w czasie obu wojen światowych i Wielkiego Kryzysu. Specjaliści z DRI Ice Core Lab mają do dyspozycji unikatowe narzędzia do badania niewielkich ilości metali w śniegu i lodzie. Przez dekady rozwijali też własne techniki badawcze. Jesteśmy jedyną na świecie grupą naukową, która rutynowo prowadzi tego typu szczegółowe badania, przede wszystkim w Antarktyce, gdzie stężenie metali jest niezwykle małe, wyjaśnia doktor Nathan Chellman. Dzięki temu możliwe stało się zdobycie niedostępnych wcześniej informacji. Dotychczas bowiem nie było możliwe prowadzenie podobnych badań dla czasu przed epoki przemysłowej, gdyż nie potrafiono odróżnić zanieczyszczeń metalami pochodzącymi z erupcji wulkanów od zanieczyszczeń antropogenicznych. Uczeni z DRI wykorzystali badania poziomu talu do oceny pochodzących z erupcji zanieczyszczeń ołowiem, bizmutem i kadmem. Dzięki temu byli w stanie określić, które zanieczyszczenia zostały wygenerowane przez człowieka oraz jaki był ich poziom. Odkryliśmy, że po rewolucji przemysłowej poziom ołowiu, bizmutu i kadmu zwiększył się co najmniej o rząd wielkości. Ale poziom talu praktycznie się nie zmienił, co wskazuje, że antropogeniczna emisja talu jest pomijalna. To pozwoliło nam wykorzystać tal jako wskaźnik wulkanizmu w ciągu ostatnich 2000 lat, wyjaśnia McConnel. « powrót do artykułu
  10. W Archiwum Regionalnym w Alkmaar w Holandii odkryto 21 fragmentów XI-wiecznego psałterza, który został pocięty i użyty około XVII wieku do usztywnienia opraw książek. To już kolejne kawałki tak zwanego Psałterza N, którego fragmenty znajdowane są od lat 60. XX wieku. Odkryto je między innymi w Elblągu. Niezwykłe dzieło, spisane po łacinie ze staroangielskimi glosami, mogło należeć do anglosaskiej księżniczki, która uciekła z Anglii po normandzkim podboju. Pierwszy fragment zidentyfikowano w 1968 roku w Pembroke College w Cambridge. Kilka lat później kolejnego znaleziska dokonano w Haarlemie w Holandii. W 1997 roku Herbert Pilch znalazł następny fragment – stanowiący 2/3 jednego z folio – w zbiorach Schlossmuseum w Sonderhausen. A w ubiegłym roku Monika Opalińska, Paulina Pludra-Żuk i Ewa Chlebus poinformowały o znalezieniu dwóch kawałków Psałterza N, które zostały użyte w roli scyzury – wzmocnienia łączącego blok kartek z okładką – w gramatyce języka hebrajskiego autorstwa Caspara Wasera. Książkę wydrukowano w Bazylei w 1600 roku, a obecnie znajduje się w zbiorach Biblioteki Elbląskiej im. C. Norwida. Tekst Psałterza N spisany został po łacinie minuskułą karolińską. Jej cechy charakterystyczne wskazują, że manuskrypt powstał około 1050 roku. Do tekstu łacińskiego dołączono glosy w języku staroangielskim, spisane minuskułą angielską. Dzięki temu użytkownik psałterza mógł się uczyć łaciny, bowiem nad łacińskim tekstem widnieje tłumaczenie w staroangielskim, języku używanym od V do XII wieku. Układ strony i zdobienia Psałterza N są bardzo podobne do kilku współczesnych mu psałterzy, które prawdopodobnie powstały w Winchester w latach 1050–1075. Można więc z dużą dozą prawdopodobieństwa stwierdzić, że i Psałterz N pochodzi z jednego z kilku działających tam skryptoriów. Do czasu odkrycia z Elbląga niewiele wiedziano o pochodzeniu znajdowanych fragmentów Psałterza N. Wydawało się, że wszystkie one zostały wykorzystane do produkcji wczesnych książek nowożytnych, ale były to tylko spekulacje. Polskie badaczki wykazały, że rzeczywiście tak było. Dowiedzieliśmy się dzięki nim, że Archetypus grammaticæ Hebrææ Casspera Wasera została wydrukowana w 1600 roku w Bazylei przez Conrada Waldircha i należała do Samuela Meienreisa, który zmarł w 1604 roku. Zatem introligator, który oprawiał książkę, musiał to zrobić w latach 1600–1604. Meienreis, urodzony w 1572 roku w Elblągu, studiował teologię w Lejdzie w latach 1600–1602. Jego mistrzem był profesor Francis Junius, który uczył też hebrajskiego. Jak więc stwierdziły polskie badaczki, to prawdopodobnie podczas pobytu w Lejdzie Meienreis kupił książkę, w której okładce znalazły się fragmenty Psałterza N. Jest to tym bardziej prawdopodobne, że oprawa nosi cechy charakterystyczne technik introligatorskich używanych w tym czasie we Francji i Holandii. Książka mogła być zatem oprawiana w dwóch etapach, najpierw we Francji, później w Holandii lub też w Holandii przez introligatora zaznajomionego z francuskimi technikami. Ta ostatnia opcja jest bardzo prawdopodobna, gdyż w tym czasie w Lejdzie działały dziesiątki księgarzy i introligatorów, z których wielu szkoliło się we Francji. Meienreis w maju 1602 roku opuścił Lejdę z powodu pogarszającego się stanu zdrowia i zmarł dwa lata później w Elblągu. Fragmenty Psałterza N znalezione w archiwum w Alkmaar zostały zauważone w książkach, których sposób oprawienia jest podobny do książki z Elbląga. To czterotomowy Thesaurus Graecae linguae Henriego Estienne'a oraz czterotomowe wydanie dzieł Galena Cl. Galeni Pergameni opera omnia. Wszystko wskazuje na to, że książki – zarówno te z Alkmaar jak i Elbląga – zostały kupione i prawdopodobnie oprawione w Lejdzie około 1600 roku. Pozostaje więc pytanie, w jaki sposób XI-wieczny staroangielski psałterz trafił do Lejdy? Mógł on paść ofiarą antykatolickiej nagonki, jaką rozpętano w Anglii po kasacie klasztorów przez Henryka VIII. W 1549 roku John Bale, angielski duchowny, historyk, autor sztuk teatralnych, który opublikował bogaty spis literatury angielskiej, z rozpaczą donosił, że w Anglii masowo niszczy się biblioteki, książki używane są jako podpałka, materiał do czyszczenia butów oraz są hurtowo sprzedawane zagranicznym introligatorom, którzy całymi statkami wywożą je na kontynent. Psałterz N mógł być jedną z takich książek. Istnieje też bardziej sensacyjna hipoteza. Jej autorem jest Helmut Gneuss, który opublikował szczegółową analizę fragmentu Psałterza z Sondershausen i udowodnił, że był on częścią tego samego manuskryptu, co fragmenty z Cambridge i Haarlemu. Uczony wysunął hipotezę, że Pstałterz N to Psałterz Gunhildy. Należał więc do Gunhildy, siostry ostatniego anglosaskiego króla Anglii Harolda Godwinsona, który zginął w 1066 roku w bitwie pod Hastings. Po zajęciu Anglii przez Normanów Gunhilda uciekła do Flandrii i w 1087 roku podarowała swój psałterz kościołowi św. Donata w Brugii. W pochodzącym z XIII wieku katalogu bibliotecznym tej świątyni widnieje psalterium Gunnildis epositu in anglico. Po raz ostatni psałterz Gunhildy jest wspomniany w Commentarii sive Annales rerum Flandricarum Jacquesa de Meyera z 1561 roku. Czytamy w nim, że Gunhilda w 1087 roku podarowała kościołowi św. Donata psałterz, który dzisiaj nazywamy psałterzem Gunhildy, z pewnością po łacinie, ale z wyjaśnieniami w języku saksońskim, którego nikt obecnie dobrze nie rozumie. Psałterz Gunhildy mógł zostać zniszczony w wyniku działalności kalwinistów, którzy w latach 1578–1584 rządzili w Brugii. Założyli oni bibliotekę publiczną i zaczęli konfiskować książki z klasztorów i kościołów. Te, które uznali za najlepsze, umieścili w bibliotece, resztę sprzedali. Wiemy, że biblioteka kapituły kościoła św. Donata została skonfiskowana 13 grudnia 1580 roku. Jeśli wówczas znajdował się w niej Psałterz Gunhildy, mógł zostać sprzedany właśnie ze względu na niezrozumiałe glosy staroangielskie. Niezależnie od tego, jakie były losy Psałterza N i czy jest to Psałterz Gunhildy, manuskrypt trafił około 1600 roku do warsztatu introligatorskiego, prawdopodobnie w Lejdzie, gdzie został pocięty i użyty do oprawienia greckich, łacińskich i hebrajskich dzieł naukowych. Jedna z tych książek trafiła wraz ze studentem teologii do Elbląga, dwie nabyto na aukcji w Lejdzie 4 czerwca 1601 roku i z czasem znalazły się one w bibliotece w Haarlemie. Na tej samej aukcji notable z Alkmaar kupili czterotomowy słownik greki. Kilkaset lat później bibliotekarze i historycy odnajdują kolejne fragmenty Psałterza N i mozolnie je łączą. « powrót do artykułu
  11. W dżungli w Ekwadorze odkryto sieć dużych osad i łączących je dróg, które powstały około 2500 lat temu i były wykorzystywane przez około 1000 lat. Naukowcy szacują, że mogło w nich mieszkać co najmniej 10 000 ludzi. Już przed 20 laty archeolog Stéphen Rostain zauważył na tym terenie ślady dróg i kopców. Jednak wówczas nie był pewien, czy są one ze sobą powiązane. Teraz, dzięki mapowaniu terenu za pomocą LIDAR, udało się odtworzyć wygląd całego terenu. To zaginiona dolina z miastami, cieszy się Rostain, który kieruje ekspedycją archeologiczną z ramienia francuskiego Narodowego Centrum Badań Naukowych. Dotychczasowe prace ujawniły, że osady zostały założone około 500 roku p.n.e. przez lud Upano i były używane do 300–600 roku naszej ery. Budynki mieszkalne i ceremonialne stawiano na platformach usypanych z ziemi – naukowcy naliczyli ich ponad 6000. Otaczały je pola uprawne oraz rowy odwadniające. Poszczególnie osady połączono drogami, z których największe miały szerokość 10 metrów i długość do 20 kilometrów. Liczbę mieszkańców zbadanej okolicy naukowcy szacują na od 10 do 30 tysięcy. Biorąc pod uwagę region, o którym mowa, to klasa sama w sobie pod względem zagęszczenia ludności, stopnia skomplikowania struktur społecznych, a przede wszystkim wczesnego okresu, w którym osadnictwo istniało. Eksperci zauważają, że wybudowanie dróg i tysięcy struktur wymagało złożonego systemu organizacji pracy. "Inkowie i Majowie budowali z kamienia. Jednak w Amazonii nie ma kamienia. Żyjący tu ludzie budowali więc z ziemi", dodają naukowcy. Najnowsze badania przynoszą kolejne dowody na to, że na długo przed kontaktem z Europejczykami w Amazonii rozwijały się liczne złożone społeczności. « powrót do artykułu
  12. Uczeni korzystający z Teleskopu Jamesa Webba dokonali niespodziewanego odkrycia, zauważyli brązowego karła z pochodzącą z metanu emisją w podczerwieni, związaną ze źródłem energii w górnych partiach atmosfery. Brązowe karły to obiekty gwiazdopodobne o masie większej niż Jowisz, ale zbyt małej, by rozpoczęła się na nich przemiana wodoru w hel. Brązowy karzeł W1935 jest zimy i nie posiada gwiazdy macierzystej, zatem brak mu oczywistego źródła promieniowania w górnych partiach atmosfery. Naukowcy przypuszczają, że źródłem energii potrzebnej do obserwowanej emisji jest proces związany z zorzą polarną. Zorze polarne na Ziemi tworzą się w wyniku interakcji wiatru słonecznego z atmosferą. Jednak W1935 nie posiada gwiazdy macierzystej. Uczeni odwołali się więc do innego mechanizmu istniejącego w Układzie Słonecznym. Zorze polarne występują też na Jowiszu i Saturnie. Część z nich tworzonych jest tak samo, jak na Ziemi. Ale występują też zorze związane z aktywnymi księżycami, jak Io w przypadku Jowisza i Enceladus w przypadku Saturna. Dlatego też naukowcy wysunęli hipotezę, że na badanym przez nich obiekcie ma miejsce jakiś wewnętrzny proces, prawdopodobnie jakieś zjawisko atmosferyczne, albo też dochodzi do interakcji z plazmą z przestrzeni kosmicznej lub pobliskim księżycem. Zespół Jackie Faherty z Amerykańskiego Muzeum Historii Naturalnej w Nowym Jorku zarezerwował sobie czas na Teleskopie Webba, by zbadać 12 zimnych brązowych karłów. W przypadku żadnego z nich nie zauważono niczego niezwykłego, z wyjątkiem W1935. Tutaj metan zamiast absorbować światło, sam świecił. O ile w atmosferach innych brązowych karłów temperatura atmosfery spadała wraz ze wzrostem wysokości, to na W1935 doszło do inwersji temperatury. Im wyżej, tym jest ona cieplejsza. To było naprawdę zastanawiające. Obserwujemy takie zjawisko w przypadku planet, którym gwiazdy macierzyste ogrzewają stratosferę, jednak zarejestrowanie go w przypadku obiektu bez oczywistego zewnętrznego źródła ciepła jest czymś niezwykłym, mówi Ben Burningham z University of Hertfordshire w Wielkiej Brytanii. Badacze wpadli na pomysł poszukania analogii w Układzie Słonecznym i stwierdzili, że inwersje temperatury są bardzo widoczne w przypadku Jowisza i Saturna. Dlatego też dwie wiodące obecnie hipotezy mające wyjaśnić niezwykłe zachowanie W1935 to albo istniejąca zorza polarna, albo transport ciepła z dolnych partii atmosfery. Ta druga hipoteza jest jednak znacznie bardziej prawdopodobna. W1935 nie jest jedynym brązowym karłem, na którym prawdopodobnie występują zorze polarne. Astronomowie znają takie obiekty, cieplejsze od W1935, w przypadku których emisję w paśmie radiowym próbuje się tłumaczyć zorzami polarnymi. Jednak badania nie przyniosły dotychczas jednoznacznego rozstrzygnięcia. W1935 jest o tyle niezwykły, że jest to pierwszy brązowy karzeł, który nie posiada gwiazdy macierzystej, a w przypadku którego zaobserwowano emisję metanu. Ponadto jest to najchłodniejszy – poza Układem Słonecznym – znany nam obiekt, na którym mogą występować zorze. Jego temperatura wynosi około 200 stopni Celsjusza. Odkrycie zorzy na W1935 pokazuje, jak użytecznym narzędziem jest Teleskop Webba. Jeśli bowiem okaże się, że badany brązowy karzeł nie posiada księżyca, który mógłby przyczyniać się do powstawania zorzy, być może obserwujemy właśnie nieznany dotychczas proces tworzenia się zórz. « powrót do artykułu
  13. Jaskinie lawowe na Księżycu mogą w przyszłości stać się schronieniem dla ludzi. Przed kilku laty informowaliśmy o odkryciu tego typu gigantycznej struktury – o długości kilkunastu kilometrów, a wysokości i szerokości około kilometra – w regionie Marius Hills. W takiej jaskini zmieściłoby się duże miasto. Jaskinie mogą występować zresztą nie tylko na Księżycu, ale też na innych ciałach niebieskich. Dlatego już od kilku lat naukowcy pracują nad autonomicznymi robotami, które będą je badały. Żaden człowiek nie przebywał na Księżycu dłużej niż trzy doby. Kombinezony kosmiczne nie wystarczą bowiem, by chronić astronautów przed ekstremalnymi zmianami temperatury, promieniowaniem kosmicznym czy uderzeniami meteorytów. Księżyc nie posiada atmosfery i pola magnetycznego, które chronią nas na Ziemi. Najbezpieczniejszym dla człowieka miejscem na Księżycu mogą być jaskinie lawowe. To naturalne tunele, które formują się, gdy lawa zastyga i sztywnieje, a pod nią wciąż płynie strumień lawy. Czasami strumień przestaje płynąć, pozostawiając po sobie pustą jaskinię. Problemem bezpieczeństwa takich jaskiń zajmuje się doktor inżynier Maciej Chwała z Politechniki Wrocławskiej. W 2009 roku na powierzchni Księżyca zauważono zagłębienia, które z czasem okazały się zapadniętymi korytarzami lawowymi. Mogą one zawalić się pod wpływem grawitacji czy uderzeń meteorytów. Skoro więc myślimy o wykorzystaniu ich na ludzkie siedziby, powinniśmy przyjrzeć się im pod kątem bezpieczeństwa. Doktor Chwała, we współpracy z profesorem Goro Komatsu i doktorm Junichim Haruyamją z Japonii, przeanalizował stateczność księżycowych jaskiń oraz zawaliska ich stropów. Wyniki badań naukowcy opublikowali w artykule Structural stability of lunar lava tubes with consideration of variable cross-section geometry. W tej chwili nie są dostępne żadne dokładne informacje dotyczące jaskiń na Księżycu, więc naukowcy musieli opierać się na szacunkowych danych, uzyskanych chociażby w jaskini lawowej na Wyspach Kanaryjskich. Przeprowadzenie analizy stabilności jakiekolwiek struktury geologicznej na Księżycu jest niezwykle trudne. Możemy opierać się jedynie na szacunkowych parametrach, a zastosowanie zaawansowanych metod do opisu wytrzymałości skał mija się w tym wypadku z celem. Mamy jednak do dyspozycji bardzo cenną rzecz, czyli zawaliska na Księżycu, których geometrię już znamy, mówi Chwała. Naukowcy przeanalizowali dostępne modele zwalisk i dopasowali je do parametrów zwalisk zaobserwowanych na Księżycu. W ten sposób możemy ustalić rozmiary jaskiń odpowiadające za dane zawaliska przy określonej grubości stropu skalnego. Udało nam się to zrobić, oczywiście też w pewnym stopniu szacunkowo, i jest to całkiem nowe podejście do tego typu badań. Na potrzeby publikacji przeanalizowaliśmy trzy największe zwaliska, choć na Księżycu jest ich dużo więcej. Nie dla wszystkich można jednak dokładnie zmierzyć geometrię, czyli np. grubość stropu – dodaje uczony. Za wykorzystaniem jaskiń przemawiają przede wszystkim względy praktyczne. Uchronią one ludzi przed promieniowaniem kosmicznym, uderzeniami meteorytów czy olbrzymimi wahaniami temperatury na Srebrnym Globie. Jednak eksploracja jaskiń może przynieść również wiele odkryć naukowych. W jaskiniach możemy znaleźć nienaruszone środowisko, w którym kryje się dużo informacji związanych z powstaniem Księżyca, a tym samym Układu Słonecznego. Podczas misji Apollo realizowanych w latach 60. i 70. XX w. pobierano próbki gruntu z głębokości trzech metrów i na tej podstawie udało się odwzorować kilkaset milionów lat aktywności Słońca. Proszę pomyśleć, ile informacji udałoby się pozyskać z jaskiń, wyjaśnia doktor Chwała. W następnym etapie badań naukowiec zajmie się analizą skał księżycowych i ich wpływem na stateczność jaskiń oraz modelowaniem zwalisk w trójwymiarze. « powrót do artykułu
  14. Europa została zasiedlona przez człowieka anatomicznie współczesnego podczas trzech głównych fal migracji. Około 45 000 lat temu przybyli łowcy-zbieracze z Azji, mniej więcej 11 000 lat temu zaczęli napływać rolnicy z Bliskiego Wschodu, a przed 5000 lat kontynent doświadczył dużej migracji pasterzy ze stepów zachodniej Azji i wschodniej Europy. Historycy i archeolodzy przypuszczali, że grupy te wymieszały się między sobą oraz z ludnością tutaj zastaną, a następnie w różnych populacjach – w reakcji na lokalne warunki środowiskowe – pojawiły się specyficzne dla nich cechy genetyczne. Jednak nie jest to pełen obraz. Eske Willerslev i jego zespół złożony z naukowców z Wielkiej Brytanii, Szwecji, Danii i USA opublikowali właśnie w Nature cztery artykuły (1, 2, 3, 4), w których opisują zmiany zmiany genetyczne, do których dochodziło w podczas fal migracji. Wykazali na przykład, że pasterze ze stepów zasiedlili głównie północ Europy, a rolnicy z Bliskiego Wschodu udali się na południe i zachód kontynentu. Zatem istniejące różnice genetyczne to nie tylko skutek dostosowania się do miejscowych warunków, ale również różnic we wzorcach migracji w poszczególne regiony Starego Kontynentu. Z badań wynika również, że w niektórych miejscach doszło do całkowitej wymiany populacji. Na przykład terenie dzisiejszej Danii wymiana taka miała miejsce dwukrotnie i za każdym razem zachodziła w czasie kilku pokoleń. Szybkość tej wymiany i dowody archeologiczne wskazują, że przybysze raczej wymordowali poprzednich mieszkańców niż zmusili ich do emigracji lub wymieszali się z nimi. Na potrzeby swoich badań Willerslev i jego zespół zsekwencjonowali DNA z 317 szkieletów ludzi, którzy żyli pomiędzy 3000 a 11 000 lat temu, połączyli je z wcześniej istniejącymi danymi dotyczącymi ponad 1300 osób zamieszkujących dawniej Eurazję i porównali te informacje z danymi genetycznymi 410 000 współcześnie żyjących osób, które są zgromadzone w UK Biobank. Dowiedzieliśmy się zatem, że istniejące różnice w wyglądzie czy podatności na choroby to skutek nierównomiernego rozprzestrzeniania się migrujących grup. Dzisiejsi mieszkańcy północy Europy są wyżsi i mają jaśniejszą skórę od Włochów czy Greków w znacznej mierze dlatego, że w ich DNA jest więcej genów pasterzy ze stepów. A mieszkańcy północno-wschodniej Europy częściej zapadają na cukrzycę i alzheimera, ponieważ w większym stopniu są spokrewnieni z łowcami-zbieraczami. Jednym z zaskakujących wniosków płynących z badań jest stwierdzenie, że pewna cecha, powiązana z duża przewagą ewolucyjną ma jednocześnie związek z predyspozycją do stwardnienia rozsianego. Geny zwiększające podatność na tę niszczącą chorobę przybyły wraz z pasterzami z zachodniej Azji i z czasem cecha ta uległa dodatkowemu wzmocnieniu na północy Europy. Stwardnienie rozsiane to choroba autoimmunologiczna, skutek nadaktywności układu odpornościowego. W przeszłości taki mocno reagujący układ odpornościowy prawdopodobnie zapewniał przewagę ewolucyjną, gdyż łatwiej zwalczał choroby zakaźne. Inne grupy naukowe już chcą wykorzystać metodę użytą przez zespół Willersleva do badań w innych regionach świata. Naukowcy mówią na przykład o przyjrzeniu się w ten sposób historii mieszkańców obu Ameryk czy Azji Południowo-Wschodniej. « powrót do artykułu
  15. Historyczne lądowanie na Księżycu, o którym informowaliśmy przed trzema tygodniami, nie dojdzie do skutku. Firma Astrobotic chciała być pierwszą prywatną firmą, której pojazd wyląduje na Srebrnym Globie. Jego start miał miejsce przed dwoma dniami. Jednak niedługo po tym okazało się, że w lądowniku pojawił się wyciek paliwa. Przyczyną jest prawdopodobnie uszkodzony zbiornik. Biorąc pod uwagę utratę paliwa, nie ma, niestety, szans na miękkie lądowanie na Księżycu, oświadczyli przedstawiciele Astrobotic. Pojazd miał lądować 23 lutego i byłoby to pierwsze od ponad 50 lat lądowanie amerykańskiej misji na Srebrnym Globie oraz pierwsze w historii lądowanie prywatnego pojazdu. Teraz, gdy już wiadomo, że do lądowania nie dojdzie, kontrolerzy usiłują jak najdłużej utrzymać działający pojazd. Z dużymi problemami udało im się skierować jego panele słoneczne w stronę Słońca, by utrzymać w pełni naładowane akumulatory. Z wstępnej analizy sytuacji wynika, że przyczyną awarii mógł być zacięty zawór, przez który ciekły hel o wysokim ciśnieniu dostał się do zbiornika z utleniaczem i rozerwał go kilka godzin po starcie. Nic nie wskazuje na to, by do awarii przyczyniła się nowa rakieta nośna Vulcan firmy United Launch Alliance, która odbywał swój dziewiczy lot. Astrobotic powstała w 2007 roku. Celem Peregrine Mission 1 było pole lawowe Sinus Viscositatis. Na pokładzie misji znajduje się sześć urządzeń dostarczonych przez NASA, w tym dwa spektrometry. Jeden miał poszukiwać molekuł wody unoszących się z rozgrzanej przez Słońce powierzchni Księżyca, zadaniem drugiego było szukanie w gruncie minerałów zawierających wodór. Poza nimi Peregrine Mission 1, na zlecenie firm prywatnych i agencji państwowych, zabrała na pokład 15 innych urządzeń, takich jak instrument naukowy dostarczony przez Meksykańską Agencję Kosmiczną, dysk firmy Arch Mission Foundation zawierający dziesiątki milionów stron danych w tym kopię Wikipedii czy prochy osób, które zleciły firmom Celestis i Elysium Space pochówek na Księżycu. Sama NASA zapłaciła Astrobotic 108 milionów USD za dostarczenie jej instrumentów naukowych na Księżyc. Misja od początku uznawana była za projekt wysokiego ryzyka, gdyż Astrobotic nie ma doświadczenia w podobnych przedsięwzięciach. Jeśli by się jednak udała, byłaby mocnym argumentem za prywatnymi misjami kosmicznymi i z pewnością przyczyniałby się do rozwoju prywatnego sektora. Jej niepowodzenie nie oznacza jednak, że plany tego typu należy odrzucić. W połowie lutego wystartuje bowiem lądownik Nova-C firmy Intuitive Machines. Wyniesie go Falcon 9 firmy Space X. Tutaj NASA zleciła lądowanie w kraterze Malapert A na biegunie południowym Księżyca. Jeśli się powiedzie, będzie to drugie w historii – po indyjskiej misji Chandrayaan-3 – lądowanie w tym regionie. Nova-C zabierze na pokład 11 przesyłek, w tym 5 od NASA i 6 innych zleceniodawców. Jedna z nich stanowi zresztą część konstrukcji lądownika. Metaliczna warstwa zastosowana w niektórych miejscach do izolacji pojazdu została opracowana przez firmę Columbia i jest stosowana w produkowanych przez nią ubraniach. Podczas lądowania Nova-C wystrzeli niewielką kamerę zbudowaną przez Embry-Riddle Aeronautical University. Kamera opadnie na powierzchnię i będzie filmowała lądowanie Nova-C. Jeśli plan się powiedzie, będzie to pierwszy w historii film nakręcony z zewnątrz pokazujący lądowanie na obiekcie innym niż Ziemia. Dotychczas miękkie lądowanie na Księżycu przeprowadziły agencje kosmiczne czterech krajów: USA, ZSRR, Indii oraz Chin. Statystyki pokazują, że udaje się jedynie 55% takich przedsięwzięć. « powrót do artykułu
  16. NASA zaktualizowała kalendarz programu Artemis. Misje Artemis II i Artemis III zostają przesunięte na późniejsze terminy. Zgodnie z nowym planem misja Artemis II odbędzie się we wrześniu 2025 roku, a na misję Artemis III, czyli pierwsze od pół wieku lądowanie człowieka na Księżycu, będziemy musieli poczekać do września 2026 roku. Termin misji Artemis IV, pierwszego lotu do księżycowej stacji kosmicznej Gateway, nie zmienił się. Ma się ona odbyć w 2028 roku. W ramach misji Artemis II astronauci mają polecieć poza orbitę Księżyca, ale nie będą lądowali na Srebrnym Globie. Lądowanie to zadanie misji Artemis III. NASA tłumaczy, że powodem podjęcia decyzji o przesunięciu misji Artemis II są względy bezpieczeństwa. Wciąż trwa śledztwo mające wyjaśnić przyczyny utraty niektórych elementów osłony termicznej podczas misji Artemis I, ponadto podczas testów naziemnych zidentyfikowano problemy z akumulatorem oraz układem elektrycznym odpowiedzialnym za wentylację i kontrolę temperatury w pojeździe załogowym. Nowy termin misji Artemis III został dostosowany do przesunięcia misji Artemis II. Musimy być pewni, że będziemy mieli wystarczająco dużo czasu, by móc wdrożyć w misji Artemis III wnioski, jakie wyciągniemy z misji Artemis II. Musimy brać też pod uwagę wyzwania, przed jakimi staną nasi prywatni partnerzy, którym – po misji Artemis II – przekażemy uwagi dotyczące Artemis III. Każda misja załogowa zwiększa stopień skomplikowania kolejnych misji i przynosi nam nowe dane, na podstawie których trzeba wykonać nowe testy systemów. Dlatego musimy dopasować termin kolejnych misji do możliwości naszych partnerów tak, by SpaceX – odpowiedzialne za moduł lądowania pojazdu załogowego – i Axiom Space – które przygotowuje kombinezony kosmiczne przyszłej generacji – miały czas na dodatkowe testy i udoskonalenia, czytamy w oświadczeniu NASA. Wykorzystamy misję Artemis II i każdą kolejną misję do zmniejszenia ryzyka związanego z misjami na Księżyc, dodała Catherine Koerner z Exploration Systems Development Mission Directorate. NASA poinformowała też, że poprosiła firmy SpaceX oraz Blue Origin, które obecnie rozwijają moduły lądujące na potrzeby misji Artemis, by już zaczęły pracować nad planami zwiększenia ich możliwości i dostarczenia cięższych ładunków w przyszłości. Artemis to długoterminowy program badawczy, którego zadaniem jest prowadzenie prac na Księżycu oraz przygotowanie przyszłych misji załogowych na Marsa. To zaś oznacza, że musimy w odpowiedni sposób przygotować i przetestować podstawowe systemy, byśmy mogli w przyszłości rozwijać je i bezpiecznie prowadzić kolejne misje. Bezpieczeństwo załogi jest i będzie naszym priorytetem, dodał Amit Kshatriya, dyrektor Moon to Mars Program Office. « powrót do artykułu
  17. Astrofizycy zauważyli, że planeta WASP-69b ciągnie za sobą strumień gazu, który jest kilkukrotnie dłuższy od jej średnicy. Okazało się, że ta wielka planeta rozmiarów Jowisza krąży tak blisko swojej gwiazdy, że jej atmosfera gotuje się i jest odparowywana. W każdej sekundzie planeta traci 200 000 ton masy swojej atmosfery. Autorzy najnowszych badań donoszą, że ciągnący się za planetą strumień gazu jest znacznie dłuższy niż dotychczas sądzono, a o jego kształcie decyduje wiatr gwiezdny. Wcześniej sądzono, że planeta może tracić nieco atmosfery i być może ciągnie się za nią niewielki ogon, a może w ogóle go nie ma. My jednoznacznie odkryliśmy jego istnienie i stwierdziliśmy, że jest co najmniej 7,5-krotnie dłuższy niż promień samej planety, mówi główny autor badań, doktorant Dakotah Tyler z Uniwersytetu Kalifornijskiego w Los Angeles. Prowadzony przez niego zespół stwierdził, że strumień gazu ciągnący się za planetą ma ponad 560 000 kilometrów długości. Gorący jowisz WSAP-69b został odkryty przed dekadą. Planeta znajduje się w odległości 160 lat świetlnych od Ziemi. Krąży wokół gwiazdy macierzystej tak blisko, że jej obiegnięcie zajmuje jej mniej niż cztery ziemskie doby. Dla porównania, długość orbity Merkurego, planety najbliższej Słońcu, wynosi 88 dni. Ta niewielka odległość między WASP-69b a jej gwiazdą nie tylko powoduje, że planeta jest odzierana z atmosfery przez promieniowanie gwiazdy, ale jej wynikiem jest też strumień gazu ciągnący się za planetą. Możliwość bezpośrednich badań procesu utraty atmosfery przez planetę to świetna okazja, by lepiej zrozumieć ewolucję planet i ich gwiazd. W ostatnich latach liczne badania wykazały, że w większości układów planetarnych występują planety, które okrążają swoje gwiazdy po orbitach ciaśniejszych niż orbita Merkurego, a erozja ich atmosfer odgrywa ważną rolę w powstawaniu obserwowanych obecnie typów planet. Podejrzewany jednak, że większość znanych nam egzoplanet straciła swoje atmosfery dawno temu. Dlatego WASP-69b jest tak wyjątkowa. Mamy dzięki niej rzadką sposobność obserwowania tego procesu w czasie rzeczywistym i zrozumienia mechanizmów, które ukształtowały tysiące innych planet, dodaje współautor badań, profesor Erik Petigura. WASP-96b ma masę około 90-krotnie większą od masy Ziemi. Nie utraci więc całej atmosfery ani w ciągu naszego życia, ani nawet w czasie życia swojej gwiazdy. « powrót do artykułu
  18. Naukowcy ze szwedzkiego Uniwersytetu w Lund oraz amerykańskiego Synchrotron Facility należącego do Narodowego Instytutu Standardów i Technologii przyjrzeli się na na poziomie atomowym temu, co dzieje się z wirusami, gdy rośnie temperatura. Okazało się, że w temperaturze ludzkiego organizmu, około 37 stopni Celsjusza, dochodzi do gwałtownej zmiany materiału genetycznego. Bardziej przypomina on ciecz, co znakomicie ułatwia mu zainfekowanie komórki. Wirusy nie przeprowadzają własnych procesów metabolicznych i nie są w stanie samodzielnie się replikować. Całkowicie zależą od komórki gospodarza. Przejmują mechanizmy komórkowe, za ich pomocą tworzą nowe wiriony i uwalniają je, by infekowały kolejne komórki. Materiał genetyczny wirusa jest chroniony przez kapsyd. Szwedzko-amerykański zespół chciał lepiej zrozumieć, co powoduje, że zostaje uwolniony i w jaki sposób proces ten przebiega. Już w 2014 roku Szwedzi opublikowali artykuł, w którym informowali, że prawdopodobnie w temperaturze około 37 stopni Celsjusza coś się dzieje z materiałem genetycznym wirusa. Im bardziej podnosiliśmy temperaturę, tym bardziej sztywne było wirusowe DNA. I nagle, w temperaturze, w jakiej zachodzi infekcja, coś się działo. Wyglądało to tak, jakby w wirionie nie było już DNA, cała sztywność znikała, mówi profesor Alex Evilevitch. Artykuł przyciągnął uwagę środowiska naukowego, jednak prowadzenie takich badań jest trudne i wymaga – między innymi – odpowiednich narzędzi. Nie jest łatwo obserwować DNA wirusa. To delikatny materiał, trudny w obrazowaniu, a ponadto fagi są bardzo małe, mniej więcej dziesięciokrotnie mniejsze od komórki bakterii. Jednak dzięki pomocy synchrotronu z NIST oraz specjalnemu grantowi byliśmy w stanie wykorzystać neutrony do obrazowania struktury i gęstości DNA faga oraz zbadania, jak się ono zmienia w różnych temperaturach, dodaje Evilevitch. Uczeni wykazali, że temperatura otoczenia jest jednym z najważniejszych czynników decydujących o momencie otwarcia się kapsydu i uwalniania DNA oraz infekcji. Dowiedzieli się również, że zmiana struktury DNA jest bezpośrednio powiązana z tym, jak efektywnie wirus potrafi zainfekować komórkę. Dzięki temu lepiej rozumiemy, jak szybko materiał genetyczny może opuścić kapsyd, wniknąć do komórki, a wiedza ta może się przydać podczas badań nad „włączaniem” i „wyłączaniem” wirusów, zatem nad opracowaniem nowych środków przeciwwirusowych. Nasze badania mogą mieć też znaczenie dla prac nad pakowaniem kwasów nukleinowych na potrzeby terapii genowych, cieszy się Evilevitch. Odkrywcy nie wykluczają, że wyniki ich badań mogą wskazywać, że im wyższa temperatura ciała, tym większe ryzyko rozwoju infekcji. Struktura materiału genetycznego i jego właściwości mechaniczne zmieniają się w temperaturze 37 stopni Celsjusza. Zauważyliśmy tez, że wzrost temperatury wpływa na tempo rozprzestrzeniania się wirusa. Jednak nasze badania prowadziliśmy w laboratorium na hodowlach komórkowych. Potrzebne są dalsze badania, które wezmą pod uwagę inne czynniki wpływające na rozwój infekcji, jak na przykład reakcję układu odpornościowego, stwierdzają badacze. « powrót do artykułu
  19. W ostatnich latach coraz częściej słyszymy o wszechobecności mikroplastiku. Znaleziono go na biegunach, w równikowej glebie, w wodzie i pożywieniu. Jest też i w butelkowanej wodzie. Autorzy niektórych badań informowali o znalezieniu w każdym litrze takiej wody tysięcy fragmentów mikroplastiku. Naukowcy z Columbia University postanowili przyjrzeć się też nanoplastikowi, czyli jeszcze mniejszym fragmentom, na które rozpada się mikroplastik. Okazało się, że litr butelkowanej wody zawiera średnio 240 000 fragmentów mikro- i nanoplastiku. Na razie nie wiemy, czy mikro- lub nanoplastik może nam szkodzić, a jeśli tak, to w jakim stopniu. Nanoplastik szczególnie jednak martwi naukowców, gdyż jest on tak mały, że może przenikać z płuc czy układu pokarmowego bezpośrednio do krwi i wraz z nią docierać do wszystkich organów, w tym do serca czy mózgu. Może trafiać do poszczególnych komórek, przenikać przez łożysko i kolonizować organizm rozwijającego się dziecka. Każdego roku ludzie produkują niemal 400 milionów ton plastiku. Dziesiątki milionów ton są wyrzucane do wody i zakopywane w ziemi. Wiele produktów zawierających plastik, jak chociażby tekstylia, ściera się podczas użycia, więc jesteśmy ciągle otoczeni miniaturowymi kawałkami tworzyw sztucznych. W przeciwieństwie do naturalnych materiałów większość plastiku nie rozpada się szybko na nieszkodliwe substancje. Tworzywa sztuczne rozpadają się na coraz mniejsze i mniejsze kawałki o tym samym składzie chemicznym. Teoretyczną granicą tego rozpadania się jest poziom pojedynczych molekuł. O mikroplastiku mówimy w odniesieniu do jego fragmentów wielkości od 5 milimetrów do 1 mikrometra. Nanoplastik to fragmenty o rozmiarach poniżej 1 mikrometra. Dla porównania warto pamiętać, że średnica ludzkiego włosa wynosi przeciętnie 70 mikrometrów. O plastiku w butelkowanej wodzie stało się głośno w 2018 roku, kiedy to w litrze takiej wody wykryto średnio 325 fragmentów tworzyw sztucznych. Kolejne badania, podczas których liczono coraz mniejsze i mniejsze fragmenty mikroplastiku, zwielokrotniły tę liczbę. Z czasem okazało się, że w litrze butelkowanej wody mogą być dziesiątki tysięcy kawałków plastiku. Naukowcy z Columbia University przekroczyli kolejną granicę. Co prawda metody obserwacji cząstek w skali nano istnieją od dawna, jednak badacze nie wiedzieli, na co patrzą, mówi główny autor najnowszych badań Naixin Qian. Nie było wiadomo, czy obserwowane w wodzie cząstki to nanoplastik czy coś innego. Nie było też możliwe ich policzenie, dlatego dokonywano zgrubnych szacunków. Teraz uczeni wykorzystali technologię mikroskopii wymuszonego rozpraszania ramanowskiego, której współtwórcą jest jeden z autorów nowych badań, Wei Min. Technologia ta polega na badaniu próbki za pomocą dwóch laserów, których częstotliwość pracy dobrano tak, by wywoływały drgania konkretnych molekuł. Uczeni z Columbii wzięli na cel siedem najpowszechniej występujących tworzyw sztucznych i za pomocą opracowanego przez siebie algorytmu interpretowali wyniki badań. Jedną rzeczą jest wykrycie czegoś, ale inną – stwierdzenie, co się wykryło, mów Min. Na potrzeby badań uczeni przyjrzeli się trzem popularnym w USA markom butelkowanej wody pitnej. Szukali w nich plastiku o rozmiarach większych niż 100 nanometrów. W każdym badanym litrze znaleźli od 110 000 do 370 000 fragmentów tworzyw sztucznych. Nanoplastik stanowił 90% zanieczyszczeń, za resztę odpowiadał mikroplastik. Zidentyfikowali też rodzaje plastiku o określili kształt cząstek, co może przydać się w przyszłych badaniach biomedycznych. Najczęściej występującym zanieczyszczeniem był poliamid, materiał powszechnie używany w filtrach, których celem jest... oczyszczenie wody przed jej zabutelkowaniem. W wodzie powszechnie występował też poli(tereftalan etylenu) (PET), z którego powszechnie wytwarza się butelki. Prawdopodobnie dostaje się on do wody, gdy butelka wystawiana jest na wyższe temperatury lub ściskana. Jedno z niedawno przeprowadzonych badań wskazuje, że plastik może dostawać się do butelkowanej wody gdy wielokrotnie otwieramy i zamykamy butelkę. Dochodzi wówczas do ścierania materiału korka i butelki. W wodzie znaleziono też dużo polistyrenu, polichlorku winylu (PCV) oraz poli(metakrylanu metylu). To materiały używane w różnych procesach przemysłowych. Zidentyfikowany plastik stanowił zaledwie... 10 procent wszystkich znalezionych nanocząstek. Badacze nie potrafili zidentyfikować reszty. Uczeni mają nadzieję, że w przyszłości pojawią się techniki pozwalające również i w tym przypadku odróżnić naturalną materię organiczną od tworzyw sztucznych. Autorzy badań podkreślają, że zanieczyszczenia mikroplastikiem w butelkowanej wodzie mają większą masę, niż zanieczyszczenia nanoplastikiem. Jednak problemem nie jest tutaj masa, ale wielkość i liczba. Im bowiem mniejszy fragment, tym łatwiej może krążyć po całym organizmie. W najbliższej przyszłości naukowcy chcą przyjrzeć się wodzie z kranu. Dotychczasowe badania wykazały, że również i ona zawiera mikroplastik, ale jest go znacznie mniej niż w wodzie butelkowanej. Prowadzą też badania nad mikroplastikiem i nanoplastikiem trafiającym do wody w czasie prania. Wstępne wyniki wskazują, że są to miliony cząstek wraz z każdym 3-kilogramowym wkładem do pralki. Wkrótce też przyjrzą się mikroplastikowi w zachodniej Antarktydzie, gdzie ich współpracownicy właśnie zbierają próbki. « powrót do artykułu
  20. Jeszcze w 1950 roku przeciętna 65-letnia kobieta miała 41 żyjących krewnych. Do roku 2095 kobieta w tym samym wieku będzie miała zaledwie 25 żyjących krewnych. Na naszych oczach zachodzą wielkie zmiany w strukturze rodzin. W najbliższym czasie liczba krewnych przeciętnej osoby zmniejszy się o 35%. Będzie mniej kuzynów, siostrzeńców, bratanków i wnuków. Wzrośnie za to liczba dziadków i pradziadków. Do takich wniosków doszli Diego Alburze-Gutierrez z Instytutu Badań nad Demografią im. Maxa Plancka, Iván Willam z Uniwersytetu w Buenos Aires oraz Hal Caswell z Uniwersytetu w Amsterdamie. Zadaliśmy sobie pytanie, jak zmiany demograficzne wpłyną na strukturę pokrewieństwa? Jaka była wielkość, struktura i rozkład wieku w rodzinach przeszłości i jak będzie ona ewoluowała w przyszłości, mówi Alburez-Gutierrez. Naukowcy wykorzystali modele matematyczne do oddania związków pokrewieństwa łączących ludzi, ich przodków oraz ich potomków w określonym przedziale czasowym. Nasz model dostarcza uśrednionych wyników odnośnie struktury wieku i płci dla różnych rodzajów pokrewieństwa w danym roku kalendarzowym, wyjaśniają uczeni. Dla każdego z krajów naukowcy stworzyli 1000 takich relacji pokrewieństwa. Na potrzeby badań rodzinę konkretnej osoby zdefiniowano jako składającą się z pradziadków, dziadków, rodziców, rodzeństwa, dzieci, wnuków, prawnuków, ciotek, wujków, kuzynów, siostrzeńców i bratanków. Spodziewaliśmy się, że w każdym regionie świata – szczególnie w Ameryce Południowej i na Karaibach – zaobserwujemy stały silny spadek wielkości rodzin, dodaje Alburez-Gutierrez. Jak już wspomnieliśmy, w 1950 roku przeciętna 65-letnia kobieta miała 56 żyjących krewnych, a do roku 2095 liczba ta spadnie do 18,3 osób. To oznacza aż 67-procentowy spadek. W Ameryce Północnej i Europie, gdzie rodziny już obecnie są małe, spadek ten będzie mniej widoczny. W regionach tych przeciętna 65-letnia kobieta miała w 1950 roku zaledwie 25 żyjących krewnych. Do roku 2095 będzie to 15,9 krewnych. Prognozowanie przyszłych związków rodzinnych jest niezwykle ważne w obliczu coraz szybciej starzejącej się populacji. Starzenie się społeczeństwa oznacza, że coraz mniejsza liczba młodych osób będzie musiała zadbać o coraz większą liczbę starszych osób, szczególnie tam, gdzie mają one mniej krewnych lub nie mają ich wcale. Nasze badania potwierdzają, że na całym świecie spada dostępność krewnych. Zwiększa się też różnica wieku pomiędzy krewnymi. Sieci rodzinne będą nie tylko mniejsze, ale również będą łączyły starsze osoby. Wystarczy pomyśleć o dziadkach i pradziadkach, których w przyszłości będzie więcej. Teoretycznie może to oznaczać, że rodzice będą mieli więcej pomocy przy dzieciach, jednak w praktyce ci dziadkowie i pradziadkowie będą potrzebowali opieki dla siebie, stwierdzają autorzy badań. Wyniki badań pokazują, jak bardzo potrzebny jest rozwój różnego rodzaju systemów opieki społecznej i wsparcia dla ludzi na każdym etapie życia. Większość ludzkości żyje w krajach, w których dobrze rozwinięta opieka społeczna nie istnieje. Dla nich najważniejszym źródłem wsparcia i opieki jest rodzina. I nic nie wskazuje na to, by miało się to w przyszłości zmienić. Tymczasem rodziny stają się coraz mniejsze i coraz starsze. « powrót do artykułu
  21. Randomizowany test kliniczny wykazał, że dieta ketogeniczna pozwala na kontrolowanie wielotorbielowatości nerek. Bardzo się cieszę z wyników. Mamy tutaj pierwszy dowód wskazujący, że torbiele nie lubią stanu ketozy i nie rozrastają się, mówi Thomas Weimbs z Uniwersytetu Kalifornijskiego w Santa Barbara. Wielotorbielowatość nerek (PKD) to uwarunkowana genetycznie choroba, która powoduje silne bóle, obniża jakość życia i może prowadzić do zniszczenia nerek, a zatem do konieczności dializy lub przeszczepu. Jeśli masz PKD dowiadujesz się, że to choroba uwarunkowana genetycznie i będzie postępowała niezależnie od tego, co robisz, a dieta nie ma na nią wpływu. Wielu pacjentów słyszy to do dzisiaj, mówi Weimbs. Wraz z naukowcami z Niemiec postanowił on podważyć to przekonanie. Niemiecki zespół, na czele którego stał doktor Roman Müller z Uniwersytetu w Kolonii znalazł 66 ochotników z PKD, których losowo przydzielono do trzech grup. Pierwsza z nich była traktowana standardowo, wedle obowiązujących obecnie zaleceń postępowania u pacjentów z wielotorbielowatością nerek. Druga grupa co miesiąc stosowała trzydniową głodówkę, w czasie której pacjenci pili jedynie wodę. W końcu grupa trzeba była na diecie ketogenicznej. Wszystkie grupy monitorowano za pomocą testów krwi i badań rezonansem magnetycznym. Testy trwały trzy miesiące. Po tym czasie stwierdzono, że – jak można było się spodziewać – u pacjentów z dwóch pierwszych doszło do powiększenia się nerek, to u pacjentów z grupy ketogenicznej nerki przestały rosnąć, a nawet wydaje się, iż pojawiła się tendencja do skurczenia się. Naukowcy podkreślają jednak, że po 90-dniowym okresie testowym zmniejszenie się nie było istotne statystycznie. Natomiast najbardziej rzucającym się w oczy i statystycznie istotnym wynikiem testu była poprawa funkcjonowania nerek u pacjentów na diecie ketogenicznej. Ku naszemu wielkiemu zaskoczeniu funkcjonowanie nerek poprawiło się w grupie pacjentów na diecie ketogenicznej, mówi Weimbs. Funkcjonowanie nerek oceniano na podstawie badań poziomu cystatyny C. Jej podwyższony poziom we krwi wskazuje na gorsze funkcjonowanie nerek. W grupie kontrolnej wskaźnik ten pogorszył się w badanym okresie. Co ważne, pacjenci uznali, że bez większych problemów są w stanie przestrzegać odpowiedniej diety. Lekarze często zakładają, że pacjent i tak nie będzie przestrzegał diety, więc nawet nie próbują jej zalecać. W tym przypadku okazało się to nieprawdą. Pacjenci z PKD są wysoce zmotywowani, by coś zrobić, dodaje uczony. Przypomina przy tym, że nie istnieje jedna dieta dobra dla wszystkich. Zatem gdy porzucamy standardowe nawyki żywieniowe, rezygnujemy z węglowodanów i cukrów, należy skonsultować się z lekarzem. Dieta keto oznacza bardzo niskie spożywanie węglowodanów. Istnieje bardzo wiele aplikacji, za pomocą których można taką dietę ułożyć. Jednak trzeba pamiętać, że najpopularniejsze diety ketogeniczne opierają się głównie na spożywaniu mięsa. Tymczasem nadmiar białka stanowi poważne obciążenie dla nerek i może być szkodliwy dla osób, które już mają choroby nerek. Na szczęście istnieją też diety ketogeniczne, których podstawę stanowią rośliny. Jedną z nich jest Ren.Nu opracowana przez Weimbsa i dietetyków specjalnie pod kątem osób z PKD. Jeszcze w bieżącym roku Weimbs i jego zespół chcą rozpocząć kolejne testy kliniczne. Jeden będzie odbywał się w Tokio, drugi zaś w Toronto. W ich trakcie testowana będzie dieta Ren.Nu w połączeniu z żywnością przygotowaną specjalnie pod kątem pacjentów z wielotorbielowatością nerek. Badania, w których udział weźmie 280 pacjentów, mają potrwać przez rok. « powrót do artykułu
  22. Obecnie złotym standardem w diagnozowaniu nowotworów płuc jest wykorzystanie tomografii komputerowej (TK). Może się to zmienić dzięki opracowanemu na MIT testowi, który ma wykrywać nowotwór płuc na podstawie paskowego testu moczu. Metoda taka może pozwolić na znaczne rozszerzenie dostępu do diagnostyki – szczególnie w miejscach, gdzie dostęp do tomografii komputerowej jest utrudniony lub nie ma go wcale – oraz na szybsze wykrywanie choroby, co ma olbrzymie znaczenie przy jej leczeniu. Liczba przypadków nowotworów płuc szybko rośnie na całym świecie, szczególnie w krajach o niskich i średnich dochodach. W USA zaleca się, by nałogowi palacze po przekroczeniu 50. roku życia poddawali się corocznemu badaniu TK. Nie wszyscy jednak to robią, ponadto TK daje spory odsetek wyników fałszywie pozytywnych, co skutkuje niepotrzebnymi inwazyjnymi badaniami dodatkowymi. Autorem nowego testu jest profesor Sangeeta Bhatia z należących do MIT Koch Institute for Integrative Cancer Research oraz Institute for Medical Engineering and Science oraz jej zespół. Uczona od dziesięciu lat pracuje nad nanoczujnikami do wykrywania różnych chorób, w tym i takimi, które miały by być alternatywą dla tomografii komputerowej w diagnostyce nowotworów płuc. Naukowcy stworzyli polimerowe nanocząsteczki pokryte substancją raportującą, barkod DNA, która odczepia się od nanocząstek gdy napotyka proteazy, enzymy często nadaktywne w nowotworach. Substancja ta po odczepieniu akumuluje się w moczu, w którym można ją w prosty sposób wykryć. Wcześniejsze wersje testów, przeznaczone do wykrywania nowotworów wątroby i jajników, zakładały wykorzystanie nanocząsteczek podawanych dożylnie. Na potrzeby diagnostyki nowotworu płuc stworzono coś łatwiejszego w użyciu: nanocząsteczki w aerozolu oraz w proszku. Po podaniu nanocząsteczki trafiają do płuc i są wchłaniane przez tkankę, gdzie stykają się z proteazami. W naszym organizmie dochodzi do ekspresji setek różnych proteaz, a niektóre z nich są nadaktywne gdy rozwija się nowotwór. Te nadaktywne protezy odrywają barod DNA od nanocząsteczki, pozwalając mu swobodnie krążyć we krwi. Uczeni stworzyli test paskowy, który pozwala wykryć cztery różne barkody, z których każdy powiązany jest z obecnością innej proteazy. Wyniki testu otrzymujemy po 20 minutach. Nowe narzędzie diagnostyczne zostało przetestowane na myszach, które genetycznie zmodyfikowano tak, by rozwijał się u nich nowotwór płuc podobny do ludzkiego. Testy prowadzono 7,5 tygodnia po tym, jak u zwierząt zaczęły tworzyć się guzy nowotworowe, co odpowiada nowotworowi 1. lub 2. stopnia u ludzi. W pierwszym etapie testów naukowcy oznaczali za pomocą barkodów DNA 20 różnych proteaz. Po analizie za pomocą technik maszynowego uczenia się wyodrębnili zestaw 4 proteaz, który daje najbardziej dokładne wyniki. Następnie sprawdzali na myszach test wykrywający właśnie te 4 proteazy i stwierdzili, że dokładnie wykrywa on nowotwory płuca na wczesnym etapie rozwoju. Autorzy testu nie wykluczają, że w przypadku ludzi koniecznie będzie zastosowanie barkodowania dla większej liczby proteaz, ale nie jest to żaden problem. Test może po prostu składać się z większej ilości pasków, z których każdy będzie wykrywał 4 różne barkody. W kolejnym etapie badań zespól Bhatii sprawdzi swój nowy test na materiałach z biopsji, by sprawdzić, czy i w ten sposób można za jego pomocą wykrywać nowotwory. W dłuższej perspektywie uczeni chcą rozpocząć testy kliniczne na ludziach. Tymczasem firma Sunbird Bio prowadzi 1. fazę badań klinicznych podobnego czujnika autorstwa Bhatii, przeznaczonego do diagnostyki raka wątroby i niealkoholowego stłuszczenia wątroby. Ze szczegółami testu wykrywającego raka płuc oraz z wynikami badań na myszach można zapoznać się na łamach Science Advances. « powrót do artykułu
  23. Rozpoczęcie nowego roku to idealny moment, aby wprowadzić w życie zdrowe nawyki. Dbanie o siebie nie musi być skomplikowane ani czasochłonne, a odpowiednie akcesoria mogą znacznie ułatwić ten proces. Sklep Acusmed.pl oferuje szeroką gamę produktów, które są nie tylko wysokiej jakości, ale również zostały zaprojektowane z myślą o wsparciu Twoich codziennych aktywności. Od akcesoriów sportowych po produkty do pielęgnacji ciała – wszystko, czego potrzebujesz, aby zacząć nowy rok z nową energią. Ta różnorodność sprawia, że Acusmed.pl jest idealnym miejscem dla każdego, kto chce wprowadzić zdrowe nawyki i cieszyć się lepszym jutrem! Jakie znaczenie ma aktywność fizyczna? Regularne ćwiczenia mają nieoceniony wpływ na nasze zdrowie – poprawiają kondycję serca, wzmacniają mięśnie, a także pozytywnie wpływają na nasz nastrój czy problemy ze snem. Sklep Acusmed.pl oferuje różnorodne akcesoria do ćwiczeń, które pomogą Ci w tej zmianie. Maty do jogi, gumy do ćwiczeń, hantle, piłki do ćwiczeń, akcesoria do jogi i fitness - to tylko niektóre z produktów, które urozmaicą Twoje treningi! Możesz na przykład rozpocząć dzień od rozciągających i relaksujących sesji na macie do ćwiczeń, co pozwoli Ci rozpocząć dzień pełen energii. Regularne ćwiczenia to również świetny sposób na spędzanie czasu z rodziną - wspólne aktywności fizyczne nie tylko wzmacniają więzi, ale również uczą zdrowej konkurencji i współpracy. Masaż jako klucz do dobrego samopoczucia Masaż to nie tylko sposób na relaks, ale również metoda na zmniejszenie napięcia mięśniowego i poprawę krążenia krwi. W sklepie Acusmed.pl znajdziesz profesjonalne przyrządy i urządzenia do masażu takie jak masażery do nóg, twarzy, głowy czy karku, maty do akupresury, a także masażery wibracyjne. Regularny masaż to doskonały sposób na chwilę relaksu po ciężkim dniu pracy, pomagając odprężyć umysł i ciało. Może być także świetnym uzupełnieniem treningu, pomagając w regeneracji mięśni. Pielęgnacja ciała i zdrowa skóra Zdrowa skóra jest odzwierciedleniem ogólnego stanu naszego zdrowia. Właściwa pielęgnacja skóry nie tylko poprawia jej wygląd, ale również wpływa na nasze samopoczucie. Produkty dostępne w Acusmed.pl takie jak kosmetyki do masażu i pielęgnacji (można znaleźć tu np. naturalne olejki do masażu), wałki i kamienie Gua Sha czy szczotki do ciała, są starannie dobrane, aby zapewnić najlepszą pielęgnację. Stosowanie tych produktów może pomóc w zapobieganiu różnym problemom skórnym, takim jak suchość czy podrażnienia oraz w odzyskiwaniu blasku i jędrności. Regularna pielęgnacja skóry to również doskonały sposób na relaks i chwilę odprężenia, co ma pozytywny wpływ na nasz nastrój i poziom energii. Zdrowe nawyki w codziennym życiu Kluczem do sukcesu jest wprowadzanie zdrowych nawyków w codzienne życie. Może to być poranny zestaw ćwiczeń, wieczorny masaż lub pielęgnacja skóry przed snem. Ważne, aby znaleźć aktywności, które sprawiają Ci przyjemność i łatwo wkomponować je w rutynę dnia codziennego. Dbając o swoje ciało i umysł, inwestujesz w swoje zdrowie i dobre samopoczucie. Produkty oferowane przez Acusmed.pl to doskonały sposób na podjęcie dobrych nawyków. Niezależnie od tego, czy jesteś dopiero początkującym w świecie fitnessu, czy doświadczonym sportowcem, z pewnością znajdziesz coś dla siebie! Nie czekaj na „lepszy moment” – zacznij działać już teraz! Odwiedź sklep Acusmed.pl i wybierz produkty, które pomogą Ci osiągnąć Twoje cele zdrowotne oraz wellness w tym roku. « powrót do artykułu
  24. Fizyka potrafi zaskakiwać. A szczególnie zaskoczyć może tak powszechnie występujący i – wydawałoby się – prosty oraz dobrze poznany płyn, jak woda. W temperaturze pokojowej kostka lodu topi się na naszych oczach. Jednak okazuje się, że lód topnieje również znacznie poniżej temperatury zamarzania. Naukowcy z Argonne National Laboratory odkryli właśnie topnienie powierzchniowe lodu w temperaturach, w których nie spodziewano się, że takie zjawisko zachodzi. Ponad 150 lat temu Michael Farady zwrócił uwagę, że powierzchnia lodu jest mokra, nawet gdy panują ujemne temperatury. Spostrzeżenie, że na powierzchni lodu może istnieć warstwa wody każe zastanowić się, w jaki sposób woda zmienia się ze stanu ciekłego w stały czy w parę. I jak, w pewnych warunkach, może jednocześnie istnieć we wszystkich trzech stanach. Lód jest trudny w obrazowaniu, gdyż jest bardzo niestabilny gdy zostanie poddany działaniu wysokoenergetycznemu strumieniowi elektronów. Ale jeśli uda się nam z powodzeniem zastosować tę technikę w przypadku lodu, obrazowanie innych wrażliwych materiałów powinno być jeszcze łatwiejsze, stwierdził Jianguo Wen z Argonne. Lód jest tani i łatwo dostępny, więc to na nim naukowcy postanowili prowadzić swoje eksperymenty. I przy okazji zaobserwowali topnienie powierzchniowe w niezwykle niskich temperaturach. Użyta przez nich technika transmisyjnej mikroskopii elektronowej korygowanej o aberracje chromatyczne wykorzystuje specjalistyczną kamerę do rejestrowania elektronów i może posłużyć do badań np. elektrolitów, co powinno doprowadzić do udoskonalenia akumulatorów. Naukowcy najpierw wykorzystali ciekły azot w o uzyskania kryształów lodu na węglowych nanorurkach przy temperaturze -143,15 stopni Celsjusza. Zaczęli podnosić temperaturę i zauważyli, że doszło do topnienia powierzchniowego. Na załączonym wideo możemy zobaczyć, jak przy stałym ciśnieniu i temperaturze -123,15 stopnia Celsjusza przestrzeń pomiędzy dwoma kryształami lodu zostaje wypełniona. W temperaturze tej, znacznie poniżej punktu topnienia wody, lód utworzył kwaziciekłą warstwę. Odkrycie każe się zastanowić, jakie właściwości ma zaobserwowana warstwa czy co się stanie, jeśli wraz ze wzrostem temperatury będzie rosło też ciśnienie. Na pytania te można odpowiedzieć dopiero w przyszłości. Rodzi się też pytanie, czy nowa technika pozwoli na obejrzenie procesów, które dotychczas były niedostępne dla badaczy, jak na przykład zobrazowanie momentu, w którym mocno przechłodzona woda gwałtownie zmienia się w lód. Szczegóły badań zostały omówione w artykule Surface premelting of ice far below the triple point opublikowanym na łamach PNAS. « powrót do artykułu
  25. Naukowcy z Georgia Institute of Technology stworzyli funkcjonalny półprzewodnik z grafenu, jednoatomowej warstwy węgla. Ich prace daje nadzieję na szerokie wykorzystanie tego materiału w elektronice. Grafen, pomimo niezwykle obiecujących właściwości, nie trafił do szerokiego użycia w podzespołach elektronicznych. Brak mu tzw. pasma wzbronionego, które umożliwia „włączanie” i „wyłączanie” prądu, a tym samym kodowanie informacji. Dotychczas udawało się uzyskać pasmo wzbronione w dwuwarstwowym grafenie. Specjaliści z Georgia Tech uzyskali w jednowarstwowym grafenie pasmo wzbronione o szerokości 0,6 eV. Profesor Walter De Heer, który kierował pracami zespołu złożonego z naukowców z Georgii i Tiencin w Chinach, od początku swojej kariery naukowej bada oparte na węglu materiały pod kątem wykorzystania ich w roli półprzewodników. Od wielu lat interesuje się tez grafenem. Motywują nas jego specjalne właściwości. To niezwykle wytrzymały materiał, wytrzymuje prąd o dużym natężeniu i się przy tym ani nie przegrzewa, ani nie traci swoich właściwości, wyjaśnia uczony. Wraz ze swoim zespołem opracował metodę uzyskiwania grafenu na podłożu z węglika krzemu. Okazało się, że w odpowiednich warunkach taki grafen zaczyna wykazywać właściwości półprzewodnika. Przez kolejne lata naukowcy udoskonalali swój produkt, aż uzyskali grafenowy półprzewodnik o 10-krotnie większej mobilności elektronów niż w krzemie. To oznacza, że elektrony w tym materiale napotykają na znacznie mniejsze opory, poruszają się więc znacznie szybciej – co przekłada się na możliwość szybszego przeprowadzania operacji przez komputer – a jednocześnie materiał nie rozgrzewa się tak bardzo. De Heer mówi, że dla elektronów różnica pomiędzy przemieszczaniem się w krzemie, a przemieszczaniem się w grafenie jest jak jazda po drodze żwirowej w porównaniu z jazdą po autostradzie. Obecnie produkt grupy de Heera to jedyny półprzewodnik 2D, który posiada wszystkie właściwości potrzebne w elektronice, a jego właściwości elektryczne przewyższają wszystkie istniejące półprzewodniki 2D. Od dawna chcieliśmy stworzyć funkcjonalną grafenową elektronikę. Musieliśmy się nauczyć jak uzyskać odpowiedni materiał, jak go udoskonalać i jak mierzyć jego właściwości. To zajęło nam bardzo dużo czasu, stwierdza uczony. I zauważa, że dzięki grafenowi możemy być świadkami narodzin kolejnej generacji elektroniki. Przed obecnie używanym krzemem mieliśmy lampy próżniowe, po nim zaś może nastąpić grafen. Dla mnie to jak coś podobnego jak osiągnięcie braci Wright. Zbudowali maszynę, która przeleciała 100 metrów. Sceptycy pytali, po co latanie, skoro mamy pociągi i statki. Jednak oni nie zrezygnowali i stworzyli technologię, która w końcu przeniosła ludzi przez ocean, stwierdza de Heer. « powrót do artykułu
×
×
  • Dodaj nową pozycję...