Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37368
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    240

Zawartość dodana przez KopalniaWiedzy.pl

  1. Masa neutrina jest co najmniej milion razy mniejsza niż masa elektronu, informują naukowcy z Karlsruhe Tritium Neutrino (KATRIN). Badania określiły nową górną granicę możliwej masy neutrino na podstawie 36 milionów pomiarów. Dzięki nim wiemy, że wynosi ona nie więcej niż 0,45 elektronowolta (eV). Masa elektronu, kolejnej z najlżejszych cząstek elementarnych, to 511 000 elektronowoltów. Neutrino jest jedyną cząstką elementarną, której masy nie znamy. Zdobycie wiedzy na jej temat pozwoli na zbadanie, w jaki sposób neutrina nabywają masę. Czy – jak inne cząstki – dzięki oddziaływaniu z polem Higgsa, czy też w jakiś inny, nieznany dotychczas sposób. Poznanie masy neutrino powinno też zdradzić, w jaki sposób neutrina narodziły się w czasie Wielkiego Wybuchu i jak wpłynęły na formowanie się galaktyk. Nowa górna granica masy oznacza doprecyzowanie wcześniejszych badań przeprowadzonych przez KATRIN. W 2022 roku naukowcy pracujący przy tym eksperymencie stwierdzili, że górną granicą masy neutrino jest 0,8 eV. Teraz międzynarodowy zespół złożony z ponad 140 naukowców przeanalizował dane z 259 dni pracy KATRIN i jeszcze bardziej doprecyzował pomiary. Eksperyment KATRIN Collaboration wykorzystuje rozpad beta trytu. Podczas niego dochodzi do emisji elektronu i antyneutrina. Antycząstki mają taką samą masę jak odpowiadające im cząstki, więc badania antyneutrina pozwalają określić masę neutrina. Jednak neutrina niemal nie wchodzą w interakcje z materią. Ich badanie (i badanie antyneutrin) jest niezwykle trudne. W ramach eksperymentu KATRIN badany jest więc elektron, nie neutrino. Rozpad beta trytu to jeden z najmniej energetycznych rozpadów beta. Emitowane w jego trakcie elektron i neutrino unoszą łącznie 18,6 keV energii. Elektron trafia do 200-tonowego spektroskopu długości 23 metrów, o którego niezwykłym transporcie na miejsce montażu informowaliśmy kilka lat temu. Spektroskop bada widmo energii elektronu, jeśli precyzyjnie je poznamy, będziemy wiedzieli ile brakuje ze wspomnianych 18,6 keV, zatem ile energii przypadło na neutrino. Brzmi to prosto, ale jest niezwykle skomplikowanym zadaniem. Eksperyment KATRIN zakończy działanie jeszcze w bieżącym roku. Naukowcy będą wówczas dysponowali danymi zebranymi z 1000 dni. Spodziewają się, że obniżą górną granicę masy neutrino do 0,3 eV, a może nawet do 0,2 eV. To i dobra, i zła wiadomość. Coraz lepiej poznajemy bowiem masę neutrino, ale nie znamy jej dokładnej wartości. Gdyby było to bliżej 1 eV, to eksperymenty takie jak KATRIN mogłyby dać nam ostateczną odpowiedź. Jednak teraz wiemy już, że potrzebne będą znacznie bardziej precyzyjne urządzenia, niż te, którymi obecnie dysponujemy. « powrót do artykułu
  2. Niewidoczna z Ziemi strona Księżyca zawiera znacznie mniej wody, niż część widoczna – donoszą chińscy naukowcy. Takie zaskakujące wnioski płyną z badań próbek bazaltu zebranych przez misję Chang'e-6. Wyniki badań, opublikowane na łamach Nature, pozwolą lepiej zrozumieć ewolucję ziemskiego satelity. Dostarczone na Ziemię próbki zawierały mniej niż 2 mikrogramy wody w gramie. Nigdy wcześniej nie zanotowano tak mało H2O na Księżycu. Wcześniejsze badania próbek ze strony widocznej z Ziemi zawierały nawet do 200 mikrogramów wody na gram. Naukowcy potrafią mierzyć zawartość wody w materiale z dokładnością do 1–1,5 części na milion. Już widoczna strona Księżyca jest niezwykle sucha. A ta niewidoczna całkowicie zaskoczyła naukowców. Nawet najbardziej suche pustynie na Ziemi zawierają około 2000 części wody na milion. To ponad tysiąckrotnie więcej, niż zawiera jej niewidoczna z Ziemi część Księżyca, mówi główny autor badań, profesor Hu Sen z Instytutu Geologii i Geofizyki Chińskiej Akademii Nauk. Obecnie powszechnie przyjęta hipoteza mówi, że Księżyc powstał w wyniku kolizji Ziemi z obiektem wielkości Marsa. Do zderzenia doszło 4,5 miliarda lat temu, a w wyniku niezwykle wysokich temperatur, będących skutkiem zderzenia, Księżyc utracił wodę i inne związki lotne. Debata o tym, jak dużo wody pozostało na Księżycu, trwa od dekad. Dotychczas jednak dysponowaliśmy wyłącznie próbkami ze strony widocznej z Ziemi. Chińska misja Chang'e-6 została wystrzelona w maju 2024 roku, wylądowała w Basenie Południowym – Aitken i w czerwcu wróciła z niemal 2 kilogramami materiału. To pierwsze w historii próbki pobrane z niewidocznej części Księżyca. Zespół profesora Hu wykorzystał 5 gramów materiału, na który składało się 578 ziaren o rozmiarach od 0,1 do 1,5 milimetra. Po przesianiu i dokładnej analizie okazało się, że 28% z nich stanowi bazalt. I to on właśnie został poddany badaniom. Ilość wody w skałach księżycowych to bardzo ważny test hipotezy o pochodzeniu Księżyca. Jeśli w skałach byłoby 200 części wody na milion lub więcej, byłoby to poważne wyzwanie dla obecnie obowiązującej hipotezy i naukowcy musieliby zaproponować nowy model powstania Księżyca, wyjaśnia profesor Hu. Wyniki badań jego zespołu stanowią więc potwierdzenie tego, co obecnie wiemy. « powrót do artykułu
  3. Przed ponad 15 laty w pobliżu miejscowości Crnobuki w Macedonii Północnej znaleziono ruiny, które dotychczas uznawano za posterunek wojskowy zbudowany dla ochrony przed atakami Rzymian. Jednak ostatnie wykopaliska prowadzone przez Narodowy Instytut i Muzeum w Bitola oraz California State Polytechnic University, Humboldt (Cal Poly Humboldt) całkowicie zmienił pogląd na stanowisko Gradishte. Archeolodzy znaleźli miasto, które zostało założone co najmniej setki lat przed powstaniem Imperium Romanum. Jak mówi Engin Nasuh, kurator i archeolog z Narodowego Instytutu i Muzeum w Bitoli, odsłaniane stanowisko może zdradzić wiele tajemnic na temat rozwoju tego regionu na długo przed czasami Aleksandra Wielkiego. Po raz pierwszy zostało ono wspomniane w literaturze fachowej w 1966 roku. Kilka dziesięcioleci później przystąpiono do jego badania, a gdy przed dwoma laty wykorzystano georadar i drony wyposażone w LIDAR okazało się, że w przeszłości istniało tam spore miasto. Sam akropol miał około 3 hektarów powierzchni, zauważono też struktury, które mogły być teatrem i warsztatem, w którym produkowano tekstylia. Początkowo sądzono, że miasto powstało za rządów Filipa V Antygonidy, władcy Macedonii w latach 221–179 p.n.e., którego przymierze z Hannibalem przeciwko Rzymowi doprowadziło do I wojny macedońskiej, a w konsekwencji do serii wojen, w wyniku których w roku 146 Rzymianie włączyli te ziemie do swojego państwa, tworząc prowincję Macedonii. Później jednak znaleziono monetę wybitą w latach 325–323 p.n.e., zatem pod koniec rządów Aleksandra Wielkiego. Jednak ostatnie znaleziska – topory i fragmenty ceramiki – wskazują, że miejsce to było zamieszkane już w epoce brązu. Na stanowisku Gradishte znaleziono też gliniany bilet do teatru, ceramikę, fragmenty gier planszowych i monety. Te, które udało się datować, pochodzą z lat 360 p.n.e. – 670 n.e. To pokazuje, że miasto istniało na długo zanim region ten został zajęty przez Rzym. Profesor Nick Angeloff z Cal Poly Humboldt uważa, że odkrycie miasta pokazuje, jak złożone były sieci i struktury władzy w starożytnej Macedonii. Miasto leży przy szlaku biegnącym do Konstantynopola. Nie można wykluczyć, że przejeżdżali przez nie Oktawian i Agrypa, podążając do Akcjum, gdzie ostatecznie pokonali Kleopatrę i Marka Antoniusza. Angeloff dodaje, że miasto może być zaginioną stolicą Królestwa Linkos. Być może to tam urodziła się królowa Eurydyka I, babka Aleksandra Wielkiego. « powrót do artykułu
  4. Na Northwestern University powstało pierwsze ubieralne urządzenie, które bada gazy emitowane i absorbowane przez skórę. Analiza tych gazów to zupełnie nowy sposób na badanie zdrowia skóry, w tym monitorowania ran, wykrywania infekcji, badanie poziomu nawodnienia czy ekspozycji na szkodliwe wpływy środowiskowe. W skład urządzenia wchodzą czujniki temperatury, pary wodnej, dwutlenku węgla i lotnych związków organicznych. Gazy ze skóry przepływają do niewielkiej komory, która znajduje się nad skórą, nie dotykając jej. Dzięki takiej architekturze zyskujemy pewność, że w miejscu, z którego pochodzą gazy, skóra nie została zaburzona przez kontakt z samym urządzeniem. Urządzenie to naturalne rozwinięcie naszego laboratoryjnego urządzenia, które zbierało i analizowało pot. Tamto urządzenie badało pot w celu określenia stanu zdrowia. Urządzenie to, mimo że użyteczne, wymagało farmakologicznego stymulowania gruczołów potowych lub wystawienia skóry na gorące, wilgotne środowisko. Zaczęliśmy więc zastanawiać się, co jeszcze możemy przechwycić ze skóry, a co występuje tam naturalnie i cały czas. Stwierdziliśmy, że warunki te spełniają substancje wydobywające się z powierzchni – para wodna, dwutlenek węgla i lotne substancje organiczne – które można łączyć ze zdrowiem, stwierdza współautor badań John A. Rogers. Nasza technologia może zmienić sposób opieki zdrowotnej, szczególnie u noworodków, osób starszych, pacjentów z cukrzycą i innych z uszkodzoną skórą. Piękno naszego urządzenia polega na tym, że znaleźliśmy całkowicie nowy sposób oceny delikatnej skóry na której występują rany, wrzody czy otarcia. Urządzenie to jest pierwszym ważnym krokiem w kierunku pomiarów wymiany gazów i skorelowania wyników tych pomiarów ze zmianami w stanie skóry, dodaje Gullermo A. Ameer. Śledząc zmiany w wymianie gazów i pary wodnej przez skórę, można zyskać wgląd w stan skóry i jego zmiany. Złotym standardem badania integralności skóry jest wielki instrument z próbnikiem, który co jakiś czas dotyka skóry w celu zebrania informacji o utracie wody przez skórę. Wielką zaletą jest posiadanie urządzenia, które zdalnie i ciągle – lub w sposób zaprogramowany – bez zaburzania snu pacjenta, jest w stanie mierzyć utratę wody przez skórę, mówi Amy S. Paller. Wspomniane urządzenie ma 2 centymetry długości i 1,5 centymetra szerokości. Składa się z komory, czujników, układów elektronicznych i niewielkiej baterii. Komora, w której zbierają się gazy, znajduje się kilka milimetrów nad skórą. Tradycyjne urządzenia opierają się na fizycznym kontakcie ze skórą, ograniczając użycie w niektórych sytuacjach, takich jak uszkodzenia skóry. Nasze urządzenie radzi sobie z tym ograniczeniem, stwierdza Rogers. Urządzenie wyposażone zostało wyposażone w moduł Bluetooth, za pośrednictwem którego dane są wysyłane do użytkownika, który może na bieżąco się z nimi zapoznawać czy pokazać je lekarzowi. « powrót do artykułu
  5. Badania przeprowadzone na gryzoniach w średnim wieku wskazują, że brak witaminy K może zwiększać stan zapalny i zakłócać proliferację komórek w hipokampie, części mózgu odpowiedzialnej za pamięć i uczenie się. Wyniki pokazują zatem, w jaki sposób niedobór witaminy K może wpływać na nasze zdolności poznawcze w miarę, jak przybywa nam lat. Witamina K obecna jest w zielonych warzywach liściastych, jak brukselka, szpinak, brokuły czy jarmuż. Wiadomo, że odkrywa ważną rolę w krzepnięciu krwi, prawdopodobnie ma też pozytywny wpływ na zdrowie układu krwionośnego i stawy. Teraz dowiadujemy się, że może mieć też wpływ na ludzki mózg. Istnieją badania sugerujące, że witamina K chroni mózg przed spadkiem zdolności poznawczych w miarę, jak przybywa nam lat. Nasze prace mają na celu zrozumienie tego mechanizmu, mówi główny autor badań Tong Zheng z Tufts University. Naukowcy przez pół roku karmili jedną grupę myszy standardową dietą, a druga grupa otrzymywała dietę ubogą w witaminę K. Naukowcy skupili się na metachinonie-4 (witamina K2 MK-4), związku z grupy witamin K, który występuje w tkance mózgowej. Odkryli, że u myszy karmionych dietą ubogą w witaminę K poziom tego związku był znacząco niższy. A jego niedobór wiązał się z zauważalnym spadkiem zdolności poznawczych zwierząt. Podczas testów takie myszy miały na przykład problem w odróżnieniu nowych obiektów do już znanych, co jest jasną wskazówką problemów z pamięcią. Podczas innego z badań – mających sprawdzić orientację w przestrzeni – myszy miały nauczyć się, gdzie znajduje się ukryta platforma z wodą. Te z niedoborem witaminy K uczyły się znacznie dłużej. Badania tkanki mózgowej myszy wykazały istnienie znaczących zmian w hipokampie. U tych, które spożywały zbyt mało witaminy K doszło do zmniejszenia liczby komórek ulegających proliferacji w zakręcie zębatym, co przekładało się na mniej intensywną neurogenezę. Neurogeneza odgrywa kluczową rolę w procesach uczenia się i zapamiętywania, a jej zaburzenie może bezpośrednio wpływać na zaobserwowany spadek zdolności poznawczych, wyjaśnia Zheng. Jakby jeszcze tego było mało, naukowcy znaleźli dowody na zwiększenie się stanu zapalnego w mózgach myszy z niedoborem witaminy K. Odkryliśmy w nich większą liczbę nadaktywnych komórek mikrogleju, dodaje uczony. Autorzy badań podkreślają, że ich wyniki nie oznaczają, iż ludzie powinni przyjmować suplementy witaminy K. Ludzie powinni stosować zdrową dietę i jeść warzywa, mówi profesor Sarah Booth. Uczeni z Tufts University współpracują z Rush University Medical Center w Chicago, gdzie zespół Booth prowadzi badania obserwacyjne dotyczące ludzkiego mózgu i zdolności poznawczych. Wiemy z nich, że zdrowa dieta działa, że ludzie, który nie odżywiają się zdrowo, nie żyją tak długo, a ich zdolności poznawcze nie dorównują ludziom ze zdrową dietą. Łącząc badania na ludziach i zwierzętach możemy lepiej poznać mechanimy różnych zjawisk i dowiedzieć się, w jaki sposób długoterminowo poprawić zdrowie mózgu, dodaje uczona. « powrót do artykułu
  6. W Tikal, jednym z najważniejszych miast cywilizacji Majów, znaleziono ołtarz sprzed 1600 lat. Zabytek poszerza naszą wiedzę o ówczesnych stosunkach między Tikal i Teotihuacán. Miasto Teotihuacán powstało w I wieku z rozproszonych wiosek i szybko stało się dominującą siłą w regionie. W IV wieku Teotihuacán przeją władzę w Tikal. W 1. połowie I tysiąclecia był jednym z najludniejszych miast świata. Jednak w VII-VIII wieku stracił na znaczeniu, od VIII wieku dowody na wpływy Teotihuacán w Tikal znikają, a Tikal przeżywa rozkwit trwający do początków X wieku. Odkryty właśnie ołtarz powstał pod koniec IV wieku. Jest udekorowany czterema panelami malowanymi w kolorach czerwonym, czarnym i żółtym. Widzimy na nich postać noszącą na głowie ozdobę z piór, a po obu jej stronach przedstawiono tarcze lub dary. Zdaniem autorów badań – naukowców z USA i Gwatemali – styl przedstawienia postaci odpowiada stylowi z Teotihuacán. Przypomina go tak bardzo, że eksperci wykluczają, by ołtarz udekorował lokalny majański artysta. Ich zdaniem malunki są dziełem dobrze wykształconego malarza pochodzącego z Teotihuacán. Mamy coraz więcej dowodów wskazujących, że okres, w którym powstał ołtarz, to czas poważnych zmian w Tikal. Ołtarz potwierdza, że bogaci przywódcy z Teotihuacán przybyli do Tikal i stworzyli tutaj kopie budowli rytualnych ze swojego miasta. To pokazuje, jak wielkie były wówczas wpływy Teotihuacán w Tikal, mówi profesor Stephan Houston z Brown University. Tikal zostało założone około 850 roku p.n.e. i przez setki lat było niewielką, nic nie znaczącą mieściną. Około 100 roku po Chrystusie pojawiła się tam dynastia rządząca i siła oraz znaczenie miasta wzrosło. Mamy liczne dowody wskazujące, że już 200 lat później kontakty pomiędzy Teotihuacán a Tikal były bardzo intensywne. Interakcje pomiędzy miastami rozpoczęły się od sporadycznych kontaktów handlowych, ale szybko uległo to zmianie. Wygląda to tak, jakby Tikal rozdrażnił bestię i zwrócił na siebie zbyt dużą uwagę Teotihuacán. To właśnie wówczas obcy z Teotihuacán zaczęli przybywać w te okolice, dodaje uczony. Gromadzone od lat 60. XX wieku dowody wskazują na zmianę stosunków pomiędzy miastami na mniej przyjazne. Z jednego z tekstów wyrytych w kamieniu wiemy, że około 378 roku Teotihuacán przejął władzę w Tikal. Usunęli miejscowego władcę i zastąpili go swoją marionetką, wyjaśnia Houston. Jednym z dowodów na zwierzchnictwo Teotihuacán nad Tikal jest odkryta przed 4 laty cytadela. W pobliżu centrum Tikal, pod czymś co uważano za naturalne wzgórza, archeolodzy z Brown University znaleźli pomniejszoną kopię cytadeli z Teotihuacán. Zatem w latach po obaleniu miejscowego władcy obecność mieszkańców Teotihuacán w Tikal miała wyraźne cechy okupacji lub jakiegoś rodzaju nadzoru. Ołtarz, który powstał mniej więcej w czasie zmiany władzy w Tikal, to jeszcze jeden dowód na to zwierzchnictwo. I świadczą o tym nie tylko malunki. Wewnątrz ołtarza odkryto bowiem dziecko pochowane w pozycji siedzącej. To rzadki zwyczaj w Tikal, a powszechny w Teotihuacán. Znaleziono też zwłoki dorosłego, a w jego grobie znajdował się grot z zielonego obsydianu. Zarówno materiał, jak i sposób wykonania grotu są typowe dla Teotihuacán. Rządy Teotihuacán na zawsze zmieniły Tikal i musiały być niezwykle ważnym doświadczeniem dla jego mieszkańców. Świadczy o tym fakt, że ołtarz i otaczające go budynki zostały przysypane ziemią i zostawione. Majowie regularnie zasypywali budynki i budowali na nich. Tutaj zasypali ołtarz oraz jego otoczenie i tak to po prostu zostawili. Traktowali to miejsce jak pomnik lub składowisko radioaktywnych odpadów. To pokazuje, jak skomplikowane stosunki łączyły oba miasta. Musiało minąć wiele wieków, zanim tutaj coś wybudowano, dodaje profesor Andrew Scherer. Okupacja wstrząsnęła Tikal i zbiorową pamięcią jego mieszkańców, ale uczyniła miasto też silniejszym. Zdaniem badaczy z czasem mieszkańcy Tikal zaczęli z nostalgią wspominać czasy, gdy Teotihuacán był potęgą, która zwróciła uwagę na Majów. Nawet gdy cywilizacja Majów chyliła się ku upadkowi, jej lokalna polityka była rozważana pod kątem kontaktów ze środkowym Meksykiem, stwierdza Houston. Dla badaczy historia kontaktów Teotihuacán i Tikal jako żywo przypomina dzieje kontaktu Azteków z Hiszpanami. Wszyscy wiedza, co stało się z cywilizacją Azteków po przybyciu Hiszpanów. Odkryte przez nas dowody wskazują, że to historia stara jak świat. Tutaj potęga ze środkowego Meksyku sięgnęła po świat Majów, gdyż postrzegała go jako miejsce niezwykłych bogactw. Były tam pióra tropikalnych ptaków, jadeit i czekolada. Dla Teotihuacán był to kraj mlekiem i miodem płynący, mówi profesor Houston. « powrót do artykułu
  7. W 1878 roku pewien utalentowany muzycznie student fizyki z Uniwersytetu Monachijskiego zapytał swojego wykładowcę, szanowanego profesora von Jolly, czy dobrze wybrał kierunek studiów. Ten odpowiedział mu, że lepiej by zrobił, gdyby studiował muzykę, gdyż fizyka jest niemal w pełni rozwiniętą dziedziną nauki i nie pozostało w niej praktycznie nic do odkrycia. Student nazywał się Max Planck i 20 lat później położył podwaliny pod mechanikę kwantową. Obecni wykładowcy fizyki z pewnością nie ośmieliliby się powiedzieć studentom, by zajęli się czymś innym. Na pewno zaś nie w kontekście „końca fizyki”. Mogliby raczej powtórzyć za Sokratesem „wiem, że nic nie wiem”. I właśnie o tym traktuje „Ciemna materia i ciemna energia. Tajemnicze 95% wszechświata” Briana Clegga. Autor zaczyna od koncepcji zaproponowanej przez Arystotelesa i błyskawiczne przeskakuje do początku XX wieku. Nie jest to bowiem książka o historii rozwoju ludzkiej wiedzy na temat wszechświata, a o dziejach naszej niewiedzy. O tym, skąd się wzięła ciemna materia i ciemna energia oraz jak te koncepcje się rozwijały. To niezwykle wciągająca opowieść o naukowcach, ich pracy, odkryciach i sporach. O tym co wiedzą, a co im się wydaje, że wiedzą. A także o tym, jakie psikusy potrafią sprawić gwiazdy, galaktyki, pył międzygalaktyczny i większe struktury w kosmosie. Na jej łamach spotkamy najwybitniejsze nazwiska fizyki – wspomnianego już Plancka, Zwicky'ego, Hoyle'a, Einsteina, Hubble'a i innych. Dowiemy się, jak pracowali, co badali i jak budowali nasze obecne wyobrażenie o wszechświecie. Clegg potrafi wciągnąć czytelnika w opowieść. Dzięki niemu możemy lepiej zrozumieć nie tylko koncepcje ciemnej materii i ciemnej energii, ale też dowiedzieć się, jak niezwykle skomplikowane problemy stoją przed kosmologią i czemu służą niesamowite instrumenty badawcze, których nigdy zbyt wiele. I gdy już czytelnikowi wydaje się, że zaczął rozumieć, gdy rwie się, by dowiedzieć się jeszcze więcej o ciemnej materii i ciemnej energii, Clegg – niczym obuchem – wali go w głowę MOND-em. Bo... może ciemna materia i energia nie istnieją? Sprawdźcie zresztą sami. Książka „Ciemna materia i ciemna energia. Tajemnicze 95% wszechświata” Briana Clegga miała wczoraj premierę. Wydał ją Helion, a my zostaliśmy jej patronem medialnym. Teraz możecie ją kupić z 20-procentowym rabatem.
  8. Produkty pszczele – miód, pyłek i propolis – od tysiącleci używane są w ludowej medycynie. Nowoczesne metody naukowe pozwalają na zweryfikowanie ich skuteczności czy znalezienie nowych zastosowań. Pojawiło się już wiele badań dowodzących pozytywnego wpływu produktów pszczelich na gojenie ran. Jak jednak w praktyce zastosować miód czy propolis i udostępnić je jak największej liczbie ludzi? Z problemem tym zmierzyli się naukowcy z kilku tureckich uczelni wyższych. Na łamach Biofunctional Materials opublikowali oni artykuł Bee products loaded polymeric films as a potential dressing material for skin treatments. W ramach swoich badań przyjrzeli się czy i w jaki sposób właściwości produktów pszczelich zmieniają się, gdy zostaną zintegrowane z naturalnymi polimerami. Połączenie miodu, propolisu czy pyłku z chitosanem i żelatyną w celu stworzenia opatrunków, mogło przecież zmienić produkty pszczele tak, że stracą swoje pożądane właściwości. Z przeprowadzonych badań wynika, że najbardziej pożądaną cechą miodu w opatrunkach jest wysoka retencja wody, którą można wykorzystać podczas krótkotrwałego procesu regeneracji uszkodzonej skóry. Z kolei pyłek i propolis w biopolimerach wykazywały silne właściwości przeciwbakteryjne, a materiały wytworzone z ich użyciem były były trwałe i miały wysoką jakość, dzięki czemu nadawały się do produkcji materiałów biomedycznych. Tureccy naukowcy stwierdzili również, że można kontrolować ich uwalnianie z materiału, który je zawiera, co czyni je tym bardziej przydatnymi w leczeniu ran. Co więcej, zarówno chitosan jak i produkty pszczele mogą mieć kontakt z żywnością, a to oznacza, że pyłek czy propolis zintegrowane z chitosanem mogą posłużyć do produkcji opakowań w przemyśle spożywczym. Takie opakowania mogą być szczególnie przydatne do tych rodzajów żywności, które są szczególnie podatne na zepsucie pod wpływem bakterii, jak mięso czy sery. Trzeba tutaj podkreślić, że autorzy badań nie brali pod uwagę biokompatybilności polimerów z produktami pszczelimi, nie eksperymentowali z pakowaniem w nie żywności. Skupili się wyłącznie na aktywności biologicznej, morfologii, strukturze chemicznej, retencji wody czy przyleganiu takich materiałów do skóry. O tym, czy materiały takie można rzeczywiście zastosować w opatrunkach i opakowaniach, rozstrzygną inne badania. « powrót do artykułu
  9. Kawa to jeden z ulubionych napojów ludzkości. Możemy wybierać wśród olbrzymiej liczby naturalnych smaków – nie mówimy tutaj o dostępnych w sklepach syntetycznie aromatyzowanych ziarnach – i parzyć ją na najróżniejsze sposoby. Bardzo popularne są metody przelewowe: drip, aeropres i chemex. Każda z nich może zapewnić niepowtarzalne wrażenia smakowe. Czy jest jednak sposób, by – nie zmieniając ilości kawy w przelewie – zwiększyć jej moc i uwypuklić profil sensoryczny? Otóż jest. I został on opisany na łamach pisma Physics of Fluids wydawanego przez Amerykański Instytut Fizyki (AIP). Problemem parzenia kawy w metodach przelewowych zajęli się Ernest Park, Margot Young oraz Arnold J. T. M. Mathijssen z University of Pennsylvania. Naukowcy postanowili sprawdzić, co dzieje się z kawą, gdy podczas zaparzania jej metodą przelewową, a konkretnie, jak na zmieloną kawę wpływa strumień wody. Żeby móc to zobrazować, początkowo zastąpili nieprzezroczystą kawę przezroczystymi drobinkami silikonowego żelu, a całość obrazowali za pomocą lasera i szybkiej kamery. Odkryli, że pojawia się proces podobny do lawiny i dochodzi do silnego mieszania kawy. Proces ten nie zostaje zaburzony przez warstwę wody, która zawsze pojawia się podczas zaparzania przelewu. A im silniejszy strumień wody lejemy, tym silniejsze mieszanie kawy w filtrze w czasie zaparzania. Później naukowcy wykorzystali już prawdziwą kawę, by sprawdzić, jak różna siła mieszania wpływa na proces ekstrakcji i sam ekstrakt. Okazało się, że proces ten można kontrolować za pomocą odpowiedniego strumienia wody. By uzyskać silniejszy ekstrakt, musimy doprowadzić do większego i dłuższego mieszania kawy podczas zaparzania. A możemy to zrobić lejąc wodę wolniej z większej wysokości. Najważniejsze, by strumień był nieprzerwany. Nie musi być potężny, ale ciągły. Najlepiej sprawdzą się w tym celu czajniki o długim wąskim wylewie, z których już korzysta wielu miłośników przelewów. « powrót do artykułu
  10. Przed 12 laty w Walii rozpoczęto nietypowy program szczepień starszych osób na półpaśca. Przeprowadzona właśnie analiza skutków szczepień dała niezwykle interesujące wyniki. Okazało się, że u osób zaszczepionych ryzyko demencji zmniejszyło się aż o 20%. Wydaje się zatem, że szczepionka jest najlepszą ze wszystkich znanych metod zapobiegania demencji. Wyniki badań są też silnym wsparciem hipotezy mówiącej, że wirusy atakujące układ nerwowy mogą zwiększać prawdopodobieństwo demencji. Półpasiec powoduje bolesne zmiany skórne. Chorobę wywołuje HHV-3 (wirus ospy wietrznej i półpaśca). U dzieci wywołuje on ospę wietrzną, po przebyciu choroby patogen pozostaje w organizmie w stanie uśpienia, a u osób starszych lub z osłabioną odpornością uaktywnia się, powodując półpaśca. Już wcześniej badania sugerowały, że szczepienie na półpaśca może chronić przed demencją. Jednak badania takie były obciążone wysokim stopniem niepewności, gdyż rozwój demencji związany jest z olbrzymią liczbą czynników dotyczących trybu życia i niezwykle trudno było znaleźć dwie grupy – zaszczepioną i niezaszczepioną – o bardzo podobnych cechach Wyniki badań nie były więc wystarczająco solidne, by na ich podstawie czynić jakiekolwiek rekomendacje. Przed dwoma laty naukowcy z Uniwersytetu Stanforda postanowili skorzystać z naturalnego eksperymentu, jakim był nietypowy program zdrowotny rozpoczęty w Walii. Otóż 1 września 2013 roku tamtejsze władze wprowadziły dobrowolne szczepienia na półpaśca, którym mogły poddać się osoby w wieku 79 lat. I tylko one. Zatem 80-latkowie nie mogli przyjąć szczepionki, a 78-latkowie musieli poczekać na osiągnięcie odpowiedniego wieku i mogli zaszczepić się tylko przez 12 kolejnych miesięcy. Takie racjonowanie było sposobem na poradzenie sobie z niedoborem szczepionek. W ten sposób w Walii rozpoczął się niezamierzony naturalny eksperyment, który pozwolił naukowcom na porównanie osób, które ukończyły 79 lat krótko przed 1 września 2013 roku, z osobami, które osiągnęły ten wiek wkrótce po rozpoczęciu szczepień. Jak mówi profesor Pascal Geldsetzer, jeden z autorów badań, powstała dzięki temu dobrze udokumentowana próba tak bliska randomizowanym badaniom, jak to tylko możliwe bez organizacji takich badań. Uczeni przyjrzeli się danym dotyczącym 280 000 osób w wieku 71–88 lat, które w chwili rozpoczęcia programu szczepień nie miały demencji. Skupili się przy tym głównie na osobach, które ukończyły 79 lat na tydzień przed rozpoczęciem szczepień oraz tymi, które ukończyły 79 lat w ciągu tygodnia po rozpoczęciu programu. Wiemy, że jeśli wybierzemy tysiąc przypadkowych osób, które urodziły się w jednym tygodniu i tysiąc przypadkowych osób, które urodziły się w kolejnym tygodniu, to po uśrednieniu danych tych osób nie będzie między nimi różnic. Są one podobne do siebie z wyjątkiem niewielkiej różnicy wieku, wyjaśnia Geldsetzer. W obu tych grupach (jednej urodzonej między 25 a 31 sierpnia 1933 i drugiej urodzonej między 1 a 8 września 1933) powinno więc być tyle samo osób, które chciały się zaszczepić, ale tylko członkowie jednej z nich mieli szansę to zrobić. Tym, co czyni nasze badania tak wiarygodnymi jest fakt, że mamy tutaj praktycznie randomizowane badania z grupą kontrolną, którą stanowią ci nieco zbyt starzy, by zostać zaszczepionymi, dodają autorzy badań. Naukowcy prześledzili losy badanych przez kolejnych siedem lat po szczepieniu. W grupie, która mogła się zaszczepić, szczepionkę przyjęło około połowy uczestników badań. W grupie, która nie mogła się zaszczepić, niemal nikt nie był zaszczepiony. Do roku 2020 w badanej grupie osób w wieku 86–87 lat demencję zdiagnozowano u 12,5%. Jednak ci, którzy przyjęli szczepionkę cierpieli na nią 20% rzadziej, niż osoby niezaszczepione. To uderzająca różnica. Mamy tutaj do czynienia z silnym działaniem ochronnym, stwierdza Geldsetzer. Naukowcy poszukiwali innych różnic, które mogłyby wpłynąć na rozwój demencji, ale nie znaleźli niczego. Badane grupy różniło tylko przyjęcie tej właśnie szczepionki. Nie było na przykład różnic w poziomie wykształcenia, w szczepieniu na inne choroby, nie było różnicy w innych zdiagnozowanych chorobach. Jedyną różnicą był spadek ryzyka zachorowań na demencję. Badacze stwierdzili też, że szczepionka przyniosła więcej korzyści kobietom niż mężczyznom. Może być to wynikiem różnicy w działaniu układu odpornościowego lub też w sposobie rozwijania się demencji. Układ odpornościowy kobiet wytwarza więcej przeciwciał w reakcji na szczepionkę, a kobiety częściej niż mężczyźni zapadają na półpaśca. W tej chwili nie wiadomo, w jaki sposób szczepionka na półpaśca chroni przed demencją. Ponadto w Walii podawano szczepionkę z atenuowanym (osłabionym) żywym wirusem. Nie wiadomo więc, czy nowoczesne szczepionki zawierające tylko niektóre białka wirusa i lepiej chroniące przed półpaścem, będą też lepiej chroniły przed demencją. Jakby tego było mało, naukowcy ze Stanforda przyjrzeli się danym z Anglii, Australii, Nowej Zelandii oraz Kanady i okazało się, że w nich również widać ochronną funkcję szczepionki. Geldsetzer i jego zespół chcieliby przeprowadzić teraz randomizowane badania na dużej grupie osób, które byłyby ostatecznym potwierdzeniem tego, co zauważyli. Wyniki badań zostały opublikowane na łamach Nature. « powrót do artykułu
  11. Odpowiednie wspieranie w kryzysie - zwłaszcza bliskich osób - to niemałe wyzwanie, które wymaga empatii, cierpliwości, a także zaangażowania. Niekiedy może być również bardzo wyczerpującym zadaniem, szczególnie, gdy nie zadbamy przy tym o siebie we właściwy sposób. Jak znaleźć balans między troską o innych a swoimi potrzebami?   Jak wspierać innych w kryzysie?  Żeby nasze wsparcie rzeczywiście było realną pomocą, należy podejść do tego świadomie. Pomoc innym nie powinna odbywać się kosztem własnego dobrostanu psychicznego ani emocjonalnego. W tym celu warto więc:  Ustalić jasne granice - kiedy ktoś poprosi Cię o wsparcie, pomyśl, ile czasu, energii czy innych zasobów jesteś w stanie na to poświęcić i zakomunikuj to wprost. Dzięki temu, zarówno Ty, jak i druga strona, unikniecie frustracji lub potencjalnego konfliktu.  Rozdzielić odpowiedzialności - pamiętaj, że nie powinieneś odpowiadać za decyzje ani to, jak wygląda życie osoby, która prosi o pomoc. Nie staraj się znaleźć rozwiązania problemu za nią, zamiast tego wysłuchaj ją i bądź obok. Zachęcać do poszukiwania innych źródeł wsparcia - nie w każdej sytuacji jesteśmy w stanie udzielić komuś wystarczającego wsparcia. Niekiedy potrzebna jest interwencja specjalisty. Jeśli widzisz, że sytuacja tego wymaga, nie bój się zasugerować komuś skorzystania z usług psychologa, psychiatry, czy grupy wsparcia.  Towarzyszyć, zamiast terapeutyzować - nie pouczaj, nie staraj się diagnozować, z czego wynikają problemy osoby w kryzysie, a przede wszystkim - nie wdrażaj strategii terapeutycznych na własną rękę. Spróbuj uprawomocnić emocje drugiej strony związane z trudną sytuacją i dać jej przestrzeń na ich odczuwanie.   Czego należy unikać, wspierając w kryzysie?  Zbyt duże zaangażowanie w pomoc innym może doprowadzić do przemęczenia, frustracji i bezsilności, a tym samym - uniemożliwić udzielanie skutecznego wsparcia. Należy zatem pamiętać, by unikać:  Ignorowania sygnałów wysyłanych przez ciało - nerwobóle, problemy ze snem czy trawieniem to wyraźne znaki, że Twój organizm jest wyczerpany i potrzebuje się zregenerować. Nie bagatelizuj tego - zbyt duże zaniedbanie w tym zakresie może doprowadzić do wypalenia i poważnych problemów zdrowotnych.  Nadmiernej kontroli - ciągłe przejmowanie się sytuacją osoby w kryzysie lub próby jej samodzielnego rozwiązania mogą sprawić, że sam wpadniesz w kryzys i nabawisz się problemów w innych sferach życia.  Izolować się od innych - nie musisz radzić sobie ze wszystkim w samotności. Gdy czujesz przeciążenie cudzymi problemami, poszukaj wsparcia dla siebie samego. Pomoc innym nie oznacza, że sam nie będziesz jej potrzebować.  Stawiać potrzeby osoby wspieranej ponad swoje - jeśli chcesz odpocząć czy zupełnie przestać udzielać pomocy, nie obwiniaj się o to i postaraj się to sobie zapewnić, wcześniej informując o tym drugą osobę. Czas dla siebie i dbanie o swoje potrzeby nie jest egoizmem, a koniecznością.    Jak dbać o siebie, by móc wspierać dalej?  Psychologowie z Pleso.me podkreślają, że kluczowe jest zachowanie odpowiedniej równowagi - znajdź czas na odpoczynek, relaks i regenerację. Techniki takie jak medytacja, spacery czy prowadzenie dziennika emocji pomogą Ci zachować spokój wewnętrzny oraz wyciszyć układ nerwowy. Nie zapominaj również o codziennej regeneracji sił – sen, zdrowe odżywianie i aktywność fizyczna to fundamenty odporności psychicznej. Nawet jeśli wydaje Ci się, że masz „ważniejsze sprawy” na głowie, zaniedbanie tych aspektów może sprawić, że zamiast wsparciem, staniesz się dodatkowym obciążeniem. Pamiętaj też, że nie jesteś i nie powinieneś być sam – otaczaj się ludźmi, którzy Cię rozumieją i są chętni Cię wysłuchać. Budowanie zdrowej sieci wsparcia jest kluczowe zarówno dla Ciebie, jak i dla tych, którym pomagasz. « powrót do artykułu
  12. Ludzie mają do czynienia z wieloma czynnikami chorobotwórczymi, a choroby zakaźne stanowią poważny problem. I mowa tutaj nie tylko o SARS, Eboli czy ptasiej grypie, ale również o znacznie bardziej powszechnych chorobach, które mogą być równie niebezpieczne, a przy tym są poważnym obciążeniem dla całych społeczeństw. Na całym świecie na grypę zapada rocznie około miliarda osób, z czego umiera od 290 do 650 tysięcy. Innym szeroko rozpowszechnionym patogenem jest wirus opryszczki pospolitej HSV-1, którego nosicielem jest 3,8 miliarda ludzi. Niewiele osób szczepi się przeciwko grypie, a przeciwko HSV szczepionki w ogóle nie istnieją. Dlatego naukowcy z Uniwersytetu Pensylwanii i Uniwersytetu w Helsinkach postanowili zaatakować patogeny tam, gdzie występują – w jamie ustnej. Uczeni stworzyli gumę do żucia zawierającą wspięgę pospolitą (fasolnik egipski). W skład tej rośliny wchodzi białko antywirusowe (FRIL). Guma ma neutralizować wirusy opryszczki HSV-1 i HSV-2 oraz wirusy grypy H1N1 i H3N2. Badacze wykazali, że 40 miligramów FRIL zawarte w ważącej 2 gramy gumie, zmniejsza liczbę wirionów o ponad 95%. Twórcy gumy rozpoczęli swoje badania już w czasie pandemii koronawirusa. Wynikiem ich pracy jest guma atakująca wirusa SARS-CoV-2 w jamie ustnej. Guma zwalczająca wirusy grypy i HPV także została przygotowana z myślą o uznaniu jej za produkt medyczny. Spełnia wszystkie wytyczne FDA, a jej twórcy będą starali się o zgodę na rozpoczęcie badań klinicznych. Kontrolowanie rozprzestrzeniania się wirusów to poważne wyzwanie na skalę światową. W naturalnych produktach znajduje się wiele białek antywirusowych, które można wykorzystać do neutralizowania nie tylko ludzkich, ale i ptasich wirusów grypy, mówi główny autor badań, profesor Henry Daniell z Uniwersytetu Pensylwanii. KOREKTA: We wcześniejszej wersji tekstu była informacja o badaniach klinicznych, jakie przechodzi podobna guma pod kątem zwalczania SARS-CoV-2. Z przyczyn administracyjnych badania te nie zostały zrealizowane. « powrót do artykułu
  13. Grupa naukowców z Uniwersytetu Johnsa Hopkinsa, Weill Cornell Medical College, University of Oklahoma i Houston Methodist DeBakey Heart and Vascular Center postanowiła zbadać związek otyłości z 16 powszechnie występującymi chorobami. Pod uwagę wzięli dane 270 657 osób, których BMI wynosiła 18,5 lub więcej. Uczeni zauważyli, że niezależnie od płci i rasy badanych, wszystkie choroby, które wzięli pod uwagę, wykazały silny związek z otyłością. Wartość BMI=18,5 jest dolną wartością dla prawidłowej masy ciała. Wśród badanych było 21,2% osób z otyłością 1. stopnia (BMI od 30,0 do 34,9), 11,3% z otyłością 2. stopnia (BMI od 35,0 do 39,9) oraz 9,8% z otyłością 3. stopnia (BMI powyżej 40). Badacze przyjrzeli się występowaniu 16 chorób: nadciśnienia, cukrzycy typu 2., hyperlipidemii lub dyslipidemii, niewydolności serca, migotania przedsionków, miażdżycy, chronicznej choroby nerek, zatorowości płucnej, zakrzepicy żył głębokich, dny moczanowej, niealkoholowej stłuszczeniowej chorobie wątroby, kamicy żółciowej, obturacyjnemu bezdechowi sennemu, astmie, chorobie refluksowej przełyku oraz chorobie zwyrodnieniowej stawów. Dla każdej z tych chorób wyliczono stopień ryzyka dla każdej z wartości BMI i porównano te dane ze stopniem ryzyka u osób u prawidłowej wadze. Otyłość wiązała się z większym ryzykiem wystąpienia każdej z tych chorób, a im wyższy stopień otyłości, tym większe ryzyko. Otyłość 3. stopnia była najsilniej powiązana z ryzykiem bezdechu sennego, cukrzycą typu 2. oraz niealkoholową stłuszczeniową chorobą wątroby. Słabszy związek było widać w przypadku astmy, choroby zwyrodnieniowej stawów i miażdżycy. Badania pokazały, że w skali całej badanej populacji otyłość jest odpowiedzialna za 51,5% przypadków obturacyjnego bezdechu sennego, 36,3% przypadków niealkoholowej stłuszczeniowej choroby wątroby i 14% choroby zwyrodnieniowej stawów. W Polsce liczba osób z nadwagą i otyłych rośnie bardzo szybko. Już około 60% Polaków w wieku ponad 16 lat ma zbyt wysokie BMI. Należy się więc spodziewać, że liczba zachorowań związana z nadwagą i otyłością będzie szybko rosła. « powrót do artykułu
  14. Mikko Myrskylä, dyrektor Instytutu Badań Demograficznych im. Maxa Plancka i jego zespół pokazali, w jaki sposób inwestycja w edukację pozwala na zrekompensowanie makroekonomicznych strat spowodowanych spadkiem płodności i starzeniem się społeczeństwa. Naukowcy wykorzystali dane z Finlandii do przeprowadzenia symulacji pokazującej, w jaki sposób gospodarka kurczy się przy niskim przyroście naturalnym i w jaki sposób inwestycje w edukację kompensują brak siły roboczej. Nie od dzisiaj wiemy, że osoby z wyższym wykształceniem pracują dłużej, są bardziej produktywni, cieszą się lepszym zdrowiem i dłużej żyją. Długotrwały niski przyrost naturalny powoduje zmianę struktury społecznej i spadek odsetka osób pracującym w porównaniu z osobami niepracującymi. To poważne wyzwanie dla wielu współczesnych państw. Naukowcy opublikowali na łamach pisma Demography wyniki swoich badań nad wpływem niewielkiego zwiększenia inwestycji na edukację w przeliczeniu na dziecko. Utrzymali przy tym ogólny poziom inwestycji pomiędzy scenariuszem wyższej i niższej dzietności na tym samym poziomie. Na przykład, jeśli w scenariuszu wyższej dzietności liczba dzieci wynosi 100 i w edukację każdego z nich zainwestujemy 100 euro, to wydamy 10 000 euro. W scenariuszu niższej dzietności zakładamy, że liczba dzieci wynosi 80, ale inwestujemy w nie te same 10 000 euro, co daje 125 euro na dziecko, wyjaśnia Myrskylä. Na podstawie danych zebranych w Finlandii stwierdzono, że ta większa inwestycja na głowę przekłada się na 1 rok dłuższej edukacji. Naukowcy postanowili sprawdzić, co się dzieje na poziomie makroenonomicznym jeśli pracuje mniej osób, ale dzięki lepszemu wykształceniu są one bardziej produktywne i pracują dłużej. Jaki ma to wpływ na system emerytalny? Z ich symulacji wynika, że lepsze wykształcenie kompensuje mniejsza liczbę osób pracujących i wydatki na emerytury w stosunku do sumy wynagrodzeń pozostają na mniej więcej tym samym poziomie. To bardzo dobra wiadomość, szczególnie w sytuacji, gdy dotychczasowa polityka państwa nie powoduje zwiększenia przyrostu naturalnego. Badacze brali pod uwagę dane z Finlandii, ale uważają, że wnioski są uniwersalne. Uważamy, że nasze spostrzeżenia można przełożyć na inne kraje Europy, chyba że w którymś z nich ogólny poziom edukacji jest już tak duży, że dodatkowe inwestycje w edukację nie zwiększają produktywności. Nie sądzę jednak, by taki kraj istniał, stwierdza Mikko Myrskylä. « powrót do artykułu
  15. Doroczna konferencja fizyczna Recontres de Moriond przynosi kolejne – po łamaniu symetrii CP przez bariony – fascynujące informacje. Naukowcy pracujący przy eksperymencie CMS w CERN-ie donieśli o zaobserwowaniu w danych z Wielkiego Zderzacza Hadronów sygnałów, które mogą świadczyć o zaobserwowaniu najmniejszej cząstki złożonej. Uzyskane wyniki wskazują, że kwarki wysokie – najbardziej masywne i najkrócej istniejące ze wszystkich cząstek elementarnych – mogą na niezwykle krótką chwilę tworzyć parę z swoim odpowiednikiem w antymaterii (antykwarkiem wysokim) i tworzyć hipotetyczny mezon o nazwie toponium. Model Standardowy, chociaż sprawdza się od dziesięcioleci, ma niedociągnięcia. Naukowcy próbują je wyjaśnić, poszukując dodatkowych, nieznanych obecnie, bozonów Higgsa. Właściwości takich – wciąż hipotetycznych – cząstek, mają być dość proste. Zakłada się, że powinny one oddziaływać z fermionami z siłą proporcjonalną do masy fermionu, a teorie postulujące istnienie dodatkowych bozonów Higgsa mówią, że powinny one łączyć się bardziej masywnymi kwarkami. Stąd też uwaga naukowców skupiona jest na kwarku wysokim. Ponadto, jeśli takie dodatkowe bozony Higgsa miałyby masę większą od 345 GeV – masa znanego nam bozonu Higgsa to 125 GeV – i rozpadałyby się na pary kwark wysoki-antykwark, to w Wielkim Zderzaczu Hadronów powinien pojawić się nadmiar sygnałów świadczących o produkcji takich par. W eksperymencie CMS zauważono taki nadmiar, ale – co szczególnie przyciągnęło uwagę naukowców – zauważono go przy energiach stanowiących dolną granicę zakresu poszukiwań. To skłoniło fizyków pracujących przy CMS do wysunięcia hipotezy, że nadmiar ten pochodzi od kwarków wysokich i antykwarków wysokich znajdujących się w stanie quasi-związanym zwanym toponium. Gdy rozpoczynaliśmy analizy, w ogólnie nie braliśmy pod uwagę możliwości zauważenia toponium. W analizie wykorzystaliśmy uproszczony model toponium. Hipoteza ta jest niezwykle ekscytująca, gdyż nie spodziewaliśmy się, że LHC zarejestruje toponium, mówi koordynator prac, Andreas Meyer z DESY (Niemiecki Synchrotron Elektronowy). Co prawda nie można wykluczyć innych wyjaśnień zaobserwowanych zjawisk, ale z dotychczasowych badań wynika, że toponium w sposób wystarczający wyjaśnia zaobserwowany nadmiar sygnałów. Uzyskany przez nas przekrój czynny (prawdopodobieństwo) dla naszej uproszczonej hipotezy wynosi 8,8 pb (pikobarnów) ± 15%. Można powiedzieć, że to znacząco powyżej 5 sigma [5 sigma to wartość odchyleń standardowych, powyżej której można ogłosić odkrycie - red.], dodaje Meyer. Jeśli uda się potwierdzić istnienie toponium, będzie to kolejne poznane kwarkonium, czyli stan utworzony przez kwarka i jego antykwark. Obecnie znamy czarmonium – to kwark powabny (charm) i jego antykwark – oraz bottomonium, czyli kwark spodni (bottom) i antykwark. Czarmonium zostało odkryte w SLAC w 1974 roku, a bottomium znaleziono trzy lata później w Fermilabie. « powrót do artykułu
  16. Szczątki ludzkie z początków Imperium Romanum to niezwykle rzadkie znalezisko. Rzymianie aż do III wieku praktykowali bowiem kremację. Tym cenniejsze jest więc odkrycie masowego rzymskiego pochówku na terenie Wiednia. A dodatkowej wartości znalezisku nadaje jego możliwe powiązanie z początkiem stolicy Austrii. Szczątki zostały znalezione przez firmę budowlaną, która przeprowadzała prace renowacyjne na jednym z wiedeńskich boisk. Wezwani na miejsce archeolodzy przeprowadzili prace wykopaliskowe i udokumentowali obecność co najmniej 129 ciał. Ze względu na dużą liczbę przemieszczonych kości ogólna liczba pochowanych została oceniona na ponad 150. Miejsce pochówku miało oryginalnie prawdopodobnie kształt owalny o wymiarach 5x4,5 metra. Zmarli spoczywają na głębokości od 0,3 do 0,5 metra. Zostali bezładnie złożeni do grobu, wielu leży na brzuchu, inni na boku, kończyny poszczególnych ciał są splątane. To wskazuje na pośpieszne przykrycie zmarłych ziemią, a nie na zorganizowany pochówek. Dotychczas szczegółowo przeanalizowano ponad 33% szkieletów. Badacze stwierdzili, że większość zmarłych miała ponad 170 cm wzrostu, wszyscy byli mężczyznami, przeważnie w wieku 20–30 lat. Znaleziono niewiele śladów chorób zakaźnych. Zmarli byli generalnie w dobrym stanie zdrowia i dobrze odżywieni, o czym świadczy bardzo dobry stan uzębienia. Na każdym z analizowanych szkieletów odkryto urazy, które powstały przed śmiercią. Są to przede wszystkim urazy czaszki, tułowia i miednicy. Powstały one w wyniku działania broni ostrej i tępej, w tym włóczni, mieczy czy sztyletów. To zaś wskazuje, że pochowani nie są ofiarami egzekucji. Wstępne badania wyraźnie sugerują więc miejsce bitwy. Datowanie kości metodą radiowęglową wskazuje, że do śmierci ofiar doszło w latach 80–240, a przedmioty znalezione w grobie pozwoliły na zawężenie tego zakresu. Najważniejszym z nich jest żelazny sztylet w pochwie. Zabytek zardzewiał, jednak badania promieniami rentgenowskimi ujawniły na pochwie typowe rzymskie dekoracje ze srebrnego drutu, dzięki którym wiemy, że sztylet powstał pomiędzy połową I, a początkiem II wieku. Archeolodzy trafili też na kilka rzymskich zbroi łuskowych typu lorica squamata. Rozpowszechniły się one w rzymskiej armii około 100 roku pod wpływem zbroi używanej przez kawalerię ze wschodnich części Imperium. Zbroje z Wiednia różnią się jednak od tych, które są opisywane w literaturze fachowej. Zamiast okrągłych otworów, za pomocą których poszczególne płytki mocowano do podkładu, tutaj widzimy otwory kwadratowe. Ta różnica będzie przedmiotem dalszych badań. W grobie znaleziono również policzek (część hełmu) takiego typu, jaki upowszechnił się od połowy I wieku. Ponadto były w nim też dwa groty włócznie i liczne gwoździe z budów rzymskich żołnierzy. Wszystkie dowody wskazują zatem, że mamy tutaj do czynienia z pośpiesznym pochówkiem około 150 rzymskich żołnierzy, którzy zginęli w czasie bitwy. Towarzysze zmarłych, wbrew zwyczajowi, nie skremowali ich. To oznacza, że nie mieli czasu i zasobów by to zrobić. Prawdopodobnie oddział, do którego należeli polegli, miał też wielu rannych. Ze źródeł historycznych wiemy, że za czasów Domicjana (lata 81–96) dochodziło do częstych bitew z Germanami na rzymskiej granicy nad Dunajem. Bitwy te były bardzo kosztowne dla Imperium. Doniesienia wspominają na przykład o zniszczeniu całego legionu. Masowy grób to pierwszy fizyczny dowód na potwierdzenie tych informacji. Wskazuje on, że w miejscu, gdzie dzisiaj znajduje się Wiedeń, doszło do bitwy. Poważne straty, jakie ponieśli Rzymianie mogły być bezpośrednią przyczyną rozbudowy niewielkiego obozu Vindobona. Znajduje się on mniej niż 7 kilometrów od masowego pochówku. To właśnie Vindobona dała początek Wiedniowi. Za czasów Trajana (98–117) granica na Dunaju została dodatkowo ufortyfikowana. « powrót do artykułu
  17. Ludzie epoki brązu żyjący na terenie dzisiejszej Danii mogli pływać do Norwegii przez otwarte morze, uważa międzynarodowy zespół badawczy pracujący pod kierunkiem Boela Bengtssona z Uniwersytetu w Göteborgu. Naukowcy opracowali model komputerowy, który pozwolił im lepiej zrozumieć, jak łodzie, którymi dysponowali ówcześni mieszkańcy Skandynawii, radziły sobie na wodzie i czy możliwe było, by odważyli się oni wypłynąć na pełne morze. Kultury epoki brązu rozwijające się na terenach dzisiejszej Danii i Norwegii są bardzo podobne. Widzimy tutaj podobne artefakty, podobną architekturę, podobne pochówki. Bez wątpienia dochodziło do intensywnej wymiany kulturowej. Była ona możliwa dzięki łodziom podróżującym wzdłuż wybrzeży. Miały one do pokonania 700-kilometrową trasę wiodącą wśród duńskich wysp, wzdłuż wybrzeży Szwecji ku wybrzeżom Norwegii. Morze przez tysiąclecia onieśmielało żeglarzy, którzy starali się trzymać blisko brzegu. Jeśli by jednak odważyć się wypłynąć na otwarte wody, to Danię od Norwegii dzieli nieco ponad 100 kilometrów. Powstaje więc pytanie, czy ludzie epoki brązu ulegli pokusie skrócenia podróży i czy dysponowali łodziami, które to umożliwiały? Tego, czy zdecydowali się na taką podróż, nigdy zapewne się nie dowiemy. Możemy jednak sprawdzić, czy ich łodzie były zdolne do jej odbycia. Naukowcy wykorzystali swój model komputerowy do przeprowadzenia symulacji podróży między Danią a Norwegią za pomocą dokładnie takiej łodzi, jakiej szczątki zostały odkryte w Hjortsping. To łódź wiosłowa z 350 roku przed naszą erą. Symulacja wykazała, że mieszkańcy epoki brązu byli w stanie wybrać się w taką 100-kilometrową podróż. Ich pojazd musiał wytrzymać 1-metrowe fale i wiatry o prędkości 10 węzłów (18,5 km/h). Żeby podróż była udana, musieli też odznaczać się dobrymi umiejętnościami nawigacyjnymi oraz prawidłowo przewidywać pogodę. Ponadto takie wyprawy możliwe były tylko w miesiącach letnich. Z kolei 700-kilometrowe wyprawy wzdłuż wybrzeży były bardziej bezpieczne, możliwe przez cały rok, ale najprawdopodobniej trwały całymi tygodniami i wymagały częstego przybijania do brzegu w celu uzupełnienia zapasów. Może to wyjaśniać olbrzymie podobieństwa pomiędzy duńskim regionem Thy a norweskim Lista. Jeśli ludzie epoki brązu odważyli się wypływać na pełne morze, to mieli do pokonania 110–180 kilometrów, z czego przez około 50 km nie widzieli żadnego lądu. Jedyną alternatywą była 700-kilometrowa trasa wzdłuż wybrzeży. Jak stwierdzili badacze, podróż krótszą trasą trwałaby około 16–19 godzin, na pokonanie dłuższej trasy trzeba 12–22 dni. Korzyści są więc ogromne. I jeśli ludzie zdecydowali się zaryzykować, to takie podróże na otwartych wodach mogły odbywać się już około 2300 roku przed naszą erą. Badania zostały opisane na łamach PLOS One. « powrót do artykułu
  18. W 2022 roku w pobliżu Tonga na Pacyfiku doszło do erupcji podwodnego wulkanu Hunga Tonga–Hunga Haʻapai. Była to jedna z najpotężniejszych erupcji w czasach współczesnych. Do atmosfery trafiła olbrzymia ilość wody, więc naukowcy ogłosili, że prawdopodobnie przyczyni się to do przejściowego dodatkowego ogrzania powierzchni Ziemi. Obawy okazały się jednak bezzasadne. Opublikowane właśnie na łamach Nature badania pokazują, że nie tylko nie doszło do ogrzania planety, ale erupcja wulkanu spowodowała spadek temperatur na półkuli południowej o 0,1 stopnia Celsjusza. Erupcje wulkaniczne, wyrzucając do atmosfery popiół, pył i różne gazy, zwykle przyczyniają się do przejściowego schłodzenia powierzchni planety. Tymczasem Hunga Tonga nie dostarczył do stratosfery zbyt dużej ilości aerozoli. Stwierdzono natomiast, że duża ilość wody, jaka trafiła do stratosfery, może przejściowo przyczynić się do niewielkiego zwiększenia temperatury na powierzchni planety, gdyż para wodna jest gazem cieplarnianym. Okazuje się, że nic takiego się nie stało, a półkula południowa się ochłodziła. Badacze z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) i ich koledzy z Pennsylvannia State University i Vanderbilt University stwierdzili właśnie, że przyczyną takiego stanu rzeczy było uformowanie się mniejszych cząstek aerozoli zawierających siarkę, których wpływ chłodzący przeważył nad wpływem ocieplającym pary wodnej. Para wodna weszła w interakcje z dwutlenkiem siarki i innymi gazami w atmosferze – w tym z ozonem – w taki sposób, który nie zwiększył ocieplenia. Naukowcy wykorzystali satelity do śledzenia pary wodnej, aerozoli siarczanowych i ozonu oraz ich wpływu na temperatury. Szczegółowe analizy pozwoliły określić, w jaki sposób erupcja zmieniła przepływ energii w atmosferze i wpłynęła na temperatury na powierzchni. Badacze dowiedzieli się, że natychmiast po erupcji doszło do strat energii netto w pobliżu tropopauzy. Aerozole, które powstały w wyniku wybuchu Hunga Tonga były o około 50% mniejsze niż te po erupcji Pinatubo, dzięki czemu lepiej blokowały światło słoneczne i schładzały atmosferę pomimo obecności dodatkowej pary wodnej. Zaskakujące informacje o chłodzącym wpływie tej erupcji uzyskano dzięki włączeniu do analizy wpływu ozonu i innych składników atmosfery, podczas gdy autorzy wcześniejszych badań skupiali się głównie na aerozolach siarczanowych i parze wodnej. Z badań wynika, że erupcje wulkanów znajdujących się płytko pod wodą prowadzą do złożonych zmian w atmosferze. O ile półkula południowa się nieco ochłodziła, istnieją przesłanki by przypuszczać, że półkula północna uległa minimalnemu ogrzaniu przez parę wodną. Generalnie jednak w skali planety erupcja wywarła niewielki efekt chłodzący. Główny wniosek z badań jest taki, że aerozole siarczanowe rzeczywiście przyczyniły się do niewielkiego ochłodzenia półkuli południowej. Część tego efektu chłodzącego spowodowana była faktem, że rozmiary aerozoli były optymalne jeśli chodzi o ich właściwości chłodzące. Stały się takie dzięki złożonym interakcjom chemicznym i mieszaniu się atmosfery, których do końca jeszcze nie rozumiemy. Nasze badania pokazują też, że próby zastosowania geoinżynierii do schłodzenia Ziemi mogą mieć liczne, nieprzewidziane konsekwencje, dodaje Gupta. « powrót do artykułu
  19. Na Northwestern University powstał rozrusznik serca tak mały, że zmieści się wewnątrz strzykawki i można go łatwo wszczepić do organizmu. Miniaturowy rozrusznik może pracować z każdym sercem, jednak szczególnie nadaje się dla noworodków. Co więcej, wszystkie jego elementy są biokompatybilne i rozrusznik – przeznaczony dla pacjentów, którzy potrzebują go tymczasowo – rozpuszcza się w organizmie, nie ma więc potrzeby przeprowadzania zabiegu jego usunięcia. Rozrusznik mniejszy od ziarenka ryżu współpracuje z niewielkim, elastycznym, bezprzewodowym urządzeniem, które przyczepia się do klatki piersiowej pacjenta. Gdy urządzenie wykryje nieregularny rytm serca, wysyła krótki impuls świetlny, który pobudza rozrusznik. Kardiologia pediatryczna pilnie potrzebuje tymczasowych rozruszników serca. Tutaj miniaturyzacja jest niezwykle ważna, im urządzenie mniejsze, tym lepiej, wyjaśnia John A. Rogers, który kierował pracami. Motywowała nas chęć opracowania rozrusznika dla dzieci. Około 1% dzieci rodzi się z wadami serca. Dobra wiadomość jest taka, że po zabiegu chirurgicznym potrzebują one rozrusznika jedynie przez jakiś czas. Po około 7 dniach ich serca działają poprawnie. Ale tych 7 dni jest absolutnie kluczowych. Teraz możemy umieścić rozrusznik na sercu dziecka i pobudzać go za pomocą miękkiego, delikatnego urządzenia. I nie potrzebujemy kolejnego zabiegu, by rozrusznik usunąć, dodaje kardiolog eksperymentalny Igor Efimov. Wielu pacjentów wymaga rozrusznika po operacji serca. Albo oczekują w ten sposób na docelowy stały rozrusznik, albo potrzebują go tymczasowo w okresie rehabilitacji. Obecnie podczas operacji do serca podłącza się elektrody, a wyprowadzone na zewnątrz kable łączone są z rozrusznikiem. Gdy taki czasowy rozrusznik nie jest już potrzebny, lekarze wyciągają elektrody. Kable wystają z ciała, a lekarz je wyciąga. Jednak mogą one zostać otoczone tkanką bliznowatą, więc podczas wyciągania może dojść do uszkodzenia mięśnia sercowego. Tak właśnie zmarł Neil Armstrong. Miał tymczasowy rozrusznik po operacji bypassów. Gdy usunięto elektrody, doszło u niego do krwotoku wewnętrznego, wyjaśnia Efimow. Dlatego właśnie naukowcy z Northwestern stworzyli rozpuszczalny rozrusznik, który został opisany w 2021 roku na łamach Nature Biotechnology. Kardiolodzy chcieli mieć jednak mniejsze urządzenie, które można by łatwiej implementować i które lepiej nadawałoby się do użycia u małych pacjentów. Nasz oryginalny rozpuszczalny rozrusznik działał dobrze. Był cienki, elastyczny i w pełni się wchłaniał w organizmie. Jednak rozmiar jego anteny odbiorczej ograniczał możliwości miniaturyzacji. Dlatego też pracując przy nowym rozruszniku zrezygnowaliśmy z częstotliwości radiowej do bezprzewodowego sterowania urządzeniem, a użyliśmy światła. To pozwoliło na znaczące zmniejszenie rozmiarów urządzenia, mówi Rogers. Kolejnym elementem, który pozwolił na dalszą miniaturyzację, było zastosowanie innego źródła zasilania. W miejsce NFC (near-field communications) użyto ogniwa galwanicznego. To prosta bateria zamieniająca energię chemiczną w elektryczną. Rozrusznik korzysta z dwóch elektrod zbudowanych z różnych metali. To one przekazują impuls elektryczny do serca. A energię czerpią z płynów ustrojowych, które je otaczają. Gdy rozrusznik jest wszczepiany, otaczające go płyny ustrojowe pełnią rolę elektrolitu. Na drugiej stronie rozrusznika znajduje się bardzo mały przełącznik, aktywowany za pomocą światła. Gdy do przełącznika dociera impuls świetlny wysłany przez skórę pacjenta, przeskakuje on z pozycji „wyłączony” na „włączony” i serce pobudzane jest za pomocą impulsu elektrycznego generowanego przez elektrody, wyjaśnia Rogers. System korzysta z podczerwieni, która w sposób bezpieczny penetruje organizm. Gdy przyczepione do piersi pacjenta urządzenie wykryje nieprawidłowy rytm, uruchamia diodę, która błyska w rytm prawidłowej pracy serca. Mimo, że nowatorski rozrusznik jest bardzo mały, ma 1,8 mm szerokości, 3,5 mm długości i 1 mm grubości, dostarcza taki sam impuls jak pełnowymiarowe rozruszniki. Serce wymaga jedynie niewielkiej stymulacji elektrycznej. Minimalizując rozrusznik, znakomicie uprościliśmy procedurę jego wszczepienia, zmniejszamy obciążenia i ryzyko dla pacjenta, a dzięki temu, że rozrusznik rozpuszcza się organizmie, nie istnieje konieczność jego usuwania i ryzyko z tym związane, stwierdza Rogers. Na tym jednak nie koniec zalet minirozrusznika. Jako że urządzenie jest tak małe, można wszczepić kilka rozruszników w różne regiony serca i każdym z nich sterować za pomocą światła o innej długości fali. To zaś pozwala na uzyskanie bardzo skomplikowanej synchronizacji. W szczególnych przypadkach można w różnym rytmie pobudzać różne regiony serca i radzić sobie w ten sposób z arytmiami. « powrót do artykułu
  20. Badania nad szympansami pomogą zrozumieć nam, jak u człowieka rozwinęły się zdolności inżynieryjne. Pierwsze narzędzia, jakimi posługiwali się ludzie, zostały wykonane z nietrwałych materiałów, nie zachowały się, więc nie możemy ich badać. Na szczęście możemy przyglądać się, w jaki sposób narzędzi używają zwierzęta. Naukowcy z Wielkiej Brytanii, Portugalii, Mozambiku, Tanzanii i Niemiec zauważyli, że szympansy przygotowujące patyki, by łowić nimi termity z gniazd, wykazują się pewną wiedzą inżynieryjną, celowo wybierając odpowiednio elastyczne gałęzie. Termity są dobrym źródłem energii, tłuszczu, witamin, minerałów i białka. Owady żyją w kopcach, wewnątrz których znajdują się kręte tunele. Badacze wysunęli więc hipotezę, że podczas ich łowienia, lepiej sprawdzają się odpowiednio elastyczne gałęzie niż sztywne patyki. Chcąc przetestować narzędzia używane przez szympansy, uczeni zabrali specjalistycznych sprzęt do Parku Narodowego Gombe i na miejscu badali elastyczność gałęzi, które wykorzystywały szympansy, porównując je z gałęziami, które były dostępne, ale nieużywane przez zwierzęta. Stwierdzili, że gatunki roślin, z których małpy nigdy nie korzystały do łowienia termitów, miały gałęzie o 175% bardziej sztywne, niż rośliny preferowane przez szympansy. Nawet porównanie roślin znajdujących się w bezpośrednim pobliżu gniazda termitów pokazało wyraźne różnice między materiałem używanym i nigdy nie używanym przez szympansy. To pierwszy wyczerpujący dowód, że dziko żyjący szympansy kierują się właściwościami mechanicznymi materiału, wybierając gałęzie do łowienia termitów, mówi doktor Alejandra Pascual-Garrido z University of Oxford, która od dekady bada materiały używane przez szympansy z Gombe. Co więcej, niektóre gatunki roślin, jak te z rodzaju Grewia, są preferowane też na przykład przez szympansy żyjące 5000 kilometrów od Gombe. Sugeruje to, że dzikie szympansy rozumieją właściwości materiałów, dzięki czemu mogą wybierać najlepsze narzędzia do wykonania konkretnego zadania. Łowiąc termity nie wybierają jakiegokolwiek dostępnego patyka. Szukają takiego, który uczyni ich wysiłki najbardziej efektywnymi. To odkrycie, łączące biomechanikę z zachowaniami zwierząt, pomaga nam lepiej zrozumieć procesy poznawcze stojące za wytwarzaniem narzędzi przez szympansy, dokonywaniem ich oceny i wyboru, dodaje Pascual-Garrido. Jak z każdym odkryciem, tak i tutaj rodzą się pytania o to, w jaki sposób szympansy nabywają tę wiedzę, utrzymują ją i przekazują pomiędzy pokoleniami oraz czy podobne procesy mają miejsce w wyborze narzędzi do innych zadań, na przykład podczas łowienia mrówek czy pozyskiwania miodu. To z kolei prowadzi nas do pytania o to, w jaki sposób ludzie nabyli podobnych umiejętności i jak przebiegała ich ewolucja. Badając, w jaki sposób szympansy wybierają materiał na swoje narzędzia, możemy lepiej zrozumieć, jak robili to nasi przodkowie. Ich narzędzia z nietrwałych materiałów nie przetrwały próby czasu, więc nie jesteśmy w stanie ich zbadać. « powrót do artykułu
  21. Obecnie Sahara to jeden z najbardziej suchych regionów naszej planety. Jednak nie zawsze tak było. W okresie wilgotnym, który miał miejsce 14 500 – 5000 lat temu, Sahara była zieloną sawanną. W takich warunkach DNA rzadko zostaje zachowane, więc mamy ograniczone informacje o historii genetycznej i demograficznej tego regionu. Jednak międzynarodowemu zespołowi naukowemu udało się pozyskać DNA z naturalnie zmumifikowanych szczątków dwóch kobiet sprzed 7000 lat, które zachowały się w kolebie skalnej Takarkori w południowo-zachodniej Libii. Większość materiału genetycznego obu kobiet pochodzi od nieznanej wcześniej północnoafrykańskiej linii, która oddzieliła się od linii subsaharyjskich mniej więcej w tym samym czasie, gdy H. sapiens wyszedł z Afryki. Te linie genetyczne z północy Afryki były przez większość czasu izolowane. Obie kobiety były blisko spokrewnione z przodkami zbieraczy sprzed 15 000 lat, których szczątki odkryto w jaskini Taforalt w Maroku, a którzy łączeni są z kulturą iberomauruzyjską. Widoczne jest też pokrewieństwo ze szczątkami z marokańskich stanowisk Ifri Ouberrid i Ifri n’Amr o’Moussa. Jednocześnie kobiety z Takarkori wykazują minimalne pokrewieństwo z mieszkańcami Lewantu, a to sugeruje, że rozpowszechnianie się pasterstwa na Saharze było wynikiem wymiany kulturowej, a nie migracji dużych grup ludzi, jak mogą wskazywać dowody archeologiczne. Jeśli dodatkowo weźmiemy pod uwagę fakt, że w genomach z Takarkori występuje bardzo mało domieszki genów neandertalczyków – jest jej 10-krotnie mniej niż u ludzi z Lewantu – oraz fakt, że linie genetyczne obu kobiet w zdecydowanej większości pochodzą z Afryki Północnej, badacze stwierdzają, że był to obszar genetycznie izolowany, zatem zielona Sahara nie była korytarzem migracji pomiędzy wnętrzem Afryki a jej północnymi częściami. Obecnie linia genetyczna obu kobiet nie istnieje samodzielnie, stanowi jednak ważny komponent dziedzictwa genetycznego mieszkańców północy Afryki. Badania te stanowią ważny krok w kierunku lepszego poznania historii ludzkich migracji, przepływu genów na Saharze i umożliwiają dokładniejsze zrekonstruowanie tak istotnych wydarzeń, jak wyjście H. sapiens z Afryki oraz inne kluczowe momenty naszej ewolucji. « powrót do artykułu
  22. Przed czterema laty informowaliśmy, że NASA wybrała przyszłą misję, która pozwoli lepiej zrozumieć ewolucję wszechświata oraz zbadać, na ile powszechne w naszej galaktyce są podstawowe składniki niezbędne do powstania życia. Misja SPHEREx (Spectro-Photometer for the History of the Universe, Epoch of Reionization and Ices Explorer) wystartowała 11 marca i właśnie przysłała pierwsze zdjęcia. W ciągu dwóch lat pracy ma dostarczyć danych o ponad 450 milionach galaktyk i ponad 100 milionach gwiazd w Drodze Mlecznej. Mimo, że zdjęcia pochodzą z nieskalibrowanych jeszcze instrumentów, więc nie nadają się więc do prowadzenia badań, pokazują niezwykłe możliwości misji i – przede wszystkim – dowodzą, iż czujniki działają. Na każdym z sześciu obrazów, po jednym dla każdego z wyspecjalizowanych detektorów, widzimy jasne źródła światła, jak galaktyki czy gwiazdy. Każdy z nich powinien zawierać ponad 100 000 takich źródeł. Trzy górne obrazy prezentują ten sam obszar nieboskłonu, co trzy dolne. Widzimy tutaj pełne pole widzenia SPHEREx. To prostokątny obszar około 20-krotnie szerszy niż Księżyc w pełni widziany z Ziemi. Gdy w drugiej połowie kwietnia SPHEREx rozpocznie badania naukowe, będzie wykonywał około 600 takich ujęć na dobę. Najnowszy teleskop NASA działa w podczerwieni i wykorzystuje 102 filtry, po 17 dla każdego z czujników. Dzięki temu, badając unikatową sygnaturę światła, będzie mógł wykrywać różne związki chemiczne i molekuły. Urządzenie pomoże też mierzyć odległość do zaobserwowanych obiektów, co pozwoli na badanie odległych galaktyk i tworzenie trójwymiarowej mapy wszechświata. Zanim jednak SPHEREx przystąpi do badań, musi zostać odpowiednio przygotowany. Przez ostatnie dwa tygodnie inżynierowie z JPL (Jet Propulsion Laboratory), którzy zarządzają misją, sprawdzali stan teleskopu. Dotychczas wszystko działa bez zarzutu. Obecnie trwa schłodzenie czujników i innego sprzętu do docelowej temperatury roboczej około -210 stopni Celsjusza. Bez osiągnięcia tak niskiej temperatury promieniowanie cieplne samego teleskopu uniemożliwiłoby rejestrowanie obrazu w podczerwieni. Co interesujące, chłodzenie jest całkowicie pasywne. SPHEREx nie wykorzystuje w tym celu elektryczności czy specjalnych chłodziw, dzięki czemu był tańszy i prostszy w budowie. A chłodzi się dzięki trzem stożkowatym osłonom, które chronią urządzenia przed ciepłem Słońca oraz Ziemi oraz specjalnym lustrom, które odbijają promieniowanie cieplne urządzeń bezpośrednio w przestrzeń kosmiczną. Przesłane obrazy testowe dowiodły, że czujniki teleskopu zostały dobrze ustawione i zapewniają ostry obraz. To bardzo dobra informacja, gdyż odpowiedniego dostrojenia ostrości można było dokonać jedynie na Ziemi. W przestrzeni kosmicznej nie można już tego zmienić. Z tego, co widzimy na zdjęciach wynika, że zespół odpowiedzialny za instrumenty idealnie wykonał swoją robotę, cieszy się Jamie Bock, główny naukowiec misji. SPHEREx zapewni naukowcom ogólny przegląd nieboskłonu. O ile teleskopy takie jak Webb czy Hubble badają bardzo szczegółowo niewielki wycinek nieba, SPHEREx zapewnia bardzo szeroki widok. Posłuży zresztą między innymi do określania celów obserwacyjnych dla bardziej precyzyjnych urządzeń. Możliwości nowego teleskopu są tak duże, że w ciągu dwóch lat aż czterokrotnie sfotografuje on całe niebo. Program Explorer, w ramach którego powstał SPHEREx, to najstarszy wciąż kontynuowany program naukowy NASA. Pierwszą misją, jaką przeprowadzono w jego ramach, była Explorer 1 wystrzelona w 1958 roku. Dotychczas w ramach programu przeprowadzono około 100 misji w przestrzeni kosmicznej. « powrót do artykułu
  23. Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów. Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik. Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm. Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%. System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków. W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle. Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej. Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine. « powrót do artykułu
  24. Podczas dorocznej konferencji fizycznej Recontres de Moriond naukowcy z CERN-u poinformowali o dokonaniu ważnego kroku na drodze ku zrozumieniu asymetrii pomiędzy materią a antymaterią. Podczas analizy olbrzymiej ilości danych z Wielkiego Zderzacza Hadronów uczeni znaleźli dowody na naruszenie symetrii CP przez bariony. Symetria CP oznacza, że cząstka rozpada się identycznie jak jej antycząstka odbita w lustrze. Fakt, że we wszechświecie istnieje więcej materii niż antymaterii sugeruje, że łamanie symetrii CP jest zjawiskiem powszechnym. Po raz pierwszy zaobserwowano je w 1964 roku w przypadku kaonów (mezonów K). Wtedy zaobserwowano, że rozpadają się one nieco inaczej niż antykaony. Od tej pory naruszenie symetrii CP jest przedmiotem intensywnych badań, które mają wyjaśnić istniejącą nierównowagę między materią a antymaterią. Naukowcy wiedzieli, że i w przypadku barionów powinno dochodzić do łamania symetrii CP, jednak dotychczas nie zaobserwowano tego zjawiska. Przyczyną, dla której zaobserwowanie naruszenia symetrii CP przez bariony zajęło tyle czasu jest różnica w sile tego zjawiska i ilości dostępnych danych. Potrzebowaliśmy urządzenia takiego jak Wielki Zderzacz Hadronów, zdolnego do wytworzenia wystarczająco dużej liczby barionów pięknych oraz ich antycząstek i potrzebowaliśmy maszyny zdolnej do znalezienia produktów ich rozpadu. Teraz, dzięki ponad 80 000 rozpadów barionów zauważyliśmy – po raz pierwszy dla tej klasy cząstek – łamanie symetrii CP, mówi rzecznik prasowy eksperymentu LHCb Vincenzo Vagnoni. Już od kilku lat w rozpadach barionów pięknych Lambda b (Λb) znajdowano sygnały świadczące o istnieniu różnic w rozpadzie barionów i antybarionów. Bariony te są sześciokrotnie bardziej masywne od swojego kuzyna, protonu. Bariony, do których należy też neutron, są tą rodziną cząstek, która w znacznej mierze tworzy świat. Teraz naukowcy pracujący przy eksperymencie LHCb zaobserwowali naruszenie symetrii CP w przypadku cząstek Lambda b (Λb), które zbudowane są z kwarka górnego, dolnego i kwarka b (kwarka pięknego). Szczegółowe analizy rozpadów Λb i anty-Λb wykazały różnice rzędu 5,2 odchyleń standardowych (5,2 sigma). Uzyskanie 5 sigma to poziom pozwalający na ogłoszenie odkrycia. Zatem po raz pierwszy z całą pewnością udało się stwierdzić, że wśród barionów istnieje łamanie symetrii CP. Badania tego typu, chociaż ich wyniki są spodziewane, pozwalają lepiej poznać prawa rządzące fizyką. Istnienie naruszenia symetrii CP przewiduje sam Model Standardowy. Jednak naruszenie to jest o całe rzędy wielkości zbyt małe, by na gruncie Modelu Standardowego wyjaśnić obserwowaną asymetrię między materią i antymaterią. To zaś sugeruje, że istnieją źródła naruszenia symetrii CP, których nie przewiduje Model Standardowy. Im zatem lepiej poznamy to zjawisko, z tym większą dokładnością sprawdzimy Model Standardowy i będziemy mieli szansę na odkrycie zjawisk, których obecnie nie znamy. « powrót do artykułu
  25. Mezoterapia mikroigłowa to zabieg z zakresu medycyny estetycznej, który polega na wykorzystaniu urządzenia wyposażonego w mikroigły, które nakłuwają skórę na płytką głębokość, zazwyczaj od 0,5 mm do 1,5 mm. Celem tego zabiegu jest stymulowanie naturalnych procesów regeneracyjnych skóry poprzez wywołanie mikrourazów, co z kolei pobudza produkcję kolagenu i elastyny. W efekcie skóra staje się bardziej jędrna, elastyczna, a także poprawia się jej struktura i wygląd. Mezoterapia mikroigłowa - na czym polega? Jest to zabieg z zakresu medycyny estetycznej, który polega na wykorzystaniu urządzenia wyposażonego w mikroigły, które nakłuwają skórę na płytką głębokość, zazwyczaj od 0,5 mm do 1,5 mm. Celem tego zabiegu jest stymulowanie naturalnych procesów regeneracyjnych skóry poprzez wywołanie mikrourazów, co z kolei pobudza produkcję kolagenu i elastyny. W efekcie skóra staje się bardziej jędrna, elastyczna, a także poprawia się jej struktura i wygląd. W porównaniu do mezoterapii igłowej, która polega na głębszym wprowadzeniu substancji odżywczych do skóry (na głębokość około 3 mm), mezoterapia mikroigłowa działa bardziej powierzchownie, dlatego jej głównym celem jest poprawa wyglądu skóry w przypadku drobnych problemów, takich jak lekkie blizny po trądziku, zmarszczki, rozstępy, czy niewielkie zmiany w strukturze skóry. Zabieg ten jest także bezpieczniejszy dla osób, które chcą poprawić stan skóry bez konieczności iniekcji substancji aktywnych. Podczas zabiegu mezoterapii mikroigłowej urządzenie wprowadza mikroigły do skóry, co wywołuje kontrolowany stan zapalny, stymulując skórę do regeneracji. Efektem tego jest jej wygładzenie, ujędrnienie oraz poprawa nawilżenia, co jest szczególnie korzystne w przypadku skóry zmęczonej lub z delikatnymi niedoskonałościami. Zabieg może być wykonywany na różnych obszarach ciała, takich jak twarz, dekolt, brzuch, uda czy pośladki, i jest dobrze tolerowany przez pacjentów. Po zabiegu skóra może być lekko zaczerwieniona i opuchnięta, co zwykle ustępuje po kilku dniach. Aby uzyskać najlepsze efekty, zaleca się serię kilku zabiegów, w zależności od indywidualnych potrzeb pacjenta. Mezoterapia mikroigłowa jest często stosowana w połączeniu z różnymi substancjami aktywnymi, takimi jak kwas hialuronowy, witaminy (np. witamina C, E), peptydy, czy aminokwasy, które wspomagają regenerację skóry i poprawiają jej nawilżenie. « powrót do artykułu
×
×
  • Dodaj nową pozycję...