Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36960
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. W ubiegłym roku ponownie wzrósł poziom metanu w atmosferze. Naukowcy nie potrafią wyjaśnić, dlaczego tego potężnego gazu cieplarnianego jest od lat coraz więcej. W roku 2018 jego koncentracja wzrosła o 10,77 części na miliard (ppb). To drugi największy wzrost od dwóch dekad. Metan żyje w atmosferze znacznie krócej niż dwutlenek węgla, jednak wywołuje znacznie silniejszy efekt cieplarniany. Od 2007 roku obserwowany jest wzrost stężenia tego gazu, a w ciągu ostatnich 4 lat zjawisko to przyspieszyło. Euan Nisbet z Royal Holloway University w Londynie mówi, że wzrost ten bardzo martwi naukowców. A jeszcze bardziej niepokojący jest fakt, że nikt nie potrafi powiedzieć, co napędza rosnącą koncentrację metanu. Nie wiemy, jaki proces jest odpowiedzialny za to, że ilość metanu rośnie tak szybko, mówi Ed Dlugokencky z amerykańskiej Narodowej Administracji Oceanicznej i Atmosferycznej (NOAA). Z opinią tą zgadza się Keith Shine z Reading University. Bardzo niepokojący jest fakt, że tempo wzrostu koncentracji metanu – po okresie dość powolnego wzrostu – zbliża się do tego z lat 80. A jeszcze bardziej martwi to, że nie rozumiemy przyczyn tego wzrostu. Jedną z możliwych przyczyn jest globalne ocieplenie, powodujące, że więcej metanu uwalnia się z tropikalnych mokradeł, co dodatkowo przyspiesza ocieplenie. Nie jestem pewien, ale wygląda na to, że ocieplenie zaczęło napędzać samo siebie, dodaje Nisbet. Na razie jednak brak dowodów, na potwierdzenie tej hipotezy. Inni specjaliści zwracają uwagę, że nie wiadomo nawet, czy ten dodatkowy metan pochodzi z naturalnych źródeł, jak na przykład z cieplejszych i bardziej wilgotnych mokradeł, czy też ze źródeł antropogenicznych, jak bardziej intensywna uprawa ryżu czy spalanie paliw kopalnych. Niewykluczone też, że to połączenie tych wszystkich czynników. Jakby jeszcze tego było mało, im więcej wiemy o metanie, tym bardziej groźny się on okazuje. Jeszcze w 1990 roku podczas prezentacji raportu klimatycznego dla ONZ oceniano, że 1 tona metanu ma taki wpływ na ocieplenie klimatu jak 21 ton CO2. Niedawno naukowcy stwierdzili, że metan jest 28-krotnie silniejszym gazem cieplarnianym niż dwutlenek węgla, a dowody, którymi obecnie dysponujemy sugerują, że 1 tona metanu może odpowiadać nawet 35 tonom CO2. « powrót do artykułu
  2. Dzięki nowoczesnym technologiom nakręcono film sferyczny, który przedstawia operację raka przełyku u 66-letniej pacjentki Janet Jenkins. Wieloobiektywowa kamera sferyczna pozwala na rejestrowanie rzeczywistości w sferze 360°. Siedmiogodzinna operacja w wykonaniu prof. Tima Underwooda ze Szpitala Uniwersyteckiego w Southampton została skompilowana do ok. 3 minut. Pani Jenkins usunięto fragment przełyku. Od razu wykonano także operację rekonstrukcyjną. Film sferyczny daje ludziom szansę na zanurzenie się środowisku sali operacyjnej podczas zabiegu - to coś, co dotąd odbywało się za zamkniętymi drzwiami. Chcemy przełamać bariery i pokazać innym, co robimy [...]. Prawdziwa magia dzieje się [jednak] po operacji - która pod wieloma względami stanowi łatwy etap - gdy wycinki trafiają do laboratorium [przeprowadzany jest bąbelkowy/emulsyjny PCR; nazwa pochodzi stąd, że amplifikacji dokonuje się w emulsji wodno-olejowej, naczyniem reakcyjnym jest więc kropelka wody]. Zdobywając informacje o nowotworach, które usuwamy, możemy opracować lepiej celowane i skuteczniejsze metody leczenia, które zapewnią pacjentom spersonalizowaną terapię. Główna bohaterka filmu 360° czuje się dziwnie odseparowana od zdjęć na ekranie. Ma jednak nadzieję, że jej zgoda wpłynie na postawy i świadomość innych ludzi. Uważam, że to bardzo ważne. Nie chodzi wyłącznie o pokazanie, co się dzieje z chorym przechodzącym leczenie i czego można się spodziewać w takiej sytuacji, ale także o zademonstrowanie misji instytucji badawczych i szpitali.   « powrót do artykułu
  3. Archeolodzy i mikrobiolodzy z Izraelskiej Służby Starożytności oraz 4 uniwersytetów wykorzystali do uwarzenia piwa drożdże, których spory przetrwały w zakamarkach naczyń kilka tysięcy lat. Pracując nad odtworzeniem starożytnego napitku, udali się m.in. do Kadma Winery, gdzie wino nadal wytwarza się w glinianych naczyniach. Dr Yitzhak Paz z Izraelskiej Służby Starożytności (ISS), prof. Aren Maeir z Uniwersytetu Bar-Ilan oraz prof. Yuval Gadot i Oded Lipschits z Uniwersytetu w Tel Awiwie przekazali próbki naczyń z różnych stanowisk archeologicznych. Naczynia (21) te były wykorzystywane jako dzbany na piwo i miód pitny. Datowały się na panowanie Narmera (ok. 3000 p.n.e.), aramejskiego króla Chazaela (od 844/842 do ok. 800 p.n.e.) czy Nehemiasza, namiestnika króla Persji w Judei (V w. p.n.e.). Znaleziono je m.in. podczas wykopalisk ratowniczych przy ulicy Ha-Masger w Tel Awiwie, w pałacu z okresu perskiego w kibucu Ramat Rachel, a także w En-Besor, egipskiej warzelni sprzed 5 tys. lat na terenie północno-zachodniej pustyni Negew. Naukowcy, w tym Michael Klutstein z Uniwersytetu Hebrajskiego w Jerozolimie, zsekwencjonowali pełny genom wszystkich izolatów. Na tej podstawie dr Amir Szitenberg z Dead Sea-Arava Science Center orzekł m.in., że szczep RRPrTmd13 z dzbana na miód pitny z Ramat Rachel przypomina szczepy wykorzystywane w etiopskim tedżu. Wtedy nadszedł czas na odtworzenie starożytnego piwa. Pomógł w tym izraelski ekspert Itai Gutman. Trunku kosztowali dr Elyashiv Drori z Ariel University oraz certyfikowani kiperzy z International Beer Judge Certification Program (BJCP). Największym cudem jest to, że kolonie drożdży przetrwały tysiące lat, czekając na wydobycie i wyhodowanie. Pozwoliły nam one stworzyć piwo, które dało pojęcie o smaku piw filistyńskich i egipskich - podkreśla Ronen Hazan z Uniwersytetu Hebrajskiego. Szczepy EBEgT12, TZPlpvs2 i RRPrTmd13 zapewniły aromatyczne i smaczne piwa, które poddano dodatkowym analizom, m.in. składu; EBEgT12 wyizolowano z egipskich naczyń z En-Besor, a TZPlpvs2 z naczyń filistyńskich (ze stanowiska Tall as-Safi, gdzie prawdopodobnie znajdowało się miasto Gat). Mówimy o prawdziwym przełomie. Po raz pierwszy udało nam się wyprodukować alkohol ze starożytnych drożdży - dodaje dr Yitzchak Paz z ISS. Mimo że w piwie znajdują się współczesne składniki, takie jak chmiel, to starożytne szczepy drożdży odpowiadają za unikatowy smak. Opisując go, Shmuel Naky z Jerusalem Beer Center używa takich określeń, jak pikantny, lekko owocowy i bardzo złożony. « powrót do artykułu
  4. Naukowcy wykorzystujący Advanced Photon Source z Argonne National Laboratory badają materiał, w których zaobserwowano zjawisko nadprzewodnictwa istniejące w temperaturze -23 stopni Celsjusza. To o około 50 stopni wyższa temperatura niż dotychczasowy rekord. Mimo, że nadprzewodnictwo pojawia się w ekstremalnie wysokim ciśnieniu, to i tak mamy tutaj do czynienia z wielkim postępem. Ostatecznym celem jest wykorzystanie nadprzewodnictwa w codziennych zastosowaniach. Naukowcy określili dwa warunki, które definiują materiały, które nadają się na nadprzewodniki. Materiał musi umożliwiać przewodzenie prądu bez oporów oraz być odpornym na działanie pola magnetycznego, które nie może go penetrować. Dotychczas nadprzewodnictwo uzyskiwano po schłodzeniu materiału do bardzo niskich temperatur. Jednak takie chłodzenie jest niezwykle kosztowne i znacząco obniża możliwość zastosowania tej technologii. Ostatnie badania teoretyczne wykazały, że nowe klasy hybryd mogą wykazywać nadprzewodnictwo w wysokich temperaturach. Naukowcy z Instytutu Chemii im. Maksa Plancka połączyli siły z University of Chicago. Razem stworzyli materiał o nazwie superwodorek lantanu, przetestowali go pod kątem nadprzewodnictwa oraz określili jego strukturę i skład. Jedynym problemem jest fakt, że materiał ten wykazuje nadprzewodnictwo przy ciśnieniu 150–170 GPa. To ciśnienie około 1,5 miliona razy większe niż ciśnienie atmosferyczne na poziomie morza. W materiale zauważono trzy z czterech cech charakterystycznych dla nadprzewodnictwa. Zaniknęła oporność, pod wpływem zewnętrznego pola magnetycznego zmniejszyła się temperatura krytyczna oraz doszło do zmiany temperatury gdy niektóre pierwiastki zastąpiono innymi izotopami. Czwarta z cech, efekt Meissnera, czyli zanik pola magnetycznego w nadprzewodniku, nie został zaobserwowany. Stało się tak dlatego, że badano na tyle małą próbkę materiału, iż zjawiska tego nie można było wykryć. Temperatura, przy jakiej zaobserwowano nadprzewodnictwo, naturalnie występuje w wielu miejscach na świecie. To zaś daje nadzieję, że w końcu uda się stworzyć materiał, w którym nadprzewodnictwo pojawi się w temperaturze pokojowej, a przynajmniej przy 0 stopniach Celsjusza. Obecnie naukowcy pracują nad nowym materiałem, który wykaże nadprzewodnictwo w warunkach jeszcze bardziej zbliżonych do naturalnych. Naszym następnym celem jest zmniejszenie ciśnienia, przy którym syntetyzowane są próbki, zwiększenie temperatury tak, by była bliższa pokojowej, a być może stworzenie materiału, który powstaje przy wysokim ciśnieniu, ale nadprzewodnictwo występuje w nim przy ciśnieniu atmosferycznym, stwierdzili naukowcy. « powrót do artykułu
  5. Pewien metabolit bakterii kwasu mlekowego wiąże się z receptorami człowiekowatych, w tym ludzi, i wywołuje migrację monocytów. To w ten sposób fermentowane pokarmy "porozumiewają się" z naszym układem odpornościowym. Claudia Stäubert z Uniwersytetu w Lipsku podkreśla, że spożywanie bakterii kwasu mlekowego, które np. przekształcają mleko w jogurt, a kapustę w kapustę kiszoną, zapewnia wiele korzyści zdrowotnych, ale naukowcy nadal nie rozumieją, jak na poziomie molekularnym bakterie te oddziałują na nasz układ odpornościowy. Ostatnio jednak Niemcy odkryli jedną z takich ścieżek. Zespół badał receptory dla kwasów hydroksykarboksylowych (HCA). Większość zwierząt dysponuje dwoma typami takich receptorów, jednak człowiekowate mają ich aż trzy. Okazuje się przy tym, że metabolit bakterii kwasu mlekowego, kwas D-fenylomlekowy (D-PLA) ,wiąże się silnie z 3. typem tego receptora - HCA3 - sygnalizując układowi odpornościowemu ich obecność. Autorzy artykułu z pisma PLoS Genetics sugerują, że HCA3 pojawił się u wspólnego przodka człowiekowatych, umożliwiając im spożywanie pokarmów, które zaczęły się już psuć, np. podniesionych z ziemi owoców. Jesteśmy przekonani, że ten receptor pośredniczy w niektórych korzystnych, np. przeciwzapalnych, oddziaływaniach bakterii kwasu mlekowego na ludzi. Dlatego uważamy, że może być potencjalnym celem dla leków do terapii chorób zapalnych. Przyszłe badania mają pokazać, czy kwas D-fenylomlekowy oddziałuje na komórki tłuszczowe, na powierzchni których również znajduje się HCA3. « powrót do artykułu
  6. NASA ujawniła szczegóły programu Artemis (Artemida), w ramach którego człowiek ma wrócić na Księżyc. Nazwa programu wyraźnie nawiązuje do misji Apollo, w ramach którego ludzie po raz pierwszy stanęli na Srebrnym Globie. Artemida była siostrą Apollina. Jeszcze przed końcem bieżącego miesiąca NASA podpisze pierwszy kontrakt na dostawę sprzętu na Księżyc. Jeśli lądowniki księżycowe, rozwijane przez prywatne firmy, będą gotowe, to pierwszy ładunek sprzętu dla programu Artemis trafi na powierzchnię Księżyca jeszcze w bieżącym roku. W przyszłym roku ma odbyć się misja Artemis 1. Będzie to pierwszy wspólny start SLS (Space Launch System) i kapsuły Orion. Będzie to bezzałogowy próbny lot testowy. W jego ramach zostaną też wyniesione satelity typu CubeSat, które będą prowadziły eksperymenty naukowe i testy technologii. Na rok 2022 przewidziano Artemis 2 – pierwszy załogowy test Oriona i SLS. Po raz pierwszy od 50 lat ludzie polecą poza orbitę Księżyca. W tym samym roku ma zostać wystrzelony pierwszy element stacji Lunar Gateway. Wczoraj NASA poinformowała, że za stworzenie modułu odpowiedzialnego za zapewnienie energii, napędu oraz komunikacji będzie odpowiedzialna firma Maxar Technologies. Lunar Gateway to niewielka stacja kosmiczna, która zostanie umieszczona na orbicie Księżyca. Będzie ona spełniała rolę huba komunikacyjnego, laboratorium naukowego, tymczasowego miejsca zamieszkania oraz miejsca przechowywania łazików i innych robotów. Kolejnym elementem misji Artemis będzie umieszczenie w 2023 roku na Księżycu łazika. Jego zadaniem będzie lepsze zbadanie i zrozumienie pyłu księżycowego oraz zbadanie lodu pod kątem wykorzystania go do produkcji paliwa, tlenu i wody pitnej. W tym samym 2023 roku na orbitę Srebrnego Globu trafi drugi element stacji Gateway. Będzie to niewielki moduł mieszkalny. Pierwsi astronauci, którzy trafią na stację, przejdą z kapsuły Orion do tego modułu i tam przygotują się do lądowania na Biegunie Południowym Księżyca. W roku 2024 odbędzie się kilka misji, w ramach których w przestrzeń kosmiczną trafią poszczególne elementy Human Landing System. Zostaną one złożone na orbicie i zadokowane do Gateway. W tym samym roku odbędzie się załogowa misja Artemis 3. Astronauci, korzystając z SLS i Oriona, polecą na orbitę Księżyca i zadokują do stacji Gateway. Załoga sprawdzi stację oraz Human Landing System, a następnie uda się na Księżyc. Będzie to pierwsze od ponad 50 lat lądowanie człowieka na Księżycu. W latach 2025–2028 każdego roku będzie odbywała się kolejna misja załogowa. Astronauci biorący udział w Artemis 4 – Artemis 7 będą pracowali zarówno na stacji Gateway jak i na powierzchni satelity Ziemi. Stacja będzie ciągle rozbudowywana tak, by od roku 2028 możliwa była stała obecność i praca ludzi na stacji i Księżycu. W końcu, w oparciu o możliwości eksploracji Księżyca, w latach 30. ma odbyć się załogowa misja na Marsa. « powrót do artykułu
  7. Leonardo da Vinci był geniuszem, ale źródła historyczne podają, że miał problem z kończeniem projektów. Opierając się na tych relacjach, prof. Marco Catani z King's College London uważa, że najlepszym wyjaśnieniem zachowania mistrza jest ADHD. Choć nie można zdiagnozować kogoś, kto żył 500 lat temu, jestem pewien, że ADHD to najbardziej przekonująca i naukowo prawdopodobna hipoteza wyjaśniająca problem Leonarda z kończeniem prac. Źródła pokazują, że da Vinci poświęcał dużo czasu na planowanie, brakowało mu jednak wytrwałości. ADHD [zespół nadpobudliwości psychoruchowej z deficytem uwagi] może wyjaśnić pewne aspekty temperamentu Leonarda [...]. Z zapisków biografów i współczesnych wynika, że da Vinci żył w ciągłym biegu, często "przeskakując" z zadania na zadanie. Tak jak wiele osób z ADHD, spał mało. Pracował dzień i noc, uciekając się do krótkich cykli drzemek i czuwania. Poza zapewnianymi przez współpracowników i mecenasów, w tym papieża Leona X, raportami dot. chaotycznego zachowania, istnieją też pośrednie dowody sugerujące, że mózg Leonarda miał inną organizację. Da Vinci był leworęczny i najprawdopodobniej miał dysleksję, a jego ośrodki językowe znajdowały się w prawej półkuli mózgu (cechy te są częste u osób z ADHD). Prof. Catani dodaje, że unikatową, a zarazem zgubną cechą umysłu Leonarda była nieustająca ciekawość, która z jednej strony napędzała jego kreatywność, z drugiej zaś go rozpraszała. Specjalista dodaje, że błądzenie myślami sprzyja kreatywności i oryginalności, ale na początkowych etapach procesu twórczego. Później te same cechy są przekleństwem, bo co chwilę odciągają uwagę do innych rzeczy. Ludzie często powtarzają krzywdzące twierdzenie, że ADHD jest typowe dla niegrzecznych, mało inteligentnych dzieci, które z pewnością będą mieć w życiu kłopoty. Tymczasem większość moich dorosłych pacjentów wspomina, że byli kiedyś błyskotliwymi, obdarzonymi intuicją dziećmi. Przez porażki związane ze zrealizowaniem potencjału na późniejszych etapach życia rozwinęły się u nich jednak lęk i depresja. To niesamowite, że sam Leonardo uznawał siebie za kogoś, kto poniósł życiową porażkę. Mam nadzieję, że jego przypadek pokaże, że ADHD nie wiąże się z niskim IQ czy brakiem kreatywności, a raczej z trudnością w kapitalizowaniu wrodzonych talentów. Liczę, że dziedzictwo renesansowego mistrza pomoże nam zwalczyć stygmatyzację ADHD. « powrót do artykułu
  8. SpaceX wystrzeliła pierwsze własne satelity komunikacyjne. Start Falcona 9 z 60 satelitami komunikacyjnymi miał odbyć się 17 maja, jednak był ciągle przekładany ze względu na niekorzystne warunki pogodowe i konieczność aktualizacji oprogramowania. W końcu się udało. Godzinę po starcie, na wysokości 450 kilometrów, z rakiety zaczęto uwalniać satelity. Samodzielnie zajmą one orbitę na wysokości 550 kilometrów. Wspomnianych 60 satelitów to część konstelacji Starlink, która ma zapewnić łączność internetową na całym świecie. Starlink zostanie uruchomiona, gdy na orbicie znajdzie się 800 satelitów. SpaceX to niewielka firma, a margines zysku z jej obecnej działalności nie jest duży. Tymczasem przedsiębiorstwo ma wielkie ambicje, chce wysyłać ludzi w przestrzeń kosmiczną. Aby je zrealizować musi znaleźć dodatkowe źródła przychodu. Jednym z nich może być zapewnienie łączy internetowych w każdym miejscu na świecie. SpaceX wchodzi na rynek, na którym działa już konkurencja. Wiele firm oferuje już internet satelitarny. Ich urządzenia korzystają z orbity geostacjonarnej (GEO). Zaletą tego rozwiązania jest fakt, że satelita okrąża Ziemię w takim samym czasie, w jakim trwa obrót Ziemi dookoła własnej osi. Zatem satelita ciągle wisi nad tym samym punktem i zapewnia łączność na obszarze objętym swoim zasięgiem. Wadą umieszczenia satelity na GEO jest fakt, iż orbita ta znajduje się na wysokości około 36 000 kilometrów nad Ziemią. To zaś oznacza, że do praktycznej komunikacji dwustronnej sygnał musi przebyć ponad 70 000 kilometrów. Mogą więc pojawić się opóźnienia, które mogą być widoczne tam, gdzie potrzebna jest szybsza wymiana danych, jak np. podczas online'owych gier wideo. Ponadto obecnie satelity umieszczone na GEO nie pokrywają swoim sygnałem całego obszaru planety. Niska orbita okołoziemska znajduje się na wysokości od 200 do 2000 kilometrów. Sygnał ma więc do przebycia znacznie krótszą drogę i w praktyce opóźnienia nie powinny być większe, niż przy korzystaniu z sygnału nadawanego z Ziemi. Jednak, jako że satelity na LEO poruszają się znacznie szybciej względem Ziemi, to obszar, który jest pokryty sygnałem z danego satelity, ciągle się przesuwa. Zatem jeśli chcemy zapewnić nieprzerwaną łączność na danym obszarze, musimy mieć wiele satelitów, których ruch jest zsynchronizowany tak, by gdy jeden satelita opuszcza dany obszar, kolejny natychmiast wlatywał w jego miejsce. Mark Juncosa, wiceprezes SpaceX odpowiedzialny za kwestie inżynieryjne, mówi, że po 12 dodatkowych startach rakiet z satelitami Starlink jego firma obejmie swoimi usługami całe USA, po 24 startach będzie mogła zapewnić łączność na najgęściej zaludnionych obszarach, a po 30 startach ze Starlinka będzie można korzystać na całym świecie. Starlink to niezwykle ważne przedsięwzięcie w planach SpaceX. Jak już wspomnieliśmy, firma potrzebuje pieniędzy na realizację swoich podstawowych planów związanych z wysyłaniem ludzi w przestrzeń kosmiczną. Jak przyznał Elon Musk, przychody biznesu związanego z wynoszeniem ludzi i towarów na zlecenie mogą w przyszłości sięgnąć 3 miliardów dolarów rocznie, tymczasem potencjalne przychody z dostarczania internetu mogą być nawet 10-krotnie wyższe. Postrzegamy to jako sposób na wygenerowanie środków, które będziemy mogli użyć na tworzenie coraz bardziej zaawansowanych rakiet i statków kosmicznych. To kluczowy element planu budowy stacji na Księżycu i samowystarczalnego miasta na Marsie, mówi Musk. Pozostaje jeszcze jeden ważny problem. Obecnie na LEO znajduje się około 2000 działających satelitów. Jeśli wszystko pójdzie zgodnie z planem, większość satelitów krążących wokół Ziemi będzie należała do SpaceX. To duża rzecz, przyznaje Musk. Możemy też przypuszczać, że konkurencja nie będzie zasypiała gruszek w popiele. W najbliższych latach wokół naszej planety może więc krążyć kilkakrotnie więcej satelitów niż obecnie. Tymczasem już obecnie kosmiczne śmieci są coraz większym problemem. Coraz więcej satelitów oznacza z jednej strony, że te, które się zepsują lub zakończy się czas ich pracy, staną się kolejnymi odpadkami, z drugiej strony im ich więcej, tym większe ryzyko kolizji z już istniejącymi śmieciami, a wskutek każdej z takich kolizji pojawia się olbrzymia liczba szczątków i znowu wzrasta ryzyko kolizji z działającymi satelitami. Musk mówi, że każdy z satelitów Starlink zostanie wyposażony w dane o orbitach wszystkich znanych odpadków kosmicznych i będzie mógł ich unikać. Ponadto zapewnia, że nieczynne satelity będą z czasem spadały na Ziemię i w 95% będą płonęły w atmosferze. To jednak oznacza, że z każdego satelity na powierzchnię spadnie kilkanaście kilogramów odłamków. Zgodnie z zapewnieniem SpaceX mają być one kierowane na Ocean Spokojny. Ryzyko, że ktoś na Ziemi zostanie zraniony lub zabity przez szczątki spadającego satelity jest minimalne. Jednak biorąc pod uwagę fakt, że szybko rośnie zarówno liczba satelitów jak i liczba ludzi, można się spodziewać, że w najbliższych latach przeczytamy doniesienia o osobach trafionych kosmicznymi śmieciami. « powrót do artykułu
  9. Naukowcy z Uniwersytetu w Tampere wykazali po raz pierwszy, że zatory mózgowe pacjentów po udarach zawierają DNA bakterii jamy ustnej (tzw. paciorkowców zieleniejących). Wyniki badań ukazały się w Journal of American Heart Association. Próbki pobrane od 75 osób podczas trombektomii (mechanicznego usuwania skrzepliny za pomocą aspiracji) badano pod kątem genetycznym; wykonano reakcję łańcuchową polimerazy. Bakteryjne DNA stwierdzono w 84% próbek. DNA paciorkowców (Streptococcus), głównie z grupy Streptococcus mitis, która zawiera S. mitis i S. oralis, występowało w 79% aspiratów. Mediana względnej ilości DNA paciorkowców w skrzeplinach była 5,10-krotnie wyższa niż określona na podstawie próbek krwi tych samych pacjentów. Opisywane badanie stanowi część 10-letniego studium, które ma pomóc w ocenie wpływu zakażenia bakteryjnego na rozwój chorób sercowo-naczyniowych. Wcześniej grupa wykazała, że te same bakterie jamy ustnej występowały u chorych ze stenozą (zwężeniem) naczyń wieńcowych, którzy nagle zmarli, aspiratach osób po zawale, pękniętych tętniakach mózgu oraz próbkach pobranych od pacjentów z zakrzepicą żył i naczyń tętniczych kończyn dolnych. Paciorkowce mogą się bezpośrednio wiązać z różnymi receptorami płytek krwi (trombocytów), zwiększając podatność pacjenta na powstawanie skrzeplin. Wszyscy uwzględnieni w najnowszym badaniu pacjenci przeszli ostry udar niedokrwienny; 69% próby stanowili mężczyźni, a średnia wieku wynosiła 67 lat. « powrót do artykułu
  10. Odra jest już chorobą ludzi dorosłych i poważnym zagrożeniem dla zdrowia w krajach UE – powiedziała we wtorek konsultant krajowy w dziedzinie epidemiologii dr Iwona Paradowska-Stankiewicz. Dodała, że tylko niewielka część przypadków tej choroby została zaimportowana z krajów spoza Europy. Z przedstawionych podczas spotkania z dziennikarzami najnowszych danych Narodowego Instytutu Zdrowia Publicznego – Państwowego Zakładu Higieny wynika, że od 1 stycznia do 15 maja 2019 r. liczba osób zakażonych odrą w naszym kraju zwiększyła się do 948. To jak na razie rekordowa liczba. W całym 2018 r. było u nas 355 przypadków tej choroby, a w 2017 - zaledwie 63. Konsultant krajowy w dziedzinie epidemiologii dr Iwona Paradowska-Stankiewicz powiedziała, że jeszcze większy wzrost zachorowań z powodu odry jest w innych krajach europejskich. Według danych Światowej Organizacji Zdrowia (WHO) w Rumunii w 2017 r. odnotowano ponad 5,5 tys. przypadków tej choroby, a we Włoszech – 5 tys. W sumie w 2017 r. było na naszym kontynencie 21,3 tys. przypadków odry, a w 2016 r. 5,2 tys., czyli czterokrotnie mniej. We wszystkich krajach europejskiego obszaru gospodarczego (EU oraz EFTA - Europejskie Stowarzyszenie Wolnego Handlu), od 1 stycznia 2016 r. do 31 marca 2019 r. zarejestrowano ponad 44 tys. przypadków odry. Odnotowano także zgony. Od 1 marca 2018 do 28 lutego 2019 r. w krajach europejskiego obszaru gospodarczego (EU/EEA) było 29 zgonów z powodu odry, najwięcej w Rumunii - dziewiętnaście, we Włoszech – siedem, we Francji – dwa i jeden w Grecji. Zdaniem dr Iwony Paradowskiej-Stankiewicz, odra przestaje być chorobą głównie wieku dziecięcego. Stale zwiększa się mediana wieku osób zakażonych odrą w Unii Europejskiej, w 2019 r. wyniosła ona 17 lat – podkreśliła. Jednocześnie zwiększa się odsetek ludzi dorosłych zaatakowanych przez tę chorobę. W marcu 2019 r. stanowili oni już 43 proc. wszystkich zakażonych. Ze statystyk epidemiologicznych wynika, że na odrę najbardziej podatne są niemowlęta i małe dzieci do czwartego roku życia oraz osoby dorosłe w wieku 25-44 lat. Ale w 19 krajach europejskich dorośli po 20. roku życia są najbardziej dotkniętą tą choroba grupą. W Europie jest duża grupa ludzi podatnych na odrę z powodu historycznego, jak i obecnego niskiego stanu zaszczepienia przeciwko tej chorobie - podkreśliła dr Iwona Paradowska-Stankiewicz. Dodała, że w 2017 r. tylko cztery państwa UE, np. Szwecja, osiągnęły cel WHO, czyli 95 proc. zaszczepienia dzieci dwiema dawkami szczepionki przeciwko odrze. W naszym kraju w 2017 r. udało się zaszczepić ponad 95 proc. dzieci, ale tylko jedną dawką szczepionki przeciwko odrze. Jeśli chodzi o dwie dawki – tak jak zaleca WHO – to Polska w 2017 r. znalazła się wśród krajów, w których zaszczepiono 85-94 proc. dzieci – wynika z przedstawionych podczas konferencji prasowej danych Światowej Organizacji Zdrowia. Tylko niewielka część przypadków odry została zaimportowana z innych krajów spoza Europy. Istnieje duży potencjał importu tych zakażeń, chociaż w latach 2016-2019 importowano dotąd tylko 4 proc. wszystkich przypadków - tłumaczyła dr Iwona Paradowska-Stankiewicz. Zdaniem specjalistki, osoby dorosłe powinny się zaszczepić przeciwko odrze, najlepiej dwoma dawkami. "Tak, potwierdzam, osoby dorosłe również powinny się zaszczepić przeciwko tej chorobie zakaźnej" – powiedziała konsultant krajowy w rozmowie z PAP. O szczepieniach przeciwko odrze u ludzi dorosłych informuje na swojej stronie internetowej Główny Inspektorat Sanitarny. Zwraca on uwagę, że wprowadzono je w 1975 r., zatem spośród osób po 50. roku życia odporność zyskały jedynie te, które przechorowały odrę. Osoby, które tego nie pamiętają, mogą zbadać poziom przeciwciał przeciwko odrze. Osoby dorosłe zaszczepione jedną dawką szczepionki, w celu pełnego uodpornienia powinny przyjąć drugą, przypominającą dawkę szczepionki - podkreśla GIS. Światowa Organizacja Zdrowia ostrzega, że odra jest bardzo zaraźliwą chorobą wirusową wieku dziecięcego. Szerzy się drogą kropelkową oraz przez bezpośrednią styczność z wydzieliną jamy nosowo-gardłowej, głównie w tych miejscach, gdzie jest dostatecznie duża grupa osób niezaszczepionych lub tych, które utraciły już odporność. « powrót do artykułu
  11. W menu szympansów znajdują się żółwie. Małpy uderzają nimi o pnie i/lub gałęzie, a gdy karapaks pęka, wyjadają mięso. Od dziesięcioleci wiemy, że szympansy jedzą mięso różnych zwierząt, dotąd jednak nie zaobserwowano spożycia gadów. Szczególnie interesujące jest to, że szympansy podchodzą do żółwi jak do owoców o twardych skorupkach. Uderzają nimi w coś i w ten sposób dobierają się do mięsa, które jest niedostępne dla większości drapieżników - opowiada Tobias Deschner, prymatolog z Instytutu Antropologii Ewolucyjnej Maxa Plancka. Naukowcy analizowali zachowanie szympansów ze społeczności Rekambo z Parku Narodowego Loango w Gabonie. Między lipcem 2016 a majem 2018 r. zaobserwowano 38 zdarzeń z udziałem 10 osobników (34 próby były udane). Czasem młodsze osobniki bądź samice nie były w stanie samodzielnie otworzyć żółwia. Dawały go wtedy silniejszemu samcowi, który rozbijał karapaks i dzielił się mięsem ze wszystkimi obecnymi - wyjaśnia Simone Pika z Uniwersytetu w Osnabrücku. W jednym z przypadków do żółwia dobrał się samotny dorosły samiec. Siedząc na drzewie, zjadł połowę, a pozostałości nabił na gałąź. Zszedł, zbudował gniazdo na pobliskim drzewie i rano wrócił po resztę. To wskazuje, że szympansy mogą planować pod kątem przyszłych zdarzeń i potrzeb. [...] Nasze wyniki sugerują, że nawet po dziesięcioleciach badań nadal nie uchwyciliśmy w pełni elastyczności i złożoności inteligencji szympansów - podkreśla Pika. Pika dodaje, że polowanie na żółwie były często obserwowanym zachowaniem u niemal wszystkich dorosłych samców. Składało się z unikatowej sekwencji zdarzeń: wykrycia ofiary, jednoręcznego uderzania karapaksem o twardą powierzchnię, np. pień i wspinania się na drzewo, by się posilić. W 6 przypadkach szympans najpierw nosił żółwia, pokonując 10-50 m po ziemi. Trwało to nawet do 11 minut. Dopiero potem następowało rozbijanie. Dziesięć razy zdarzyło się, że karapaks był miażdżony 2-krotnie: raz na ziemi i ponownie po wspięciu na drzewo. W 23 na 36 przypadków nastąpiło dzielenie się żółwiem z innymi, w tym z osobnikami, które wcześniej próbowały dobrać się do kąska, ale im się nie udało. Na zamieszczonym niżej filmie uwieczniono młodocianą samicę o imieniu Gia, która uderza żółwiem o gałąź.   « powrót do artykułu
  12. W BMJ Case Reports opisano przypadek 11-latki, która pośliznęła się i upadając, wbiła sobie ołówek w lewą tętnicę szyjną wspólną, która zaopatruje w krew mózg, szyję i twarz. W szpitalu od razu trafiła na salę operacyjną. Dziewczynka przewróciła się w szkole podczas przerwy. Początkowo zabrano ją do regionalnego centrum zdrowia. Stamtąd przewieziono ją karetką do Hospital for Sick Children w Ontario. Rana nie krwawiła, nie utworzył się krwiak. Wszystkie parametry życiowe nastolatki były prawidłowe (nie stwierdzono też stridoru, czyli świstu krtaniowego). Wystający z szyi ołówek stanowił jednak niepokojący widok, bo pulsował w rytm tętna dziewczynki. Lekarze przeprowadzili angiografię tomografii komputerowej, która pokazała, że ołówek utkwił w tętnicy wspólnej szyjnej, całkowicie blokując jej światło. Tętnicę oznaczono za pomocą pętli naczyniowych. Po podaniu heparyny ołówek usunięto i zamknięto ranę. Jedenastolatka doszła do siebie naprawdę szybko i drugiego dnia po operacji została wypisana do domu. Przez 3 miesiące zażywała aspirynę. Proces gojenia był kontrolowany za pomocą USG. Pierwsze badanie przeprowadzono po 6 tygodniach. W kolejnym roku wykonywano je co 6 miesięcy, a przez następne 2 lata co rok. Wreszcie po 3 latach obrazowanie nie wykazało żadnych nieprawidłowości. Dziewczynka jest całkowicie zdrowa, obawia się tylko lekcji plastyki i innych czynności związanych z wykorzystywaniem ołówków. Tego typu urazy mogą prowadzić do uszkodzeń dróg oddechowych, układu pokarmowego i nerwowo-mięśniowego. Penetrujące urazy szyi są u dzieci rzadsze niż u dorosłych. Przez mniejsze rozmiary mogą u nich poczynić więcej szkód - podsumowują specjaliści. « powrót do artykułu
  13. Czy wiesz, że twoje życie jest warte 2,7 miliona dolarów? I to wciąż za mało, by opłacało się budować bezpieczniejsze samoloty. Dowiedz się, jak wystrzeliwane z katapulty świnki morskie pomogły zbadać przyczyny katastrof lotniczych, a spadające zwłoki – zaprojektować bezpieczne przednie szyby samochodowe. I dlaczego pacjenci po przeszczepach mają większą ochotę na seks. Mary Roach w swojej fascynującej książce pokazuje, jak nauka wykorzystuje ludzkie ciała po śmierci. Naukowcy rozczłonkowują je, otwierają, przerabiają, zrzucają z ogromnych wysokości i skazują na czołowe zderzenia ze ścianą. Wszystko po to, żeby rozwijać medycynę sądową, zapewnić bezpieczeństwo podróżujących samochodami i samolotami oraz tworzyć nowe możliwości w dziedzinie chirurgii. Niesamowita odporność zwłok czyni je superbohaterami, którym zawdzięczamy bezpieczeństwo i zdrowie. Dociekliwa reporterka Mary Roach wścibia nos tam, gdzie inni się boją, wstydzą lub brzydzą. Dzięki temu mogła napisać Sztywniaka, który jest nie tylko jedną z najbardziej niezwykłych, ale i najzabawniejszą książką popularnonaukową ostatnich lat. Nowe wydanie książki ukaże się 3 lipca.
  14. Część fizyków uważa, że w Wielkim Zderzaczu Hadronów (LHC) powstają długo żyjące cząstki, które dotychczas nie zostały wykryte. W przyszłym tygodniu w CERN odbędzie się spotkanie, na którym zostaną omówione metody zarejestrowania tych cząstek. W 2012 roku LHC zarejestrował obecność bozonu Higgsa, ostatniej nieuchwyconej wcześniej cząstki przewidywanej przez Model Standardowy. Jednak od tamtej pory nie znaleziono niczego nowego czy niespodziewanego. Niczego, co wykracałowy poza Model Standardowy. Nie odkryliśmy nowej fizyki, nie potwierdziliśmy założeń, z jakimi rozpoczynaliśmy prace. Może należy zmienić te założenia, mówi Juliette Alimena z Ohio State University, która pracuje przy CMS (Compact Muon Solenoid), jednym z dwóch głównych detektorów cząstek w LHC. Pomimo tego, że w LHC zainwestowano miliardy dolarów, to urządzenia pracuje tak, jak pracowały akceleratory przed kilkudziesięcioma laty. Fizycy od dekad zderzają ze sobą protony lub elektrony, zwiększają ich energie, by w procesie tym uzyskać nowe ciężkie cząstki i obserwować, jak w ciągu biliardowych części sekundy rozpadają się na lżejsze, znane nam cząstki. Te lżejsze są wykrywane i na podstawie ich charakterystyk wiemy, z jakich cięższych cząstek pochodzą. Tak właśnie działa i CMS i drugi z głównych wykrywaczy LHC – ATLAS (A Toroidal LHC Apparatus). Jednak długo żyjące ciężkie cząstki mogą umykać uwadze detektorów. Przypuszczenie takie nie jest nowe. Niemal wszystkie teorie wykraczające poza standardowe modele fizyczne przewidują istnienie długo żyjących cząstek, mówi Giovanna Cottin, fizyk-teoretyk z Narodowego Uniwersytetu Tajwańskiego. Na przykład teoria supersymetrii mówi, że każda z cząstek Modelu Standardowego ma cięższego partnera. Istnieją teorie mówiące też o istnieniu np. ciemnych fotonów i innych „ciemnych” cząstek. Dotychczas niczego takiego nie udało się zaobserwować. LHC nie został zaprojektowany do poszukiwania cząstek wykraczających poza Model Standardowy. CMS i ATLAS skonstruowano tak, by wykrywały cząstki ulegające natychmiastowemu rozpadowi. Każdy z nich zawiera warstwowo ułożone podsystemy rejestrujące produkty rozpadu cząstek. Wszystkie one ułożone są wokół centralnego punktu, w którym dochodzi do zderzenia. Jednak problem w tym, że jeśli w wyniku zderzenia powstanie cząstka, która będzie żyła tak długo, iż przed rozpadem zdoła przebyć chociaż kilka milimetrów, to pozostawi ona po sobie nieoczywiste sygnały, smugi, zaburzone trasy ruchu. Oprogramowanie służące do analiz wyników z detektorów odrzuca takie dane, traktując je jak zakłócenia, artefakty. To problem, bo my tak zaprojektowaliśmy eksperymenty, a programiści tak napisali oprogramowanie, że po prostu odfiltrowuje ono takie rzeczy, mówi Tova Holmes z University of Chicago, która w wykrywaczu ATLAS poszukuje takich zaburzeń. Holmes i jej koledzy wiedzą, że muszą zmienić oprogramowanie. Jednak to nie wystarczy. W pierwszym rzędzie należy upewnić się, że wykrywacze w ogóle będą rejestrowały takie dane. Jako, że w w LHC w ciągu sekundy dochodzi do 400 milionów zderzeń protonów, w samym sprzęcie zastosowano mechanizmy chroniące przed przeładowaniem danymi. Już na poziomie sprzętowym dochodzi do odsiewania zderzeń i podejmowania decyzji, które są interesujące, a które należy odrzucić. W ten sposób do dalszej analizy kierowane są dane z 1 na 2000 zderzeń. To zaś oznacza, że możemy mieć do czynienia z utratą olbrzymiej ilości interesujących danych. Dlatego też część naukowców chciałaby przyjrzeć się kalorymetrowi CMS, do którego mogą docierać długo żyjące ciężkie cząstki. Chcieliby zastosować mechanizm, który od czasu do czasu będzie odczytywał pełne wyniki wszystkich zderzeń. Szukanie ciężkich cząstek nigdy nie było łatwe, chociażby dlatego, że naukowcy mieli różne pomysły na to, jak je zarejestrować. To zawsze było tak, że pracowały nad tym pojedyncze osoby. A każdy z nich sam dla siebie stanowił grupę wsparcia, przyznaje James Beacham z Ohio State University. Teraz zainteresowani połączyli siły i w marcu ukazało się 301-stronicowe opracowanie autorstwa 182 naukowców, w którym zaproponowano metody optymalizacji poszukiwań ciężkich cząstek. Niektórzy z nich proponują, by w najbliższej kampanii, planowanej na lata 2012–2023 częściej zbierano kompletne dane ze wszystkich zderzeń. Niewykluczone, że to ostatnia szansa na zastosowanie tej techniki, gdyż później intensywność generowanych wiązek zostanie zwiększona i zbieranie wszystkich danych stanie się trudniejsze. Inni chcą zbudowania kilku nowych detektorów wyspecjalizowanych w poszukiwaniu ciężkich cząstek. Jonathan Feng, fizyk-teoretyk z Uniwersytetu Kalifornijskiego w Irvine, wraz z kolegami uzyskali nawet od CERN zgodę na zbudowanie Forward Search Experiment (FASER). To niewielki detektor, który ma zostać umieszczony w tunelu serwisowym w odległości 480 metrów w dół wiązki od ATLAS-a. Naukowcy zebrali już nawet 2 miliony dolarów od prywatnych sponsorów i dostali potrzebne podzespoły. FASER ma poszukiwać lekkich cząstek, takich jak ciemne fotony, które mogą być wyrzucane z ATLAS-a, przenikać przez skały i rozpadać się w pary elektron-pozyton. Jeszcze inna propozycja zakłada wykorzystanie pustej komory znajdującej się za niewielkim wykrywaczem LHCb. Umieszczony tam Compact Detector for Exotics at LHCb miałby poszukiwać długo żyjących cząstek, szczególnie tych pochodzących z rozpadu bozonu Higgsa. Jednak najbardziej ambitną propozycją jest budowa detektora o nazwie MATHULSLA. Miałby to być wielki pusty budynek wzniesiony na powierzchni nad detektorem CMS. W jego dachu miałyby zostać umieszczone czujniki, które rejestrowałyby dżety pochodzące z rozpadu długo żyjących cząstek powstających 70 metrów poniżej, wyjaśnia David Curtin z Uniwersytetu w Toronto, jeden z pomysłodawców wykrywacza. Uczony jest optymistą i uważa, że detektor nie powinien kosztować więcej niż 100 milionów euro. Po nocach śni nam się koszmar, w którym Jan Teoretyk powie nam za 20 lat, że niczego nie odkryliśmy bo nie rejestrowaliśmy odpowiednich wydarzeń i nie prowadziliśmy właściwych badań, mówi Beacham, który pracuje przy wykrywaczu ATLAS. « powrót do artykułu
  15. Nadciśnienie tętnicze może mieć nawet 17 mln Polaków, jeśli przyjmiemy obowiązujące od 2017 r. normy amerykańskie – przekonywali w środę specjaliści podczas konferencji prasowej w Warszawie. Polscy hipertensjolodzy zaproponowali nowe wytyczne leczenia nadciśnienia. Według przedstawionych na spotkaniu z dziennikarzami danych, w Polsce nadciśnienie tętnicze ma 14 mln Polaków w wieku 19-99 lat. Wskazuje na to Wieloośrodkowe Ogólnopolskie Badanie Stanu Zdrowia Ludności WOBASZ II z 2014 r. Wszystko zależy jednak, jakie przyjmuje się kryteria nadciśnienia tętniczego krwi – twierdzą hipertensjolodzy (lekarze specjalizujący się w leczeniu nadciśnienia). Jeśli przyjmiemy normy amerykańskie, jakie obowiązują od listopada 2017 r., w naszym kraju zbyt wysokie ciśnienie tętnicze krwi może mieć nawet 17 mln osób – powiedział prezes Polskiego Towarzystwa Nadciśnienia Tętniczego prof. Krzysztof J. Filipiak. Według Amerykańskiego Towarzystwa Kardiologicznego (AHA) prawidłowo ciśnienie tętnicze krwi nie powinno przekraczać 130/80 mmHg. W Europie za prawidłowe uznaje się wciąż ciśnienie nieprzekraczające 140/90 mmHg i przy takim kryterium w Polsce jest 14 mln osób z nadciśnieniem. Rektor Uniwersytetu Medycznego w Poznaniu, były prezes Polskiego Towarzystwa Nadciśnienia Tętniczego, prof. Andrzej Tykarski powiedział, że najnowsze polskie wytyczne uwzględniają normy amerykańskie, jeśli chodzi o leczenie nadciśnienia tętniczego. Za prawidłowe, podobnie jak w innych krajach europejskich, uznajemy wartość ciśnienia 140/90 mmHg, ale zalecamy, żeby u osób do 65. roku życia obniżać je lekami tak, by nie przekraczało 130/80 mmHg - wyjaśniał. Jedynie u osób starszych, które ukończyły 65 lat, można w terapii ograniczyć się do wartości 140/90 mmHg. Specjalista podkreślił, że według nowych proponowanych przez PTNT zaleceń, leczenie nadciśnienia powinno być bardziej intensywne niż dotychczas. Oznacza to zmianę filozofii terapii – dodał. Wynika ona z tego, że uzyskanie niższego ciśnienia niż dotąd zalecano pozwoli zwiększyć skuteczność leczenia tej dolegliwości i ochronić więcej osób przed jej groźnymi powikłaniami, głównie takimi jak zawał serca i udar mózgu. Sekretarz Zarządu Głównego Polskiego Towarzystwa Nadciśnienia Tętniczego dr. hab. n. med. Filip Szymański przypomniał, że nadciśnienie może doprowadzić do wielu innych schorzeń. Poza chorobami sercowo-naczyniowymi może ono spowodować tętniaki aorty i tętnic mózgowych, rozwarstwienie aorty, a także przewlekłą niewydolność nerek oraz uszkodzenia wzroku – wyliczał. W Polsce skuteczność leczenia nadciśnienia tętniczego wciąż jest niewystarczająca – alarmowali specjaliści PTNT. Z omawianego podczas spotkania badania WOBASZ II wynika, że leczy się 46,1 proc. chorych z nadciśnieniem, a właściwą kontrolę ciśnienia uzyskuje się jedynie u 23 proc. pacjentów. Nie wynika to z tego, że źle leczymy – wyjaśniał prof. Tykarski. Jego zdaniem wiele osób wciąż nie wie, że ma nadciśnienie tętnicze krwi, a inni wiedzą o tym, ale nie zgłaszają się do lekarza i nie podejmują leczenia. Zdecydowana większość pacjentów z tą dolegliwością - przyznali specjaliści – może się leczyć u lekarza podstawowej opieki zdrowotnej. Jedynie 0,5 mln chorych wymaga opieki hipertensjologa. Eksperci przekonywali, że do większej skuteczności leczenia nadciśnienia tętniczego mogłoby się przyczynić większe wykorzystanie w naszym kraju tzw. polipigułek, zawierających w jednej tabletce kilka leków, najczęściej dwa lub trzy. Pacjenci chętniej zażywają jedną pigułkę niż dwie lub trzy, duża liczna leków bardziej zniechęca do terapii, szczególnie na początku leczenia – powiedział prof. Filipiak. Z informacji przekazanych podczas konferencji prasowej przez hipertensjologów wynika, że w naszym kraju są refundowane tylko niektóre polipigułki w leczeniu nadciśnienia, a powinno być ich znacznie więcej, aby lepiej dopasować je do poszczególnych chorych. Takie leki złożone są droższe, ale w dłuższym okresie stosowania są jednak bardziej opłacalne, bo pozwalają lepiej w dłuższym kontrolować ciśnienie tętnicze pacjenta. W sumie są zatem bardziej opłacalne i warto w nie zainwestować – przekonywał. Według prof. Tykarskiego, w naszym kraju zaledwie 8-12 proc. pacjentów stosuje polipigułki w leczeniu nadciśnienia, mniej niż w innych krajach. W Portugalii zażywa je prawie połowa pacjentów z nadciśnieniem, ale kontrolę ciśnienia uzyskano tam u 60 proc. osób z tą dolegliwością – dodał. Dr hab. Filip Szymański podkreślił, że w leczeniu nadciśnienia tętniczego bardzo ważna jest zmiana stylu życia, głównie zapobieganie otyłości, zwiększenie aktywności fizycznej oraz ograniczenie spożycia soli. Światowa Organizacja Zdrowia (WHO) zaleca, żeby być aktywnym fizycznie przez co najmniej 150 minut tygodniowo (np. 30 minut pięć razy w tygodniu). Taka aktywność jest jednak zbyt mała. W nowych zaleceniach sugeruje się, żeby być aktywnym przez 300 minut tygodniowo – powiedział prof. Tykarski. Specjaliści Polskiego Towarzystwa Nadciśnienia Tętniczego zalecają głównie spacery, pływanie oraz jazdę na rowerze. « powrót do artykułu
  16. Przy wyższych temperaturach kobiety lepiej wypadają w zadaniach matematycznych i słownych. U mężczyzn jest dokładnie na odwrót (w ich przypadku zależność między temperaturą a osiągami jest jednak słabiej zaznaczona). Badanie sugeruje, że płeć jest ważnym czynnikiem nie tylko przy określaniu wpływu temperatury na komfort, ale i na produktywność czy osiągi poznawcze. Jest udokumentowane, że kobiety wolą w pomieszczeniach wyższe temperatury niż mężczyźni. Dotąd sądzono jednak, że to wyłącznie kwestia osobistych preferencji. Nasz zespół ustalił, że nie chodzi tylko o to, czy czujesz się dobrze, czy nie i że temperatura wpływa na osiągi w kluczowych dziedzinach: w matematyce, zadaniach słownych i we wkładanym wysiłku - opowiada prof. Tom Chang z Uniwersytetu Południowej Kalifornii. W eksperymencie wzięło udział 543 studentów z WZB Berlin Social Science Center. W ciągu sesji ustawiano różne zakresy temperaturowe (od ok. 16 do 33 stopni Celsjusza). Ochotnicy mieli wykonywać 3 typy zadań (zachętą do pracy była nagroda pieniężna): 1) matematyczne, polegające na dodaniu bez kalkulatora pięciu dwucyfrowych liczb, 2) słowne, przy którym z zestawu 10 liter należało utworzyć w zadanym czasie jak najwięcej słów i 3) test świadomego myślenia (ang. Cognitive Reflection Test, CRT). Naukowcy wykryli znaczącą zależność między temperaturą otoczenia i wynikami osiąganymi w zadaniach matematycznym i słownym. Ani u kobiet, ani u mężczyzn temperatura nie miała wpływu na wyniki testu CRT. Jedną z najbardziej zaskakujących rzeczy jest to, że nie uciekaliśmy się wcale do skrajnych temperatur. Nie chodzi o trzaskający mróz czy upał. Znaczące zróżnicowanie osiągów widać nawet przy temperaturach rzędu 60-75 stopni Fahrenheita [15,5-24 stopni Celsjusza], co jest w końcu stosunkowo normalnym zakresem wartości. Autorzy artykułu z pisma PLoS ONE podkreślają, że poprawa osiągów poznawczych kobiet w wyższych temperaturach wydaje się napędzana głównie wzrostem liczby podawanych odpowiedzi. Po części można to interpretować jako skutek wzrostu wkładanego wysiłku. U mężczyzn spadek osiągów poznawczych przejawiał się mniejszą liczbą zgłaszanych odpowiedzi. Wzrost osiągów kobiet jest większy (daje się też precyzyjniej oszacować) niż spadek osiągów u mężczyzn. Amerykańsko-niemiecki zespół podkreśla, że uzyskane wyniki rzucają nieco światła na nieustającą walkę o ustawienia termostatu w biurach. Wg naukowców, by zwiększyć produktywność w mieszanych płciowo zespołach, ustawienia temperatury powinny być wyższe niż przy obecnych standardach. « powrót do artykułu
  17. W przyszłym miesiącu w Narodowym Muzeum Historii Naturalnej w Waszyngtonie zostanie otwarta wystawa na temat zmian klimatu Ziemi na przestrzeni setek milionów lat. Przygotowujący ją paleobotanik Scott Wing i paleontolog Brian Huber, chcieli zaprezentować też wykres temperatur powierzchni Ziemi w ciągu ostatnich 500 milionów lat. Zadanie okazało się niezwykle trudne do wykonania, a uzyskane wyniki zaskoczyły specjalistów. Okazało się, że w przeszłości na naszej planecie panowały znacznie bardziej ekstremalne warunki, niż sądziliśmy. Dość łatwo jest śledzić okresy zlodowaceń czy okresy wysokich temperatur, gdy palmy rosły w pobliżu biegunów. Jednak poza tym niewiele jest pewnych rzeczy. Szczególnie jeśli chodzi o paleozoik, erę która rozpoczęła się 542 miliony lat temu. Pierścienie drzew pozwalają na śledzenie temperatur na przestrzeni tysięcy lat, w rdzeniach lodowców zapisane są dane z około miliona lat. Dlatego prace nad odtworzeniem dawnego klimatu są niezwykle trudne. Specjaliści zajmujący się paleoklimatem wykorzystują różne metody pomiarowe, różne metody korekty błędów, korzystają z różnych materiałów. Jedni odtwarzają klimat sprzed milionów lat na podstawie skamieniałych liści, inni na podstawie wzrostu skamieniałych koralowców. Często uzyskują sprzeczne wyniki. Nie rozmawiamy ze sobą zbyt dużo, przyznaje paleoklimatolog Dana Royer z Wesleyan University. Huber i Wing postanowili to zmienić i powołali do życia luźną grupę naukową o nazwie Phantastic, której celem jest zebranie i zweryfikowanie różnych danych. Pomysł jej powołania spodobał się wielu naukowcom, przyznaje Dan Lunt z Uniwersytetu w Bristolu, który specjalizuje się w modelowaniu paleoklimatu. Dodatkową zachętą dla naukowców było przypuszczenie, że jeśli uda się dobrze określić klimat, jaki panował w przeszłości oraz nałożyć na to stężenie CO2 w atmosferze, będzie można udoskonalić współczesne modele klimatyczne i lepiej określić, jak dwutlenek węgla wpływa na klimat. Do szacunku dawnych temperatur można wykorzystywać izotopy tlenu uwięzione w skamieniałych muszlach na dnie oceanów. Jako, że molekuły wody zawierające lżejsze izotopy szybciej parują i zostają uwięzione w lodzie, stosunek ciężkich i lekkich izotopów w skamielinach wskazuje na globalną ilość lodu, z czego można zgrubnie wyliczać temperatury. Jednak tutaj pojawia się kolejny problem. W niewielu miejscach na świecie mamy do czynienia z dnem oceanicznym starszym niż 100 milionów lat. Ciągły ruch płyt tektonicznych bez przerwy „odnawia” dno oceanów. Geochemik Ethan Grossman z Texas A&M University bada morskie skamieniałości znajdowane na lądach. To głównie szczątki ramienionogów, z których najstarsze pochodzą sprzed 540 milionów lat. Większość z nich żyła w płytkich morzach, które formowały się wewnątrz dawnych superkontynentów. Żeby jednak używać ich do oceny temperatur, trzeba przyjąć założenie, że stosunek izotopów tlenu w morzach przed milionami lat był taki, jak we współczesnych oceanach. Problem ten znany jest specjalistom od dziesięcioleci. Jednak grupa Phantastic postanowiła podejść do niego w nowatorskich sposób. Wykorzystali nową technikę mierzącą zawartość dwóch lub więcej połączonych razem rzadkich izotopów. Za pomocą bardzo czułych spektrometrów mas analizowali skamieniałości pod kątem obecności w nich molekuł zawierających ciężki izotop tlenu powiązany z ciężkim izotopem węgla. Takie molekuły częściej występują w niskich temperaturach. Problem w tym, że jeśli skamieniałość była wystawiona na działanie wysokiej temperatury lub ciśnienia, to uzyskane wyniki będą mylące. Na szczęście naukowcy odkryli sposób na odróżnienie tych zmienionych skamieniałości. Udaliśmy się do miejsca, w którym mogliśmy przeprowadzić badania, stwierdzili naukowcy. Poszukiwaniami połączonych ciężkich izotopów zajęła się geobiolog Kristin Bergmann z MIT we współpracy z geochemikiem Gregorym Henkesem z Uniwersytetu Stanu Nowy Jork i innymi uczonymi. W czasie swoich badań dokonali odkrycia, które trudno określić inaczej, niż „szokujące”. Okazało się, że przed 450 milionami lat średnia temperatura wód oceanicznych wynosiła... 35–40 stopni Celsjusza. To o ponad 20 stopni więcej, niż obecnie. I w takich, wydawałoby się niekorzystnych, warunkach, życie w oceanach rozkwitało, a nawet różnicowało się. Dla biologów to coś, z czym nie potrafią sobie poradzić. Dla współczesnych organizmów są to ekstremalne temperatury, mówi Grossman. Pozostało jeszcze przełożyć uzyskane lokalne wyniki na dane dla całego globu. Jeden z członków grupy Phantastic wpadł na prosty pomysł: wystarczy sprawdzić, jak wyglądała wówczas pokrywa lodowa na Ziemi, by dowiedzieć się, pomiędzy temperaturami wód na równiku i w pobliżu biegunów istniała aż tak wielka różnica. Inni członkowie Phantastic wykorzystują zdobyte dane do lepszego skalibrowania modeli klimatycznych opisujących dawny klimat i testują modele przeprowadzając setki symulacji by sprawdzić, która z nich najlepiej zgadza się z danymi uzyskanymi z innych źródeł. Niestety, Wingowi i Hubnerowi skończył się czas i muszą otwierać wystawę. Dlatego zaprezentują na niej wykres temperatur w wersji beta. To połączenie różnego rodzaju obserwacji, różnego rodzaju modeli, różnego rodzaju procedur badawczych i różnych założeń, przyznaje Wing. Jednak grupa Phantastic nie kończy pracy, a wersja beta zostanie zastąpiona gotową wersją wykresu gdy tylko będzie możliwe jej stworzenie. Jednak, jak podkreślają uczeni, nawet wersja beta powinna otworzyć ludziom oczy. To pokazuje, jak łatwo Ziemia może wejść w okres wysokich temperatur. Bo już takie okresy się zdarzały, mówi Grossman. « powrót do artykułu
  18. Od dawna trwają poszukiwania czynników wyzwalających, które mogą podwyższać ryzyko cukrzycy typu 1. Okazuje się, że jednym z nich są koksakiwirusy. Za podwyższonym ryzykiem stoi czynnik transkrypcyjny - czynnik indukowany hipoksją (HIF-1, ang. hypoxia inducible factor), a konkretnie jego podjednostka alfa (HIF-1 jest heterodimerem złożonym z dwóch podjednostek – HIF-1α i HIF-1β - które należą do grupy czynników transkrypcyjnych). Naukowcy odkryli bowiem, że myszy, w których komórkach beta nie występuje HIF-1α, mają po zakażeniu wirusami, w tym koksakiwirusami, o wiele wyższe ryzyko wystąpienia cukrzycy typu 1. Brak HIF-1α nasila obumieranie komórek beta i zwiększa zapadalność na cukrzycę typu 1. Zdrowe komórki beta regenerują się po stresach, takich jak infekcje wirusowe, i cukrzyca się nie rozwija. Jeśli jednak komórki beta nie radzą sobie dobrze z takim sytuacjami, może to wyzwalać proces immunologiczny prowadzący do cukrzycy typu 1. - opowiada prof. Jenny Gunton z Westmead Institute for Medical Research. Nasze studium wykazało także, że podwyższone ryzyko cukrzycy może być wynikiem ekspozycji na inne stresory, np. na toksyny. [...] Ustaliliśmy, że HIF-1α odgrywa ważną rolę, gdy ważą się losy komórek beta (gdy decyduje się, czy dojdzie do ich śmierci, czy regeneracji). Wyniki opublikowane na łamach pisma Cell Reports wskazują na potencjał HIF-1α przy opracowywaniu nowych metod terapii. Niewykluczone też, że szczepienie przeciwko koksakiwirusom pomoże w zapobieganiu cukrzycy typu 1. w grupie podwyższonego ryzyka. Choć w cukrzycy typu 1. jest silny komponent genetyczny, same geny nie mogą wyjaśnić rosnących światowych wskaźników cukrzycy. Obecnie jednym lekarstwem na to schorzenie są przeszczepy całych trzustek bądź wysp trzustkowych. Ludzie muszą [więc] przez całe życie przyjmować insulinę. Nic więc dziwnego, że istnienie strategii zapobiegawczych wydaje się ekscytujące. « powrót do artykułu
  19. Mikroskamieniałości z łupków z formacji Grassy Bay w kanadyjskiej Arktyce to grzyby sprzed ok. 1 mld lat (z proterozoiku). Przez dziesięciolecia uważano, że najstarsze grzyby pojawiły się ~0,5 mld lat temu. Za pomocą różnych metod, w tym badań ultrastrukturalnych i analiz spektroskopowych, stwierdzono, że grzyby te pochodzą sprzed 1.010-890 mln lat. Badaniem mikroskamieniałości zajmował się m.in. Corentin Loron, doktorant z Uniwersytetu w Liège. Autorzy artykułu z pisma Nature wykryli obecność chityny. Naukowcy z Uniwersytetu w Liège, francuskiego CNRS i kanadyjskiej Służby Geologicznej podkreślają, że to najstarszy przypadek jej występowania. Ourasphaira giraldae z Terytoriów Północno-Zachodnich mają cechy morfologiczne grzybów i ścianę z chityny. Na opublikowanych zdjęciach widać połączoną z zarodnikiem strzępkę w kształcie litery T. Wydłużenie zapisu kopalnego grzybów cofa także w czasie moment pojawienia się Opisthokonta - supergrupy eukariontów. « powrót do artykułu
  20. Po 220 latach belgijskie opactwo Grimbergen rozpoczęło produkcję piwa według słynnej średniowiecznej receptury. Dotychczas miłośnicy piwa mogli kupić napój firmowany nazwą opactwa, jednak jest on produkowany przez Carlsberga na podstawie umowy z zakonem. W archiwach klasztoru mnisi odnaleźli oryginalną recepturę napoju słynnego w średniowieczu i właśnie uwarzono pierwszą porcję piwa. Brat Karel Stautemas, w obecności burmistrza oraz 120 dziennikarzy i miłośników piwa, zaprezentował pierwszą szklankę złotego trunku. Poinformował, że w archiwach znajduje się wiele starych ksiąg, a w jednej z nich trafiono na przepis. Gdy udało się go odczytać, mnisi przystąpili do pracy i po 4 latach eksperymentów uzyskali doskonałe piwo. Klasztor w Grimbergen został spalony podczas Rewolucji Francuskiej w 1798 roku. Sądzono, że receptura słynnego piwa przepadła. Na szczęście udało się ją odnaleźć, a stworzone według niej jedno z piw ma aż 10,8% alkoholu. Recepturę odnaleziono w jednej z ocalonych XII-wiecznych ksiąg. Mnisi poznali nie tylko metody warzenia piwa, ale i składniki. Dowiedzieli się na przykład, że ich poprzednicy używali szyszek chmielowych, a nie sfermentowanych ziół, jak czyniła większość współczesnych im browarników. Księgi udało się ocalić przed zniszczeniem tylko dlatego, że w XVIII wieku mnisi w tajemnicy wybili dziurę w ścianie swojej biblioteki i wynieśli około 300 ksiąg, zanim bibliotekę podpalono. Mieliśmy księgi ze starymi przepisami, ale nikt nie potrafił ich odczytać. Były napisane po łacinie i w starym holenderskim. Poprosiliśmy o pomoc ochotników. Spędziliśmy wiele godzin nad księgami i w końcu trafiliśmy na listę składników piwa, informacje o używanych rodzajach chmielu, o typach butelek i beczek, a nawet na listę gatunków piwa, które przed wiekami tworzono, mówi Stautemas. Później stare przepisy były dostosowywane do współczesnych gustów. Nie sądzę, by obecnie ludziom smakowało takie piwo, jak pito przed wiekami, dodaje duchowny. Mnisi przed wiekami ciągle dokonywali innowacji. Zmieniali przepis co 10 lat. W klasztorze Grimbergen żyje obecnie 12 mnichów. Nowe piwo będzie produkowane we współpracy z Carlsbergiem. Rocznie ma powstawać 3 miliony 330-militrowych butelek, sprzedawanych głównie na rynku francuskim i belgijskim. Gdy dziennikarze zapytali brata Stautemasa, czy odpowiadają mu komercyjne związki z wielkim browarem, odpowiedział, że dzięki nim mnisi mają pieniądze na utrzymanie, na pielgrzymki oraz na pomoc potrzebującym. Obecnie w opactwie trwają prace nad założeniem mikrobrowaru. To właśnie tam będzie powstawało piwo, a brat Stautemas już rozpoczął naukę browarnictwa i chce dołączyć do zespołu produkującego trunek. W mikrobrowarze znajdzie się też bar i restauracja. Ma on rozpocząć działalność pod koniec 2020 roku. Jednym z piw, które tam powstanie będzie limitowana edycja Grimbergen Triple D'Abbaye. Piwo będzie przechowywane przez 5 miesięcy w beczkach po whisky. Przypomina to technikę używaną przez belgijskich browarników w XVI wieku. To właśnie ten gatunek ma ponad 10% alkoholu. Klasztor w Grimbergen został założony w 1128 roku, w 1796 zakon rozwiązano. Ponownie zaczął on działać w 1834 roku. « powrót do artykułu
  21. Dziennikarze BBC dotarli do wewnętrznych dokumentów firmy ARM, w których poinformowano pracowników, że mają zawiesić wszelką współpracę z chińską firmą Huawei. W instrukcji czytamy, że pracownicy ARM-a mają zakończyć wszelkie aktywne kontrakty, umowy wsparcia i wszelkie planowane działania biznesowe z Huawei i spółkami-córkami. W ten sposób brytyjskie przedsiębiorstwo dostosowuje się do nowych wymagań handlowych USA. Układy ARM stanowią większość procesorów wykorzystywanych w urządzeniach mobilnych. Swoją decyzję ARM tłumaczy faktem, że firmowe projekty zawierają technologie pochodzące z USA i jako takie podlegają ograniczeniom nałożonym przez administrację prezydenta Trumpa. Jeśli sytuacja taka potrwa dłuższy czas, to może być to poważny cios dla Huawei. Chińska firma próbuje rozwijać własne układy scalone, ale wiele jej projektów bazuje na architekturze ARM. Cenimy bliskie kontakty z naszymi partnerami, ale zdajemy sobie sprawę, że niektórzy z nich działają pod politycznie motywowaną presją. Wierzymy, że ta godna pożałowania sytuacja zostanie szybko pomyślnie rozwiązana. Naszym priorytetem pozostaje dostarczanie najlepszych rozwiązań klientom na całym świecie, oświadczyli przedstawiciele Huawei. Dokument, o którym mowa, został wydany 16 maja, po tym, jak amerykański Departament Handlu dodał Huawei do firmy przedsiębiorstw, z którymi amerykańskie firmy nie mogą utrzymywać kontaktów biznesowych. Związki pomiędzy Huawei a ARM są bardzo silne. Projekty ARM stanowią podstawę urządzeń chińskiej firmy. Niedawno Huawei oświadczyło, że ma zamiar wybudować własne centrum badawczo-rozwojowe w bezpośredniej bliskości kwatery głównej ARM w Cambridge. Na razie nie wiadomo, czy decyzja o przerwaniu współpracy z Huawei zapadła na podstawie własnej interpretacji amerykańskich przepisów, czy też ARM otrzymał odpowiednią interpretację z Departamentu Handlu. Jeśli jednak taka sytuacja długo się utrzyma, to będzie to poważny cios dla całego chińskiego przemysłu. Rodzimi producenci półprzewodników nie są bowiem w stanie dostarczyć odpowiednich układów scalonych. « powrót do artykułu
  22. W zoo w Pradze po raz pierwszy urodziły się 2 pekarczyki czakoańskie (Catagonus wagneri). Przedstawiciele ogrodu podkreślają, że to ważny krok na drodze do uratowania tego zagrożonego gatunku. Co ciekawe, pekarczyka opisano w 1930 r. na podstawie skamieniałości z plejstocenu. Przez długi czas uważano go za gatunek wymarły. Na początku lat 70. małą populację C. wagneri odkryto na izolowanym obszarze na granicy Argentyny, Boliwii i Paragwaju. Wskutek nadmiernych polowań, wylesienia i choroby liczebność pekarczyka spadła w takim stopniu, że ogrody zoologiczne wdrożyły program ratowania gatunku. Do tej pory pekarczyki rozmnażają się regularnie tylko w Tierpark Berlin. Oprócz tego jedno młode przyszło na świat w Planckendael w Belgii. Obecnie w 7 ogrodach zoologicznych w Europie żyje 37 C. wagneri. « powrót do artykułu
  23. Uniwersytet w Cambridge udostępnił online wyjątkową kolekcję dokumentów stworzonych przed 400 laty przez dwóch astrologów. Każdy zainteresowany może zapoznać się z metodami leczenia, poradami dotyczącymi niewiernych małżonków czy sposobami na poradzenie sobie z wpływem złych sił. Zdigitalizowane księgi, opisujące 80 000 przypadków, zostały stworzone przez astrologa i uzdrowiciela Simona Formana (1552–1611) i jego protegowanego Richarda Napiera. W czasach, w których żyli, ludzie przychodzili do astrologów m.in. po porady zdrowotne. Wówczas było oczywistym, że ruch ciał niebieskich wpływa, za pośrednictwem niewidocznych sił, na ludzkie ciało i nasze życie. Akceptowano ten pogląd tak, jak my akceptujemy, że ruch Księżyca powoduje pływy. Astrolodzy, tacy jak Forman, rozumieli, w jaki sposób siły te działają, mówi historyk Lauren Kassell. Ludzie przychodzili do nich po porady i je otrzymywali. A metody leczenia czy odczyniania złych uroków mogły być różne, od upuszczania krwi po noszenie "gołębich pantofli", czyli całych rozciętych gołębi, które zakładano na stopy. Forman urodził się w Wiltshire i przez studiował medycynę oraz astrologie z Uniwersytecie w Oksfordzie. Zachorował podczas zarazy z 1592 roku, ale w jakiś sposób udało mu się wyleczyć, co zwiększyło jego sławę jako uzdrowiciela. Rozpoczął więc nielicencjonowaną praktykę lekarską. Wraz z Napierem korzystali z astrologii. Większość ich klientów chciała dowiedzieć się na co chorują, czy też czy są w ciąży. Obaj panowie konsultowali odpowiedzi z gwiazdami. Jednocześnie wykonywali szczegółowe notatki. Zapisywali nazwiska i wiek klientów, datę i miejsce udzielenia porady, objawy choroby, konfigurację planet i gwiazd oraz swoje zalecenia. Do dnia dzisiejszego przetrwały notatki Formana z lat 1596–1603 oraz pełne zapiski Napiera z lat 1597–1634. Obejmują one około 65 000 pacjentów i 80 000 przypadków. Udostępniono je na witrynie casebooks.lib.cam.ac.uk, a każdy chętny może je przeszukiwać pod kątem daty, lekarza, objawów u pacjenta i innych czynników. Lauren Kassel, która od 20 lat zajmuje się studiami nad Formanem, opisuje go jako nieprzyjemnego narcyza, który ciągle próbował uwodzić pacjentki. Gdy upatrzył sobie jakąś kobietę, próbował za pomocą astrologii nakłonić ją do seksu. Odszyfrowanie sensu jego zapisków nie jest łatwe. Zadawał on pytania, następnie zachęcał pacjentów do zadawania pytań, przeplatał wszystko rysunkami i obliczeniami. Działalności Simona Formana sprzeciwiał się London's College of Physicians, które oskarżało go o oszustwo, regularnie nakładało na niego grzywny i próbowało zamknąć jego praktykę, nawet gdy uzyskał z University of Cambridge licencję na uprawianie medycyny. Mimo to i mimo licznych pobytów w więzieniu, astrolog był bardzo popularny w swoich czasach. Jego klienci pochodzili ze wszystkich warstw ówczesnego społeczeństwa. Były wśród nich kucharki, kapitanowie okrętów, kupcy, kochanki, co najmniej jeden arcybiskup oraz szalony brat księcia Buckingham. Kassell we współpracy z Jennifer Schneidereit stworzyły nawet grę o życiu Formana. « powrót do artykułu
  24. Po raz pierwszy w żołądkach rekinów znaleziono resztki lądowych ptaków śpiewających. W 2010 r. biologów analizujących populacje rekinów tygrysich u wybrzeży Mississippi i Alabamy zaskoczyło, że jeden z badanych żarłaczy miał w żołądku pióra, które nie przypominały piór ptaków morskich. Oględziny i badania genetyczne ujawniły, że należały one do przedrzeźniacza rudego (Toxostoma rufum). W ciągu kolejnych 8 lat naukowcy zbadali treść żołądkową 105 żarłaczy tygrysich. Zjawisko zjadania ptaków śpiewających okazało się częstsze, niż można było przypuszczać. Zidentyfikowano 41 rekinów spożywających ptaki lądowe, w sumie 11 gatunków, m.in. jaskółki dymówki, strzyżyki, wróble czy potrzeszcze. Autorzy raportu z pisma Ecology podkreślają, że prawie połowa rekinów zjadających ptaki lądowe to osobniki młodociane. Żarłaczom tygrysim, zarówno dorosłym, jak i młodym, zdarza się zjadać ptaki morskie, np. mewy czy pelikany. Jak jednak tłumaczy prof. J. Marcus Drymon z Uniwersytetu Stanowego Mississippi, nawet one stanowią drobną część rekiniej diety. W jaki zatem sposób ptaki lądowe stają się posiłkiem rekinów? Wydaje się, że zostają one zdmuchnięte do morza przez burze, jakie napotykają na swojej drodze podczas migracji. Ptaki morskie z łatwością wylądują na wodzie, a po odpoczynku znów poderwą się do lotu. Wyczerpane, namoknięte i szarpiące się ptaki lądowe są jednak łatwym celem nawet dla niedoświadczonych młodych rekinów. Takie zdarzenia pogodowe są śmiertelne dla ptaków, lecz rekiny tygrysie zyskują dzięki nim niepowtarzalną szansę na zjedzenie padliny. Niektóre ptaki można było zidentyfikować na podstawie wyglądu, lecz w wielu przypadkach naukowcy dysponowali jedynie pojedynczymi zniszczonymi piórami. Wtedy trzeba było przeprowadzić barkoding DNA. « powrót do artykułu
  25. Celowa działalność rdzennych mieszkańców Ameryki Północnej miała większy wpływ na lasy na wschodnim wybrzeżu niż klimat, wynika z badań przeprowadzonych przez profesora Marca Abramsa z Pennsylvannia State University. Rdzenni Amerykanie świetnie zarządzali szatą roślinną i możemy się w tym względzie wiele od nich  nauczyć. Wiedzieli, jak doprowadzić do regeneracji roślin, którymi się żywili, jak zapewnić pożywienie zwierzętom, na które polowali. W tym celu regularnie wypalali lasy, mówi uczony. Abrams od 30 lat bada jakość obecnych i dawnych lasów na wschodzie Stanów Zjednoczonych. Zauważył, że od co najmniej 2000 lat lasy te były regularnie wypalane, co doprowadziło do zdominowania ich przez gatunki drzew zaadaptowane do obecności ognia. Gdy rdzenni mieszkańcy tych terenów zostali z nich wyparci, a mieszkańcy USA przestali wypalać lasy, rozpoczęły się zmiany, które doprowadziły do tego, że gatunki takie jak dąb, orzesznik i sosna zaczęły zanikać. Wciąż trwa spór o to, czy skład lasów został zdeterminowany głównie przez klimat czy działalność człowieka, ale nowe badania dowodzą, że celowe pożary powodowane przez człowieka były głównym czynnikiem decydującym o tym, jak wyglądały lasy na Wschodzie. To bardzo ważna wiedza, gdyż obecnie zmiany klimatyczne coraz bardziej zaprzątają uwagę naukowców, stwierdza Abrams. Uczony podkreśla, że wyniki jego badań nie mają odniesienia do innych regionów. Na zachodzie USA to klimat decydował o składzie lasów. Tamten region doświadczał bowiem większych upałów i większych susz. W czasie swoich badań Abrams i jego zespół analizowali pyłki i węgiel drzewny przed setek i tysięcy lat, a uzyskane wyniki porównywali ze współczesnymi danymi dotyczącymi składu lasów. Przyjrzeli się siedmiu typom lasów występujących w północnych i centralnych regionach wschodu Stanów Zjednoczonych. Badacze zauważyli, że w lasach najbardziej wysuniętych na północ współczesne dane wskazują na znaczące zmniejszenie się liczby buków, sosen, choin i modrzewi, a znaczny wzrost populacji klonu, jesionu, dębu i jodły. Z kolei lasy położone bardziej na południe były historycznie zdominowane przez dąb i sosnę, a w czasach współczesnych doszło do spadku liczby dębów i kasztanów, zwiększyła się za to liczebność klonu i brzozy. Współczesne lasy są zdominowane przez gatunki które są lepiej przystosowane do chłodnego klimatu, lepiej tolerują cień, nie radzą sobie z suszą i ogniem. Liczebność takich gatunków ulega zmniejszeniu gdy las jest regularnie wypalany. Gatunki takie jak dąb zajmują obszary, gdzie dochodzi do pożarów lasów. Co więcej, współczesne zmiany składu lasów powodują, że są one bardziej podatne na susze i pożary, mówi uczony. W czasie badań naukowcy wykorzystali też dane dotyczące liczebności populacji. Okazało się, że po setkach lat dość stabilnego poziomu wypalania lasów przez niewielką populację Indian w tym regionie doszło do gwałtownego zwiększenia liczby pożarów, a zjawisko to było związane z europejskim osadnictwem w XIX wieku. Ponadto, jak się okazało, nieliczni rdzenni mieszkańcy tych terenów byli w stanie wypalać duże obszary i robili to regularnie. Po roku 1940 doszło do znacznego ograniczenia liczby pożarów, to znacząco wpłynęło na lasy. Od czasu, gdy zaczęto regularną kampanię zapobiegania pożarom lasów, niemal przestało do nich dochodzić, co w znaczny sposób odbiło się na lasach. Przeszliśmy od umiarkowanej liczby pożarów, poprzez zbyt dużą ich liczbę do niemal zaniku pożarów lasów. Musimy wrócić do umiarkowanego wypalania w celu lepszego zarządzania szatą roślinną, mówi uczony. « powrót do artykułu
×
×
  • Dodaj nową pozycję...