Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37652
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    249

Zawartość dodana przez KopalniaWiedzy.pl

  1. Naukowcy z Uniwersytetu Harvarda zmodyfikowali genetycznie szczep E. coli Nissle 1917. Dzięki temu produkuje on sieć nanowłókien, które wiążą się ze śluzem z jelita. W ten sposób powstaje samoodnawiający się opatrunek (łatka), który chroni obszary objęte stanem zapalnym. Amerykanie chcą wykorzystać tę metodę u osób z nieswoistymi zapaleniami jelit (IBD), np. chorobą Leśniowskiego-Crohna. W rzutach choroby Leśniowskiego-Crohna stosuje się leki przeciwzapalne i antybiotyki. Mają one jednak skutki uboczne i zaburzają mikrobiom. Dotąd nie było terapii, za pomocą których można by opatrzyć zmienione zapalnie miejsca od strony światła jelita, przyspieszając w ten sposób gojenie. Zmodyfikowany genetycznie szczep E. coli Nissle 1917 wytwarza opatrunek, który osłania wrażliwe miejsca, chroniąc je przed bakteriami i czynnikami środowiskowymi. Rozwiązanie przetestowano na myszach. Wyniki badania ukazały się w piśmie Nature Communications. [...] Uzyskaliśmy biomateriały, które są wydzielane na miejscu przez rezydentne zmodyfikowane bakterie. Wiążą się one z białkami śluzu - silnie przywierając do lepkiej i ruchomej warstwy śluzu - opowiada Neel Joshi. Metoda PATCH (od Probiotic Associated Therapeutic Curli Hybrids) zapewnia biokompatybilną, mukoadhezyjną powłokę, która działa jak stabilny, samoregenerujący się opatrunek i zapewnia biologiczne wskazówki do gojenia. W ramach wcześniejszych badań zespół Joshiego zademonstrował, że samoregenerujące się bakteryjne hydrożele silnie wiążą się z powierzchniami śluzowymi w warunkach ex vivo. Co istotne, wytrzymują trudne warunki panujące w mysim żołądku i jelicie cienkim (pH itp.). Nie szkodzą przy tym zwierzętom. By je uzyskać, Amerykanie "zaprogramowali" laboratoryjny szczep E. coli, tak by wytwarzał zmodyfikowane białko CsgA fimbrii spiralnych. Uwalniane białka fuzyjne [które stanowią połączenie CsgA i ludzkich peptydów TFF, ang. trefoil factors] tworzą magazynującą wodę siatkę; właściwości hydrożelu można zaś modyfikować - tłumaczy dr Anna Duraj-Thatte. Co istotne, TFF naturalnie występują w błonie śluzowej jelit i wiążą się z mucynami. Są cząstkami odgrywającymi ważną rolę w ochronie i naprawie śluzówki jelitowej. W kolejnych badaniach stwierdzono, że po podaniu doustnym zmodyfikowany szczep E. coli Nissle pozostaje i namnaża się w jelicie, a jego fimbrie spiralne integrują się z warstwą śluzu. Podczas eksperymentów naukowcy indukowali zapalenie jelita siarczanem dekstranu sodu (DSS). U myszy, którym na trzy dni przed tym zabiegiem zaczęto doodbytniczo podawać E. coli Nissle generujące PATCH, gojenie zachodziło szybciej, a reakcje zapalne były słabsze, co przekładało się m.in. na mniejszą utratę wagi. W porównaniu do grupy kontrolnej, morfologia błony śluzowej w jelicie grubym była bardziej prawidłowa, obserwowano też mniejszą liczbę infiltrujących komórek odpornościowych - wyjaśnia Pichet Praveschotinunt. Jak dodają autorzy raportu, zmiany zapalne w przebiegu IBD skutkują zanikiem krypt jelita grubego, uszkodzeniem tkanki nabłonkowej i upośledzeniem integralności bariery jelitowej. Rekrutacja komórek odpornościowych i oddziaływania treści pokarmowej nasilają, niestety, stan zapalny. Na szczęście posłużenie się PATCH wzmacnia funkcję barierową, sprzyja odtworzeniu nabłonka i hamuje sygnalizację zapalną. Ekipa Joshiego ma nadzieję, że PATCH może stać się terapią wspomagającą, stosowaną równolegle do istniejących terapii przeciwzapalnych, immunosupersyjnych i antybiotykowych. W ten sposób dałoby się zmniejszać ekspozycję pacjenta na leki i zapobiegać nawrotom IBD. E. coli Nissle 1917 (EcN) to szczep niepatogenny. Niemiecki badacz Alfred Nissle stwierdził, że bakterie te nie są chorobotwórcze dla ludzi, a wręcz przeciwnie, mogą stanowić skuteczną ochronę przed dolegliwościami dotyczącymi układu pokarmowego. EcN hamuje rozwój patogennej/chorobotwórczej mikroflory; dzieje się tak najpewniej wskutek konkurencji o miejsce przywierania (adhezji) do nabłonka, a także na drodze wytwarzania bakteriostatycznych i bakteriobójczych peptydów. EcN jest wykorzystywany w leczeniu schorzeń przewodu pokarmowego, szczególnie wrzodziejącego zapalenia jelita grubego. Istnieją suplementy zawierające bakterie EcN. « powrót do artykułu
  2. Inżynierowie z NASA celowo doprowadzili do uszkodzenia zbiornika paliwa ciekłego wodoru Space Launch System. Test miał wykazać, gdzie w rzeczywistości znajduje się granica jego wytrzymałości. Zbiornik przez 5 godzin wytrzymał 260% przewidywalnego maksymalnego obciążenia zanim wykryto w nim pierwsze wyboczenie, które następnie pękło. Celowo wystawiliśmy zbiornik na maksymalne obciążenie i zniszczyliśmy go, gdyż doprowadzenie do takiej sytacji pozwala nam na zebranie kolejnych danych umożliwiających projektowanie lepszych rakiet, mówi Neil Otte, główny inżynier z SLS Stages Office w Marshall Space Flight Center. SLS będzie wykorzystywany przez dekady, a kontrolowane zniszczenie zbiornika pozwoli nam bezpiecznie i wydajnie dostosowywać SLS do naszych potrzeb. Testowy zbiornik, który właśnie zniszczono, był już wcześniej poddawany wielu próbom obciążenia spodziewanego podczas lotu na Księżyc. Nie doszło wówczas do żadnych uszkodzeń. To był największy w historii NASA destrukcyjny test rakietowego zbiornika pod ciśnieniem. Uzyskane dane przydadzą się wszystkim firmom projektującym takie zbiorniki, wyjaśnia Mike Nichols, główny inżynier odpowiedzialny za testowanie zbiorników. Podczas testów wykorzystano azot w formie gazowej, który symulował ciśnienie wewnątrz zbiornika oraz siłowniki hydrauliczne ściskające, rozciągające i wyginające zbiornik. Całość otoczono tysiącami czujników mierzących ciśnienie, temperaturę i naprężenia oraz licznymi kamerami i mikrofonami rejestrującymi wszystko, co się dzieje. Pierwsze wyboczenie pojawiło się w miejscu przewidzianym przez analityków Boeinga przy obciążeniu, którego wartość nie odbiegała o więcej niż 3% wartości przewidzianej dla tego typu sytuacji. Dokładność tych przewidywań daje nam dużą pewność co do jakości projektu zbiornika, mówi Luke Denney menedżer zespołu testów i oceny Boeinga. « powrót do artykułu
  3. W wyniku pożarów buszu w Nowej Południowej Walii plaże w aglomeracji Sydney są pokryte popiołem. Popiół i zwęglone liście tworzą w wodzie zawiesinę, która jest wynoszona na brzeg przez fale. W czasie weekendu w mediach społecznościowych pojawiły się liczne doniesienia na ten temat. Użytkownicy Instagrama i Twittera zamieścili zdjęcia i filmiki m.in. z Balmoral Beach (gmina Mosman), plaży w dzielnicy Malabar czy Bronte Beach. Wspominają o letnim śniegu. Naukowcy ostrzegają, że jeśli pożary będą trwały nadal, szybko kurczące się zasoby wody pitnej N.P.W. mogą zostać zanieczyszczone zwęglonymi resztkami. Ekolog Emma Johnston obawia się, że deszcze zmyją popiół do zlewni. Pani profesor tłumaczy, że w negatywnym scenariuszu grube warstwy popiołu doprowadzą do dużych zakwitów glonów w stanowych źródłach wody pitnej. Sytuacja, w której masy spalonej roślinności lądują w oceanie, jest też groźna dla ryb. Przy dużej zawartości cząstek stałych może dojść do zapchania skrzeli. Zwierzęta, które odżywiają się, filtrując wodę, również mogą mieć problemy. Poza tym wielkie zakwity oznaczają znaczące obniżenie zawartości tlenu rozpuszczonego w wodzie, co z kolei grozi masowym śnięciem. Nową Południową Walię nadal trawi ok. 90 pożarów. Połowy z nich nie udało się opanować.   « powrót do artykułu
  4. Fizyk z Uniwersytetu Kalifornijskiego w Riverside przeprowadził obliczenia, z których wynika, że bąble wypełnione gazem zawierającym pozytonium są stabilne w ciekłym helu. Obliczenia przybliżają nas do powstania lasera emitującego promieniowanie gamma, który może mieć zastosowanie w obrazowaniu medycznym, napędzie kosmicznym i leczeniu nowotworów. Pozytonium to układ złożony z elektronu (e-) i jego antycząstki pozytonu (e+) krążących wokół wspólnego środka masy. Jego średni czas życia wynosi około 142 ns, a następnie pozyton i elektron ulegają anihilacji, podczas której emitowane jest promieniowanie gamma. Do stworzenia lasera gamma potrzebujemy pozytonium w stanie zwanym kondensatem Bosego-Einsteina. Z moich obliczeń wynika, że zanurzone w ciekłym helu bąble składające się z milionów pozytonium miałyby gęstość sześciokrotnie większą od powietrza i tworzyłyby kondensat Bosego-Einsteina, mówi autor badań, Allen Mills z Wydziału Fizyki i Astronomii. Praca Millsa ukazał się właśnie w Physical Review A. Hel, drugi najbardziej rozpowszechniony pierwiastek we wszechświecie, przybiera formę ciekłą jedynie w bardzo niskich temperaturach. Hel ma ujemne powinowactwo do pozytonium, więc w ciekłym helu powstają bąble, gdyż hel odpycha pozytonium. Mills, który stoi na czele Positron Laboratory w UC Riverside poinformował, że jego laboratorium rozpoczęło konfigurację swoich urządzeń tak, by uzyskać stabilne bąble pozytonium w ciekłym helu. Mogą one służyć jako źródło zbudowanego z pozytonium kondensatu Bosego-Einsteina. Chcemy w najbliższym czasie przeprowadzić eksperymenty z tunelowaniem pozytonium przez grafenową membranę, która nie przepuszcza zwykłych atomów, w tym atomów helu, oraz stworzenie lasera działającego dzięki pozytonium. Laser taki mógłby znaleźć zastosowanie w informatyce kwantowej, mówi Mills. « powrót do artykułu
  5. Gdy satelita się psuje, staje się bezużytecznym śmieciem krążącym po orbicie, który zagraża innym satelitom. W końcu spada w kierunku Ziemi i płonie w atmosferze. Profesor Ou Ma i jego zespół z University of Cincinnati pracują nad siecią robotów, które wspólnie będą naprawiały i tankowały satelity. Ma mówi, że milion rzeczy może pójść nie tak po wystrzeleniu satelity. A my nie jesteśmy w stanie zaradzić większości z nich. zatem kosztujące miliony dolarów urządzenia bezużytecznie latają nad naszymi głowami, gdyż uległy awarii lub skończyło im się paliwo. Najbardziej znaną kosmiczną awarią była ta, która dotknęła Teleskop Kosmiczny Hubble'a. Jednak teleskop był projektowany z myślą o serwisowaniu, więc wysłani w promie kosmicznym astronauci dokonali odpowiednich napraw. Jednak wysyłanie ludzi za każdym razem, gdy zepsuje się satelita, jest niezwykle kosztowne. Dlatego też profesor Ma, który pracował m.in. przy projektowanie robotycznego ramienia dla promów kosmicznych i Międzynarodowej Stacji Kosmicznej, chce stworzyć satelity, które będą dokowały do innych satelitów i je naprawiały. Problemem nie są zresztą tylko awarie. Większość satelitów przestaje działać, bo skończyło im się paliwo. Odsyłamy na emeryturę sprawne satelity, bo wyczerpało im się paliwo, mówi John Lymer z firmy Maxar. NASA chce w 2022 roku wystrzelić na orbitę satelitę zdolnego do tankowania innych satelitów należących do amerykańskiego rządu. Projekt Restore-L ma być testem dla pomysłu automatycznej naprawy satelitów na orbicie. W laboratorium Ma trwają intensywne prace nad systemami nawigacji satelitów, które miałyby naprawiać i tankować inne satelity. To niezwykle ważna kwestia, gdyż zderzenie w kosmosie spowoduje, że satelity zaczną poruszać się w sposób niekontrolowany. Do tego może bardzo łatwo dojść, gdyż nic nie hamuje satelitów. Gdy satelita zacznie się niekontrolowanie obracać, może tak poruszać się bez końca, mówi Ma. Ma i jego zespół wykorzystują zaawansowane narzędzia do symulacji zachowania satelitów na orbicie. Przechwycenie czegoś w przestrzeni kosmicznej jestnaprawdę trudne. A złapanie czegoś, co się obraca jest jeszcze trudniejsze. Trzeba bardzo ostrożnie przewidywać ruch i wszystko precyzyjnie kontrolować, by uspokoić takiego satelitę i go delikatnie przechwycić, mów Ma. Z jednej więc strony grupa Ma prowadzi badania nad samym przechwytywaniem satelitów, w tym również takich, które poruszają się w sposób niekontrolowany, z drugiej zaś, rozwija technologie ich naprawy. W laboratorium działa kilka robotycznych ramion, z których każde jest wyposażone w siedem stawów, co daje im pełną swobodę ruchu. Ma chciałby, by w przyszłości powstały satelity serwisowe zdolne do wykonywania różnego rodzaju prac serwisowych. Dodatkowo roboty takie powinny mieć możliwość działania w grupie i wspólnego wykonywania najbardziej skomplikowanych zadań. W ramach swoich ostatnich prac naukowcy dali robotom zadanie przeciągnięcie przedmiotu na wskazane miejsce. Każdy z robotów kontrolował jeden sznurek, do którego umocowany był przedmiot, zatem jego przeciągnięcie wymagało współpracy. Dzięki algorytmom logiki rozmytej udało się przeciągnąć przedmiot na konkretne miejsce zarówno za pomocą trzech jak i pięciu robotów. Przy okazji okazało się, że grupa pięciu robotów jest w stanie wykonać zadanie nawet, gdy jeden z nich ulegnie awarii. To bardzo ważne w dużych grupach robotów, gdy możliwości jednego z nich okażą się mniejsze niż innych, stwierdzili uczeni. Profesor Ma zauważa, że przemysł kosmiczny jest coraz bardziej zainteresowany serwisowaniem satelitów. Przyznaje, że obecnie technologia jest zbyt mało zaawansowana, jednak w ciągu 5–10 lat będzie ona na tyle dojrzała, że z pewnością powstaną przedsiębiorstwa, które zajmą się świadczeniem takich usług. My nie pracujemy nad całą misją. Tworzymy jedynie technologię dla takich działań. Gdy już będzie gotowa NASA lub jakaś prywatna firma się nią zainteresują i na jej podstawie zbudują satelity, mówi Ma. Podobnego zdania jest Gordon Roesler, były dyrektor w DARPA (U.S. Defense Advanced Research Projects Agency). W żadnej innej dziedzinie nie robi się tak, że buduje się urządzenie warte pół miliarda czy miliard dolarów i nigdy się go nie dogląda, mówi. Specjaliści dodają, że już w najbliższej przyszłości właściciele satelitów będą musieli pomyśleć o umożliwieniu ich serwisowania. Obecnie wiele urządzeń jest tak delikatnych, że nie można nawet myśleć o ich przechwyceniu bez ryzyka uszkodzenia. Poza wzmocnieniem satelitów potrzebny będzie też jakiś rodzaj drzwi serwisowych, dających dostęp do ich wnętrza. Czasu na takie działania jest coraz mniej. Z każdym wystrzelonym i każdym nieczynnym satelitą niska orbita Ziemi jest coraz bliżej efektu Kesslera. To opracowana przez Donalda Kesslera teoria mówiąca, że z czasem zderzenia satelitów między sobą usieją orbitę tak olbrzymią liczbą szczątków, iż zagrozi to kolejnym satelitom. Musimy pamiętać, że zderzenie satelitów powoduje powstanie olbrzymiej liczby odpadków poruszających się z prędkościami przekraczającymi 20 000 km/h. « powrót do artykułu
  6. Produkty i akcesoria do makijażu są często zanieczyszczone bakteriami, takimi jak pałeczki okrężnicy (Escherichia coli) czy gronkowce (Staphylococci). Dzieje się tak, bo ludzie ich przeważnie nie czyszczą i używają długo po upływie terminu przydatności. Prof. Amreen Bashir z Aston University podkreśla, że bakterie, które mogą powodować problemy zdrowotne o różnej randze - od zakażeń skóry po sepsę, jeśli są wykorzystywane w pobliżu oczu, ust, ran czy otarć - wykryto w ok. 9 na 10 produktów. Ryzyko jest większe u osób z niedoborem odporności, które są bardziej narażone na infekcje wywoływane przez bakterie oportunistyczne. Autorzy publikacji z Journal of Applied Microbiology wzięli pod uwagę 5 kategorii produktów kosmetycznych: szminki, błyszczyki, eyelinery, tusze do rzęs i gąbeczki do makijażu. Badano produkty przekazane przez użytkowników. Zawartość mikroorganizmów określano na podstawie hodowli. Okazało się, że ok. 79-90% produktów było zanieczyszczonych bakteriami; liczba komórek bakteryjnych wahała się między 102 a 103 cfu/ml. Gąbeczki do makijażu zawierały średnio >106 cfu/ml. Jak widać, gąbki do nakładania makijażu zawierały najwięcej potencjalnie szkodliwych bakterii. Większości (93%) nigdy nie czyszczono, mimo że na pewnym etapie użytkowania 64% spadło na ziemię. To pierwsze badanie, w ramach którego analizowano gąbeczki do makijażu (a na świecie sprzedaje się ich naprawdę dużo). Naukowcy z Aston University podkreślają, że takie akcesoria są szczególnie podatne na skażenie, bo po wykorzystaniu często zostawia się je zawilgocone, a to idealne warunki do namnażania bakterii. Należy więc pamiętać o regularnym czyszczeniu i dokładnym suszeniu. Brytyjczycy podkreślają, że wyniki pokazują, że konsumenci nieświadomie narażają się na ryzyko. Wg nich, producenci i agendy konsumenckie powinny poczynić pewne kroki w kierunku lepszej ochrony klientów; daty przydatności i zasady czyszczenia muszą być lepiej wyeksponowane na opakowaniach. Złe nawyki higieniczne dot. [...] gąbeczek są powodem do zmartwień, jeśli przypomnimy sobie, że wykryliśmy, że namnażają się na nich takie bakterie, jak E. coli, które wiążą się z zanieczyszczeniem kałowym - podsumowuje dr Bashir. « powrót do artykułu
  7. Ludy Szkocji przez długi czas zachowały niezależność. Dopiero na początku XVIII wieku doszło do zjednoczenia Królestwa Szkocji z Królestwem Anglii i powstania Zjednoczonego Królestwa Wielkiej Brytanii. Naukowcy sądzą, że do włączenia Szkocji do większego organizmu państwowego przyczyniły się... wybuchy wulkanów oddalonych o tysiące kilometrów. Szkocja była jednym z najpóźniej skolonizowanych obszarów świata. Ludzie przybyli tam dopiero przed około 8000 lat. Pierwsze przekazy historyczne dotyczące Szkocji zawdzięczamy Rzymianom. W 79 roku naszej ery Szkocję próbowały podbić legiony pod wodzą Julisza Agrykoli. Kaledończycy stawili zaciekły opór, Rzymianie musieli się wycofać i z czasem, by zabezpieczyć się przed napadami z północy, wznieśli słynny Mur Hadriana, który wyznaczał północą granicę Imperium. Później wybudowali jeszcze na północy Mur Antoniusza, ale po około 20 latach opuścili tę fortyfikację i około roku 160 na stałe wycofali się za Mur Hadriana. Ludy Szkocji rządziły się same, a w IX wieku powstało królestwo Alby, zjednoczone państwo Szkodów i Piktów. Przez kolejne wieki mieszkańcy Szkocji walczyli między sobą, z Wikingami i Anglikami. W ostatniej dekadzie XVII wieku w Szkocji nastało siedem lat głodu. Spadły plony, opustoszały wioski, życie mogło stracić nawet 15% mieszkańców. Niedługo potem Szkocja weszła w skład Wielkiej Brytanii. Przed dwoma laty naukowcom udało się zbadać pierścienie drzew z północy Szkocji, gdzie głód był największy, i na tej podstawie odtworzyli lokalny klimat z lat 1200–2010. Paleoklimatolog Rosanne D'Arrigo z Lamont Doherty Earth Observatory należącego do Columbia University, przyjrzała się tym danym i stwierdziła, że w latach 1695–1704 Szkocja doświadczyła drugiej najzimniejszej dekady w ciągu ostatnich 800 lat. Letnie temperatury były średnio o 1,56 stopnia Celsjusza niższe niż temperatury z lat 1961–1990, czytamy w piśmie Journal of Volcanology and Geothermal Research. Te chłodne lata zbiegają się z dwoma dużymi erupcjami wulkanicznymi w tropikach. Pierwsza miała miejsce w 1693, a druga, większa, w 1695 roku. Zdaniem uczonych to właśnie one spowodowały ochłodzenie nad Szkocją, gwałtowny spadek plonów i wieloletni głód. Problemy zostały pogłębione przez kilka innych czynników, takich jak prymitywna gospodarka rolna Szkocji, polityka rządowa, która zachęcała do eksportu ziarna, więc w kraju pozostawało niewiele zapasów, oraz nieudana próba założenia szkockiej kolonii w Panamie w 1698 roku. Te wszystkie czynniki łącznie wpłynęły, jak uważają autorzy badań, na decyzję szkockiego parlamentu o stworzeniu w 1707 roku unii z Anglią. « powrót do artykułu
  8. Indonezyjska policja aresztowała parę osób podejrzanych o kłusownictwo. Wcześniej władze znalazły skórę tygrysa sumatrzańskiego i 4 płody w słoju. Tygrys sumatrzański jest krytycznie zagrożony. Szacuje się, że na wolności pozostało mniej niż 400 osobników. Podejrzani planowali sprzedać skórę zagranicznemu kolekcjonerowi. Kości zostały sprzedane wcześniej, prawdopodobnie do celów związanych z medycyną tradycyjną. Nie wiadomo, do czego miały posłużyć płody ze słoja. Dowody zostały zaprezentowane przez policję na niedzielnym briefingu dla mediów. Edward Hutapea, inspektor ds. egzekucji przepisów ochrony środowiska, powiedział, że wcześniej aresztowani sprzedali skórę innego tygrysa. Teraz mieli "na zbyciu" kolejną i 4 płody; te ostatnie pochodziły z kota sprzedanego wcześniej w tym roku. Przedstawiciel Ministerstwa Środowiska i Leśnictwa powiedział, że podejrzani z prowincji Riau zostali aresztowani po anonimowym zawiadomieniu. Jeśli zarzuty dot. handlu zostaną udowodnione, grozi za to maksymalnie kara 5 lat więzienia i grzywna w wysokości 100 mln rupii indonezyjskich (ok. 7100 dol.). Przyspieszające wylesienie i niepohamowane kłusownictwo oznaczają, że te szlachetne istoty mogą wyginąć jak tygrysy balijski i jawajski. W Indonezji każdemu, kto zostanie przyłapany na polowaniu na tygrysy, grozi kara więzienia i wysokie grzywny. [Niestety] mimo zwiększonych wysiłków na rzecz ochrony tych zwierząt, w tym lepszego egzekwowania prawa [...], na Sumatrze i w innych częściach Azji nadal istnieje spory popyt na części ciała i tygrysie produkty - podkreśla WWF. « powrót do artykułu
  9. Wszyscy widzieliśmy zdjęcia żółwi umierających w męczarniach po zaplątaniu się w plastikowe odpady i czytaliśmy o martwych wielorybach, w których żołądku znaleziono kolosalne ilości plastiku. Teraz dowiadujemy się plastik powoduje masowe zgony... krabów pustelników. Naukowcy, którzy odbyli wyprawy badawcze na Wyspy Kokosowe odkryli, że plastikowe odpady zabiły ponad pół miliona krabów. Uczeni oszacowali, że na plażach wysp znajduje się około 414 milionów plastikowych odpadów. Setki tysięcy martwych krabów znaleziono wewnątrz pojemników, z których nie były w stanie się wydobyć. Podobna sytuacja ma miejsce na innych odległych wyspach Pacyfiku. Badania zostały przeprowadzone przez zespół z Instytutu Badań Morskich i Antarktycznych Uniwersytetu Tajwańskiego, pracujący pod kierunkiem doktor Jennifer Lavers. Gdy ocenialiśmy zanieczyszczenie plaż plastikiem uderzyło nas, w jak wielu plastikowych pojemnikach znajdowały się kraby, zarówno martwe jak i żywe. Zdecydowaliśmy się więc rozszerzyć nasze badania na ocenę liczby plastikowych pojemników w ogóle, liczby otwartych plastikowych pojemników oraz liczby pojemników, w których znajdowały się uwięzione kraby. Stwierdziliśmy, że na Wyspach Kokosowych z powodu plastiku zginęło ponad 500 000 krabów pustelników, a na Wyspie Hendersona kolejnych 60 000, mówi uczona. Z wyliczeń wynika, że na Wyspach Kokosowych plastik zabił 570 000 krabów, a na oddalonej o kilkanaście tysięcy kilometrów Wyspach Hendersona było to 61 000 zwierząt. To najprawdopodobniej pierwsze badania pokazujące, jak wiele krabów ginie przez plastik na plażach. A dane tylko z tego jednego badania pokazują, jak olbrzymie zagrożenie stwarza plastik dla populacji krabów. Alex Bong, kurator w londyńskim Muzeum Historii Naturalnej, wyjaśnia, że kraby pustelniki przychodzą na świat bez skorupy, szukają więc schronienia. Gdy krab pustelnik poszukując pożywienia bądź schronienia wejdzie do plastikowego pojemnika i tam ginie, wysyła sygnał chemiczny, który mówi, że doszło do zwolnienia muszli. Sygnał ten zwabia inne kraby, które w taki sposób wpadają w śmiertelną pułapkę. Jako, że to pierwsze badania tego typu i brak jest materiału porównawczego, Lavers chce przeprowadzić kolejne, by stwierdzić, jak plastikowe odpady wpływają na populację krabów. Już z wcześniejszych badań wiemy, że populacja krabów pustelników spada. Teraz być może znaleźliśmy przyczynę tego spadku. Kraby pustelniki odgrywają niezwykle ważną rolę w ekosystemie, użyźniając glebę, rozprzestrzeniając nasiona i zjadając detrytus (martwe szczątki roślin, zwierząt i ich odchody).   « powrót do artykułu
  10. Tegoroczna emisja gazów cieplarnianych będzie prawdopodobnie najwyższa w historii, uważają naukowcy. Pobity zostanie więc niechlubny ubiegłoroczny rekord. Specjaliści prognozują, że ludzkość – spalając paliwa kopalne – wypuści do atmosfery 36,8 miliarda ton dwutlenku węgla. Całkowita emisja antropogeniczna, włącznie z rolnictwem i przekształceniami ziemi na jego potrzeby, wyniesie prawdopodobnie 43,1 miliarda ton. Takie prognozy znalazły się w najnowszym raporcie organizacji Global Carbon Project. To międzynarodowe konsorcjum badawcze, które śledzi globalną emisję gazów cieplarnianych. Są też i dobre wiadomości. Specjaliści GCP prognozują też znaczące spowolnienie wzrostu emisji z paliw kopalnych. Jeszcze w 2018 emisja ze spalania węgla, ropy i gazu wzrosła o 2% w porównaniu z rokiem poprzednim. Tegoroczny wzrost emisji z tych źródeł nie powinien przekroczyć 0,6%. Część z tego spowolnienia spowodowana jest zmniejszającym się zużyciem węgla w USA, Europie oraz wolniejszym niż się spodziewano wzrostem jego użycia w innych częściach świata. Okazało się na przykład, że w USA ilość użytego węgla spadła aż o 10%. To znacznie więcej, niż prognozowano. Podobny spadek nastąpił też w Europie. Tymczasem w Indiach i Chinach doszło do dużych wzrostów konsumpcji węgla, ale wzrosty te były mniejsze niż w przeszłości. Wciąż jednak nie wiadomo, czy ten spadek użycia węgla będzie trendem długoterminowym. W ostatnich latach mieliśmy już do czynienia z kilkoma przypadkami nadmiernego optymizmu w związku z odchodzeniem od paliw kopalnych i za każdym razem okazywało się, że to krótkookresowe zjawisko. Na przykład w latach 2014–2016 emisja niemal przestała rosnąć, pojawiła się więc nadzieja, że ludzkość osiągnęła szczyt emisji i zacznie pompować do atmosfery coraz mniej gazów cieplarnianych. Jak wiemy, prognozy takie się nie sprawdziły. Z najnowszych opracowań wiemy, że jeśli ludzkość chce powstrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza powyżej poziomu sprzed epoki przemysłowej, to w ciągu nadchodzącej dekady emisja CO2 musi spaść o 25%. Jeśli zaś spełniony ma być bardziej ambitny cel – 1,5 stopnia Celsjusza – to spadek emisji musiałby sięgnąć 55%. Dyrektor Global Carbon Project, Pep Canadell, mówi, że on i jego koledzy zgadzają się z wyrażoną przez ONZ opinią, iż koncentracja CO2 w atmosferze rośnie zbyt szybko, by można było zatrzymać wzrost temperatury na poziomie 1,5 stopnia Celsjusza. Mieliśmy kolejny rok wzrostu antropogenicznej koncentracji CO2. Czas najwyższy uznać, że każdy kolejny rok wzrostu oznacza, iż osiągnięcie założeń Porozumienia Paryskiego będzie znacznie trudniejsze. Przypomnijmy w tym miejscu, że niedawno Światowa Organizacja Meteorologiczne oznajmiła, iż tegoroczna średnia temperatura na Ziemi była o 1,1 stopnia Celsjusza wyższa, niż w czasach sprzed rewolucji przemysłowej. Po tym raporcie pojawiły się głosy, że bez drastycznych cięć emisji nie uda się zatrzymać ocieplenia przed osiągnięciem poziomu 3 stopni Celsjusza. Nie ma takiej możliwości, by beż olbrzymiego zmniejszenia emisji oraz wdrożenia masowych programów przechwytywania i składowania CO2 globalne ocieplenie pozostało na poziomie poniżej 3 stopni Celsjusza, mówi profesor Pete Strutton z Uniwersytetu Tasmanii. Dobrą wiadomością jest spadek emisji w USA. Pomimo głośnych wypowiedzi prezydenta Trumpa, który podkreśla rolę węgla, tegoroczna amerykańska emisji zmniejszyła się o 1,7%. Od 15 lat spada ona średnio o 1% rocznie. To w dużej mierze zasługa odchodzenia USA od węgla. Spadki mogłyby być jeszcze większe, gdyby nie rosnąca konsumpcja gazu. To zresztą trend widoczny na całym świecie. Od roku 2012 gaz staje się coraz ważniejszym źródłem emisji CO2. Z raportu GCP dowiadujemy się, że w bieżącym roku globalna emisja ze spalania węgla zmniejszy się o 0,9%, a wzrosną emisje ze spalania ropy (+0,9%) i gazu (+2,6%). « powrót do artykułu
  11. Wywiadu udzieliła nam Aleksandra Kleśta-Nawrocka, doktor nauk humanistycznych w zakresie historii, historyk i etnolog/antropolog kulturowy. Adiunkt w Dziale Historii Toruńskiego Piernikarstwa w Muzeum Okręgowym w Toruniu. Naukowo interesuje się historią i antropologią jedzenia. Autorka wielu tekstów naukowych i popularnonaukowych o kuchni historycznej i regionalnej, m.in. Kucharz doskonały. Historyczno-kulturowy fenomen kuchni staropolskiej (2016), Wielka Księga Wołowiny (współautorka, 2015), Półgęski, czernina i karp w piernikach (razem z J. Dumanowskim, 2012). Po pracy pisze bloga www.prowincjaodkuchni.pl. Kiedy na ziemiach polskich pojawiły się pierniki? Dokładne datowanie jest bardzo trudne, to zadanie dość karkołomne... Przyjmuje się, że pierniki na ziemiach polskich były wypiekane już w średniowieczu. W Toruniu pierwsze wzmianki pochodzą z XIV wieku. Z jakiego okresu pochodzi najstarszy znany przepis? Najstarszy drukowany przepis na piernik toruński pochodzi z poradnika medycznego Compendium Medicum Auctum z 1725 roku. Choć wiadomo, że pierniki wypiekano wcześniej, jednak niechętnie zdradzano recepturę. Każdy piernikarz , mistrz w swoim fachu, miał swój sekret, którego pilnie strzegł. Dopiero w XIX i na początku XX wieku przepisy na pierniki i pierniczki pojawiają się w książkach kucharskich. Już wówczas składniki są coraz lepiej dostępne, gospodynie domowe, mieszczanki i szlachcianki mogą wypiekać pierniczki we własnych kuchniach. Najbardziej znane polskie pierniki to toruńskie katarzynki. Często słyszy się też o piernikach bardzkich czy gdańskich brukowcach. Jakie jeszcze (obecnie) polskie miasta/regiony miały swoje pierniki? Czym się one między sobą różniły? Pierniki toruńskie przez długie lata konkurowały z tymi z Norymbergii. Do dziś jedne i drugie cieszą się uznaniem smakoszy. Każdy z nich jest też inny. W piernikach norymberskich możemy wyczuć opłatek umieszczany na spodzie każdego ciastka. W przepisach na toruński piernik pojawia się z kolei kandyzowana skórka pomarańczowa albo cytrynowa.  Brukowce, to pierniki, które w również w Toruniu wypiekali piernikarze, a dziś brukowiec kujawski – świąteczny piernik domowy jest wpisany na ministerialną listę produktów tradycyjnych. Poza tym piernikarskie tradycje odradzają się w innych regionach, jak choćby na Dolnym Śląsku. O przywracanie tej tradycji dbają piernikarze z Wrocławia czy Jawora, gdzie od kilku lat jest organizowane święto chleba i piernika. Istnieje bardzo dużo miejsc, w których żyją piernikowe tradycje, jednak maja one często wymiar sezonowy, na przykład związany z okresem przed świętami Bożego Narodzenia. Natomiast bezsprzecznie to Toruń jest najsłynniejszym piernikowym miastem, w którym tradycja wypiekania pierników sięga średniowiecza. Od tego czasu jest w zasadzie nieprzerwana. Ciekawe jest to, że w Toruniu sezon na pierniki trwa cały rok. Katarzynki, wspomniane w pytaniu, wśród pierników toruńskich odniosły szczególny sukces. Jest w nich tradycja i tajemnica. Istnieje wiele legend o powstaniu tego piernika. Wersji wiele, ale główny sens jeden – katarzynki powstały z miłości. Mówi się, że to jeden z najważniejszych składników piernikowego ciasta. « powrót do artykułu
  12. Archeolodzy pracujący we Fleet Marston, w pobliżu dawnej rzymskiej osady, odkryli liczne niezwykłe artefakty sprzed 1700 lat. Zachowały się wśród nich cztery jajka, które zostały tu złożone prawdopodobnie w ramach rytuału płodności. Niestety, podczas próby wydobycia jajek trzy z nich zostały rozbite. Jajo, które się zachowało, to jedyny tego typu kompletny obiekt z terenu Wielkiej Brytanii. Jajka prawdopodobnie zachowały się dzięki temu, że zostały złożone na terenie podmokłym. Jego właściwości pozwoliły na zachowanie wielu delikatnych przedmiotów, takich jak skórzane buty, drewniane narzędzia czy bardzo rzadki koszyk. Archeolodzy sądzą, że zarówno koszyk jak i jajka zostały ukryte w ziemi w ramach ceremonii religijnej. Jajka to wyjątkowe znalezisko. Znaleziono je w torfowisku w pobliżu dawnej rzymskiej drogi zwanej Akeman Street. Dotychczas podczas prac archeologicznych znaleziono tam ceramikę i drewniane belki, które – jak przypuszczają specjaliści – były podporami mostu po którym Akeman Street przekraczała rzekę Thame. Coraz większa liczba znalezisk daje nam coraz więcej informacji na temat szczątków pobliskiej osady Fleet Marston. Dotychczas jedynie przypadkowe znaleziska pozwalały co nieco o niej powiedzieć. Teraz wiemy na przykład, że zarówno w czas sprzed przybycia Rzymian jak i po ich pojawieniu się, podstawę miejscowej gospodarki stanowiła hodowla, przede wszystkim koni. Dowody z Berryfields i innych miejsc w okolicy coraz wyraźniej wskazują, że Fleet Marston znajdowała się na skrzyżowaniu wielu dróg, łączących wnętrze kraju z dużymi miastami, stwierdzili archeolodzy. Wspomniana już wcześniej Akeman Street była ważną drogą, która przebiegała pomiędzy Verulamium – miastem posiadającym m.in. forum, bazylikę i teatr – a Corinium Dobunnorum, stolicą plemienia Dobunnów i późniejszą stolicą prowincji Britannia Prima. Sądząc po setkach wykopanych monet i innych znaleziskach możemy przypuszczać, że to miejsce [Fleet Marston – red.] było centrum handlowym lub administracyjnym z rozległymi połączeniami handlowymi. W średniowieczu i w dniu dzisiejszym rolę taką pełni pobliskie Aylesbury, wyjaśniają archeolodzy. « powrót do artykułu
  13. Jest biało-niebieski, ma 2,4 m długości, waży 110 kilogramów, a jego prędkość użytkowa to 30 km/h – to elektryczny pojazd e-MaksPower. Studenci Politechniki Warszawskiej właśnie zakończyli prace nad projektem. Bolid skonstruowali dla Maksa – 10-latka z dystrofią mięśniową i wielkiego fana motoryzacji. 6 grudnia 2019 roku w Gmachu Głównym PW odbyła się uroczysta premiera pojazdu. W jej kulminacyjnym momencie Maks zasiadł w bolidzie i pokazał jego możliwości, wykonując kilka przejazdów po Dużej Auli. Cieszymy się, że mogliśmy wykorzystać nasze inżynierskie umiejętności, by komuś pomóc – mówi Łukasz Krawczuk vel Walczuk, kierownik projektu. Cel: spełnić marzenie Pomysł zrodził się podczas targów, w których uczestniczyli studenci z Koła Naukowego ADek. Podszedł do nas tata Maksa i opowiedział o zamiłowaniu syna do elektromobilności i gokartów – opowiada Łukasz Krawczuk vel Walczuk. A że ADek zajmuje się właśnie taką tematyką, to postanowiliśmy spełnić marzenie Maksa i zbudować bolid dostosowany do jego potrzeb.   Prace rozpoczęły się w lutym 2018 roku. W przedsięwzięcie zaangażowali się studenci z czterech kół naukowych Politechniki Warszawskiej: Studenckiego Koła Aerodynamiki Pojazdów, Koła Naukowego Robotyków (oba koła działają przy Wydziale Mechanicznym Energetyki i Lotnictwa), Koła Naukowego ADek (działającego przy Wydziale Elektrycznym) i Międzywydziałowego Koła Naukowego SmartCity (działa przy Wydziale Inżynierii Lądowej). To oni zajęli się kwestiami inżynierskimi. Z pomocą graficzną przyszedł Rafał Tomczak – student wzornictwa przemysłowego na ASP w Warszawie. Podążając za trendami Po konsultacjach z Maksem i jego rodzicami młodzi konstruktorzy zaprojektowali pojazd w pełni sterowalny za pomocą drążka sterowego, umożliwiającego kontrolę nad zespołem napędowym, układem kierowniczym i hamulcowym. Zaplanowali, że układ napędowy będzie w pełni elektryczny – zgodnie z aktualnymi motoryzacyjnymi trendami. Bolid miał mieć aerodynamiczne poszycie, dostosowane do tego typu konstrukcji, zaprojektowane i wykonane przez studentów. Kolory bolidu nie są przypadkowe – Maks wybrał biały i niebieski, kiedy zobaczył pierwsze wizualizacje przygotowane przez Rafała Tomczaka – zaznacza Łukasz Krawczuk vel Walczuk. Bez pomocy ani rusz Wymyślić i zaprojektować – to jedno. Ale zbudować – drugie i poważniejsze wyzwanie. Tak ambitne przedsięwzięcie wymagało sporych nakładów finansowych. Prace nad e-MaksPowerem wsparło wiele firm i instytucji: ABB, Budimex, AVL Software and Functions, AC SA, TME, Wamtechnik, Cubic Inch, LED Solar System, PSPA, Fundacja PGE, Maridex Meble, Profar Lakiernia, 3D Reaktor, efilament3d i oczywiście Politechnika Warszawska. Swoje serca i portfele otworzyło też 143 darczyńców – uczestników akcji crowdfundingowej na portalu PolakPotrafi.pl. Z pomocą przyszły także media, przekazujące informacje o projekcie i zorganizowanej na jego potrzeby zbiórce. Studenci mogli liczyć na ciągłe wsparcie rodziców Maksa. Byli z nimi w stałym kontakcie i na bieżąco informowali o postępach w pracy. Projekt trwał dłużej, niż zakładaliśmy, ale nie traciliśmy motywacji, bo wiedzieliśmy, że Maks czeka i w nas wierzy – przyznaje Łukasz Krawczuk vel Walczuk. Nowe cele Teraz chłopiec może cieszyć się z bolidu, a jego twórcy – z wykonanej pracy. Sprawdziliśmy zdobytą wiedzę i umiejętności w praktyce, nauczyliśmy się cierpliwości, pokory, zarządzania swoim czasem, odpowiedzialności – wylicza Łukasz Krawczuk vel Walczuk. Radość i duma z wykonanej pracy nie przysłaniają jednak twórcom e-MaksPowera kolejnych celów. Przeprowadziliśmy wstępną rozmowę z osobami zainteresowanymi rozwojem projektu – mówi Łukasz Krawczuk vel Walczuk. Mamy nadzieję na kontynuację (już pod inną nazwą) i dalsze pomaganie w spełnianiu dziecięcych marzeń. Na różnych etapach projektu nad bolidem pracowało około 30 osób. Trzon zespołu tworzyli: Łukasz Krawczuk vel Walczuk (kierownik projektu), Hubert Graczyk (odpowiedzialny za układ sterowania oraz komputer pokładowy), Piotr Saffarini (opracował układ kierowniczy i konstrukcję wielu elementów w bolidzie), Michał Stasiuk (architekt systemu sterowania i elektronika), Marcin Staszewski (odpowiadał za dobranie i implementację systemu bateryjnego S), Michał Wielgosz (symulował aerodynamika i nadzorował wykonanie poszycia poszycie bolidu), Robert Juchniewicz (projekt i wykonanie instalacji elektrycznej), Łukasz Grab (programowanie mikrokontrolerów), Piotr Lange (mechanika płyty jezdnej), Joanna Kacprowska (pozyskiwanie sponsorów), student Akademii Sztuk Pięknych Rafał Tomczak (design oraz cały branding projektu). Podstawowe dane techniczne e-MaksPowera: Masa pojazdu: 110 kg 1) Prędkość maksymalna projektowa: 80 km/h 2) Prędkość użytkowa: 30 km/h 3) Zasięg: 20km 4) Moc: 3 kW 5) Pojemność baterii: 1kWh 6) Wymiary: 2,4 [m] x 1,3 [m] x 0,9 [m] 7) Poszycie z włókna szklanego 8) Koszt: 80 tys. zł « powrót do artykułu
  14. Chińscy archeolodzy potwierdzili, że znaleziony w urnie z czasów neolitycznej kultury Yangshao zwęglony materiał to pozostałości jednej z najstarszych na świecie jedwabnych tkanin. Urnę odkryto na stanowisku Wanggou w prowincji Henan. Z pomocą testu ELISA opracowanego przez ekspertów z Chińskiego Narodowego Muzeum Jedwabiu potwierdzono, że zwęglona tkanina z urny to jedwab - powiedział na konferencji prasowej kurator Zhao Feng. Gu Wanfa, dyrektor Instytutu Badania Zabytków i Archeologii w Zhengzhou, ujawnił, że w Henanie odkryto klaster ruin z okresu kultury Yangshao sprzed 5-7 tys. lat. Tkanina z Wanggou ma 5300-5500 lat. Inne stare potwierdzone przypadki tkaniny jedwabnej pochodzą z czasów kultury Lianghzu i mają 4200-4400 lat - opowiada Gu. W książce A History of Chinese Science and Technology (t. II) Wydawnictwa Prasowego Uniwersytetu Jiao Tong w Szanghaju napisano, że w 1958 r. specjaliści zaangażowani w badania archeologiczne prowincji Zhejiang odkryli na stanowisku Qianshanyang (kultura Liangzhu) w Huzhou bambusowy koszyk, w którym znajdowały się m.in. tekstylia. Naukowcy z Instytutu Tekstyliów oraz Uniwersytetu Technologicznego Zhejiangu zidentyfikowali je jako materiał jedwabny, a także jedwabne włókna i wstążki. Później zespół z Instytutu Archeologicznego prowincji odkrył na stanowisku jedwabne wstążki sprzed ok. 4 tys. lat. W publikacji mówi się również o innym przypadku - skrawkach jedwabiu i tkanin z materiałów roślinnych sprzed ok. 5500 lat; odkopano je w latach 80. XX w. na neolitycznym stanowisku w Qingtai Village. Na stanowisku Wanggou resztki jedwabiu znaleziono w czaszce dziecka. Wanfa uważa, że odkrycie sugeruje, w owym czasie chińska technologia produkcji jedwabiu już raczej dojrzewała, niż dopiero się zaczynała. Ponieważ kształt urny nawiązuje do wyglądu kokonu jedwabników, Zhao Feng przypuszcza, że chowając w ten sposób swoich zmarłych, kiedyś ludzie chcieli, by powstali oni z martwych, tak jak dorosły motyl wydostaje się z kokonu.   « powrót do artykułu
  15. Chiny plasują się na pierwszej pozycji wśród 33 ze 137 obszarów badawczych, wynika z raportu „Research Fronts 2019” [PDF], opublikowanego przez Instytuty Nauki i Rozwoju Chińskiej Akademii Nauk, Narodową Bibliotekę Nauki Chińskiej Akademii Nauk oraz firmę Clarivate Analytics. W raporcie tym w 10 szeroko pojętych obszarach nauki zidentyfikowano 137 obszarów badawczych. Znalazło się wśród nich po 10 najbardziej aktywnych obszarów badawczych z każdego obszaru nauki, zatem mamy 100 najbardziej aktywnych obszarów badawczych, oraz 37 nowych obszarów badawczych. Analiza wykazała, że wśród 10 obszarów nauki USA dominują na 7, a Chiny na 3. Obszarami, na których Stany Zjednoczone mają przewagę są: nauki rolnicze oraz dotyczące roślin i zwierząt; nauki o Ziemi (m.in. geologia, geofizyka, klimatologia czy fizyka atmosfery); medycyna kliniczna; nauki biologiczne (zaliczono tutaj nauki zajmujące się opracowywaniem nowych leków, starzeniem się, genetykę czy badania nad lekoopornością); fizyka, astronomia i astrofizyka; ekonomia, psychologia oraz inne nauki społeczne. Z kolei obszary dominacji Chin to ekologia i nauki środowiskowe, w tym i badania nad wpływem zanieczyszczenia środowiska na ludzkie zdrowie; chemia i nauki materiałowe oraz matematyka, informatyka i inżynieria. Te trzy obszary nauki są ściśle powiązane w wymogami dotyczącymi wzrostu gospodarczego Chin, a ich jakość świadczy o innowacyjności Chin, mówi Pan Jiaofeng z Chińskiej Akademii Nauk. Autorzy raportu przyznają jednocześnie, że Chiny pozostają znacząco w tyle za USA w dziedzinie medycyny klinicznej oraz astronomii i astrofizyki. Ponadto, pomimo że w dziedzinie fizyki, biologii, nauk o Ziemi oraz nauk społecznych jak ekonomia czy psychologia, uplasowały się na drugim miejscu, to i tak dzieli je spory dystans od USA. Profesor Leng Fuhai z Chińskiej Akademii Nauk zauważa, że USA są generalnie bardzo silne i mają duże możliwości na większości najważniejszych obszarów badawczych, natomiast Chiny dobrze sobie radzą na kilku obszarach, ale wyraźnie odstają w innych. W raporcie kilkukrotnie wspomniano osiągnięcia polskich naukowców. Dotyczy to tych dziedzin, w których ich osiągnięcia zaliczono do pierwszej światowej dziesiątki. I tak na obszarze badawczym „Fosfor, zanieczyszczenia i ryzyko dla zdrowia związane z zakwitami sinic" Polska uplasowała się na 9. pozycji, na równi z Francją. Żadna nasza uczelnia się tutaj jednak nie wyróżniła. Kolejny obszar, na którym wspomniano Polskę to... "Zanieczyszczenie i czynniki ryzyka środowiskowego związane z metalami ciężkimi w głównych złożach mineralnych Chin". To niszowy temat, który, co oczywiste, interesuje przede wszystkim Chińczyków. Tutaj znaleźliśmy się w dużej grupie krajów, w których pojawiła się 1 ważna praca naukowa na ten temat. Bardzo dobrze – bo na pierwszym miejscu – wypadł nasz kraj na polu o nazwie „Ocena efektywności i bezpieczeństwa biopodobnych infliksymabu". W naszym kraju powstało najwięcej kluczowych prac naukowych na ten temat, a wśród najlepszych światowych instytucji zajmujących się tym problemem wymieniono Med Pro Familia, Uniwersytet Medyczny w Poznaniu i Poznański Ośrodek Medyczny NOVAMED. Do raportu dodano też analizę zatytułowaną „2019 Research Fronts: Active Fields, Leading Countries” [PDF], w której wyliczono i porównano zbiorcze osiągnięcia krajów na wszystkich 137 frontach badawczych. W stworzonym w ten sposób rankingu Research Leadership Index wyliczono punkty dla 20 najsilniejszych pod względem naukowym krajów świata. Są to: USA (204,89 pkt.), Chiny (139,68), Wielka Brytania (80,85), Niemcy (67,52), Francja (46,30), Włochy (39,42), Kanada (39,25), Australia (35,27), Holandia (33,80), Japonia (33,15), Hiszpania (28,20), Szwajcaria (24,81), Korea Południowa (21,75), Indie (20,74), Szwecja (17,54), Belgia (14,83), Dania (13,91), Austria (12,75), Arabia Saudyjska (12,01) oraz Brazylia (11,52). « powrót do artykułu
  16. U 34-letniej Brytyjki, której serce przestało bić przez wyziębienie, spontaniczne krążenie wróciło dopiero po ok. 6 godz. Kobieta wpadła w ciężką hipotermię, gdy 3 listopada podczas wspinaczki w Pirenejach została zaskoczona przez burzę śnieżną. Pacjentka, która już niemal w pełni doszła do siebie, zapowiada, że wiosną znów ruszy w góry. Schoeman, która na co dzień mieszka w Barcelonie, najpierw zaczęła mieć problemy z mówieniem i poruszaniem się. Później straciła przytomność. Wtedy jej mąż Rohan zadzwonił po pogotowie. Czekając na przybycie służb, myślał, że Audrey już nie żyje. Próbowałem wyczuć tętno. Nie wyczuwałem jednak ani oddechu, ani bicia serca. Kiedy po 2 godzinach zjawiła się ekipa ratunkowa, temperatura ciała Brytyjki wynosiła tylko 18°C. Gdy pacjentkę przetransportowano do Hospital Universitario Valle de Hebrón w Barcelonie, nie było żadnych oznak życia. Lekarz Eduard Argudo podkreśla, że hipotermia, przez którą doszło do zatrzymania krążenia, pomogła w ocaleniu życia 34-latki. [Pacjentka] wyglądała jak martwa. W kontekście hipotermii wiedzieliśmy jednak, że miała szansę przeżyć. Obniżona temperatura mogła bowiem ochronić organizm, w tym mózg, przed szkodliwymi zmianami. Ścigając się z czasem, specjaliści zastosowali ogrzewanie pozaustrojowe (by-pass z oksygenatorem i wymiennikiem ciepła). Po podwyższeniu temperatury do 30°C, ok. 6 godz. od wezwania pomocy przez męża, akcję serca (spontaniczne krążenie) przywrócono dzięki wykorzystaniu defibrylatora. Po 12 dniach kobietę wypisano ze szpitala. U Schoeman pozostały tylko niewielkie problemy z poruszaniem i czuciem w dłoniach. Zważywszy, że [...] powrót krążenia uzyskano po tak długim czasie, obawialiśmy się powikłań neurologicznych - opowiada dr Argudo. Odnosząc się do wypadku, Schoeman podkreśla, że niczego nie pamięta z 6 krytycznych godzin. Dodaje, że stał się cud, do którego w znacznym stopniu przyczynili się barcelońscy lekarze. W Hiszpanii to niespotykany przypadek, jednak w literaturze przedmiotu nie brakuje opisów norweskich pacjentów, u których spontaniczne krążenie udało się przywrócić niekiedy po godzinach zabiegów resuscytacyjnych i ogrzaniu pozaustrojowym. W 2014 r. w piśmie Resuscitation ukazał się nawet artykuł pod wiele mówiącym tytułem Nobody is dead until warm and dead: Prolonged resuscitation is warranted in arrested hypothermic victims also in remote areas – A retrospective study from northern Norway.   « powrót do artykułu
  17. Naukowcy z Uniwersytetu Przyrodniczego w Poznaniu biorą pod lupę gen odpowiedzialny za metabolizm kofeiny. Szukają też chętnych do udziału w tym projekcie, dzięki któremu m.in. dowiedzą się, w jakim tempie zachodzi u nich ten proces. Jak przypomniała w przesłanej PAP informacji rzeczniczka uczelni Iwona Cieślik, kofeina to jeden z najstarszych środków pobudzających, jakie zna ludzkość. Mimo określenia przez ekspertów zalecanej, bezpiecznej dziennej dawki tej substancji (400 mg/dzień, a dla kobiet w ciąży 200 mg/dzień), przeciętny człowiek może spożywać jej nawet do kilku razy więcej, co może m.in. zwiększać ryzyko wystąpienia zawału serca. Dlatego osoby będące wolno metabolizującymi kofeinę nie powinny spożywać więcej niż 100 mg kofeiny/dzień ze wszystkich źródeł – dodała. Tempo, w jakim człowiek metabolizuje kofeinę, można zbadać poprzez analizę genu odpowiedzialnego za ten proces, czym zajmują się właśnie naukowcy z Instytutu Żywienia Człowieka i Dietetyki Uniwersytetu Przyrodniczego w Poznaniu. Dzięki analizie DNA badacze będą mogli stwierdzić, kto znajduje się w grupie podwyższonego ryzyka i odpowiednio kształtować tworzone (dla tych osób – PAP) zalecenia żywieniowe – wyjaśniła Cieślik. Ocena wpływu takiej spersonalizowanej diety żywieniowej na zdrowie pacjenta jest również obiektem badań naukowców, ponieważ nie wiadomo, na ile włączenie takiej informacji podnosi świadomość żywieniową i zmianę zachowań konsumenta. Zespół badaczy poszukuje więc chętnych do wzięcia udziału w tych badaniach (osoby w wieku 18-60 lat). Udział w projekcie niesie dla ochotników szereg korzyści. Po pierwsze oceniony zostanie poziom spożycia kofeiny. Na koniec projektu wszyscy uczestnicy dostaną informacje na temat swojego genu odpowiedzialnego za metabolizm kofeiny. Dodatkowo zostanie oceniony skład ciała z dokładną oceną zawartości tłuszczowej oraz beztłuszczowej masy ciała. W próbkach krwi zostanie oznaczony m.in. tzw. profil lipidowy, poziom glukozy, insuliny – wymieniała rzeczniczka. W badaniach zostanie też wykorzystana aplikacja, która pozwoli na ocenę spożycia kofeiny wśród badanych uczestników. Projekt jest nowatorski pod względem zarówno kompleksowego podejścia do oceny spożycia kofeiny wśród polskiej populacji zdrowych dorosłych, jak również pod kątem sprawdzenia sensowności wykorzystania nowoczesnej, drogiej technologii w doradztwie żywieniowym – podkreśliła Cieślik. Badania realizowane są w zespole dr hab. prof. UPP Agaty Chmurzyńskiej, a główna osobą odpowiedzialną jest doktorantka Instytutu Żywienia Człowieka i Dietetyki i magister dietetyki – Ewa Bulczak. Nabór (poprzez mail: mml@up.poznan.pl lub telefonicznie: 510 084 082) potrwa do kwietnia 2020 r. « powrót do artykułu
  18. Jednym ze sposobów na pozyskiwanie odnawialnej energii jest wykorzystanie różnicy chemicznych pomiędzy słodką i słoną wodą. Jeśli naukowcom uda się opracować metodę skalowania stworzonej przez siebie technologii, będą mogli dostarczyć olbrzymią ilość energii milionom ludzi mieszkających w okolica ujścia rzek do mórz i oceanów. Każdego roku rzeki na całym świecie zrzucają do oceanów około 37 000 km3 wody. Teoretycznie można tutaj pozyskać 2,6 terawata, czyli mniej więcej tyle, ile wynosi produkcja 2000 elektrowni atomowych. Istnieje kilka metod generowania energii z różnicy pomiędzy słodką a słoną wodą. Wszystkie one korzystają z faktu, że sole złożone są z jonów. W ciałach stałych ładunki dodatnie i ujemne przyciągają się i łączą. Na przykład sól stołowa złożona jest z dodatnio naładowanych jonów sodu połączonych z ujemnie naładowanymi jonami chloru. W wodzie jony takie mogą się od siebie odłączać i poruszać niezależnie. Jeśli po dwóch stronach półprzepuszczalnej membrany umieścimy wodę z dodatnio i ujemnie naładowanymi jonami, elektrony będą przemieszczały się od części ujemnie naładowanej do części ze znakiem dodatnim. Uzyskamy w ten sposób prąd. W 2013 roku francuscy naukowcy wykorzystali ceramiczną błonę z azotku krzemu, w którym nawiercili otwór, a w jego wnętrzu umieścili nanorurkę borowo-azotkową (BNNT). Nanorurki te mają silny ujemny ładunek, dlatego też Francuzi sądzili, że ujemnie naładowane jony nie przenikną przez otwór. Mieli rację. Gdy po obu stronach błony umieszczono słoną i słodką wodę, przez otwór przemieszczały się niemal wyłącznie jony dodatnie. Nierównowaga ładunków po obu stronach membrany była tak duża, że naukowcy obliczyli, iż jeden metr kwadratowy membrany, zawierający miliony otworów na cm2 wygeneruje 30 MWh/rok. To wystarczy, by zasilić nawet 12 polskich gospodarstw domowych. Problem jednak w tym, że wówczas stworzenie nawet niewielkiej membrany tego typu było niemożliwe. Nikt bowiem nie wiedział, w jaki sposób ułożyć długie nanorurki borowo-azotkowe prostopadle do membrany. Przed kilkoma dniami, podczas spotkania Materials Research Society wystąpił Semih Cetindag, doktorant w laboratorium Jerry'ego Wei-Jena na Rutgers University i poinformował, że jego zespołowi udało się opracować odpowiednią technologię. Nanorurki można kupić na rynku. Następnie naukowcy dodają je do polimerowego prekursora, który jest nanoszony na membranę o grubości 6,5 mikrometrów. Naukowcy chcieli wykorzystać pole magnetyczne do odpowiedniego ustawienia nanorurek, jednak BNNT nie mają właściwości magnetycznych. Cetindag i jego zespół pokryli więc ujemnie naładowane nanorurki powłoką o ładunku dodatnim. Wykorzystane w tym celu molekuły są zbyt duże, by zmieścić się wewnątrz nanorurek, zatem BNNT pozostają otwarte. Następnie do całości dodano ujemnie naładowane cząstki tlenku żelaza, które przyczepiły się do pokrycia nanorurek. Gdy w obecności tak przygotowanych BNNT włączono pole magnetyczne, można było manewrować nanorurkami znajdującymi się w polimerowym prekursorze nałożonym na membranę.  Później za pomocą światła UV polimer został utwardzony. Na koniec za pomocą strumienia plazmy zdjęto z obu stron membrany cienką warstwę, by upewnić się, że nanorurki są z obu końców otwarte. W ten sposób uzyskano membranę z 10 milionami BNNT na każdy centymetr kwadratowy. Gdy taką membranę umieszczono następnie pomiędzy słoną a słodką wodą, uzyskano 8000 razy więcej mocy na daną powierzchnię niż podczas eksperymentów prowadzonych przez Francuzów. Shan mówi, że tak wielki przyrost mocy może wynikać z faktu, że jego zespół wykorzystał węższe nanorurki, zatem mogły one lepiej segregować ujemnie naładowane jony. Co więcej, uczeni sądzą, że membrana może działać jeszcze lepiej. Nie wykorzystaliśmy jej pełnego potencjału. W rzeczywistości tylko 2% BNNT jest otwartych z obu stron, mówi Cetindag. Naukowcy pracują teraz nad zwiększeniem odsetka nanorurek otwartych z obu stron membrany. « powrót do artykułu
  19. Tegoroczne jesienne liczenie kozic w Tatrach nie powiodło się z powodu niesprzyjającej pogody. Wspólna akcja przyrodników z polskiego i słowackiego Tatrzańskiego Parku Narodowego (TPN) była sześciokrotnie przekładana i choć w końcu podjęto próbę policzenia kozic, tym razem się to nie udało. Pomimo sześciokrotnego przekładania akcji liczenia kozic pogoda nam nie sprzyjała. Podjęliśmy próbę liczenia 15 listopada, ale szczyt przysłaniały chmury i wiał silny wiatr, szczególnie w części zachodniej gór. W związku z tym liczenie się nie udało – powiedział PAP w poniedziałek Jarosław Rabiasz z Zespołu Badań i Monitoringu TPN. Kolejne liczenie kozic zaplanowano na wiosnę przyszłego roku. Wówczas będzie też wiadomo, ile kozic przyszło na świat. Liczenie populacji kozic po polskiej i słowackiej stronie Tatr odbywa się regularnie wiosną i jesienią od 1957 r. Polega na tym, że teren jest dzielony na rejony obserwacyjne, w które ruszają zespoły wyposażone w lornetki i specjalne karty obserwacyjne. Na kartach zapisują liczbę osobników, czas i miejsce obserwacji, kierunek przemieszczania się zwierząt i dodatkowe informacje, takie jak płeć czy wiek osobników. Później na polsko-słowackim forum przyrodnicy weryfikują swoje obserwacje i szacują liczbę kozic. W ubiegłym roku jesienią naliczono w Tatrach 1431 kozic. Kozica w Polsce jest gatunkiem chronionym. Zwierzęta te żyją w niewielkich stadach, na których czele stoi doświadczona samica, tak zwana licówka. Samce, zwane capami, żyją najczęściej samotnie, dołączając do stad jesienią na czas godów. « powrót do artykułu
  20. Ford i McDonald nawiązały współpracę, która pozwoli wykorzystać plewy pozostałe po paleniu kawy w materiale kompozytowym do produkcji części samochodowych. Sieć restauracji planuje przekazywać koncernowi motoryzacyjnemu znaczącą część plew ze swojego północnoamerykańskiego "urobku". Warto przypomnieć, że w zeszłym roku w samych Stanach McDonald wydał ok. 822 mln kubków kawy. Uzyskane w ten sposób części mają być o 20% lżejsze, co powinno zmniejszyć zużycie paliwa i emisję CO2. Co istotne, w czasie formowania części producent może zaoszczędzić do 25% energii. Jak podkreśla Debbie Mielewski z zespołu badawczego Forda, części wyprodukowane z nowego materiału kompozytowego będą też bardziej trwałe, bo lepiej wytrzymuje on ciepło. Pierwszym elementem produkowanym z wykorzystaniem plew będzie obudowa reflektora Lincolna Continentala. Plewy przetwarza dla Forda firma Competitive Green Technologies. Produkcja osłon ma się rozpocząć w Varroc Lighting Systems jeszcze przed końcem tego roku. Do produkcji pojedynczej obudowy potrzeba plew z ok. 300 tys. ziaren kawy. Ford i McDonald myślą o kontynuacji współpracy (o wykorzystaniu większej części odpadków restauracji). Muszą mieć sporo odpadów keczupowych - skórek i nasion pomidorów. A co z ich obierkami ziemniaków na frytki? Jesteśmy przekonani, że [...] można z nich zrobić jakiś użytek - przekonuje Mielewski. « powrót do artykułu
  21. Władze Niezależnego Państwa Samoa poprosiły obywateli, którzy nie są zaszczepieni przeciwko odrze, by wywiesili przed swoimi domami czerwone flagi. Mają one pomóc lekarzom zidentyfikować domy, w których należy dokonać szczepień. Przed trzema tygodniami władze państwa ogłosiły stan wyjątkowy. Pod koniec października w tym zamieszkanym przez około 198 000 osób państwie wybuchła epidemia odry. Dotychczas zachorowało ponad 4000 osób, zmarły 62 osoby, w tym 54 dzieci poniżej 4. roku życia. Rząd poprosił też, by dzisiaj i jutro większość pracowników – zarówno rządowych i firm prywatnych – pozostała w domach. Zamknięto główne drogi, a zespoły medyczne wędrują od domu do domu ze szczepionkami. Stąd też prośba o wywieszenie czerwonych flag. W związku z trudną sytuacją, UNICEF wysłał na Samoa 110 500 szczepionek, a z Nowej Zelandii przybyły dodatkowe tysiące szczepionek, pielęgniarki oraz odpowiednie wyposażenie. Samoa Amerykańskie, sąsiadujące z Niezależnym Państwem Samoa, ogłosiło stan podwyższonej gotowości służby zdrowia. Tam jednak odsetek zaszczepionych wynosi 90% i nie zanotowano epidemii. Ta jednak pojawiła się na Tonga, położonym 900 kilometrów od Samoa i to pomimo faktu, że również i na Tonga odsetek wyszczepień wynosi 90%. Chorobę przywieźli tu zawodnicy narodowej drużyny rugby, którzy wrócili z Nowej Zelandii. Zachorowało w sumie 440 osób, nikt nie zmarł. W Niezależnym Państwie Samoa, dokąd chorobę zawlókł prawdopodobnie turysta z Nowej Zelandii, odsetek wyszczepień wynosi obecnie 55%. Z danych WHO i UNICEF wynika, że w ubiegłym roku w Niezależnym Państwie Samoa zaszczepiono jedynie 31% noworodków, podczas gdy jeszcze cztery lata temu było to 84%. Tak niski odsetek był spowodowany śmiercią dwójki dzieci. Program szczepień zawieszono do czasu wyjaśnienia sprawy. Śledztwo wykazało, że jedna z pielęgniarek przypadkowo wymieszała proszek do przygotowania szczepionki nie z wodą, a z przeterminowanym środkiem znieczulającym zwiotczającym mięśnie. To jednak nie uspokoiło rodziców bojących się o swoje dzieci. Obecnie w samoańskich szpitalach przebywają 172 osoby chore na odrę, w tym 19 dzieci znajduje się w stanie krytycznym. « powrót do artykułu
  22. Archeolodzy prowadzący wykopaliska w pobliżu ossuarium, tzw. Kaplicy Czaszek, w Kutnej Horze w Czechach odkryli 34 masowe groby z 1200 szkieletami. Większość z nich należy do ofiar czarnej śmierci i głodu. Eksperci twierdzą, że to największe tego typu znalezisko w Europie. W Kaplicy Czaszek znajdują się szczątki 40–70 tys. ofiar czarnej śmierci z połowy XIV w., a także ofiar późniejszych wojen: husyckich z XV w. i trzydziestoletniej z XVII w. Z czaszek i kości wykonano wystrój obiektu: żyrandole, ołtarze czy herb rodowy Schwarzenbergów. Od 2014 r. ossuarium przechodzi renowację, częścią której są badania archeologiczne i antropologiczne. Renowacja ma potrwać co najmniej 10 lat. Jak dotąd kosztowała ok. 45 mln koron. Badania archeologiczne rozpoczęły się w 2016 r. [...] Najważniejszym odkryciem, jakiego dokonaliśmy, są masowe groby ofiar głodu w 1318 r. i dżumy w 1348 r. [...] Znaleźliśmy ok. 600 ofiar dżumy i ok. 600 ofiar głodu, czyli w sumie ok. 1200 szkieletów. W tym roku rozpoczęliśmy badania wnętrza [ossuarium]. Pod pierwszą piramidą znaleźliśmy 5 masowych pochówków. Kiedy budowano ossuarium, nie miano pojęcia, że są tu groby - opowiada Jan Frolík. Choć badania antropologiczne znajdują się w powijakach, Frolík przekonuje, że szczątki już i tak sporo ujawniły o ówczesnej populacji Kutnej Hory. Stosunek liczby dorosłych do liczby dzieci wynosi pół na pół, co jest typową cechą. Trzydziestoprocentowa przewaga mężczyzn [nad kobietami] pokazuje zaś, że do miasta stale napływali nowi górnicy [rozwój Kutnej Hory wiąże się z wydobyciem srebra] i że był to najwyraźniej bardzo niebezpieczny zawód. Poza tym, sądząc po urazach i chorobach pozostawiających swój ślad na kościach, mamy do czynienia z typowym społeczeństwem średniowiecznym. Widać, na przykład, częste złamania kończyn, niektóre źle zrośnięte. Z chorób, które można wykryć w ten sposób, odnotowaliśmy między innymi gruźlicę. « powrót do artykułu
  23. Udomowienie zwierząt przez ludzi wiąże się z całym szeregiem zmian genetycznych zachodzących w udomawianych gatunkach. Zwierzęta stają się np. mniej agresywne, bardziej przyjazne, mają mniejsze zęby i bardziej miły dla oka, łagodniejszy wygląd. Autorzy najnowszych badań sugerują, że zanim udomowiliśmy zwierzęta... udomowiliśmy samych siebie. Ludzie współcześni są mniej agresywni i bardziej skorzy do współpracy, niż nasi przodkowie. Przeszliśmy też, w porównaniu chociażby z neandertalczykami, znaczne zmiany fizyczne. Nasze czaszki są mniejsze, a łuki brwiowe mniej wydatne. To skłoniło naukowców, do zastanowienia się, czy ludzie sami się nie udomowili. Biolog molekularny Giuseppe Testa i jego koledzy w Uniwersytetu w Mediolanie postanowili bliżej przyjrzeć się temu zagadnieniu. Przyjrzeli się genowi BAZ1B, który odgrywa ważną rolę w rozwoju komórek grzebienia nerwowego. Większość ludzi posiada dwie kopie tego genu. Jednak u osób cierpiących na zespół Williamsa brakuje jednej z kopii. Skutki tej choroby to m.in. niedobory poznawcze, mniejsza czaszka, „twarz elfa” i niezwykle przyjazne podejście do innych ludzi. Naukowcy, chcąc sprawdzić, czy BAZ1B odgrywa jakąś rolę w pojawieniu się takich a nie innych cech wyglądu zewnętrznego u osób z zespołem Williamsa, wyhodowali w laboratorium 11 linii komórek macierzystych grzebienia nerwowego: cztery zostały pobrane od osób chorych na zespół Williamsa, trzy od osób cierpiących na podobne schorzenie, w którym jednak dochodzi do duplikacji a nie delecji genów, a cztery od osób zdrowych. Następnie za pomocą różnych technik naukowcy zwiększali lub zmniejszali aktywność BAZ1B w każdej z linii komórek. Zauważyli w ten sposób, że manipulowanie ekspresją tego genu wpływało na setki innych genów odpowiedzialnych za rozwój czaszki i twarzy. Przede wszystkim zaś okazało się, że wyciszenie BAZ1B prowadziło do pojawienia się charakterystycznego wyglądu twarzy u osób z zespołem Williamsa. Gdy następnie naukowcy sprawdzili genom neandertalczyków i denisowian pod kątem genów reagujących na zmiany aktywności BAZ1B odkryli, że u człowieka współczesnego występuje cały szereg specyficznych mutacji w tych genach. To wskazuje, że na ich kształt wpłynął dobór naturalny. Jako, że u udomowionych zwierząt również zaobserwowano mutacje wielu z tych genów, co wskazuje, że i H. sapiens przeszedł proces udomowienia. To niezwykle imponujące badania, chwali włoskich kolegów Richard Wrangham z Uniwersytetu Harvarda. Potwierdzają one hipotezę o udomowieniu człowieka współczesnego. Uczony dodaje jedna, że w procesie udomowienia zapewne wzięło udział wiele różnych genów, więc nie powinniśmy przeceniać ewolucyjnego znaczenia BAZ1B. Oni skupili się na jednym, bardzo ważnym genie, ale jasnym jest, że działało tutaj wiele genów. Z kolei William Tecumseh Fitch III, biolog ewolucyjny z Uniwersytetu Wiedeńskiego, sceptycznie podchodzi do szukania podobieństw pomiędzy udomowieniem zwierząt, a samoudomowieniem się ludzi. Mamy tutaj i podobieństwa i różnice. Poza tym sądzę, że jeden czy kilka genów nie mogą być dobrym modelem dla opisywania działania olbrzymiej liczby genów biorących udział w procesie udomowienia. Pozostaje też pytanie, dlaczego ludzie sami mieliby się udomawiać. Wrangham uważa, że gdy wcześni ludzie tworzyli współpracujące ze sobą grupy, pojawiła się presja ewolucyjna, która faworyzowała cechy związane z mniejszą agresją. Po raz pierwszy pojawiła się aktywna selekcja, która działała przeciwko genom promującym agresję, stwierdza uczony. « powrót do artykułu
  24. Modele klimatyczne to użyteczne narzędzie do lepszego zrozumienia i prognozowania przyszłych zmian klimatu. Klimatolodzy używają ich od początku lat 70., zatem minęło już wystarczająco dużo czasu, by dokonać retrospektywnego porównania i przekonać się, czy sprawdziły się prognozy, jakie przy użyciu modeli były tworzone przed dziesiątkami lat. W Geophysical Research Letters ukazał się właśnie artykuł, w którym Zeke Hausfather z Uniwersytetu Kalifornijskiego w Berkeley oraz jego koledzy z MIT i NASA opisują wyniki swoich badań nad skutecznością modeli klimatycznych. Dwa główne czynniki decydujące o prawidłowym bądź nie działaniu modeli klimatycznych to stopień naszego zrozumienia fizyki klimatu oraz umiejętność prognozowania przyszłej emisji CO2. Nawet najlepszy model komputerowy nie przewidzi prawidłowo rozwoju sytuacji, jeśli dostarczymy mu niewłaściwych danych o przyszłej emisji gazów cieplarnianych, a z drugiej strony jeśli będziemy korzystali z modelu, w którym zaimplementowano błędne mechanizmy dotyczące zjawisk fizycznych, to nawet dokładnie przewidzenie poziomu emisji nie pozwoli na uzyskanie właściwych wyników. Hausfather i jego zespół wzięli pod lupę 17 prognoz klimatycznych, wykonanych za pomocą 14 modeli, które powstały pomiędzy rokiem 1970 a 2001. Zarysowywane przez nie scenariusze porównano z rzeczywistym rozwojem sytuacji do roku 2017. Okazało się, że większość modeli prawidłowo przewidywała przyszły wzrost średniej temperatury na Ziemi. Z 17 prognoz w przypadku 10 nie zauważono statystycznej różnicy pomiędzy prognozami a rzeczywistym rozwojem sytuacji. Gorzej wypadła część modeli, które powstały przed rokiem 1990. Siedem starszych prognoz błędnie przewidziało rozwój sytuacji przewidując większe lub mniejsze ocieplenie niż było w rzeczywistości, a błędy sięgały nawet 0,1 stopnia Celsjusza. Bliższa analiza wykazała, że w przypadku 5 tych prognoz błąd nie tkwił w samych modelach, a w przewidywaniach naukowców dotyczących poziomu wymuszeń klimatycznych. Wymuszenia klimatyczne, to wpływające na klimat zjawiska pochodzące z zewnątrz systemu limatycznego (atmosfery, hydrosfery, kriosfery i biosfery). Należą do nich np. zmiany aktywności Słońca, orbity Ziemi, zapylenia atmosfery itp. Na przykład model z 1988 roku stworzony w NASA przez grupę Jamesa Hansena przewidywał, że jeśli zanieczyszczenie powietrza będzie będzie postępowało tak, jak w czasie tworzenia prognozy, to obecnie średnia temperatura na Ziemi będzie o 0,3 stopnia wyższa, niż jest w rzeczywistości. Hausfather i jego zespół odkryli, że przyczyną błędu nie jest samo działanie modelu, ale fakt, że naukowcy nieprawidłowo przewidzieli przyszły poziom zanieczyszczenia. Na przykład przeszacowali emisję metanu, a nie przewidzieli gwałtownego spadku emisji freonów, do jakiego doszło po wejściu w życie Protokołu Montrealskiego. Gdy do modeli, za pomocą których stworzono wspomnianych 7 błędnych prognoz wprowadzono prawidłowe dane dotyczące zanieczyszczenia atmosfery, okazało się, że 5 z nich pokazuje prawidłowe dane, zatem błędy tkwią w 2 z 17 prognoz. Naukowcy zauważyli dwie istotne rzeczy. Po pierwsze zaskoczyła ich jakość najstarszych modeli klimatycznych, które nadspodziewanie dobrze poradziły sobie z prognozami. Po drugie zaś, stwierdzili, że nowsze modele są doskonalsze. Klimatolodzy wiedzą nie od dzisiaj, że ich modele działają, jednak każda ich weryfikacja jest pożądana. To miło wiedzieć, że opinia o modelach się potwierdza, skomentował specjalista od modelowania klimatu Piers Forster z brytyjskiego University of Leeds. Uczony zastrzegł przy tym, że nawet w najnowocześniejszych modelach klimatycznych istnieje pewien poziom niepewności, jednak wiemy na tyle dużo, że możemy ufać modelom. « powrót do artykułu
  25. NASA zaprezentowała właśnie pierwsze wyniki badań przeprowadzonych przez Parker Solar Probe, najszybszy pojazd skonstruowany przez człowieka, który leci „dotknąć” Słońca. Zebrane przez sondę informacje na temat działania Słońca pozwolą naukowcom udoskonalić modele dotyczące pogody kosmicznej oraz powstawania i ewolucji gwiazd. Będą one kluczowym elementem dla stworzenia systemów ochrony astronautów przed szkodliwym wpływem Słońca podczas długotrwałych misji, takich jak wyprawa załogowa na Marsa. Dzięi danym z PSP naukowcy mogli na łamach Nature opublikować cztery artykuły dotyczące naszej gwiazdy. Zdobyliśmy nowe informacje na temat procesu napędzającego wiatr słoneczny oraz interakcji wiatru z obrotem Słońca. Mamy pierwsze analizy pyłu z korony słonecznej, a sonda zarejestrowała tak niewielkie epizody przyspieszania cząstek, że są one niewykrywalne z Ziemi. Przypomnijmy, że już 78 dni po starcie, który nastąpił 12 sierpnia 2018 roku, PSP stała się najbliższym Słońcu obiektem wysłanym przez człowieka. Niedługo potem zyskała też miano najszybszego obiektu. Parker Solar Probe ciągle przyspiesza i wciąż zbliża się do Słońca. W końcu osiągnie prędkość niemal 700 000 km/h, a jej najmniejsza odległość od gwiazdy wyniesie około 6,5 miliona kilometrów. Dotychczas sonda dwukrotnie obiegła Słońce. Ostatni raz w peryhelium, czyli najbliższym Słońcu punkcie swojej orbity, była 1 września, gdy zbliżyła się do gwiazdy na odległość około 24 milionów kilometrów, pędząc z prędkością około 350 000 km/h. Za trzy tygodnie, 26 grudnia, PSP dokona drugiego przelotu w pobliżu Wenus, a 4. peryhelium osiągnie 29 stycznia przyszłego roku. Później w lutym nastąpi 5. peryhelium, po czym po raz trzeci PSP będzie korzystała z asysty grawitacyjnej Wenus. We wrześniu znowu znajdzie się w peryhelium. Wśród nowych informacji, jakie już dostarczyła sonda, są dane dotyczące zachowania wiatru słonecznego. W pobliżu Ziemi mamy do czynienia z jego niemal równomiernym przepływem. Jak się jednak okazuje, w pobliżu Słońca jest to przepływ bardzo dynamiczny o wysoce określonej strukturze. Przypomina to nieco przepływ rzeki w miejscu, w którym wpada do morza. Naukowcy co po raz pierwszy mają okazję badać wiatr słoneczny z perspektywy korony gwiazdy. Uwagę naukowców szczególnie przykuły zmiany kierunku pola magnetycznego. Są one powszechne wewnątrz orbity Merkurego i trwają od kilku sekund do kilkunastu minut. Zmiany takie nie występują jednak w większej odległości od gwiazdy, zatem zauważyła je dopiero PSP. Mogą być one wskazówką, co podgrzewa i napędza wiatr słoneczny. W osobny artykule opisano pomiary wykonane przez instrument Solar Wind Electrons Alphas and Protons (SWEAP). Naukowcy byli zaskoczeni tym, w jaki sposób ruch obrotowy gwiazdy wpływa na wiatr słoneczny. W pobliżu Ziemi przepływa on po liniach prostych, wydobywając się ze Słońca we wszystkich kierunkach. Jednak, jako że Słońce obraca się, naukowcy spodziewali się, że wiatr jest dodatkowo napędzany w kierunku ruchu obrotowego gwiazdy. Po raz pierwszy zjawisko to zanotowano, gdy Parker Solar Probe znalazła się w odległości około 32 milionów kilometrów od Słońca. Jednak zakres tego bocznego ruchu wiatru był znacznie większy, niż się spodziewano. Co interesujące, również szybciej niż się spodziewano trajektoria wiatru prostowała się, przez co na większych odległościach opisywany efekt staje się niewidoczny. Zrozumienie tego zjawiska będzie kluczowym dla zrozumienia spowalniającego ruchu obrotowego Słońca, a ma to znaczenie dla cyklu życiowego naszej i innych gwiazd oraz tworzenia się dysków protoplanetarnych. PSP zaobserwowała też pierwsze oznaki wskazujące na to, że w odległości około 11 milionów kilometrów od gwiazdy otaczający ją pył staje się coraz rzadszy. Przewidywano to od niemal wieku, jednak dopiero teraz jesteśmy w stanie zweryfikować tę teorię. Teraz dzięki instrumentowi Wide-field Imager for Solar Probe (WISPR) wiemy, że zjawisko takie ma miejsce na dystansie około 6,5 miliona kilometrów. Pył jest podgrzewany przez gwiazdę i zamieniany w gaz. Naukowcy spodziewają się zatem, że w odległości obszar w odległości do 3,2 miliona, a może nawet do 4,8 miliona kilometrów od gwiazdy jest wolny od pyłu. Jeśli to prawda, to PSP powinna go zaobserwować podczas 6. peryhelium we wrześniu 2020 roku. Pył, który został odparowany w tej strefi stanowi część wiatru słonecznego. Kolejny z instrumentów badawczych, Integrated Science Investigation of the Sun (ISOIS) zmierzył zjawiska tak niewielkie, że zanikają one, gdy cząstki docierają do naszej planety. Zaobserwowano też rzadki rodzaj rozpadu cząstek, gdzie mamy szczególnie duży odsetek ciężkich pierwiastków. To ważne spostrzeżenie, gdyż wskazuje, że zjawiska takie są częstsze niż sądzono, ponadto mogą one pojawiać się nagle, wpływać na pogodę kosmiczną i stanowić zagrożenie dla astronautów. Słońce to jedyna gwiazda, którą może badać z tak niewielkiej odległości. Już te dane, którymi obecnie dysponujemy, rewolucjonizują rozumienie naszej gwiazdy i gwiazd we wszechświecie, mówi Nicola Fox, dyrektor Wydziału Fizyki Słońca w NASA. « powrót do artykułu
×
×
  • Dodaj nową pozycję...