Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Badania na myszach, których wyniki ukazały się właśnie w piśmie JNeurosci, wskazują, że dieta suplementowana ciałami ketonowymi (ich estrami) może ochronić neurony przed śmiercią w przebiegu choroby Alzheimera (ChA). Na wczesnych etapach ChA mózg staje się nadmiernie pobudzony, być może przez utratę hamujących GABA-ergicznych neuronów wstawkowych (interneuronów). Ponieważ interneurony potrzebują więcej energii w porównaniu do innych neuronów, wydają się bardziej podatne na obumieranie podczas ekspozycji na beta-amyloid (wcześniej wykazano, że beta-amyloid uszkadza mitochondria, czyli centra energetyczne komórki, oddziałując na sirtuinę 3, SIRT3). Zespół dr Aiwu Cheng z amerykańskiego Narodowego Instytutu Starzenia genetycznie obniżył poziom SIRT3 w mysim modelu alzheimera. Zaobserwowano, że gryzonie z niskim poziomem sirtuiny 3 cechował o wiele wyższy wskaźnik śmiertelności (zarówno samce, jak i samice umierały przedwcześnie przed 5. miesiącem życia) oraz nasilone obumieranie interneuronów. Zwierzęta te miały też gwałtowne drgawki; porównań dokonywano do standardowego mysiego modelu ChA oraz do myszy z grupy kontrolnej. Co istotne, okazało się, że podawanie suplementowanej karmy sprawiało, że gryzonie z obniżonym poziomem SIRT3 miały mniej drgawek i rzadziej umierały. Dieta ta zwiększała także poziom sirtuiny 3. Jak tłumaczą akademicy, zastosowana dieta zwiększała ekspresję SIRT3, zapobiegała zgonom związanym z drgawkami oraz degeneracji neuronów GABA-ergicznych. To potwierdza, że nasilona utrata neuronów GABA-ergicznych oraz nadmierna pobudliwość sieci neuronalnych u myszy z tej grupy jest wywołana spadkiem poziomu sirtuiny 3, a zjawiska te można zniwelować, zwiększając ekspresję SIRT3. « powrót do artykułu
  2. Dziewiątego grudnia w wieku 34 lat zmarł Pete Frates, chory na stwardnienie zanikowe boczne (ALS) bejsbolista. Jego uczestnictwo w Ice Bucket Challenge (IBC) pomogło w zebraniu znacznej kwoty. Celem IBC było zwiększenie świadomości społecznej dot. ALS, a przy tym zebranie pieniędzy na badania. W akcji wzięły udział miliony ludzi z całego świata. Stwardnienie zanikowe boczne, zwane też chorobą Lou Gehriga, zdiagnozowano u Pete'a w 2012 r. Frates nie zainicjował IBC. Dowiedział się o nim w lipcu 2014 r. od znajomego, Pata Quinna, również chorującego na ALS. Później zamieścił na Facebooku filmik, który skutkował wzrostem zainteresowania akcją; dzięki temu udało się zebrać sporą sumę. Pete szybko stał się jedną z najbardziej widocznych osób wspierających Ice Bucket Challenge. W sierpniu 2014 r. ponownie podjął wyzwanie (tym razem naprawdę oblano go lodowatą wodą). Wydarzenie miało miejsce w Fenway Park, a Fraserowi towarzyszyli przedstawiciele Boston Red Sox. Po zakończeniu Ice Bucket Challenge Frates i jego bliscy kontynuowali prace na rzecz zwiększenia świadomości ALS. W 2017 r. rodzina ujawniła koszty leczenia - ok. 70-95 tys. dol. miesięcznie. Chodziło o zwrócenie uwagi na problemy, z którymi borykają się pacjenci i ich opiekunowie. Pete zachował poczucie humoru nawet wtedy, gdy stracił zdolność poruszania kończynami i mówienia. Gdy w 2017 r. media społecznościowe obiegła plotka o jego śmierci, opublikował na Twitterze nagranie, na którym poruszał oczami i brwiami do piosenki "Alive" zespołu Pearl Jam. O śmierci Fratesa poinformowała jego macierzysta uczelnia - Boston College. Pete był inspiracją dla wielu ludzi, którzy czerpali siłę z jego odwagi [...] - podkreślili członkowie rodziny bejsbolisty. Nigdy nie narzekał na swoją chorobę, starał się dawać nadzieję innym chorym oraz ich bliskim. Wg niektórych oszacowań, dzięki Ice Bucket Challenge na świecie udało się zebrać nawet 220 mln dol. Pozwoliło to sfinansować kilka projektów badawczych. Dzięki temu odkryto np. gen NEK1, którego warianty wiążą się z podatnością na stwardnienie zanikowe boczne.   « powrót do artykułu
  3. Specjaliści kompleksowo zbadali mikrobiom Zamku Królewskiego na Wawelu. Zidentyfikowane w powietrzu i na prezentowanych obiektach drobnoustroje pochodzą z różnych szerokości geograficznych, ale nie zagrażają zbiorom, a na Zamku jest tak czysto, że naukowcy mieli kłopoty z pobraniem próbek kurzu. Mikrobiom to ogół mikroorganizmów występujących w danym siedlisku. Zamek Królewski na Wawelu jest jedną z pierwszych instytucji muzealnych w Polsce, w której przeprowadzono tak kompleksowe badania. Naukowcy analizowali skład chemiczny i stężenie pyłów zawieszonych w powietrzu na zewnątrz i w zamkowych komnatach, zidentyfikowali bakterie i grzyby występujące w powietrzu i na zabytkowych obiektach oraz przeprowadzili przegląd entomologiczny. Szczegółowym analizom mikroskopowym poddane zostały tkaniny z kolekcji arrasów króla Zygmunta Augusta, wybrane, renesansowe obrazy z daru Lanckorońskich, a pod kątem występowania bakterii i grzybów przebadano najstarszą budowlę na Wzgórzu Wawelskim – rotundę śś. Feliksa i Adaukta. Badaliśmy powietrze i sprawdzaliśmy, czy powierzchnie obiektów, które są przechowywane na Wawelu są czyste mikrobiologicznie, czy nie ma na nich szkodliwych bakterii i grzybów – mówił dziennikarzom kierujący tymi pracami Łukasz Rodek z Uniwersytetu Warszawskiego. Dodał, że dzięki badaniom metagenomowym z pobranych próbek wyodrębniono wszystkie występujące w nich mikroorganizmy. Ale naukowcy musieli się niemało natrudzić, żeby uzyskać próbki kurzu. Robimy dużo badań w różnych muzeach, ale na Wawelu mieliśmy ogromne problemy, żeby gdziekolwiek znaleźć kurz. Tutaj jest ogromna dbałość o to, a obiekty są bezpieczne - podkreślił Rodek. Badania miały na celu opracowanie strategii ochrony zbiorów przed ich niszczeniem przez drobnoustroje i inne organizmy żywe. W salach zwiedzanych jako pierwsze po wejściu na Zamek Królewski i w salach, gdzie turystów jest najwięcej specjaliści stwierdzili największe stężenie bakterii. Zasugerowaliśmy zastosowanie oczyszczaczy powietrza i z naszych badań wynika, że ta metoda jest skuteczna – mówił Rodek. Skuteczne jest także przeprowadzane cyklicznie przez konserwatorów "odkurzanie" arrasów. Naukowcy zidentyfikowali na Wawelu drobnoustroje występujące pod różnymi szerokościami i długościami geograficznymi, m.in. charakterystyczne dla Azji, ale jak podkreślają w żadnym stopniu nie są one niebezpieczne dla ludzi i obiektów. Mikroorganizmy nie są zagrożeniem, jeżeli trzymamy je na wodzy. A jest to możliwe, jeśli zapewnimy odpowiednią wilgotności i temperaturę w pomieszczeniach – mówił Rodek. Przyjmuje się, że temperatura powinna oscylować w okolicy 20 stop. C., a wilgotność nie przekraczać 60 proc. W celu utrzymania takich warunków używane są urządzanie nawilżające powietrze. Braliśmy próbki także z tych mechanizmów i praktycznie nic nie znaleźliśmy. Te urządzenia na Wawelu działają bardzo sprawnie. Z tej perspektywy można powiedzieć, że nasze cenne, narodowe dziedzictwo jest bezpieczne - dodał. Główna konserwator Zamku Królewskiego na Wawelu Ewa Wiłkojć mówiła, że precyzyjna kontrola temperatury i wilgotności powietrza to podstawa zabezpieczenia zbiorów. Cały czas monitorujemy klimat. W pracowni konserwatorskiej, w komputerach widzimy wykresy z każdej sali i reagujemy na bieżąco, żeby wirusy, bakterie i grzyby się nie rozwijały – powiedziała dziennikarzom Wiłkojć. Badania mikrobiomu Wawelu były prowadzone we współpracy z naukowcami z Wydziału Biologii Uniwersytetu Warszawskiego i specjalistami z RDLS Heritage. W ramach projektu "Wawel – dziedzictwo dla przyszłości" zostały one dofinansowane z funduszy europejskich. « powrót do artykułu
  4. Amerykańscy naukowcy odkryli podczas badań na myszach, że pod wpływem wankomycyny mikrobiom jelitowy zmienia się w taki sposób, że pomaga to przygotować układ odpornościowy do skuteczniejszego atakowania komórek nowotworowych po radioterapii. Okazało się, że dawka antybiotyku pomagała komórkom odpornościowym zabijać nie tylko komórki bezpośrednio poddawane napromienianiu, ale i komórki nowotworowe w tkankach odległych. Uzyskane wyniki torują drogę testom klinicznym z udziałem ludzi. Zespół ze Szkoły Medycznej Uniwersytetu Pensylwanii wyjaśnia, że ponad połowa chorych z guzami litymi przechodzi na pewnym etapie leczenia radioterapię. Liczne badania z ostatnich lat pokazały, że radioterapia z zastosowaniem schematu hipofrakcjonowania (podawania większych dobowych dawek promieniowania przez krótszy czas) może wywołać u pacjentów silniejszą odpowiedź immunologiczną. Dodatkowo dawki hipofrakcjonowane mogą wywoływać efekt abskopalny, in. pozamiejscowy (ang. abscopal effect), czyli zjawisko popromiennego efektu w tkankach odległych od miejsca napromieniowania. Nasze studium pokazuje, że wankomycyna nasila wpływ leczenia hipofrakcjonowanego na naświetlane miejsce, a także wspomaga efekt abskopalny [...] - opowiada prof. Andrea Facciabene. Zespół wybrał do eksperymentów właśnie wankomycynę, bo działa ona na bakterie Gram-dodatnie. Poza tym ma dużą cząsteczkę i słabo się wchłania z przewodu pokarmowego (ma więc ograniczony wpływ na mikrobiom reszty organizmu). Autorzy artykułu z Journal of Clinical Investigation stwierdzili, że wankomycyna poprawia działanie komórek dendrytycznych; ich rola polega na pochwyceniu, przeniesieniu do węzłów chłonnych oraz prezentacji antygenu limfocytom Th. Podczas eksperymentów naukowcy wykorzystali modele czerniaka oraz raków płuc i szyjki macicy. Wg nich, można jednak mówić o implikacjach opisanego podejścia dla szerokiego wachlarza nowotworów. Amerykanie dodają, że na razie dopiero zaczynamy rozumieć zależności między składem czy, szerzej rzecz ujmując, cechami mikrobiomu a jego wpływem na wywołane radioterapią reakcje immunologiczne na nowotwór. « powrót do artykułu
  5. Gdy robimy zakupy online zwykle wpisujemy kilka wyrazów i liczymy na to, że wyszukiwarka poda nam prawidłowy wynik. Od naszej strony wygląda to banalnie prosto, jednak dopasowanie odpowiedniego produktu wśród milionów innych to nie lada wyzwanie. Dla firm zajmujących się handlem on-line właściwy algorytm może być żyłą złota. Badacze z Rice University i Amazona poinformowali właśnie o dokonaniu ważnego przełomu, dzięki któremu rozwiązanie problemów związanych z dopasowaniem, czy to w algorytmach do wyszukiwania towarów w sklepie czy algorytmach tłumaczenia pomiędzy językami, będzie wymagało znacznie mniej zasobów niż obecnie. Czas treningu naszego algorytmu jest 7-10 razy krótszy, a potrzebna ilość pamięci 2-4 razy mniejsza niż w najlepszych podobnych systemach, mówi główny autor badań profesor Anshumali Shrivastava. Mamy milion słów w języku angielskim, ale z pewnością online dostępnych jest ponad 100 milionów produktów, informuje doktorant Tharun Medini. Miliony ludzi codziennie dokonują zakupów, a każdy robi to na swój sposób. Niektórzy wpisują słowa kluczowe, inni zadają pytania. Wiele osób nie ma też sprecyzowanych oczekiwań. Jako że każdego dnia dokonywane są w ten sposób miliony wyszukiwań, firmy takie jak Google, Amazon czy Microsoft dysponują olbrzymimi bazami danych. Służą one m.in. do maszynowego uczenia algorytmów. Ich twórcy ciągle je udoskonalają, by jak najlepiej dopasować wynik wyszukiwania do potrzeb kupującego. Systemy do głębokiego uczenia się, sieci neuronowe do olbrzymie zestawy równań, które przetwarzają dane wprowadzane przez użytkownika w dane wynikowe. Zestawy takie pogrupowane są w matryce, coraz bardziej uściślające wynik wyszukiwania. Dane trafiają do pierwszej matrycy, następnie do kolejnej i następnej. Modele takie zawierają miliardy różnych parametrów służących uzyskaniu jak najlepszych danych wyjściowych. Informacje, jakie w wyszukiwarce sklepu internetowego wprowadza użytkownik mogą dać wiele różnych wyników, dlatego też są przetwarzane w bardzo złożony sposób, by jak najlepiej dopasować wynik do oczekiwania użytkownika. Modele do głębokiego uczenia się tak bardzo rozbudowane i korzystają z tak olbrzymich zestawów danych, że trening przeprowadza się na maszynach, które można uznać z superkomputery. Siec neuronowa, która przyjmuje dane wejściowe i dopasowuje je do 100 milionów możliwych danych wyjściowych, czyli produktów, zwykle zawiera 2000 parametrów na każdy produkt. Zatem ostateczna warstwa obliczeniowa tej sieci zawiera 200 miliardów parametrów. Przechowywanie tych 200 miliardów parametrów wymaga około 500 gigabajtów pamięci. Jeśli jednak przyjrzymy się współczesnym algorytmom uczącym, zobaczymy, że w słynnym algorytmie Adam na każdy parametr przypadają dwa dodatkowe służące monitorowaniu i statystykom. Robi nam się z tego 1,5 terabajta pamięci potrzebnej modelowi do pracy. A nie doszliśmy jeszcze do rozmiarów bazy danych. Najlepsze procesory graficzne, wykorzystywane do obliczeń tego typu, obsługują 32 gigabajty pamięci, więc trenowanie takiego modelu wymaga olbrzymiej liczby GPU i szybkiej komunikacji pomiędzy nimi, stwierdza Medini. Uczeni z Rice'a opracowali nowy model o nazwie MACH (merged-average classifiers via hashing). To algorytm typu "dziel i zwyciężaj". Aby go zrozumieć, proponują eksperyment myślowy. Należy przypadkowo podzielić wspomniane 100 milionów produktów na trzy klasy. "Powiedzmy, że w wrzucę do jednego worka iPhone'y z t-shirtami. Ze 100 milionów danych wyjściowych robią mi się raptem trzy". W proponowanym eksperymencie myślowym mamy więc 3 worki z produktami. I dwa różne światy. Co oznacza, że w każdym ze światów każdy produkt może znajdować się w innym worku. System klasyfikujący jest trenowany tak, by podawane przez użytkownika dane wejściowe przypisywał do worka, a nie do konkretnego produktu. Podajemy dane wejściowe dla wyszukiwania w świecie numer jeden i otrzymujemy wynik: „worek 3”. Następnie to samo wyszukiwanie jest dokonywane w świecie numer dwa i otrzymujemy wynik: „worek 1”. Co to oznacza? Że produkt, którego poszukuję, należy do klasy produktów znajdujących się w obu światach w obu wspomnianych workach. Jeśli policzymy liczbę możliwych rozwiązań to otrzymamy 3 w jednym świecie razy 3 w drugim świecie. W ten sposób redukujemy przestrzeń wyszukiwania 1:9 i tworzymy tylko sześć klas przedmiotów. Jeśli dodamy jeszcze jeden świat z kolejnymi trzema workami, trzykrotnie zwiększymy liczbę powiązań. Mamy więc teraz 27 możliwości, zmniejszyliśmy przestrzeń wyszukiwania do 1:27, ale koszt wyszukiwania to przeszukanie jedynie 9 klas. Zwiększamy więc koszt linearnie, ale możliwości wyszukiwania zwiększają się wykładniczo. Specjaliści wykorzystali do swoich badań sklep Amazona, w którym znajduje się 49 milionów produktów. Podzielili te produkty na 10 000 klas (worków) i cały proces powtórzyli 32 razy. W ten sposób liczba parametrów wykorzystanych przez model zmniejszyła się z około 100 miliardów do 6,4 miliarda, a trening modelu wymagał mniej czasu i mniej dostępnej pamięci niż porównywalnych modeli, mówi Medini. Naukowiec zauważa, że jedną z najważniejszych cech modelu MACH jest fakt, że nie wymaga on komunikacji pomiędzy procesorami. W naszym eksperymencie myślowym ten brak komunikacji jest reprezentowany przez oddzielne światy. One nie muszą wymieniać się danymi. Możemy przeprowadzić cały proces na pojedynczym GPU, czego nigdy wcześniej nie udało się dokonać, cieszy się Medini. Ogólnie rzecz ujmując, trenowanie tego typu algorytmów wymaga ciągłej komunikacji pomiędzy parametrami, co oznacza, że wszystkie uruchomione procesory muszą dzielić się informacjami. Komunikacjach zużywa olbrzymie zasoby systemów do głębokiego uczenia się. Google ma ambicję stworzenia sieci korzystającej z biliona parametrów. MACH, w chwili obecnej, nie może być używany do rozwiązywania przypadków z niewielką liczbą klas, ale tam, gdzie mamy do czynienia z zagadnieniami ekstremalnej klasyfikacji udało nam się spowodować, by system działał bez potrzeby komunikacji pomiędzy procesorami, stwierdza Shrivastava. « powrót do artykułu
  6. Wiedzieliśmy, że zmniejszenie zanieczyszczenia powietrza jest korzystne dla zdrowia, jednak rozmiary i tempo pozytywnych zmian są imponujące, mówi doktor Dean Schraufnagel, autor raportu „Health Benefits of Air Pollution Reduction" opublikowanego na łamach Annals of the American Thoracic Society. Specjaliści przyjrzeli się tym działaniom w zakresie ochrony powietrza, które likwidowały źródło zanieczyszczeń i sprawdzali, jak wiele czasu było potrzeba, żeby pojawiły się wyraźne skutki takich działań. Wyniki badań zaskoczyły wszystkich. Naukowcy zauważyli, że gdy w Irlandii wprowadzono zakaz palenia tytoniu w miejscach publicznych, już po pierwszym tygodniu stwierdzono 13-procentowy spadek liczby zgonów z jakichkolwiek przyczyn, 26-procentowy spadek liczby nowo zdiagnozowanych przypadków choroby niedokrwiennej serca, liczba udarów zmniejszyła się o 32%, a liczba nowych przypadków przewlekłej obturacyjnej choroby płuc spadła o 38%. Co interesujące, największe korzyści odniosły osoby niepalące, co pokazuje, jak bardzo palacze szkodzą zdrowiu niepalących. Nasze badania pokazują, że korzystne dla zdrowia skutki zmniejszenia zanieczyszczenia powietrza są widoczne niemal natychmiast. Inny przykład pochodzi z USA, a konkretnie ze stanu Utah. Gdy na 13 miesięcy zamknięto tam hutę stali doszło do 50-procentowego spadku przyjęć do szpitali z powodu zapalenia płuc, astmy, zapalenia opłucnej i zapalenia oskrzeli. Jednocześnie odnotowano 40-procentowy spadek liczby nieobecności dzieci w szkołach, a dzienna śmiertelność spadła o 16% na każde zmniejszenie zanieczyszczenia PM10 o 100 µg/m3. Ponadto u kobiet, które były w ciąży w czasie zamknięcia huty odnotowano mniejsze ryzyko przedwczesnego poziomu. Autorzy raportu wspominają też o Igrzyskach Olimpijskich w Atlancie w 1996 roku. Wówczas władze na 17 dni zamknęły część miasta dla ruchu samochodowego, by sportowcy łatwiej mogli dostać się na stadiony. W ciągu kolejnych 4 tygodni lokalne kliniki odnotowały ponad 40-procentowy spadek liczby przyjęć dzieci z astmą, a liczba małych pacjentów przyjętych przez pogotowie ratunkowe zmniejszyła się o 11%. Liczba osób hospitalizowanych z powodu astmy spadła o 19%. Podobne zjawisko zanotowano podczas Igrzysk Olimpijskich w Pekinie. Miejscowi lekarze donosili o poprawie funkcjonowania płuc u osób z astmą, zmniejszonej liczby wizyt u lekarzy oraz spadku zgonów z powodu chorób układu krążenia. Pozytywne skutki mniejszego zanieczyszczenia powietrza widać też na poziomie pojedynczych gospodarstw domowych. W Nigerii w tych domach, gdzie stare piece wymieniono na nowsze, które nie zanieczyszczają tak bardzo powietrza w domu, noworodki mają wyższą wagę urodzeniową, rodzą się bliżej terminu i rzadziej umierają. Uczeni przyjrzeli się też ekonomicznym skutkom wprowadzania przepisów chroniących środowisko naturalne. Wyliczyli, że w ciągu 25 lat od wejścia w życie amerykańskiej Clean Air Act korzyści z wprowadzenia tej ustawy przewyższyły koszty aż 32-krotnie. Oszczędności sięgnęły 2 bilionów dolarów. W latach 1990–2015 zanieczyszczenia powodowane przez pył zawieszony, tlenki siarki, tlenki azotu, dwutlenek węgla, ołów i lotne związki organiczne zmniejszyły się o 73%, a amerykański PKB wzrósł w tym czasie o ponad 250%. W większości przypadków możemy uniknąć zanieczyszczeń powietrza, a one narażają na szwank zdrowie nasz wszystkich. Działania zmierzające do redukcji zanieczyszczeń powietrza przynoszą natychmiastowe i zauważalne korzyści zdrowotne. Wprowadzenie rozwiązań w skali całego kraju już w ciągu kilku tygodni prowadzi do spadku śmiertelności. Lokalne programy, takie jak zmniejszenie ruchu samochodowego, również natychmiast poprawiają nasze zdrowie, mówi doktor Schraufnagel. « powrót do artykułu
  7. Naukowcy z Uniwersytetu Harvarda zmodyfikowali genetycznie szczep E. coli Nissle 1917. Dzięki temu produkuje on sieć nanowłókien, które wiążą się ze śluzem z jelita. W ten sposób powstaje samoodnawiający się opatrunek (łatka), który chroni obszary objęte stanem zapalnym. Amerykanie chcą wykorzystać tę metodę u osób z nieswoistymi zapaleniami jelit (IBD), np. chorobą Leśniowskiego-Crohna. W rzutach choroby Leśniowskiego-Crohna stosuje się leki przeciwzapalne i antybiotyki. Mają one jednak skutki uboczne i zaburzają mikrobiom. Dotąd nie było terapii, za pomocą których można by opatrzyć zmienione zapalnie miejsca od strony światła jelita, przyspieszając w ten sposób gojenie. Zmodyfikowany genetycznie szczep E. coli Nissle 1917 wytwarza opatrunek, który osłania wrażliwe miejsca, chroniąc je przed bakteriami i czynnikami środowiskowymi. Rozwiązanie przetestowano na myszach. Wyniki badania ukazały się w piśmie Nature Communications. [...] Uzyskaliśmy biomateriały, które są wydzielane na miejscu przez rezydentne zmodyfikowane bakterie. Wiążą się one z białkami śluzu - silnie przywierając do lepkiej i ruchomej warstwy śluzu - opowiada Neel Joshi. Metoda PATCH (od Probiotic Associated Therapeutic Curli Hybrids) zapewnia biokompatybilną, mukoadhezyjną powłokę, która działa jak stabilny, samoregenerujący się opatrunek i zapewnia biologiczne wskazówki do gojenia. W ramach wcześniejszych badań zespół Joshiego zademonstrował, że samoregenerujące się bakteryjne hydrożele silnie wiążą się z powierzchniami śluzowymi w warunkach ex vivo. Co istotne, wytrzymują trudne warunki panujące w mysim żołądku i jelicie cienkim (pH itp.). Nie szkodzą przy tym zwierzętom. By je uzyskać, Amerykanie "zaprogramowali" laboratoryjny szczep E. coli, tak by wytwarzał zmodyfikowane białko CsgA fimbrii spiralnych. Uwalniane białka fuzyjne [które stanowią połączenie CsgA i ludzkich peptydów TFF, ang. trefoil factors] tworzą magazynującą wodę siatkę; właściwości hydrożelu można zaś modyfikować - tłumaczy dr Anna Duraj-Thatte. Co istotne, TFF naturalnie występują w błonie śluzowej jelit i wiążą się z mucynami. Są cząstkami odgrywającymi ważną rolę w ochronie i naprawie śluzówki jelitowej. W kolejnych badaniach stwierdzono, że po podaniu doustnym zmodyfikowany szczep E. coli Nissle pozostaje i namnaża się w jelicie, a jego fimbrie spiralne integrują się z warstwą śluzu. Podczas eksperymentów naukowcy indukowali zapalenie jelita siarczanem dekstranu sodu (DSS). U myszy, którym na trzy dni przed tym zabiegiem zaczęto doodbytniczo podawać E. coli Nissle generujące PATCH, gojenie zachodziło szybciej, a reakcje zapalne były słabsze, co przekładało się m.in. na mniejszą utratę wagi. W porównaniu do grupy kontrolnej, morfologia błony śluzowej w jelicie grubym była bardziej prawidłowa, obserwowano też mniejszą liczbę infiltrujących komórek odpornościowych - wyjaśnia Pichet Praveschotinunt. Jak dodają autorzy raportu, zmiany zapalne w przebiegu IBD skutkują zanikiem krypt jelita grubego, uszkodzeniem tkanki nabłonkowej i upośledzeniem integralności bariery jelitowej. Rekrutacja komórek odpornościowych i oddziaływania treści pokarmowej nasilają, niestety, stan zapalny. Na szczęście posłużenie się PATCH wzmacnia funkcję barierową, sprzyja odtworzeniu nabłonka i hamuje sygnalizację zapalną. Ekipa Joshiego ma nadzieję, że PATCH może stać się terapią wspomagającą, stosowaną równolegle do istniejących terapii przeciwzapalnych, immunosupersyjnych i antybiotykowych. W ten sposób dałoby się zmniejszać ekspozycję pacjenta na leki i zapobiegać nawrotom IBD. E. coli Nissle 1917 (EcN) to szczep niepatogenny. Niemiecki badacz Alfred Nissle stwierdził, że bakterie te nie są chorobotwórcze dla ludzi, a wręcz przeciwnie, mogą stanowić skuteczną ochronę przed dolegliwościami dotyczącymi układu pokarmowego. EcN hamuje rozwój patogennej/chorobotwórczej mikroflory; dzieje się tak najpewniej wskutek konkurencji o miejsce przywierania (adhezji) do nabłonka, a także na drodze wytwarzania bakteriostatycznych i bakteriobójczych peptydów. EcN jest wykorzystywany w leczeniu schorzeń przewodu pokarmowego, szczególnie wrzodziejącego zapalenia jelita grubego. Istnieją suplementy zawierające bakterie EcN. « powrót do artykułu
  8. Inżynierowie z NASA celowo doprowadzili do uszkodzenia zbiornika paliwa ciekłego wodoru Space Launch System. Test miał wykazać, gdzie w rzeczywistości znajduje się granica jego wytrzymałości. Zbiornik przez 5 godzin wytrzymał 260% przewidywalnego maksymalnego obciążenia zanim wykryto w nim pierwsze wyboczenie, które następnie pękło. Celowo wystawiliśmy zbiornik na maksymalne obciążenie i zniszczyliśmy go, gdyż doprowadzenie do takiej sytacji pozwala nam na zebranie kolejnych danych umożliwiających projektowanie lepszych rakiet, mówi Neil Otte, główny inżynier z SLS Stages Office w Marshall Space Flight Center. SLS będzie wykorzystywany przez dekady, a kontrolowane zniszczenie zbiornika pozwoli nam bezpiecznie i wydajnie dostosowywać SLS do naszych potrzeb. Testowy zbiornik, który właśnie zniszczono, był już wcześniej poddawany wielu próbom obciążenia spodziewanego podczas lotu na Księżyc. Nie doszło wówczas do żadnych uszkodzeń. To był największy w historii NASA destrukcyjny test rakietowego zbiornika pod ciśnieniem. Uzyskane dane przydadzą się wszystkim firmom projektującym takie zbiorniki, wyjaśnia Mike Nichols, główny inżynier odpowiedzialny za testowanie zbiorników. Podczas testów wykorzystano azot w formie gazowej, który symulował ciśnienie wewnątrz zbiornika oraz siłowniki hydrauliczne ściskające, rozciągające i wyginające zbiornik. Całość otoczono tysiącami czujników mierzących ciśnienie, temperaturę i naprężenia oraz licznymi kamerami i mikrofonami rejestrującymi wszystko, co się dzieje. Pierwsze wyboczenie pojawiło się w miejscu przewidzianym przez analityków Boeinga przy obciążeniu, którego wartość nie odbiegała o więcej niż 3% wartości przewidzianej dla tego typu sytuacji. Dokładność tych przewidywań daje nam dużą pewność co do jakości projektu zbiornika, mówi Luke Denney menedżer zespołu testów i oceny Boeinga. « powrót do artykułu
  9. W wyniku pożarów buszu w Nowej Południowej Walii plaże w aglomeracji Sydney są pokryte popiołem. Popiół i zwęglone liście tworzą w wodzie zawiesinę, która jest wynoszona na brzeg przez fale. W czasie weekendu w mediach społecznościowych pojawiły się liczne doniesienia na ten temat. Użytkownicy Instagrama i Twittera zamieścili zdjęcia i filmiki m.in. z Balmoral Beach (gmina Mosman), plaży w dzielnicy Malabar czy Bronte Beach. Wspominają o letnim śniegu. Naukowcy ostrzegają, że jeśli pożary będą trwały nadal, szybko kurczące się zasoby wody pitnej N.P.W. mogą zostać zanieczyszczone zwęglonymi resztkami. Ekolog Emma Johnston obawia się, że deszcze zmyją popiół do zlewni. Pani profesor tłumaczy, że w negatywnym scenariuszu grube warstwy popiołu doprowadzą do dużych zakwitów glonów w stanowych źródłach wody pitnej. Sytuacja, w której masy spalonej roślinności lądują w oceanie, jest też groźna dla ryb. Przy dużej zawartości cząstek stałych może dojść do zapchania skrzeli. Zwierzęta, które odżywiają się, filtrując wodę, również mogą mieć problemy. Poza tym wielkie zakwity oznaczają znaczące obniżenie zawartości tlenu rozpuszczonego w wodzie, co z kolei grozi masowym śnięciem. Nową Południową Walię nadal trawi ok. 90 pożarów. Połowy z nich nie udało się opanować.   « powrót do artykułu
  10. Fizyk z Uniwersytetu Kalifornijskiego w Riverside przeprowadził obliczenia, z których wynika, że bąble wypełnione gazem zawierającym pozytonium są stabilne w ciekłym helu. Obliczenia przybliżają nas do powstania lasera emitującego promieniowanie gamma, który może mieć zastosowanie w obrazowaniu medycznym, napędzie kosmicznym i leczeniu nowotworów. Pozytonium to układ złożony z elektronu (e-) i jego antycząstki pozytonu (e+) krążących wokół wspólnego środka masy. Jego średni czas życia wynosi około 142 ns, a następnie pozyton i elektron ulegają anihilacji, podczas której emitowane jest promieniowanie gamma. Do stworzenia lasera gamma potrzebujemy pozytonium w stanie zwanym kondensatem Bosego-Einsteina. Z moich obliczeń wynika, że zanurzone w ciekłym helu bąble składające się z milionów pozytonium miałyby gęstość sześciokrotnie większą od powietrza i tworzyłyby kondensat Bosego-Einsteina, mówi autor badań, Allen Mills z Wydziału Fizyki i Astronomii. Praca Millsa ukazał się właśnie w Physical Review A. Hel, drugi najbardziej rozpowszechniony pierwiastek we wszechświecie, przybiera formę ciekłą jedynie w bardzo niskich temperaturach. Hel ma ujemne powinowactwo do pozytonium, więc w ciekłym helu powstają bąble, gdyż hel odpycha pozytonium. Mills, który stoi na czele Positron Laboratory w UC Riverside poinformował, że jego laboratorium rozpoczęło konfigurację swoich urządzeń tak, by uzyskać stabilne bąble pozytonium w ciekłym helu. Mogą one służyć jako źródło zbudowanego z pozytonium kondensatu Bosego-Einsteina. Chcemy w najbliższym czasie przeprowadzić eksperymenty z tunelowaniem pozytonium przez grafenową membranę, która nie przepuszcza zwykłych atomów, w tym atomów helu, oraz stworzenie lasera działającego dzięki pozytonium. Laser taki mógłby znaleźć zastosowanie w informatyce kwantowej, mówi Mills. « powrót do artykułu
  11. Gdy satelita się psuje, staje się bezużytecznym śmieciem krążącym po orbicie, który zagraża innym satelitom. W końcu spada w kierunku Ziemi i płonie w atmosferze. Profesor Ou Ma i jego zespół z University of Cincinnati pracują nad siecią robotów, które wspólnie będą naprawiały i tankowały satelity. Ma mówi, że milion rzeczy może pójść nie tak po wystrzeleniu satelity. A my nie jesteśmy w stanie zaradzić większości z nich. zatem kosztujące miliony dolarów urządzenia bezużytecznie latają nad naszymi głowami, gdyż uległy awarii lub skończyło im się paliwo. Najbardziej znaną kosmiczną awarią była ta, która dotknęła Teleskop Kosmiczny Hubble'a. Jednak teleskop był projektowany z myślą o serwisowaniu, więc wysłani w promie kosmicznym astronauci dokonali odpowiednich napraw. Jednak wysyłanie ludzi za każdym razem, gdy zepsuje się satelita, jest niezwykle kosztowne. Dlatego też profesor Ma, który pracował m.in. przy projektowanie robotycznego ramienia dla promów kosmicznych i Międzynarodowej Stacji Kosmicznej, chce stworzyć satelity, które będą dokowały do innych satelitów i je naprawiały. Problemem nie są zresztą tylko awarie. Większość satelitów przestaje działać, bo skończyło im się paliwo. Odsyłamy na emeryturę sprawne satelity, bo wyczerpało im się paliwo, mówi John Lymer z firmy Maxar. NASA chce w 2022 roku wystrzelić na orbitę satelitę zdolnego do tankowania innych satelitów należących do amerykańskiego rządu. Projekt Restore-L ma być testem dla pomysłu automatycznej naprawy satelitów na orbicie. W laboratorium Ma trwają intensywne prace nad systemami nawigacji satelitów, które miałyby naprawiać i tankować inne satelity. To niezwykle ważna kwestia, gdyż zderzenie w kosmosie spowoduje, że satelity zaczną poruszać się w sposób niekontrolowany. Do tego może bardzo łatwo dojść, gdyż nic nie hamuje satelitów. Gdy satelita zacznie się niekontrolowanie obracać, może tak poruszać się bez końca, mówi Ma. Ma i jego zespół wykorzystują zaawansowane narzędzia do symulacji zachowania satelitów na orbicie. Przechwycenie czegoś w przestrzeni kosmicznej jestnaprawdę trudne. A złapanie czegoś, co się obraca jest jeszcze trudniejsze. Trzeba bardzo ostrożnie przewidywać ruch i wszystko precyzyjnie kontrolować, by uspokoić takiego satelitę i go delikatnie przechwycić, mów Ma. Z jednej więc strony grupa Ma prowadzi badania nad samym przechwytywaniem satelitów, w tym również takich, które poruszają się w sposób niekontrolowany, z drugiej zaś, rozwija technologie ich naprawy. W laboratorium działa kilka robotycznych ramion, z których każde jest wyposażone w siedem stawów, co daje im pełną swobodę ruchu. Ma chciałby, by w przyszłości powstały satelity serwisowe zdolne do wykonywania różnego rodzaju prac serwisowych. Dodatkowo roboty takie powinny mieć możliwość działania w grupie i wspólnego wykonywania najbardziej skomplikowanych zadań. W ramach swoich ostatnich prac naukowcy dali robotom zadanie przeciągnięcie przedmiotu na wskazane miejsce. Każdy z robotów kontrolował jeden sznurek, do którego umocowany był przedmiot, zatem jego przeciągnięcie wymagało współpracy. Dzięki algorytmom logiki rozmytej udało się przeciągnąć przedmiot na konkretne miejsce zarówno za pomocą trzech jak i pięciu robotów. Przy okazji okazało się, że grupa pięciu robotów jest w stanie wykonać zadanie nawet, gdy jeden z nich ulegnie awarii. To bardzo ważne w dużych grupach robotów, gdy możliwości jednego z nich okażą się mniejsze niż innych, stwierdzili uczeni. Profesor Ma zauważa, że przemysł kosmiczny jest coraz bardziej zainteresowany serwisowaniem satelitów. Przyznaje, że obecnie technologia jest zbyt mało zaawansowana, jednak w ciągu 5–10 lat będzie ona na tyle dojrzała, że z pewnością powstaną przedsiębiorstwa, które zajmą się świadczeniem takich usług. My nie pracujemy nad całą misją. Tworzymy jedynie technologię dla takich działań. Gdy już będzie gotowa NASA lub jakaś prywatna firma się nią zainteresują i na jej podstawie zbudują satelity, mówi Ma. Podobnego zdania jest Gordon Roesler, były dyrektor w DARPA (U.S. Defense Advanced Research Projects Agency). W żadnej innej dziedzinie nie robi się tak, że buduje się urządzenie warte pół miliarda czy miliard dolarów i nigdy się go nie dogląda, mówi. Specjaliści dodają, że już w najbliższej przyszłości właściciele satelitów będą musieli pomyśleć o umożliwieniu ich serwisowania. Obecnie wiele urządzeń jest tak delikatnych, że nie można nawet myśleć o ich przechwyceniu bez ryzyka uszkodzenia. Poza wzmocnieniem satelitów potrzebny będzie też jakiś rodzaj drzwi serwisowych, dających dostęp do ich wnętrza. Czasu na takie działania jest coraz mniej. Z każdym wystrzelonym i każdym nieczynnym satelitą niska orbita Ziemi jest coraz bliżej efektu Kesslera. To opracowana przez Donalda Kesslera teoria mówiąca, że z czasem zderzenia satelitów między sobą usieją orbitę tak olbrzymią liczbą szczątków, iż zagrozi to kolejnym satelitom. Musimy pamiętać, że zderzenie satelitów powoduje powstanie olbrzymiej liczby odpadków poruszających się z prędkościami przekraczającymi 20 000 km/h. « powrót do artykułu
  12. Produkty i akcesoria do makijażu są często zanieczyszczone bakteriami, takimi jak pałeczki okrężnicy (Escherichia coli) czy gronkowce (Staphylococci). Dzieje się tak, bo ludzie ich przeważnie nie czyszczą i używają długo po upływie terminu przydatności. Prof. Amreen Bashir z Aston University podkreśla, że bakterie, które mogą powodować problemy zdrowotne o różnej randze - od zakażeń skóry po sepsę, jeśli są wykorzystywane w pobliżu oczu, ust, ran czy otarć - wykryto w ok. 9 na 10 produktów. Ryzyko jest większe u osób z niedoborem odporności, które są bardziej narażone na infekcje wywoływane przez bakterie oportunistyczne. Autorzy publikacji z Journal of Applied Microbiology wzięli pod uwagę 5 kategorii produktów kosmetycznych: szminki, błyszczyki, eyelinery, tusze do rzęs i gąbeczki do makijażu. Badano produkty przekazane przez użytkowników. Zawartość mikroorganizmów określano na podstawie hodowli. Okazało się, że ok. 79-90% produktów było zanieczyszczonych bakteriami; liczba komórek bakteryjnych wahała się między 102 a 103 cfu/ml. Gąbeczki do makijażu zawierały średnio >106 cfu/ml. Jak widać, gąbki do nakładania makijażu zawierały najwięcej potencjalnie szkodliwych bakterii. Większości (93%) nigdy nie czyszczono, mimo że na pewnym etapie użytkowania 64% spadło na ziemię. To pierwsze badanie, w ramach którego analizowano gąbeczki do makijażu (a na świecie sprzedaje się ich naprawdę dużo). Naukowcy z Aston University podkreślają, że takie akcesoria są szczególnie podatne na skażenie, bo po wykorzystaniu często zostawia się je zawilgocone, a to idealne warunki do namnażania bakterii. Należy więc pamiętać o regularnym czyszczeniu i dokładnym suszeniu. Brytyjczycy podkreślają, że wyniki pokazują, że konsumenci nieświadomie narażają się na ryzyko. Wg nich, producenci i agendy konsumenckie powinny poczynić pewne kroki w kierunku lepszej ochrony klientów; daty przydatności i zasady czyszczenia muszą być lepiej wyeksponowane na opakowaniach. Złe nawyki higieniczne dot. [...] gąbeczek są powodem do zmartwień, jeśli przypomnimy sobie, że wykryliśmy, że namnażają się na nich takie bakterie, jak E. coli, które wiążą się z zanieczyszczeniem kałowym - podsumowuje dr Bashir. « powrót do artykułu
  13. Ludy Szkocji przez długi czas zachowały niezależność. Dopiero na początku XVIII wieku doszło do zjednoczenia Królestwa Szkocji z Królestwem Anglii i powstania Zjednoczonego Królestwa Wielkiej Brytanii. Naukowcy sądzą, że do włączenia Szkocji do większego organizmu państwowego przyczyniły się... wybuchy wulkanów oddalonych o tysiące kilometrów. Szkocja była jednym z najpóźniej skolonizowanych obszarów świata. Ludzie przybyli tam dopiero przed około 8000 lat. Pierwsze przekazy historyczne dotyczące Szkocji zawdzięczamy Rzymianom. W 79 roku naszej ery Szkocję próbowały podbić legiony pod wodzą Julisza Agrykoli. Kaledończycy stawili zaciekły opór, Rzymianie musieli się wycofać i z czasem, by zabezpieczyć się przed napadami z północy, wznieśli słynny Mur Hadriana, który wyznaczał północą granicę Imperium. Później wybudowali jeszcze na północy Mur Antoniusza, ale po około 20 latach opuścili tę fortyfikację i około roku 160 na stałe wycofali się za Mur Hadriana. Ludy Szkocji rządziły się same, a w IX wieku powstało królestwo Alby, zjednoczone państwo Szkodów i Piktów. Przez kolejne wieki mieszkańcy Szkocji walczyli między sobą, z Wikingami i Anglikami. W ostatniej dekadzie XVII wieku w Szkocji nastało siedem lat głodu. Spadły plony, opustoszały wioski, życie mogło stracić nawet 15% mieszkańców. Niedługo potem Szkocja weszła w skład Wielkiej Brytanii. Przed dwoma laty naukowcom udało się zbadać pierścienie drzew z północy Szkocji, gdzie głód był największy, i na tej podstawie odtworzyli lokalny klimat z lat 1200–2010. Paleoklimatolog Rosanne D'Arrigo z Lamont Doherty Earth Observatory należącego do Columbia University, przyjrzała się tym danym i stwierdziła, że w latach 1695–1704 Szkocja doświadczyła drugiej najzimniejszej dekady w ciągu ostatnich 800 lat. Letnie temperatury były średnio o 1,56 stopnia Celsjusza niższe niż temperatury z lat 1961–1990, czytamy w piśmie Journal of Volcanology and Geothermal Research. Te chłodne lata zbiegają się z dwoma dużymi erupcjami wulkanicznymi w tropikach. Pierwsza miała miejsce w 1693, a druga, większa, w 1695 roku. Zdaniem uczonych to właśnie one spowodowały ochłodzenie nad Szkocją, gwałtowny spadek plonów i wieloletni głód. Problemy zostały pogłębione przez kilka innych czynników, takich jak prymitywna gospodarka rolna Szkocji, polityka rządowa, która zachęcała do eksportu ziarna, więc w kraju pozostawało niewiele zapasów, oraz nieudana próba założenia szkockiej kolonii w Panamie w 1698 roku. Te wszystkie czynniki łącznie wpłynęły, jak uważają autorzy badań, na decyzję szkockiego parlamentu o stworzeniu w 1707 roku unii z Anglią. « powrót do artykułu
  14. Indonezyjska policja aresztowała parę osób podejrzanych o kłusownictwo. Wcześniej władze znalazły skórę tygrysa sumatrzańskiego i 4 płody w słoju. Tygrys sumatrzański jest krytycznie zagrożony. Szacuje się, że na wolności pozostało mniej niż 400 osobników. Podejrzani planowali sprzedać skórę zagranicznemu kolekcjonerowi. Kości zostały sprzedane wcześniej, prawdopodobnie do celów związanych z medycyną tradycyjną. Nie wiadomo, do czego miały posłużyć płody ze słoja. Dowody zostały zaprezentowane przez policję na niedzielnym briefingu dla mediów. Edward Hutapea, inspektor ds. egzekucji przepisów ochrony środowiska, powiedział, że wcześniej aresztowani sprzedali skórę innego tygrysa. Teraz mieli "na zbyciu" kolejną i 4 płody; te ostatnie pochodziły z kota sprzedanego wcześniej w tym roku. Przedstawiciel Ministerstwa Środowiska i Leśnictwa powiedział, że podejrzani z prowincji Riau zostali aresztowani po anonimowym zawiadomieniu. Jeśli zarzuty dot. handlu zostaną udowodnione, grozi za to maksymalnie kara 5 lat więzienia i grzywna w wysokości 100 mln rupii indonezyjskich (ok. 7100 dol.). Przyspieszające wylesienie i niepohamowane kłusownictwo oznaczają, że te szlachetne istoty mogą wyginąć jak tygrysy balijski i jawajski. W Indonezji każdemu, kto zostanie przyłapany na polowaniu na tygrysy, grozi kara więzienia i wysokie grzywny. [Niestety] mimo zwiększonych wysiłków na rzecz ochrony tych zwierząt, w tym lepszego egzekwowania prawa [...], na Sumatrze i w innych częściach Azji nadal istnieje spory popyt na części ciała i tygrysie produkty - podkreśla WWF. « powrót do artykułu
  15. Wszyscy widzieliśmy zdjęcia żółwi umierających w męczarniach po zaplątaniu się w plastikowe odpady i czytaliśmy o martwych wielorybach, w których żołądku znaleziono kolosalne ilości plastiku. Teraz dowiadujemy się plastik powoduje masowe zgony... krabów pustelników. Naukowcy, którzy odbyli wyprawy badawcze na Wyspy Kokosowe odkryli, że plastikowe odpady zabiły ponad pół miliona krabów. Uczeni oszacowali, że na plażach wysp znajduje się około 414 milionów plastikowych odpadów. Setki tysięcy martwych krabów znaleziono wewnątrz pojemników, z których nie były w stanie się wydobyć. Podobna sytuacja ma miejsce na innych odległych wyspach Pacyfiku. Badania zostały przeprowadzone przez zespół z Instytutu Badań Morskich i Antarktycznych Uniwersytetu Tajwańskiego, pracujący pod kierunkiem doktor Jennifer Lavers. Gdy ocenialiśmy zanieczyszczenie plaż plastikiem uderzyło nas, w jak wielu plastikowych pojemnikach znajdowały się kraby, zarówno martwe jak i żywe. Zdecydowaliśmy się więc rozszerzyć nasze badania na ocenę liczby plastikowych pojemników w ogóle, liczby otwartych plastikowych pojemników oraz liczby pojemników, w których znajdowały się uwięzione kraby. Stwierdziliśmy, że na Wyspach Kokosowych z powodu plastiku zginęło ponad 500 000 krabów pustelników, a na Wyspie Hendersona kolejnych 60 000, mówi uczona. Z wyliczeń wynika, że na Wyspach Kokosowych plastik zabił 570 000 krabów, a na oddalonej o kilkanaście tysięcy kilometrów Wyspach Hendersona było to 61 000 zwierząt. To najprawdopodobniej pierwsze badania pokazujące, jak wiele krabów ginie przez plastik na plażach. A dane tylko z tego jednego badania pokazują, jak olbrzymie zagrożenie stwarza plastik dla populacji krabów. Alex Bong, kurator w londyńskim Muzeum Historii Naturalnej, wyjaśnia, że kraby pustelniki przychodzą na świat bez skorupy, szukają więc schronienia. Gdy krab pustelnik poszukując pożywienia bądź schronienia wejdzie do plastikowego pojemnika i tam ginie, wysyła sygnał chemiczny, który mówi, że doszło do zwolnienia muszli. Sygnał ten zwabia inne kraby, które w taki sposób wpadają w śmiertelną pułapkę. Jako, że to pierwsze badania tego typu i brak jest materiału porównawczego, Lavers chce przeprowadzić kolejne, by stwierdzić, jak plastikowe odpady wpływają na populację krabów. Już z wcześniejszych badań wiemy, że populacja krabów pustelników spada. Teraz być może znaleźliśmy przyczynę tego spadku. Kraby pustelniki odgrywają niezwykle ważną rolę w ekosystemie, użyźniając glebę, rozprzestrzeniając nasiona i zjadając detrytus (martwe szczątki roślin, zwierząt i ich odchody).   « powrót do artykułu
  16. Tegoroczna emisja gazów cieplarnianych będzie prawdopodobnie najwyższa w historii, uważają naukowcy. Pobity zostanie więc niechlubny ubiegłoroczny rekord. Specjaliści prognozują, że ludzkość – spalając paliwa kopalne – wypuści do atmosfery 36,8 miliarda ton dwutlenku węgla. Całkowita emisja antropogeniczna, włącznie z rolnictwem i przekształceniami ziemi na jego potrzeby, wyniesie prawdopodobnie 43,1 miliarda ton. Takie prognozy znalazły się w najnowszym raporcie organizacji Global Carbon Project. To międzynarodowe konsorcjum badawcze, które śledzi globalną emisję gazów cieplarnianych. Są też i dobre wiadomości. Specjaliści GCP prognozują też znaczące spowolnienie wzrostu emisji z paliw kopalnych. Jeszcze w 2018 emisja ze spalania węgla, ropy i gazu wzrosła o 2% w porównaniu z rokiem poprzednim. Tegoroczny wzrost emisji z tych źródeł nie powinien przekroczyć 0,6%. Część z tego spowolnienia spowodowana jest zmniejszającym się zużyciem węgla w USA, Europie oraz wolniejszym niż się spodziewano wzrostem jego użycia w innych częściach świata. Okazało się na przykład, że w USA ilość użytego węgla spadła aż o 10%. To znacznie więcej, niż prognozowano. Podobny spadek nastąpił też w Europie. Tymczasem w Indiach i Chinach doszło do dużych wzrostów konsumpcji węgla, ale wzrosty te były mniejsze niż w przeszłości. Wciąż jednak nie wiadomo, czy ten spadek użycia węgla będzie trendem długoterminowym. W ostatnich latach mieliśmy już do czynienia z kilkoma przypadkami nadmiernego optymizmu w związku z odchodzeniem od paliw kopalnych i za każdym razem okazywało się, że to krótkookresowe zjawisko. Na przykład w latach 2014–2016 emisja niemal przestała rosnąć, pojawiła się więc nadzieja, że ludzkość osiągnęła szczyt emisji i zacznie pompować do atmosfery coraz mniej gazów cieplarnianych. Jak wiemy, prognozy takie się nie sprawdziły. Z najnowszych opracowań wiemy, że jeśli ludzkość chce powstrzymać globalne ocieplenie na poziomie 2 stopni Celsjusza powyżej poziomu sprzed epoki przemysłowej, to w ciągu nadchodzącej dekady emisja CO2 musi spaść o 25%. Jeśli zaś spełniony ma być bardziej ambitny cel – 1,5 stopnia Celsjusza – to spadek emisji musiałby sięgnąć 55%. Dyrektor Global Carbon Project, Pep Canadell, mówi, że on i jego koledzy zgadzają się z wyrażoną przez ONZ opinią, iż koncentracja CO2 w atmosferze rośnie zbyt szybko, by można było zatrzymać wzrost temperatury na poziomie 1,5 stopnia Celsjusza. Mieliśmy kolejny rok wzrostu antropogenicznej koncentracji CO2. Czas najwyższy uznać, że każdy kolejny rok wzrostu oznacza, iż osiągnięcie założeń Porozumienia Paryskiego będzie znacznie trudniejsze. Przypomnijmy w tym miejscu, że niedawno Światowa Organizacja Meteorologiczne oznajmiła, iż tegoroczna średnia temperatura na Ziemi była o 1,1 stopnia Celsjusza wyższa, niż w czasach sprzed rewolucji przemysłowej. Po tym raporcie pojawiły się głosy, że bez drastycznych cięć emisji nie uda się zatrzymać ocieplenia przed osiągnięciem poziomu 3 stopni Celsjusza. Nie ma takiej możliwości, by beż olbrzymiego zmniejszenia emisji oraz wdrożenia masowych programów przechwytywania i składowania CO2 globalne ocieplenie pozostało na poziomie poniżej 3 stopni Celsjusza, mówi profesor Pete Strutton z Uniwersytetu Tasmanii. Dobrą wiadomością jest spadek emisji w USA. Pomimo głośnych wypowiedzi prezydenta Trumpa, który podkreśla rolę węgla, tegoroczna amerykańska emisji zmniejszyła się o 1,7%. Od 15 lat spada ona średnio o 1% rocznie. To w dużej mierze zasługa odchodzenia USA od węgla. Spadki mogłyby być jeszcze większe, gdyby nie rosnąca konsumpcja gazu. To zresztą trend widoczny na całym świecie. Od roku 2012 gaz staje się coraz ważniejszym źródłem emisji CO2. Z raportu GCP dowiadujemy się, że w bieżącym roku globalna emisja ze spalania węgla zmniejszy się o 0,9%, a wzrosną emisje ze spalania ropy (+0,9%) i gazu (+2,6%). « powrót do artykułu
  17. Wywiadu udzieliła nam Aleksandra Kleśta-Nawrocka, doktor nauk humanistycznych w zakresie historii, historyk i etnolog/antropolog kulturowy. Adiunkt w Dziale Historii Toruńskiego Piernikarstwa w Muzeum Okręgowym w Toruniu. Naukowo interesuje się historią i antropologią jedzenia. Autorka wielu tekstów naukowych i popularnonaukowych o kuchni historycznej i regionalnej, m.in. Kucharz doskonały. Historyczno-kulturowy fenomen kuchni staropolskiej (2016), Wielka Księga Wołowiny (współautorka, 2015), Półgęski, czernina i karp w piernikach (razem z J. Dumanowskim, 2012). Po pracy pisze bloga www.prowincjaodkuchni.pl. Kiedy na ziemiach polskich pojawiły się pierniki? Dokładne datowanie jest bardzo trudne, to zadanie dość karkołomne... Przyjmuje się, że pierniki na ziemiach polskich były wypiekane już w średniowieczu. W Toruniu pierwsze wzmianki pochodzą z XIV wieku. Z jakiego okresu pochodzi najstarszy znany przepis? Najstarszy drukowany przepis na piernik toruński pochodzi z poradnika medycznego Compendium Medicum Auctum z 1725 roku. Choć wiadomo, że pierniki wypiekano wcześniej, jednak niechętnie zdradzano recepturę. Każdy piernikarz , mistrz w swoim fachu, miał swój sekret, którego pilnie strzegł. Dopiero w XIX i na początku XX wieku przepisy na pierniki i pierniczki pojawiają się w książkach kucharskich. Już wówczas składniki są coraz lepiej dostępne, gospodynie domowe, mieszczanki i szlachcianki mogą wypiekać pierniczki we własnych kuchniach. Najbardziej znane polskie pierniki to toruńskie katarzynki. Często słyszy się też o piernikach bardzkich czy gdańskich brukowcach. Jakie jeszcze (obecnie) polskie miasta/regiony miały swoje pierniki? Czym się one między sobą różniły? Pierniki toruńskie przez długie lata konkurowały z tymi z Norymbergii. Do dziś jedne i drugie cieszą się uznaniem smakoszy. Każdy z nich jest też inny. W piernikach norymberskich możemy wyczuć opłatek umieszczany na spodzie każdego ciastka. W przepisach na toruński piernik pojawia się z kolei kandyzowana skórka pomarańczowa albo cytrynowa.  Brukowce, to pierniki, które w również w Toruniu wypiekali piernikarze, a dziś brukowiec kujawski – świąteczny piernik domowy jest wpisany na ministerialną listę produktów tradycyjnych. Poza tym piernikarskie tradycje odradzają się w innych regionach, jak choćby na Dolnym Śląsku. O przywracanie tej tradycji dbają piernikarze z Wrocławia czy Jawora, gdzie od kilku lat jest organizowane święto chleba i piernika. Istnieje bardzo dużo miejsc, w których żyją piernikowe tradycje, jednak maja one często wymiar sezonowy, na przykład związany z okresem przed świętami Bożego Narodzenia. Natomiast bezsprzecznie to Toruń jest najsłynniejszym piernikowym miastem, w którym tradycja wypiekania pierników sięga średniowiecza. Od tego czasu jest w zasadzie nieprzerwana. Ciekawe jest to, że w Toruniu sezon na pierniki trwa cały rok. Katarzynki, wspomniane w pytaniu, wśród pierników toruńskich odniosły szczególny sukces. Jest w nich tradycja i tajemnica. Istnieje wiele legend o powstaniu tego piernika. Wersji wiele, ale główny sens jeden – katarzynki powstały z miłości. Mówi się, że to jeden z najważniejszych składników piernikowego ciasta. « powrót do artykułu
  18. Archeolodzy pracujący we Fleet Marston, w pobliżu dawnej rzymskiej osady, odkryli liczne niezwykłe artefakty sprzed 1700 lat. Zachowały się wśród nich cztery jajka, które zostały tu złożone prawdopodobnie w ramach rytuału płodności. Niestety, podczas próby wydobycia jajek trzy z nich zostały rozbite. Jajo, które się zachowało, to jedyny tego typu kompletny obiekt z terenu Wielkiej Brytanii. Jajka prawdopodobnie zachowały się dzięki temu, że zostały złożone na terenie podmokłym. Jego właściwości pozwoliły na zachowanie wielu delikatnych przedmiotów, takich jak skórzane buty, drewniane narzędzia czy bardzo rzadki koszyk. Archeolodzy sądzą, że zarówno koszyk jak i jajka zostały ukryte w ziemi w ramach ceremonii religijnej. Jajka to wyjątkowe znalezisko. Znaleziono je w torfowisku w pobliżu dawnej rzymskiej drogi zwanej Akeman Street. Dotychczas podczas prac archeologicznych znaleziono tam ceramikę i drewniane belki, które – jak przypuszczają specjaliści – były podporami mostu po którym Akeman Street przekraczała rzekę Thame. Coraz większa liczba znalezisk daje nam coraz więcej informacji na temat szczątków pobliskiej osady Fleet Marston. Dotychczas jedynie przypadkowe znaleziska pozwalały co nieco o niej powiedzieć. Teraz wiemy na przykład, że zarówno w czas sprzed przybycia Rzymian jak i po ich pojawieniu się, podstawę miejscowej gospodarki stanowiła hodowla, przede wszystkim koni. Dowody z Berryfields i innych miejsc w okolicy coraz wyraźniej wskazują, że Fleet Marston znajdowała się na skrzyżowaniu wielu dróg, łączących wnętrze kraju z dużymi miastami, stwierdzili archeolodzy. Wspomniana już wcześniej Akeman Street była ważną drogą, która przebiegała pomiędzy Verulamium – miastem posiadającym m.in. forum, bazylikę i teatr – a Corinium Dobunnorum, stolicą plemienia Dobunnów i późniejszą stolicą prowincji Britannia Prima. Sądząc po setkach wykopanych monet i innych znaleziskach możemy przypuszczać, że to miejsce [Fleet Marston – red.] było centrum handlowym lub administracyjnym z rozległymi połączeniami handlowymi. W średniowieczu i w dniu dzisiejszym rolę taką pełni pobliskie Aylesbury, wyjaśniają archeolodzy. « powrót do artykułu
  19. Jest biało-niebieski, ma 2,4 m długości, waży 110 kilogramów, a jego prędkość użytkowa to 30 km/h – to elektryczny pojazd e-MaksPower. Studenci Politechniki Warszawskiej właśnie zakończyli prace nad projektem. Bolid skonstruowali dla Maksa – 10-latka z dystrofią mięśniową i wielkiego fana motoryzacji. 6 grudnia 2019 roku w Gmachu Głównym PW odbyła się uroczysta premiera pojazdu. W jej kulminacyjnym momencie Maks zasiadł w bolidzie i pokazał jego możliwości, wykonując kilka przejazdów po Dużej Auli. Cieszymy się, że mogliśmy wykorzystać nasze inżynierskie umiejętności, by komuś pomóc – mówi Łukasz Krawczuk vel Walczuk, kierownik projektu. Cel: spełnić marzenie Pomysł zrodził się podczas targów, w których uczestniczyli studenci z Koła Naukowego ADek. Podszedł do nas tata Maksa i opowiedział o zamiłowaniu syna do elektromobilności i gokartów – opowiada Łukasz Krawczuk vel Walczuk. A że ADek zajmuje się właśnie taką tematyką, to postanowiliśmy spełnić marzenie Maksa i zbudować bolid dostosowany do jego potrzeb.   Prace rozpoczęły się w lutym 2018 roku. W przedsięwzięcie zaangażowali się studenci z czterech kół naukowych Politechniki Warszawskiej: Studenckiego Koła Aerodynamiki Pojazdów, Koła Naukowego Robotyków (oba koła działają przy Wydziale Mechanicznym Energetyki i Lotnictwa), Koła Naukowego ADek (działającego przy Wydziale Elektrycznym) i Międzywydziałowego Koła Naukowego SmartCity (działa przy Wydziale Inżynierii Lądowej). To oni zajęli się kwestiami inżynierskimi. Z pomocą graficzną przyszedł Rafał Tomczak – student wzornictwa przemysłowego na ASP w Warszawie. Podążając za trendami Po konsultacjach z Maksem i jego rodzicami młodzi konstruktorzy zaprojektowali pojazd w pełni sterowalny za pomocą drążka sterowego, umożliwiającego kontrolę nad zespołem napędowym, układem kierowniczym i hamulcowym. Zaplanowali, że układ napędowy będzie w pełni elektryczny – zgodnie z aktualnymi motoryzacyjnymi trendami. Bolid miał mieć aerodynamiczne poszycie, dostosowane do tego typu konstrukcji, zaprojektowane i wykonane przez studentów. Kolory bolidu nie są przypadkowe – Maks wybrał biały i niebieski, kiedy zobaczył pierwsze wizualizacje przygotowane przez Rafała Tomczaka – zaznacza Łukasz Krawczuk vel Walczuk. Bez pomocy ani rusz Wymyślić i zaprojektować – to jedno. Ale zbudować – drugie i poważniejsze wyzwanie. Tak ambitne przedsięwzięcie wymagało sporych nakładów finansowych. Prace nad e-MaksPowerem wsparło wiele firm i instytucji: ABB, Budimex, AVL Software and Functions, AC SA, TME, Wamtechnik, Cubic Inch, LED Solar System, PSPA, Fundacja PGE, Maridex Meble, Profar Lakiernia, 3D Reaktor, efilament3d i oczywiście Politechnika Warszawska. Swoje serca i portfele otworzyło też 143 darczyńców – uczestników akcji crowdfundingowej na portalu PolakPotrafi.pl. Z pomocą przyszły także media, przekazujące informacje o projekcie i zorganizowanej na jego potrzeby zbiórce. Studenci mogli liczyć na ciągłe wsparcie rodziców Maksa. Byli z nimi w stałym kontakcie i na bieżąco informowali o postępach w pracy. Projekt trwał dłużej, niż zakładaliśmy, ale nie traciliśmy motywacji, bo wiedzieliśmy, że Maks czeka i w nas wierzy – przyznaje Łukasz Krawczuk vel Walczuk. Nowe cele Teraz chłopiec może cieszyć się z bolidu, a jego twórcy – z wykonanej pracy. Sprawdziliśmy zdobytą wiedzę i umiejętności w praktyce, nauczyliśmy się cierpliwości, pokory, zarządzania swoim czasem, odpowiedzialności – wylicza Łukasz Krawczuk vel Walczuk. Radość i duma z wykonanej pracy nie przysłaniają jednak twórcom e-MaksPowera kolejnych celów. Przeprowadziliśmy wstępną rozmowę z osobami zainteresowanymi rozwojem projektu – mówi Łukasz Krawczuk vel Walczuk. Mamy nadzieję na kontynuację (już pod inną nazwą) i dalsze pomaganie w spełnianiu dziecięcych marzeń. Na różnych etapach projektu nad bolidem pracowało około 30 osób. Trzon zespołu tworzyli: Łukasz Krawczuk vel Walczuk (kierownik projektu), Hubert Graczyk (odpowiedzialny za układ sterowania oraz komputer pokładowy), Piotr Saffarini (opracował układ kierowniczy i konstrukcję wielu elementów w bolidzie), Michał Stasiuk (architekt systemu sterowania i elektronika), Marcin Staszewski (odpowiadał za dobranie i implementację systemu bateryjnego S), Michał Wielgosz (symulował aerodynamika i nadzorował wykonanie poszycia poszycie bolidu), Robert Juchniewicz (projekt i wykonanie instalacji elektrycznej), Łukasz Grab (programowanie mikrokontrolerów), Piotr Lange (mechanika płyty jezdnej), Joanna Kacprowska (pozyskiwanie sponsorów), student Akademii Sztuk Pięknych Rafał Tomczak (design oraz cały branding projektu). Podstawowe dane techniczne e-MaksPowera: Masa pojazdu: 110 kg 1) Prędkość maksymalna projektowa: 80 km/h 2) Prędkość użytkowa: 30 km/h 3) Zasięg: 20km 4) Moc: 3 kW 5) Pojemność baterii: 1kWh 6) Wymiary: 2,4 [m] x 1,3 [m] x 0,9 [m] 7) Poszycie z włókna szklanego 8) Koszt: 80 tys. zł « powrót do artykułu
  20. Chińscy archeolodzy potwierdzili, że znaleziony w urnie z czasów neolitycznej kultury Yangshao zwęglony materiał to pozostałości jednej z najstarszych na świecie jedwabnych tkanin. Urnę odkryto na stanowisku Wanggou w prowincji Henan. Z pomocą testu ELISA opracowanego przez ekspertów z Chińskiego Narodowego Muzeum Jedwabiu potwierdzono, że zwęglona tkanina z urny to jedwab - powiedział na konferencji prasowej kurator Zhao Feng. Gu Wanfa, dyrektor Instytutu Badania Zabytków i Archeologii w Zhengzhou, ujawnił, że w Henanie odkryto klaster ruin z okresu kultury Yangshao sprzed 5-7 tys. lat. Tkanina z Wanggou ma 5300-5500 lat. Inne stare potwierdzone przypadki tkaniny jedwabnej pochodzą z czasów kultury Lianghzu i mają 4200-4400 lat - opowiada Gu. W książce A History of Chinese Science and Technology (t. II) Wydawnictwa Prasowego Uniwersytetu Jiao Tong w Szanghaju napisano, że w 1958 r. specjaliści zaangażowani w badania archeologiczne prowincji Zhejiang odkryli na stanowisku Qianshanyang (kultura Liangzhu) w Huzhou bambusowy koszyk, w którym znajdowały się m.in. tekstylia. Naukowcy z Instytutu Tekstyliów oraz Uniwersytetu Technologicznego Zhejiangu zidentyfikowali je jako materiał jedwabny, a także jedwabne włókna i wstążki. Później zespół z Instytutu Archeologicznego prowincji odkrył na stanowisku jedwabne wstążki sprzed ok. 4 tys. lat. W publikacji mówi się również o innym przypadku - skrawkach jedwabiu i tkanin z materiałów roślinnych sprzed ok. 5500 lat; odkopano je w latach 80. XX w. na neolitycznym stanowisku w Qingtai Village. Na stanowisku Wanggou resztki jedwabiu znaleziono w czaszce dziecka. Wanfa uważa, że odkrycie sugeruje, w owym czasie chińska technologia produkcji jedwabiu już raczej dojrzewała, niż dopiero się zaczynała. Ponieważ kształt urny nawiązuje do wyglądu kokonu jedwabników, Zhao Feng przypuszcza, że chowając w ten sposób swoich zmarłych, kiedyś ludzie chcieli, by powstali oni z martwych, tak jak dorosły motyl wydostaje się z kokonu.   « powrót do artykułu
  21. Chiny plasują się na pierwszej pozycji wśród 33 ze 137 obszarów badawczych, wynika z raportu „Research Fronts 2019” [PDF], opublikowanego przez Instytuty Nauki i Rozwoju Chińskiej Akademii Nauk, Narodową Bibliotekę Nauki Chińskiej Akademii Nauk oraz firmę Clarivate Analytics. W raporcie tym w 10 szeroko pojętych obszarach nauki zidentyfikowano 137 obszarów badawczych. Znalazło się wśród nich po 10 najbardziej aktywnych obszarów badawczych z każdego obszaru nauki, zatem mamy 100 najbardziej aktywnych obszarów badawczych, oraz 37 nowych obszarów badawczych. Analiza wykazała, że wśród 10 obszarów nauki USA dominują na 7, a Chiny na 3. Obszarami, na których Stany Zjednoczone mają przewagę są: nauki rolnicze oraz dotyczące roślin i zwierząt; nauki o Ziemi (m.in. geologia, geofizyka, klimatologia czy fizyka atmosfery); medycyna kliniczna; nauki biologiczne (zaliczono tutaj nauki zajmujące się opracowywaniem nowych leków, starzeniem się, genetykę czy badania nad lekoopornością); fizyka, astronomia i astrofizyka; ekonomia, psychologia oraz inne nauki społeczne. Z kolei obszary dominacji Chin to ekologia i nauki środowiskowe, w tym i badania nad wpływem zanieczyszczenia środowiska na ludzkie zdrowie; chemia i nauki materiałowe oraz matematyka, informatyka i inżynieria. Te trzy obszary nauki są ściśle powiązane w wymogami dotyczącymi wzrostu gospodarczego Chin, a ich jakość świadczy o innowacyjności Chin, mówi Pan Jiaofeng z Chińskiej Akademii Nauk. Autorzy raportu przyznają jednocześnie, że Chiny pozostają znacząco w tyle za USA w dziedzinie medycyny klinicznej oraz astronomii i astrofizyki. Ponadto, pomimo że w dziedzinie fizyki, biologii, nauk o Ziemi oraz nauk społecznych jak ekonomia czy psychologia, uplasowały się na drugim miejscu, to i tak dzieli je spory dystans od USA. Profesor Leng Fuhai z Chińskiej Akademii Nauk zauważa, że USA są generalnie bardzo silne i mają duże możliwości na większości najważniejszych obszarów badawczych, natomiast Chiny dobrze sobie radzą na kilku obszarach, ale wyraźnie odstają w innych. W raporcie kilkukrotnie wspomniano osiągnięcia polskich naukowców. Dotyczy to tych dziedzin, w których ich osiągnięcia zaliczono do pierwszej światowej dziesiątki. I tak na obszarze badawczym „Fosfor, zanieczyszczenia i ryzyko dla zdrowia związane z zakwitami sinic" Polska uplasowała się na 9. pozycji, na równi z Francją. Żadna nasza uczelnia się tutaj jednak nie wyróżniła. Kolejny obszar, na którym wspomniano Polskę to... "Zanieczyszczenie i czynniki ryzyka środowiskowego związane z metalami ciężkimi w głównych złożach mineralnych Chin". To niszowy temat, który, co oczywiste, interesuje przede wszystkim Chińczyków. Tutaj znaleźliśmy się w dużej grupie krajów, w których pojawiła się 1 ważna praca naukowa na ten temat. Bardzo dobrze – bo na pierwszym miejscu – wypadł nasz kraj na polu o nazwie „Ocena efektywności i bezpieczeństwa biopodobnych infliksymabu". W naszym kraju powstało najwięcej kluczowych prac naukowych na ten temat, a wśród najlepszych światowych instytucji zajmujących się tym problemem wymieniono Med Pro Familia, Uniwersytet Medyczny w Poznaniu i Poznański Ośrodek Medyczny NOVAMED. Do raportu dodano też analizę zatytułowaną „2019 Research Fronts: Active Fields, Leading Countries” [PDF], w której wyliczono i porównano zbiorcze osiągnięcia krajów na wszystkich 137 frontach badawczych. W stworzonym w ten sposób rankingu Research Leadership Index wyliczono punkty dla 20 najsilniejszych pod względem naukowym krajów świata. Są to: USA (204,89 pkt.), Chiny (139,68), Wielka Brytania (80,85), Niemcy (67,52), Francja (46,30), Włochy (39,42), Kanada (39,25), Australia (35,27), Holandia (33,80), Japonia (33,15), Hiszpania (28,20), Szwajcaria (24,81), Korea Południowa (21,75), Indie (20,74), Szwecja (17,54), Belgia (14,83), Dania (13,91), Austria (12,75), Arabia Saudyjska (12,01) oraz Brazylia (11,52). « powrót do artykułu
  22. U 34-letniej Brytyjki, której serce przestało bić przez wyziębienie, spontaniczne krążenie wróciło dopiero po ok. 6 godz. Kobieta wpadła w ciężką hipotermię, gdy 3 listopada podczas wspinaczki w Pirenejach została zaskoczona przez burzę śnieżną. Pacjentka, która już niemal w pełni doszła do siebie, zapowiada, że wiosną znów ruszy w góry. Schoeman, która na co dzień mieszka w Barcelonie, najpierw zaczęła mieć problemy z mówieniem i poruszaniem się. Później straciła przytomność. Wtedy jej mąż Rohan zadzwonił po pogotowie. Czekając na przybycie służb, myślał, że Audrey już nie żyje. Próbowałem wyczuć tętno. Nie wyczuwałem jednak ani oddechu, ani bicia serca. Kiedy po 2 godzinach zjawiła się ekipa ratunkowa, temperatura ciała Brytyjki wynosiła tylko 18°C. Gdy pacjentkę przetransportowano do Hospital Universitario Valle de Hebrón w Barcelonie, nie było żadnych oznak życia. Lekarz Eduard Argudo podkreśla, że hipotermia, przez którą doszło do zatrzymania krążenia, pomogła w ocaleniu życia 34-latki. [Pacjentka] wyglądała jak martwa. W kontekście hipotermii wiedzieliśmy jednak, że miała szansę przeżyć. Obniżona temperatura mogła bowiem ochronić organizm, w tym mózg, przed szkodliwymi zmianami. Ścigając się z czasem, specjaliści zastosowali ogrzewanie pozaustrojowe (by-pass z oksygenatorem i wymiennikiem ciepła). Po podwyższeniu temperatury do 30°C, ok. 6 godz. od wezwania pomocy przez męża, akcję serca (spontaniczne krążenie) przywrócono dzięki wykorzystaniu defibrylatora. Po 12 dniach kobietę wypisano ze szpitala. U Schoeman pozostały tylko niewielkie problemy z poruszaniem i czuciem w dłoniach. Zważywszy, że [...] powrót krążenia uzyskano po tak długim czasie, obawialiśmy się powikłań neurologicznych - opowiada dr Argudo. Odnosząc się do wypadku, Schoeman podkreśla, że niczego nie pamięta z 6 krytycznych godzin. Dodaje, że stał się cud, do którego w znacznym stopniu przyczynili się barcelońscy lekarze. W Hiszpanii to niespotykany przypadek, jednak w literaturze przedmiotu nie brakuje opisów norweskich pacjentów, u których spontaniczne krążenie udało się przywrócić niekiedy po godzinach zabiegów resuscytacyjnych i ogrzaniu pozaustrojowym. W 2014 r. w piśmie Resuscitation ukazał się nawet artykuł pod wiele mówiącym tytułem Nobody is dead until warm and dead: Prolonged resuscitation is warranted in arrested hypothermic victims also in remote areas – A retrospective study from northern Norway.   « powrót do artykułu
  23. Naukowcy z Uniwersytetu Przyrodniczego w Poznaniu biorą pod lupę gen odpowiedzialny za metabolizm kofeiny. Szukają też chętnych do udziału w tym projekcie, dzięki któremu m.in. dowiedzą się, w jakim tempie zachodzi u nich ten proces. Jak przypomniała w przesłanej PAP informacji rzeczniczka uczelni Iwona Cieślik, kofeina to jeden z najstarszych środków pobudzających, jakie zna ludzkość. Mimo określenia przez ekspertów zalecanej, bezpiecznej dziennej dawki tej substancji (400 mg/dzień, a dla kobiet w ciąży 200 mg/dzień), przeciętny człowiek może spożywać jej nawet do kilku razy więcej, co może m.in. zwiększać ryzyko wystąpienia zawału serca. Dlatego osoby będące wolno metabolizującymi kofeinę nie powinny spożywać więcej niż 100 mg kofeiny/dzień ze wszystkich źródeł – dodała. Tempo, w jakim człowiek metabolizuje kofeinę, można zbadać poprzez analizę genu odpowiedzialnego za ten proces, czym zajmują się właśnie naukowcy z Instytutu Żywienia Człowieka i Dietetyki Uniwersytetu Przyrodniczego w Poznaniu. Dzięki analizie DNA badacze będą mogli stwierdzić, kto znajduje się w grupie podwyższonego ryzyka i odpowiednio kształtować tworzone (dla tych osób – PAP) zalecenia żywieniowe – wyjaśniła Cieślik. Ocena wpływu takiej spersonalizowanej diety żywieniowej na zdrowie pacjenta jest również obiektem badań naukowców, ponieważ nie wiadomo, na ile włączenie takiej informacji podnosi świadomość żywieniową i zmianę zachowań konsumenta. Zespół badaczy poszukuje więc chętnych do wzięcia udziału w tych badaniach (osoby w wieku 18-60 lat). Udział w projekcie niesie dla ochotników szereg korzyści. Po pierwsze oceniony zostanie poziom spożycia kofeiny. Na koniec projektu wszyscy uczestnicy dostaną informacje na temat swojego genu odpowiedzialnego za metabolizm kofeiny. Dodatkowo zostanie oceniony skład ciała z dokładną oceną zawartości tłuszczowej oraz beztłuszczowej masy ciała. W próbkach krwi zostanie oznaczony m.in. tzw. profil lipidowy, poziom glukozy, insuliny – wymieniała rzeczniczka. W badaniach zostanie też wykorzystana aplikacja, która pozwoli na ocenę spożycia kofeiny wśród badanych uczestników. Projekt jest nowatorski pod względem zarówno kompleksowego podejścia do oceny spożycia kofeiny wśród polskiej populacji zdrowych dorosłych, jak również pod kątem sprawdzenia sensowności wykorzystania nowoczesnej, drogiej technologii w doradztwie żywieniowym – podkreśliła Cieślik. Badania realizowane są w zespole dr hab. prof. UPP Agaty Chmurzyńskiej, a główna osobą odpowiedzialną jest doktorantka Instytutu Żywienia Człowieka i Dietetyki i magister dietetyki – Ewa Bulczak. Nabór (poprzez mail: mml@up.poznan.pl lub telefonicznie: 510 084 082) potrwa do kwietnia 2020 r. « powrót do artykułu
  24. Jednym ze sposobów na pozyskiwanie odnawialnej energii jest wykorzystanie różnicy chemicznych pomiędzy słodką i słoną wodą. Jeśli naukowcom uda się opracować metodę skalowania stworzonej przez siebie technologii, będą mogli dostarczyć olbrzymią ilość energii milionom ludzi mieszkających w okolica ujścia rzek do mórz i oceanów. Każdego roku rzeki na całym świecie zrzucają do oceanów około 37 000 km3 wody. Teoretycznie można tutaj pozyskać 2,6 terawata, czyli mniej więcej tyle, ile wynosi produkcja 2000 elektrowni atomowych. Istnieje kilka metod generowania energii z różnicy pomiędzy słodką a słoną wodą. Wszystkie one korzystają z faktu, że sole złożone są z jonów. W ciałach stałych ładunki dodatnie i ujemne przyciągają się i łączą. Na przykład sól stołowa złożona jest z dodatnio naładowanych jonów sodu połączonych z ujemnie naładowanymi jonami chloru. W wodzie jony takie mogą się od siebie odłączać i poruszać niezależnie. Jeśli po dwóch stronach półprzepuszczalnej membrany umieścimy wodę z dodatnio i ujemnie naładowanymi jonami, elektrony będą przemieszczały się od części ujemnie naładowanej do części ze znakiem dodatnim. Uzyskamy w ten sposób prąd. W 2013 roku francuscy naukowcy wykorzystali ceramiczną błonę z azotku krzemu, w którym nawiercili otwór, a w jego wnętrzu umieścili nanorurkę borowo-azotkową (BNNT). Nanorurki te mają silny ujemny ładunek, dlatego też Francuzi sądzili, że ujemnie naładowane jony nie przenikną przez otwór. Mieli rację. Gdy po obu stronach błony umieszczono słoną i słodką wodę, przez otwór przemieszczały się niemal wyłącznie jony dodatnie. Nierównowaga ładunków po obu stronach membrany była tak duża, że naukowcy obliczyli, iż jeden metr kwadratowy membrany, zawierający miliony otworów na cm2 wygeneruje 30 MWh/rok. To wystarczy, by zasilić nawet 12 polskich gospodarstw domowych. Problem jednak w tym, że wówczas stworzenie nawet niewielkiej membrany tego typu było niemożliwe. Nikt bowiem nie wiedział, w jaki sposób ułożyć długie nanorurki borowo-azotkowe prostopadle do membrany. Przed kilkoma dniami, podczas spotkania Materials Research Society wystąpił Semih Cetindag, doktorant w laboratorium Jerry'ego Wei-Jena na Rutgers University i poinformował, że jego zespołowi udało się opracować odpowiednią technologię. Nanorurki można kupić na rynku. Następnie naukowcy dodają je do polimerowego prekursora, który jest nanoszony na membranę o grubości 6,5 mikrometrów. Naukowcy chcieli wykorzystać pole magnetyczne do odpowiedniego ustawienia nanorurek, jednak BNNT nie mają właściwości magnetycznych. Cetindag i jego zespół pokryli więc ujemnie naładowane nanorurki powłoką o ładunku dodatnim. Wykorzystane w tym celu molekuły są zbyt duże, by zmieścić się wewnątrz nanorurek, zatem BNNT pozostają otwarte. Następnie do całości dodano ujemnie naładowane cząstki tlenku żelaza, które przyczepiły się do pokrycia nanorurek. Gdy w obecności tak przygotowanych BNNT włączono pole magnetyczne, można było manewrować nanorurkami znajdującymi się w polimerowym prekursorze nałożonym na membranę.  Później za pomocą światła UV polimer został utwardzony. Na koniec za pomocą strumienia plazmy zdjęto z obu stron membrany cienką warstwę, by upewnić się, że nanorurki są z obu końców otwarte. W ten sposób uzyskano membranę z 10 milionami BNNT na każdy centymetr kwadratowy. Gdy taką membranę umieszczono następnie pomiędzy słoną a słodką wodą, uzyskano 8000 razy więcej mocy na daną powierzchnię niż podczas eksperymentów prowadzonych przez Francuzów. Shan mówi, że tak wielki przyrost mocy może wynikać z faktu, że jego zespół wykorzystał węższe nanorurki, zatem mogły one lepiej segregować ujemnie naładowane jony. Co więcej, uczeni sądzą, że membrana może działać jeszcze lepiej. Nie wykorzystaliśmy jej pełnego potencjału. W rzeczywistości tylko 2% BNNT jest otwartych z obu stron, mówi Cetindag. Naukowcy pracują teraz nad zwiększeniem odsetka nanorurek otwartych z obu stron membrany. « powrót do artykułu
  25. Tegoroczne jesienne liczenie kozic w Tatrach nie powiodło się z powodu niesprzyjającej pogody. Wspólna akcja przyrodników z polskiego i słowackiego Tatrzańskiego Parku Narodowego (TPN) była sześciokrotnie przekładana i choć w końcu podjęto próbę policzenia kozic, tym razem się to nie udało. Pomimo sześciokrotnego przekładania akcji liczenia kozic pogoda nam nie sprzyjała. Podjęliśmy próbę liczenia 15 listopada, ale szczyt przysłaniały chmury i wiał silny wiatr, szczególnie w części zachodniej gór. W związku z tym liczenie się nie udało – powiedział PAP w poniedziałek Jarosław Rabiasz z Zespołu Badań i Monitoringu TPN. Kolejne liczenie kozic zaplanowano na wiosnę przyszłego roku. Wówczas będzie też wiadomo, ile kozic przyszło na świat. Liczenie populacji kozic po polskiej i słowackiej stronie Tatr odbywa się regularnie wiosną i jesienią od 1957 r. Polega na tym, że teren jest dzielony na rejony obserwacyjne, w które ruszają zespoły wyposażone w lornetki i specjalne karty obserwacyjne. Na kartach zapisują liczbę osobników, czas i miejsce obserwacji, kierunek przemieszczania się zwierząt i dodatkowe informacje, takie jak płeć czy wiek osobników. Później na polsko-słowackim forum przyrodnicy weryfikują swoje obserwacje i szacują liczbę kozic. W ubiegłym roku jesienią naliczono w Tatrach 1431 kozic. Kozica w Polsce jest gatunkiem chronionym. Zwierzęta te żyją w niewielkich stadach, na których czele stoi doświadczona samica, tak zwana licówka. Samce, zwane capami, żyją najczęściej samotnie, dołączając do stad jesienią na czas godów. « powrót do artykułu
×
×
  • Dodaj nową pozycję...