Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36960
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Postępy na polu ogniw paliwowych mogą spowodować, że technologia ta będzie na tyle tania, że w niedalekiej przyszłości zastąpi silniki spalinowe, uważają naukowcy z University of Waterloo. Informują oni o powstaniu ogniwa paliwowego, które może pracować co najmniej 10-krotnie dłużej niż dotychczas stosowane technologie. To zaś oznacza, że przy produkcji na skalę masową używanie takich ogniw do zapewniania energii pojazdom może okazać się konkurencyjne cenowo w stosunku do pojazdów z napędem spalinowym. Dzięki naszej technologii napęd wykorzystujący ogniwa paliwowe może być porównywalny kosztowo lub tańszy niż napęd spalinowy. Z nadzieją patrzymy w przyszłość. To technologia, która może rozpowszechnić czyste napędy, mówi Xinguo Li, dyrektor Fuel Cell and Green Energy Lab na University of Waterloo. Obecnie stosowane ogniwa paliwowe mogłyby teoretycznie zastąpić paliwa kopalne w napędach pojazdów, jednak się zbyt drogie. Kanadyjscy naukowcy rozwiązali problem kosztów znacząco wydłużając żywotność ogniwa poprzez produkowanie stałych ilości energii. To zaś oznacza, że ogniwo, które produkuje energię z reakcji łączenia tlenu i wodoru, może być znacząco prostsze, a zatem i tańsze. Znaleźliśmy sposób na obniżenie kosztów przy jednoczesnym spełnieniu założeń co do wydajności i trwałości, cieszy się Li. Kanadyjczycy mają nadzieję, że dzięki ich technologii ogniwa paliwowe zaczną się upowszechniać i z czasem zastąpią zarówno samochody spalinowe jak i standardowe pojazdy elektryczne. To dobry pierwszy krok, zmiana, która może być odpowiedzią na problemy związane ze spalaniem paliw kopalnych przez transport, dodaje uczony. « powrót do artykułu
  2. Po raz pierwszy wykazano, czemu konszowana czekolada ma tak gładką teksturę. Szkocko-amerykański zespół przyjrzał się fizycznym aspektom metody opracowanej w 1879 r. przez Szwajcara Rodolphe'a Lindta. Dzięki ustaleniom, które opisano na łamach Proceedings of the National Academy of Sciences (PNAS), będzie można wyprodukować czekoladę o mniejszej zawartości tłuszczu czy zwiększyć wydajność energetyczną procesu. Konszowanie ma prowadzić do zemulgowania składników masy i odparowania nadmiaru wody. Prowadzi się je przez wiele godzin, nawet do 3 dób, w temperaturze 55-90°C. Naukowcy z Uniwersytetu w Edynburgu testowali mieszaniny przypominające ciekłą czekoladę. Analizy polegały m.in. na pomiarze gęstości i płynięcia na różnych etapach procesu konszowania. Okazuje się, że konszowanie może zmieniać fizyczne właściwości mikroskopijnych kryształków cukru oraz innych ziarnistych składników czekolady. Grudki składników są rozbijane na mniejsze ziarna. Zmniejsza się też tarcie między cząstkami. Przed wynalezieniem konszowania czekolada miała krupiastą teksturę. Akademicy wyjaśniają, że gdy stosuje się metody łączenia inne niż konszowanie, po zmieszaniu z masłem kakaowym pozostałe składniki tworzą nieregularne grudki. Spostrzeżenie te przydadzą się nie tylko w cukiernictwie, ale i w takich gałęziach przemysłu/sztuki, gdzie miesza się proszki i ciecze, a więc np. przy wytwarzaniu ceramiki lub betonu. « powrót do artykułu
  3. Amerykańscy naukowcy znaleźli sposób na ograniczenie ilości spożywanych cukrów dodanych i skuteczne odchudzanie. Dr Evan Forman z Drexel University przekonuje, że można wytrenować mózg za pomocą gry komputerowej, która obiera na cel część mózgu hamującą impulsy. Cukier dodany to jedno z najważniejszych źródeł nadmiaru kalorii. [...] Dlatego też wyeliminowanie cukrów dodanych z diety skutkuje utratą wagi i zmniejszonym ryzykiem różnych chorób - podkreśla Forman. Dotąd gry kognitywne, "trenujące mózg", wykorzystywano np. do zwalczania niezdrowych nawyków, np. palenia. Badanie, którego wyniki ukazały się w Journal of Behavioral Medicine, było pierwszą próbą oceny wpływu wysoce spersonalizowanego [...] zgamifikowanego treningu kontroli hamowania na utratę wagi. Grze, która powstała dzięki współpracy z licznymi fachowcami, nadano nazwę "Diet DASH". Automatycznie dostosowuje się ona do rodzaju słodyczy zjadanych przez konkretnego gracza. Poziom trudności także jest dopasowywany do indywidualnych zdolności w zakresie opierania się pokusom. W testach wzięło udział 109 osób (wszystkie miały nadwagę i jadły słodycze). Przed rozpoczęciem gry wzięły one udział w warsztatach, które miały pokazać, czemu cukier jest szkodliwy dla zdrowia, a także których produktów należy unikać i jak to zrobić. Szkolenie miało wskazać ochotnikom strategie przestrzegania bezcukrowej diety. Podejrzewaliśmy jednak, że ludzie będą potrzebować dodatkowego narzędzia, by radzić sobie z zachciankami. Pomóc mogłyby zaś codzienne treningi, które wzmacniają część mózgu odpowiadającą za niereagowanie na impulsy. Przez 6 tygodni część badanych grała w "Diet DASH" codziennie przez kilka minut. Później przez 2 tygodnie trzeba to było robić raz na tydzień. Uwzględniono też grupę kontrolną z "pozorowaną" interwencją. Podczas gry należy jak najszybciej przemieszczać się przez sklep spożywczy, wkładając do wózka poprawne (zdrowe) produkty i opierając się pokusie sięgnięcia po niedobre towary (ulubione słodycze). Za znajdujące się w wózku poprawne produkty przyznawane są punkty. Osobom, które wykazywały silniejszy pociąg do słodyczy, gra pomogła stracić w ciągu 8 tygodni 3,1% wagi. Badani mówili także, że "Diet DASH" stała się przyjemną częścią dnia codziennego i że gdyby to było możliwe, chętnie kontynuowaliby treningi. Testy prowadzono także z mniej i bardziej zgamifkowaną wersją gry (wzmocnionymi dźwiękami i grafiką); gamifikacja to wykorzystanie mechanizmów, które mobilizują do działania, zwiększają zaangażowanie czy uprzyjemniają nudne, powtarzalne czynności, czasem ma to również zachęcić użytkowników do rywalizacji. Choć okazało się, że generalnie poziom gamifikacji nie wpływał na to, czy ochotnicy ograniczyli spożycie cukru i schudli, naukowcy stwierdzili, że biorący w studium nieliczni mężczyźni zareagowali na silniej zgamifikowaną wersję lepiej niż kobiety. Obecnie WELL Center prowadzi testy silnie zgamifikowanej wersji treningu specjalnie dla mężczyzn. Trwa rekrutacja ochotników. « powrót do artykułu
  4. Z badań opublikowanych na łamach Journal of Nutrition Education and Behavior dowiadujemy się, że dzieci można nakłonić do jedzenia zdrowych pokarmów, informując je o korzyściach z nich wynikających. Okazuje się, że jeśli powiemy dzieciom, by np. zjadły fasolkę, gdyż dzięki temu będą szybciej rosły i szybciej biegały, zjedzą ja z dwukrotnie większym prawdopodobieństwem, niż wówczas, gdy nie otrzymają takiego komunikatu. Każde dziecko chce być większe, szybsze i wyżej skakać, mówi profesor Jane Laningan z Washington State University, główna autorka badań. Użycie takich zachęt powoduje, że pożywienie staje się bardziej atrakcyjne. Już wcześniejsze badania wykazały, że jeśli wielokrotnie będziemy dawać dziecku produkty, których nie chciało wcześniej zjeść, zwiększa się prawdopodobieństwo, iż w końcu ich spróbuje. Jednak wcześniej nie badano kontekstu, w jakim prezentowano dzieciom pożywienie. Lanigan i jej zespół postanowili sprawdzić, czy nakierowane celowo na dziecko stwierdzenia prezentujące korzyści z konkretnego zdrowego pożywienia zwiększą jego konsumpcję. Informacje dobierano tak, by odpowiadały celom, jakie stawia sobie dziecko i były prawdziwe. Eksperyment prowadzono przez 6 tygodni na grupie 87 dzieci w wieku 3–5 lat. Przed rozpoczęciem badań dzieci poproszono, by oceniły, na ile lubią pokarmy takie jak zieloną paprykę, pomidory, soczewicę czy quinoę. Następnie dwa razy w tygodniu dzieciom podawano dwa z najmniej lubianych przez nie rodzajów pożywienia. W przypadku jednego z produktów dziecku przedstawiano jego zalety, drugi zaś był podawany bez żadnych informacji. Eksperyment wbudowano w codzienną rutynę dziecka. Następnie mierzono, ile z danego produktu dzieci jadły przed rozpoczęciem eksperymentu, natychmiast po jego zakończeniu oraz miesiąc po jego zakończeniu. Okazało się, że natychmiast po zakończeniu nie zauważono, by dzieci jadły więcej któregokolwiek z nielubianych przez siebie pokarmów, prawdopodobnie dlatego, że miały dość jedzenia w kółko tego samego. Jednak inaczej miały się sprawy miesiąc później. Okazało się, że miesiąc później dzieci jadły dwukrotnie więcej tego produktu, do którego były zachęcane poprzez przedstawianie im korzyści, niż drugiego z produktów, mówi Lanigan. « powrót do artykułu
  5. Po raz pierwszy sfilmowano, jak podczas odpowiedzi immunologicznej ludzkie białka "dziurawią" osłony komórkowe bakterii. Cały proces jest tak pomyślany, by komórki organizmu gospodarza miały czas zabezpieczyć się przed atakiem. Wyniki badań zespołu z Uniwersyteckiego College'u Londyńskiego ukazały się w piśmie Nature Communications. Naukowcy mają nadzieję, że dzięki nim uda się zrozumieć, jak układ odpornościowy zabija bakterie i czemu własne komórki organizmu wychodzą z tego bez uszczerbku. To z kolei może doprowadzić do rozwoju nowych terapii zakażeń bakteryjnych. W ramach wcześniejszych badań akademicy zobrazowali skutki ataku na bakterie; wykazali, że w jego wyniku w osłonce komórkowej powstają drobniutkie otwory o średnicy zaledwie 10 nanometrów. Przy ostatnim eksperymencie posłużono się modelową powierzchnią bakteryjną. Oddziaływał na nią kompleks atakujący błonę (ang. Membrane Attack Complex, MAC). Śledząc poszczególne etapy procesu, Brytyjczycy zauważyli, że tuż po tym, jak zaczynają się tworzyć otworki, następuje przerwa. Wg naukowców, to fory, dzięki którym własne komórki gospodarza mogą się zabezpieczyć. Najpierw w osłonkę bakterii "wbija się" jedna kopia białka. Proces pauzuje, bo do dokończenia otworu potrzeba aż 18 kopii tego samego białka. Wydaje się, że "nanomaszyny" odczekują chwilę, pozwalając potencjalnej ofierze na reakcję, w razie gdyby okazało się, że to własna komórka organizmu, a nie najeźdźca. Później następuje decydujące uderzenie - wyjaśnia dr Edward Parsons. Proces sfilmowano dzięki mikroskopowi sił atomowych z komorą cieczową. « powrót do artykułu
  6. Spowodowane globalnym ociepleniem zwiększenie ilości opadów może doprowadzić do paraliżu komunikacyjnego na olbrzymich obszarach. Grupa naukowców stworzyła model komputerowy, w którym połączono dane dotyczące sieci drogowych oraz ukształtowania terenu. Za jego pomocą identyfikowano krytyczne punkty, w których niewielki wzrost ilości opadów może odprowadzić do paraliżu dróg, którego konsekwencje będą odczuwane na dużych obszarach. Aby przygotować się na zmiany klimatyczne, musimy wiedzieć, które miejsca, w razie wystąpienia powodzi czy podtopień, będą prowadziły do największych problemów komunikacyjnych. Zwykle specjaliści podczas podobnych badań skupiają się na najbardziej uczęszczanych drogach. Jednak z naszych analiz wynika, że to nie one będą problemem, mówi profesor informatyki i specjalista ds. problemów rozległych sieci Jianxi Gao z Rensselaer Polytechnic Institute. Uczony nawiązał współpracę z ekologami z Beijing Normal University oraz fizykami z Uniwersytetu w Bostonie. Celem grupy było połączenie modeli wykorzystywanych do badania wpływu uszkodzeń dróg na transport z modelami dotyczącymi wpływu topografii terenu na powodzie i podtopienia. Tradycyjne podejście do problemów komunikacyjnych zakłada, że problemy na mniejszych drogach czy skrzyżowaniach będą miały niewielki wpływ na całą sieć połączeń. Jednak Gao stwierdził, że warto na te modele nałożyć dane o tym, jak, w zależności od topografii terenu, spływa woda po deszczu. Uzyskane wyniki nie napawają optymizmem. Okazało się, że na przykład na Florydzie zwiększenie opadów o 30–35 milimetrów wyłączy z użytkowania 50% dróg, a z kolei w stanie Nowy Jork opady powyżej 45 milimetrów mogą odciać północno-wschodnią część tego stanu od reszty kraju. Jeśli zaś w chińskiej prowincji Hunan opady zwiększą się o 25–30 mm, to z użytku zostanie wyłączonych 42% dróg lokalnych. Wzrost opadów o 95–100 mm wyłączał zaś z użycia 48,7% dróg lokalnych w prowincji Syczuan. W skali całych Chin wzrost opadów o 160–165 mm wyłączy 17,3% sieci dróg i odetnie zachodnią część kraju. Naukowcy postanowili zweryfikować swój model porównując jego przewidywania z rzeczywistymi problemami drogowymi w Houston i południowo-wschodnim Teksasie wywołanymi przez huragan Harvey. Okazało się, że ich model prawidłowo przewidział 90,6% przypadków zamknięcia dróg i 94,1% przypadków zalania dróg. Huragan Harvey spowodował jedne z największych w historii USA problemów z siecią drogową. Nasz model dobrze je przewidział. Dodanie informacji 3D do już wykorzystywanych modeli powoduje, że otrzymujemy niespodziewane wzorce awarii. Opracowaliśmy równania matematyczne, które pozwalają nam przewidzieć te wzorce, stwierdza Gao. « powrót do artykułu
  7. Po 61 latach Robert Phillips, uczestnik prac prowadzonych w Stonehenge w latach 50., oddał fragment rdzenia wywierconego w jednym z głazów megalitu. Mężczyzna najpierw trzymał go w plastikowej tubie w biurze w Basingstoke, a później zabrał do USA. Przed nadchodzącymi 90. urodzinami postanowił, że próbka powinna wrócić tam, gdzie jej miejsce, czyli do Stonehenge. Organizacja English Heritage, która dogląda Stonehenge, ma nadzieję, że próbka pomoże w dalszych badaniach pochodzenia kamieni. W 1958 r. archeolodzy podnieśli przewrócony trylit (składa się on z 3 głazów: dwóch pionowych i trzeciego poziomego). Podczas prac w jednym z pionowych głazów odkryto pęknięcia. By go wzmocnić, odwiercono rdzenie i wprowadzono metalowe pręty. Całość zamaskowano "zatyczkami" wyciętymi ze znalezionych w pobliżu fragmentów sarsenu. W latach 50. Phillips był zatrudniony w firmie Van Moppes specjalizującej się w cięciu diamentów. To jej zlecono wywiercenie otworu w "nadwyrężonym" głazie trylitu. Robotnicy usunęli wtedy 3 rdzenie, a ponieważ były one traktowane jak odpad, Phillips wziął jeden z fragmentów. Snując refleksje przed 90. urodzinami, pan Robert postanowił, że próbka powinna wrócić "do macierzy". Ponieważ stan zdrowia nie pozwalał mu przeprowadzić misji osobiście, do Stonehenge przywieźli pamiątkę jego synowie Lewis i Robin. Pamiętam, że gdy jako nastolatek odwiedzałem biuro ojca, były tam długa tuba ze szkła akrylowego z rdzeniem oraz zdjęcie przedstawiające wiercenie. Gdy w 1976 r. tata postanowił odejść z firmy i okazało się, że nie ma już nikogo, kto brał udział w projekcie i nikogo nie obchodzi, co się stanie z kamieniem, postanowił zabrać go ze sobą. Zajmował on honorowe miejsce w kolejnych [biurach] i domach rodziców [później państwo Phillipsowie się rozwiedli, a Robert ponownie się ożenił]. Ojciec ma już 90 lat [...] i zaczął się obawiać, że po jego śmierci rdzeń może się zgubić lub że zostanie wyrzucony. Stąd decyzja, że powinien wrócić do Stonehenge - opowiada Lewis i dodaje, że wg niego, Floryda to najbardziej oddalone miejsce, do jakiego zawędrowały "okruchy" Stonehenge. Przedstawiciele English Heritage podkreślają, że w porównaniu do zwietrzałych głazów ze Stonehenge, rdzeń wygląda bardzo świeżo. Przeprowadzono już wstępne badania za pomocą spektrometru. Prof. David Nash z Uniwersytetu w Brighton podkreśla, że to możliwe, że sarsen do budowy Stonehenge pochodził z kilku różnych lokalizacji. Losy pozostałych dwóch rdzeni pozostają owiane tajemnicą. English Heritage prosi o kontakt wszystkich, którzy mają na ten temat jakieś informacje. Ostatnią rzeczą, jakiej się spodziewaliśmy, był telefon od kogoś z Ameryki z informacją, że jest tam kawałek Stonehenge - opowiada Heather Sebire. « powrót do artykułu
  8. Bioinżynierowie z Rice University dokonali przełomu na polu druku 3D organów do przeszczepu. Dzięki ich pracy możliwe stało się drukowanie złożonych sieci połączeń naczyniowych, którymi może płynąć krew, chłonka, inne płyny ustrojowe oraz powietrze. Prace zespołu na którego czele stali Jordan Miller z Rice University oraz Kelly Stevens z University of Washington są na tyle przełomowe, że ich wynikiem zilustrowano okładkę Science. Możemy na niej zobaczyć hydrożelowy model model worka powietrznego imitującego płuca z drogami oddechowymi i drzewem oddechowym dostarczającymi tlen do naczyń krwionośnych. Jedną z najpoważniejszych przeszkód na drodze do drukowania funkcjonujących organów była niemożność wydrukowania skomplikowanej sieci naczyń krwionośnych dostarczających składniki odżywcze do gęsto upakowanych tkanek, mówi profesor Miller. Jakby tego było mało, nasze organy wewnętrzne zawierają niezależne sieci naczyń, jak drogi oddechowe i naczynia krwionośne w płucach czy przewody żółciowe i naczynia krwionośne w wątrobie. Te przenikające się sieci są fizycznie i biochemicznie połączone, a ich architektura jest powiązana z funkcją tkanki. Nasza technika druku jest pierwszą, która radzi sobie z tymi problemami w sposób bezpośredni i wszechstronny. Specjaliści zajmujący się inżynierią tkanek od wielu lat nie potrafili poradzić sobie z poziomem skomplikowania sieci naczyniowych. Dzięki naszej pracy możemy teraz zapytać: czy skoro jesteśmy w stanie wydrukować tkankę, która wygląda i nawet oddycha podobnie jak zdrowa tkanka, to czy będzie ona zachowywała się jak zdrowa tkanka. To bardzo ważne pytanie, gdyż od tego, jak będą funkcjonowały drukowane tkanki będzie zależało, czy w ogóle przydadzą się one do przeszczepu, stwierdza Stevens. Prace nad drukiem organów są napędzane przez olbrzymie zapotrzebowanie. Na całym świecie brakuje organów do przeszczepu. W samych Stanach Zjednoczonych na organy czeka ponad 100 000 osób. Ci, którym się uda i doczekają przeszczepu, muszą przez całe życie przyjmować leki immunosupresyjne by zapobiec odrzuceniu organu. Drukowanie organów może za jednym zamachem załatwić oba problemy. Zapewni dostateczną liczbę tkanek do przeszczepu, a że będą one drukowane z komórek pacjenta, nie będzie istniało ryzyko odrzucenia, zatem nie będzie potrzeby przyjmowania leków. Naszym zdaniem w ciągu dwóch najbliższych dekad drukowanie organów stanie się ważnym elementem medycyny, mówi Miller. Szczególnie interesująca jest dla nas wątroba, gdyż spełnia ona 500 różnych funkcji, więcej spełnia tylko mózg. Stopień złożoności wątroby oznacza, że obecnie nie istnieje żadna maszyna czy terapia, która może ją w pełni zastąpić, dodaje Stevens. Zespół Millera i Stevens stworzył nową otwartoźródłową technologię biodruku, którą nazwał SLATE (stereolitography apparatus for tissue engineering). Poszczególne warstwy są drukowane z ciekłego roztworu hydrożelowego, który utwardza się pod wpływem niebieskiego światła. Projektor oświetla od góry tkankę drukowaną warstwa po warstwie. Wielkość pojedynczego piksela druku waha się od 10 do 50 mikrometrów. Po tym, jak właśnie wydrukowana warstwa zostanie utwardzona, specjalne ramię podnosi wydrukowany element o tyle tylko, by można było nałożyć kolejną warstwę 2D i ją utwardzić. Jednym z ważnych elementów nowej techniki było dodanie do roztworu barwników do żywności, które absorbują niebieskie światło. Dzięki temu możliwe stało się utwardzanie badzie cienkich warstw. W ten sposób w ciągu kilku minut można otrzymać elastyczny miękki biokompatybilny element o bardzo złożonej architekturze wewnętrznej. Testy przeprowadzone na strukturze naśladującej prototypowe płuca wykazały, że całość jest na tyle odporna, iż nie ulega uszkodzeniu podczas ruchów naśladujących oddychanie oraz przepływ krwi. Symulacje przeprowadzano przy ciśnieniach i częstotliwościach, na jakie rzeczywiście są wystawiane ludzkie płuca. Podczas eksperymentów zaobserwowano, że czerwone krwinki rzeczywiście pobierają tlen i przenoszą go przez naczynia. Cały proces przypominał wymianę gazową odbywającą się w płucach. Przeprowadzono też testy implantów terapeutycznych dla cierpiących na choroby wątroby. Naukowcy wydrukowali tkankę wątroby i przeszczepili ją myszy z uszkodzoną wątrobą. Testy wykazały, że komórki wątroby przetrwały przeszczep.   « powrót do artykułu
  9. Inhibitory SGLT2 – doustne leki przeciwcukrzycowe - mogą zwiększać ryzyko zgorzeli Fourniera (ang. Fournier gangrene), martwiczego zakażenia, które najczęściej obejmuje skórę i tkankę podskórną moszny. Hamowanie kotransportera sodowo-glukozowego 2 (SGLT2) to nowatorska metoda leczenia hiperglikemii na drodze zwiększenia strat energii i glukozy z moczem. Blokując reabsorpcję filtrowanej glukozy, inhibitory SGLT2 prowadzą do cukromoczu, są więc glukuretykami. Badania sugerują, że nie tylko obniżają poziom cukru we krwi, ale i zmniejszają ryzyko chorób serca i udaru u niektórych osób z cukrzycą typu 2. Do efektów ubocznych stosowania inhibitorów należą m.in. zakażenia układu moczowego. Inhibitory SGLT2 wprowadzono w 2013 r. Do tej klasy leków należą m.in. kanagliflozyna (Invokana), dapagliflozyna (Farxiga) czy empagliflozyna (Jardiance). Naukowcy z amerykańskiej Agencji Żywności i Leków (FDA) odkryli, że wśród pacjentów, którzy przyjmowali inhibitory SGLT2 od marca 2013 do stycznia 2019 r., wystąpiło 55 przypadków zgorzeli Fourniera. Dla porównania oceniono występowanie zgorzeli u osób przyjmujących inne leki przeciwcukrzycowe w latach 1984-2019. Tutaj stwierdzono tylko 19 takich przypadków. Autorzy artykułu z Annals of Internal Medicine podkreślają, że należy pamiętać, że choć częstość występowania zgorzeli Fourniera jest wśród osób zażywających inhibitory SGLT2 relatywnie wyższa, ryzyko nadal pozostaje niskie. W 2017 r. receptę na inhibitor SGLT2 dostało ok. 1,7 mln pacjentów. [...] O ile nasze badanie pokazuje, że istnieje korelacja między leczeniem inhibitorami SGLT2 a zgorzelą Fourniera, o tyle nie wiadomo, jakie jest to ryzyko lub czy wystąpienie zgorzeli można przewidzieć - opowiada dr Susan Bersoff-Matcha. Wszyscy zidentyfikowani pacjenci ze zgorzelą Fourniera trafili do szpitala. Niektórzy przeszli kilka operacji; 3 osoby zmarły. Średni wiek wynosił 56 lat. Większość próby (39) stanowili mężczyźni. Czterdzieści jeden przypadków odnotowano w USA. Trzydzieści jeden osób zażywało także inne leki przeciwcukrzycowe. Dwadzieścia jeden przyjmowało kanagliflozynę, 16 dapagliflozynę, a 18 empagliflozynę. Akademicy podkreślają, że na razie można mówić o tylko korelacji, a nie związku przyczynowo-skutkowym. Wg komentatorów, trudno przypisać zgorzel właśnie inhibitorom SGLT2. Testy kliniczne tych leków objęły bowiem dziesiątki tysięcy ludzi i nie było doniesień o zgorzeli Fourniera. Firma Boehringer Ingelheim, która produkuje Jardiance, podkreśla, że prowadzi aktywny monitoring pod kątem ewentualnych skutków ubocznych. Zgodnie z zaleceniami FDA, ostatnio w opisach wszystkich inhibitorów SGLT2 wprowadzono zmiany, tak by odzwierciedlić ewentualne ryzyko zgorzeli Fourniera (tyczy się to zarówno materiałów dla lekarzy, jak i dla pacjentów). Pierwsze doniesienia na temat podwyższonego ryzyka zgorzeli Fourniera zostały opublikowane na witrynie FDA pod koniec sierpnia zeszłego roku. Dotyczyły one okresu od marca 2013 do maja 2018 r.; chodziło o przypadki zgłoszone w ramach FDA Adverse Event Reporting System (FAERS) lub opisane w literaturze medycznej. Podkreślano, że nieodnotowanych przypadków może być więcej. « powrót do artykułu
  10. Przed tysiącem lat rdzenni mieszkańcy Ameryki Południowej używali roślin psychotropowych, i to prawdopodobnie wielu jednocześnie, do wywołania halucynacji i uzyskania odmiennych stanów świadomości. Wiedzieliśmy, że środki psychotropowe były ważnym elementem rytuałów duchowych i religijnych wśród społeczeństw południowo-środkowych Andów. Nie wiedzieliśmy jednak, że ludzi ci używali tak wielu środków i prawdopodobnie je łączyli, mówi profesor Jose Capriles z Pennsylvannia State University. To największa liczba substancji psychoaktywnych znalezionych na pojedynczym stanowisku archeologicznym w Ameryce Południowej. Międzynarodowy zespół naukowy poszukiwał w suchej dolinie rzeki Stora w południowo-zachodniej Boliwii dowodów na to, że tamtejsze jaskinie były zamieszkane. W czasie badań uczeni trafili na zestaw wykorzystywany podczas pochówków. Zestaw ten składał się ze skórzanej torby wewnątrz której znajdowały się m.in. dwa przyrządy do wdychania sproszkowanych roślin halucynogennych, rurka do palenia takich roślin oraz woreczek na środki halucynogenne wykonany z pysków trzech lisów. Datowanie metodą radiowęglowej spektrometrii mas wykazało, że skórzana torba liczy sobie około 1000 lat. To okres, w którym rozpadało się państwo Tiwanaku i pojawiały się regionalne ośrodki władzy, mówi Capriles. Naukowcy pobrali też próbkę osadów z woreczka i przebadali ją metodą spektrometrii mas oraz chromatografii cieczowej. To bardzo efektywna i wysoce wrażliwa metoda wykrywania niewielkich ilości związków chemicznych w bardzo małych próbkach, wyjaśnia Melanie Miller z nowozelandzkiego University of Otago i Uniwersytetu Kalifornijskiego w Berkeley, która była odpowiedzialna za badania. Analizy wykazały, że w woreczku znajdowały się kokaina, benzoilolekgonina (główny metabolit kokainy), harmina (alkaloid roślinny), bufotenina (występuje w roślinach, jadzie ropuch i grzybach), DMT (alkaloid roślinny) oraz prawdodopodobnie psylocybina. Narkotyki pozyskano co najmniej z trzech różnych gatunków roślin. Capriles uważa, że znaleziona torba należała do szamana. Szamani byli specjalistami, którzy mieli wiedzę na temat roślin oraz tego, jak wykorzystać je do połączenia się ze światem nadnaturalnym, w tym z szanowanymi przodkami, którzy żyli w innych wymiarach. Niewykluczone, że szaman ten jednocześnie zażywał wiele różnych roślin, by uzyskać różne efekty lub wzmocnić halucynacje. Melanie Miller wskazuje zaś na obecność harminy i DMT, które są obecne we współcześnie przygotowywanym napoju halucynogennym ayahuasca. To sugeruje, że możemy mieć do czynienia ze wczesną formą przygotowywania czegoś na wzór ayahuasca, w której łączono rośliny zawierające harminę i DMT lub bufoteninę. Niektórzy specjaliści uważają, że ayahuasca to dość nowy wynalazek, z kolei zdaniem innych napój ten używany jest od setek, a może nawet tysięcy lat. Biorąc pod uwagę obecność harminy i DMT w jednym woreczku, możemy przypuszczać, że szaman zażywał te środki jednocześnie, albo wdychając je w formie sproszkowanej, albo przygotowując z nich napój. Odkrycie to sugeruje, że ayahuasca mogła być używana już 1000 lat temu, stwierdza Capriles. Obecność różnych środków halucynogennych w tym samym woreczku wskazuje nie tylko na to, że jego właściciel miał odpowiednią wiedzę botaniczną, ale również, że podjął spory wysiłek, by zdobyć rośliny pochodzące z różnych regionów Ameryki Południowej. Właściciel zestawu miał dostęp do co najmniej trzech roślin zawierających związki halucynogenne, a prawdopodobnie do czterech lub pięciu. Żadna z tych roślin nie występuje na obszarze, gdzie odkryliśmy torbę, a to wskazuje albo na istnienie rozbudowanej sieci wymiany albo, że osoba ta celowo odbywała podróże, by je zdobyć, mówi Miller. « powrót do artykułu
  11. Białko sojowe pomaga w niewielkim, ale znaczącym stopniu obniżyć poziom złego cholesterolu LDL. Ponieważ amerykańska Agencja Żywności i Leków (FDA) planuje usunąć soję z listy produktów dobrych dla serca, naukowcy ze Szpitala św. Michała w Toronto postanowili przeprowadzić metaanalizę 46 "sojowych" badań z grupą kontrolną. W ten sposób specjaliści chcieli sprawdzić, czy decyzja instytucji ma pokrycie w postaci danych. Wśród 46 badań 43 zapewniały wystarczająco dużo danych do metaanalizy; 41 dotyczyło wpływu białek soi na zły cholesterol LDL, a wszystkie 43 zapewniały dane nt. całkowitego cholesterolu. Okazało się, że u dorosłych białko soi zmniejszało poziom złego cholesterolu o 3-4%. Jak podkreśla dr David Jenkins, spadek jest może niewielki, ale istotny. Badania objęły dorosłych (kobiety i mężczyzn), u których wyjściowe stężenie krążącego cholesterolu LDL wynosiło 110-201 mg/dL. Ich autorzy oceniali, jak białko sojowe wpłynie na LDL i cholesterol całkowity; porównań dokonywano do białka niesojowego. Mediana (wartość środkowa) dawki białka sojowego wynosiła 25 g dziennie. Losy ochotników monitorowano średnio przez 6 tygodni. Okazało się, że w tym czasie poziom LDL spadł nawet o 4,76 mg/dL, a cholesterolu całkowitego o 6,41 mg/dL. Jeśli oprócz diety uwzględniającej soję zastosuje się zdrowsze zastępniki tłuszczów nasyconych i mięsa bogatego w cholesterol, spadki poziomu cholesterolu mogą być większe. Istniejące dane i nasze analizy sugerują, że białka soi sprzyjają zdrowiu serca. Mamy nadzieję, że opinia publiczna nadal będzie brać pod uwagę diety roślinne jako zdrowe opcje. « powrót do artykułu
  12. Osoby cierpiące na zespół chronicznego zmęczenia (ME/CFS) już wkrótce mogą otrzymać oczekiwany od dziesięcioleci dowód na występowanie u nich choroby. Na Uniwersytecie Stanforda powstał test z krwi, który pozwala na oznaczenie tego schorzenia. Bardzo często chorzy słyszą, że wymyślili sobie chorobę, mówi profesor biochemii i genetyki Ron Davis. Gdy osoba z zespołem chronicznego zmęczenia szuka pomocy u lekarza, niejednokrotnie wykonywane są badania wątroby, nerek, serca czy krwi. Wszystkie te testy mogą wskazać na jedną czy drugą chorobę, ale żaden z nich nie wskaże na zespół chronicznego zmęczenia, stwierdza Davis. Uczony wraz z kolegami opracował test, podczas którego badana jest reakcja komórek układu odpornościowego na czynnik stresowy. W pilotażowych testach wzięło udział 20 osób cierpiących na ME/CFS i 20 zdrowych osób. Test pozwolił na zidentyfikowanie wszystkich chorych, nie wskazał natomiast żadnej zdrowej osoby. Co więcej, test może też potencjalnie wskazać leki, którymi można pomóc konkretnemu pacjentowi. Po wystawieniu próbki krwi na działanie leku i ponownym jej zbadaniu, można sprawdzić, czy reakcja komórek układu odpornościowego poprawiła się. Naukowcy ze Stanforda już teraz wykorzystują swoją platformę do testowania potencjalnych leków do walki z zespołem chronicznego zmęczenia. Obecnie zespół chronicznego zmęczenia diagnozowany jest na podstawie objawów, wśród których jest wyczerpanie, wrażliwość na światło czy bóle nieznanego pochodzenia. ME/CFS można zdiagnozować dopiero po wyeliminowaniu innych chorób. Szacuje się, że w samych Stanach Zjednoczonych na chorobę tę cierpi około 2 milionów osób. Profesor Davis zainteresował się ME/CFS, gdyż chciał pomóc synowi, który od 10 lat cierpi na tę chorobę. To właśnie u własnego syna znalazł wraz ze współpracownikowi pierwszą wskazówkę, która naprowadziła ich na trop testu. Naukowcy wykorzystują macierz złożoną z tysięcy elektrod, która potrafi zmierzyć zmiany w małych ilościach energii, które są wykorzystywane jako przybliżony obraz zdrowia komórek odpornościowych i plazmy. Wewnątrz specjalnych komór, po podaniu niewielkich ilości prądu, komórki plazma zmieniają sposób przemieszczania się. Reakcja na obecność prądu wskazuje na stan zdrowia próbki. Najpierw jednak próbka poddawana jest działaniu czynnika stresowego – soli. Później mierzy się jej reakcję na prąd i w ten sposób określa, czy pacjent jest zdrowy. Podczas testów we wszystkich próbkach pobranych od chorych pojawiał się wyraźny sygnał świadczący o tym, że plazma i znajdujące się w próbce komórki nie potrafią poradzić sobie z obecnością czynnika stresowego. Nie wiemy dokładnie, dlaczego komórki i plazma tak reagują, nie wiemy też, co się z nimi dzieje. Jednak mamy tutaj naukowy dowód, że choroba jest czymś rzeczywistym, a nie wytworem wyobraźni pacjenta. Wyraźnie widzimy różnicę reakcji na stres pomiędzy próbkami pobranymi od chorych i od zdrowych, mówi Davis. Obecnie trwa rekrutacja ochotników do kolejnej fazy badań zakrojonych na szerszą skalę. « powrót do artykułu
  13. Przeszczep bakterii mikrobiomu od zwierząt podatnych na stres społeczny może zmienić zachowanie gryzoni niezestresowanych. Naukowcy uważają, że poznanie szczegółów interakcji między jelitem a mózgiem może doprowadzić do opracowania terapii probiotykowych na ludzkie choroby, np. depresję. Odkryliśmy, że u szczurów, które w teście laboratoryjnym wykazują zachowania depresyjne, stres zmienia mikrobiom jelitowy [...]. Co więcej, gdy przeszczepiliśmy bakterie tych zwierząt niezestresowanym gryzoniom, biorcy zaczęli wykazywać podobne zachowania - opowiada dr Seema Bhatnagar ze Szpitala Dziecięcego w Filadelfii. Bhatnagar dodaje, że stres zwiększył również stan zapalny w mózgach (brzusznym hipokampie) podatnych szczurów. To samo zapalenie pojawiło się po przeszczepie w mózgach biorców. Naukowcy wiedzą już od jakiegoś czasu, że mózg i jelita wpływają na siebie wzajemnie. Ludzie z zaburzeniami psychiatrycznymi mają np. inne populacje bakterii niż osoby zdrowe (analogiczne zjawisko występuje w zwierzęcych modelach psychoz). W ramach najnowszego badania analizowano mechanizmy związane z zapaleniem mózgu, mikrobiomem i stresem. Nie wszyscy ludzie reagują tak samo na różne stresory - jedni są bardziej podatni, a inni bardziej odporni na wystąpienie choroby psychicznej. Coś podobnego dzieje się u zwierząt laboratoryjnych. U gryzoni głównymi źródłami stresu są hierarchia społeczna i terytorialność. W laboratorium naukowcy modelują stresory za pomocą narzędzi behawioralnych, np. testu wymuszonego pływania (testu Porsolta). Szczury, które reagują bardziej pasywnie, są bardziej podatne na skutki stresu, ponieważ przejawiają także silniejszy lęk i więcej zachowań depresyjnych. Gryzonie, które reagują bardziej aktywnie, są bardziej odporne na skutki stresu społecznego. W oparciu o te kryteria przed właściwym eksperymentem zwierzęta sklasyfikowano jako podatne lub odporne. Następnie naukowcy analizowali mikrobiomy kału szczurów podatnych, odpornych i niestresowanej grupy kontrolnej. Okazało się, że zwierzęta dostające przeszczep od osobników podatnych częściej zaczynały przejawiać zachowania depresyjne, zaś szczury przechodzące przeszczep od gryzoni odpornych lub niezestresowanych nie wykazywały zmian w zachowaniu ani w zakresie miar neurologicznych. Wzorce mózgowych procesów zapalnych biorców także przypominały zjawiska zachodzące w mózgach podatnych dawców, co sugeruje stanowi zapalnemu mogą sprzyjać immunomodulujące skutki działania np. klostridiów. Przeszczepy nie zmieniały za to znacząco zachowań lękowych. Ustalenie, że przeszczep flory jelitowej podatnych szczurów nasilał zachowania depresyjne, ale nie lękowe u niezestresowanych zwierząt, może wskazywać na różne mechanizmy. Wg autorów publikacji z pisma Molecular Psychiatry, sugeruje to, że zachowania depresyjne są w większym stopniu regulowane przez mikrobiom, natomiast na zachowania lękowe wpływają przede wszystkim zmiany aktywności neuronów, te są zaś skutkiem doświadczeń stresowych. Ludzie już przyjmują suplementy z probiotykami. Jeśli ostatecznie uda nam się udowodnić korzystny wpływ wywierany na zachowane przez konkretne bakterie, byłyby to podwaliny pod nowe metody terapii psychiatrycznej - podsumowuje Bhatnagar. « powrót do artykułu
  14. Łuski ryżu skutecznie usuwają z wody mikrocystyny - toksyny sinicowe. Dotąd produkt ten, który zwykle traktowany jest jak dostępny w nadmiarze odpad, badano pod kątem oczyszczania wody. Amerykanie jako pierwsi wykazali, że za jego pomocą można eliminować toksyny uwalniane podczas masowych zakwitów. Mikrocystyny są bardzo toksyczne zarówno dla roślin, jak i dla zwierząt, w tym dla ludzi. Działają hepatotoksycznie, co oznacza, że powodują poważne uszkodzenia wątroby. Prof. Jon Kirchhoff i Dragan Isailović z Uniwersytetu w Toledo posłużyli się organicznymi łupinami ryżowymi. Poddali je działaniu kwasu solnego i podgrzali do temperatury 250 stopni Celsjusza. Następnie łuski rozprowadzono w próbkach wody, pobranych z jeziora Erie podczas zakwitu sinic w 2017 r. Mierzono stopień wchłaniania toksyn. Okazało się, że przy stężeniach do 596 ppb (parts per bilion, cząstek na miliard) łuski ryżowe usuwały ponad 95% mikrocystyny LR. Nawet gdy stężenia zbliżały się do 3000 ppb, eliminowały ponad 70% mikrocystyny LR. Inne rodzaje mikrocystyn także były usuwane. Przyglądaliśmy się usuwaniu mikrocytystyn z prawdziwych próbek środowiskowych. Badany materiał sprawował się naprawdę dobrze. Mówimy o skrajnie wysokich stężeniach toksyn [...]. Normalnie latem w jeziorze Erie są one o wiele, wiele niższe - wyjaśnia Isailović. Łupiny ryżowe są nie tylko skuteczne, ale i tanie. Poza tym można je potem wykorzystać do innych celów (podgrzanie łusek, które wchłonęły mikrocystyny, do temperatury 560°C niszczy toksyny i pozwala uzyskać ditlenek krzemu). Naukowcy mają nadzieję, że ich rozwiązanie uda się przeskalować, tak by dało się je wdrożyć do ekologicznego uzdatniania wody skażonej przez zakwit. Wspominają też o systemach filtracyjnych dla krajów rozwijających się. « powrót do artykułu
  15. Na Uniwersytecie Stanforda powstały syntetyczne proteiny, które rozpoznają komórki nowotworowe i uruchamiają w nich mechanizm apoptozy (zaprogramowanej śmierci komórkowej), oszczędzając przy tym zdrowe komórki. Nowa technika nazwana przez jej twórców RASER (rewiring of aberrant signaling to effector release) wykorzystuje dwie proteiny. Pierwsza z nich jest aktywowana w obecności sygnału permanentnego wzrostu komórkowego, który jest obecny w wielu rodzajach nowotworów, a druga z protein jest nośnikiem zaprogramowanej przez naukowców reakcji, którą może być np. zapoczątkowywanie apoptozy komórki nowotworowej. Co prawda eksperymenty z techniką RASER były prowadzone w kontrolowanym środowisku laboratoryjnym, jednak naukowcy uważają, że może to doprowadzić do pojawienia się nowego typu celowanej terapii antynowotworowej, podczas której odpowiednio spreparowane proteiny będą precyzyjnie niszczyły komórki nowotworowe, co pozwoli uniknąć efektów ubocznych pojawiających się w innych metodach leczenia. Udało się nam przeprogramować komórkę nowotworową, by zachowywała się tak, jak sobie życzymy, mówi profesor neurobiologii i bioinżynierii Michael Lin. Zawsze poszukiwaliśmy sposobu, by zabić komórki nowotworowe, ale oszczędzić zdrowe komórki. Komórki nowotworowe pojawiają się jako skutek nieodpowiednich sygnałów, przez które się rozrastają w sposób niekontrolowany, zatem włamaliśmy się do komórek nowotworowych, by wykorzystać ten sygnał w pożytecznym celu. Wiele nowotworów polega na sygnałach pochodzących z receptorów obecnych na ich powierzchni. Te ścieżki sygnałowe są używane przez zdrowe komórki do wzrostu w odpowiedzi na czynniki zewnętrzne, np. na zranienie. Jednak w komórkach nowotworowych proteiny receptorów są często zmutowane lub dochodzi do ich nadmiernej ekspresji, przez co receptor „ciągle włączony” i bez przerwy wysyła do komórki sygnał prowadzący do jej wzrostu. Badacze ze Stanforda skupili się na dwóch receptorach z rodziny ErbB – EGFR i HER2. Często napędzają one nowotwory mózgu, piersi i płuc. Wiele leków działa poprzez blokowanie kaskady sygnałowej rozpoczynanej przez receptory. Jednak leki nie nie odróżniają komórek nowotworowych od komórek zdrowych i również w nich blokują szlaki sygnałowe. Nie mamy leku, który potrafiłby odróżnić prawidłowo działający szlak sygnałowy od nadmiernie aktywnego. Wiedzieliśmy, że potrzebujemy odpowiedniej strategii, ale do niedawna nią nie dysponowaliśmy, mówi Lin. Naukowcy najpierw zaprojektowali sztuczną proteinę złożoną z dwóch naturalnych protein. Jedna z nich łączy się z aktywnym receptorem ErbB, a druga wycina odpowiednią sekwencję aminokwasów. Następnie stworzyli drugą proteinę, która łączy się z wewnętrzną stroną błony komórkowej i niesie ze sobą odpowiedni „ładunek”, który w docelowej komórce wywołuje zaprogramowaną reakcję. Gdy pierwsza z protein połączy się z aktywnym receptorem ErbB, wycina z drugiej proteiny sekwencję „ładunku”, ten trafia do wnętrza komórki i rozpoczyna się zaprojektowany przez naukowców proces. Gdy receptor jest ciągle aktywny, a tak się dzieje w komórkach nowotworowych, uwolniony ładunek akumuluje się z czasem w komórce. W końcu jest go tak dużo, że rozpoczyna się pożądany proces. W ten sposób jest on uruchamiany wyłącznie w komórkach nowotworowych, wyjaśniają uczeni. Po licznych próbach i dostrajaniu nowej techniki, naukowcy byli w stanie precyzyjnie atakować konkretne komórki nowotworowe zależne od aktywności receptora ErbB. Rozpoczęto więc testy z proteiną uruchamiającą apoptozę. Uczeni porównali skuteczność techniki RASER z dwoma powszechnie stosowanymi technikami walki z dającymi przerzuty rakiem piersi – chemioterapią oraz leczeniem środkami blokującymi receptory ErbB. Badania prowadzono na różnych laboratoryjnych kulturach. Część stanowiły kultury komórek raka piersi i płuc, w których szlak sygnałowy ErbB był nadaktywny, część kultury komórek raka piersi z normalną aktywnością ErbB, a część prawidłowe komórki piersi i płuc. Badania wykazały, że chemioterapia z użyciem karboplatyny i paklitakselu zabijała wszystkie komórki bez wyjątku. Terapia inhibitorem ErbB dawała niejednoznaczne wyniki i nie były one wiarygodnie skorelowane z poziomem aktywności receptora ErbB. Tylko technika RASER zabiła te komórki, które wykazywały nadmierną aktywność ErbB, a oszczędziła te o normalnej aktywności receptora. Uczonych czeka jeszcze sporo pracy zanim sprawdzą, czy RASER działa na komórkach ludzkiego guza. Wśród wyzwań przed jakimi stoją będzie znalezienie sposobu na dostarczenie sztucznych protein do guza czy zrozumienie, jak na ich obecność w organizmie zareaguje układ odpornościowy. Jednak profesor Lin jest optymistą. Mamy sporą wiedzę na temat genomu nowotworu, szlaków sygnałowych i interakcji komórek nowotworowych z układem odpornościowym. W końcu powinniśmy połączyć tę wiedzę, by opracować sposób na poradzenie sobie z jednymi z najpoważniejszych problemów zdrowotnych, przed jakimi stają ludzie. RASER to technika zarówno indywidualna jak i ogólna, po raz pierwszy możemy zaatakować chore komórki oszczędzając te zdrowe. « powrót do artykułu
  16. W starszym wieku Leonardo da Vinci cierpiał na prawostronny niedowład i miał problem z używaniem prawej ręki. Dotąd zakładano, że było to spowodowane udarem, ewentualnie przykurczem rozcięgna dłoniowego (chorobą Dupuytrena), najnowsze analizy wskazują jednak, że przyczyny należy raczej upatrywać w omdleniu i późniejszym zespole kanału łokciowego. Leonardo był leworęczny, ale pewne badania, w tym analizy grafologiczne, pokazały, że sprawnie posługiwał się również prawą ręką. Wszystko wskazuje na to, że choć pisał i rysował głównie lewą ręką, do malowania (trzymania palety i pędzla) wykorzystywał raczej prawą dłoń. Analizując rysunek sangwiną XVI-wiecznego lombardzkiego artysty Giovana Ambrogia Figiny, doktorzy Davide Lazzeri z Villa Salaria Clinic w Rzymie i Carlo Rossi, neurolog z Ospedale Felice Lotti w Pontederze, zauważyli, że prawa ręka sędziwego mistrza spoczywa na temblaku. W oczy rzucały się sztywność i przykurcz. Zamiast [jednak] przedstawiać zaciśniętą dłoń występującą przy poudarowej spastyczności, rysunek przywodzi raczej na myśl inną diagnozę - zespół kanału łokciowego, przy którym dłoń pacjenta ma charakterystyczny wygląd [z przykurczami palców IV i V, zanikiem mięśnia międzykostnego grzbietowego oraz mięśni glistowatych] - opowiada dr Lazzeri. Autorzy artykułu z Journal of the Royal Society of Medicine uważają, że Leonardo da Vinci zemdlał i doznał urazu prawej ręki. Wskutek tego doszło do późnego porażenia nerwu łokciowego (ang. tardy lunar palsy) i rozwoju zespołu kanału łokciowego. To może wyjaśniać, czemu w ciągu ostatnich 5 lat kariery malarskiej Leonardo nie dokończył wielu dzieł, w tym Mona Lizy, a kontynuował nauczanie i rysowanie. Porażenie prawej ręki nie wiązało się z zaburzeniami poznawczymi czy szerszym upośledzeniem ruchowym, co również stanowi argument przeciwko udarowi. W 1517 r. Leonarda da Vinci odwiedził Antonio de Beatis, osobisty asystent kardynała Luigiego d'Aragony. Gdy malarz pokazał gościom 3 swoje dzieła, de Beatis zamieścił w dzienniku następujący zapis: Próżno oczekiwać, że [Leonardo] stworzy jeszcze jakieś dobre dzieła, bo jego prawą dłoń okaleczył oczywisty paraliż... Choć Messer Leonardo nie może już malować z typową dla siebie słodyczą, nadal może projektować oraz instruować innych. « powrót do artykułu
  17. W środę (1 maja) wieczorem turysta spadł do kaldery wulkanu Kīlauea na Hawajach. Odniósł ciężkie obrażenia, ale przeżył. Mężczyzna przeszedł przez metalową barierkę w punkcie widokowym Steaming Bluff. Chciał podjeść bliżej krawędzi klifu nad kalderą. Wg Służby parków Narodowych, ok. 18.30 czasu lokalnego stracił oparcie pod stopami i spadł. Dwie i pół godziny później ekipa poszukiwawcza znalazła poważnie rannego turystę. Okazało się, że zatrzymał się na wąskiej półce skalnej, ok. 21 m od krawędzi klifu. Strażnicy i strażacy wyciągnęli go, wykorzystując liny i kosz ratowniczy. Później został przetransportowany helikopterem do Hilo Medical Center. Źródła wojskowe poinformowały, że 32-letni mężczyzna jest żołnierzem z jednostki osadniczej Schofield Barracks, który odbywał ćwiczenia w Pōhakuloa Training Area (PTA). Turyści nie powinni przechodzić przez barierki, zwłaszcza przy niebezpiecznych i niestabilnych krawędziach klifów - nawołuje John Broward, szef strażników z Parku Narodowego Wulkany Hawai'i. Do ostatniego śmiertelnego upadku w Parku doszło 29 października 2017 r. « powrót do artykułu
  18. Dowody są jasne: natura ma problemy. A to znaczy, że i my mamy problemy, mówi Sandra Diaz, współprzewodnicząca Global Assessment Report on Biodiversity and Ecosystem Services. Dzisiaj w Paryżu ujawniono 40-stronicowe podsumowanie raportu na temat stanu całego ekosystemu Ziemi. Pełny raport będzie liczył prawdopodobnie ponad 1500 stron. To pierwszy od 15 lat zbiorczy raport na temat stanu ziemskiej przyrody. Powstał on na podstawie około 15 000 prac naukowych. Zespół redakcyjny liczył 145 ekspertów z 50 krajów. Jest pierwszym raportem, w którym obok wiedzy naukowej zawarto dane i informacje dostarczone przez rdzennych mieszkańców różnych obszarów globu. Autorzy raportu mówią, że znaleźli przygniatające dowody, iż działalność człowieka doprowadziła do załamania ekosystemu. Główne grzechy naszego gatunku to wylesianie, nadmierny połów ryb, kłusownictwo, polowania dla mięsa, zmiany klimatyczne, zanieczyszczenia oraz rozprzestrzenianie gatunków inwazyjnych. W 2017 roku odkryto nowy podgatunek orangutana, orangutana z Tapanuli. To najrzadsza małpa. Las deszczowy na północy Sumatry to dom dla ostatnich 800 przedstawicieli tego podgatunku. Młode zostają przy matce przez 10 lat. Tyle bowiem czasu muszą się od niej uczyć, by móc samodzielnie przetrwać. Obecnie urodzone młode mogą nigdy nie dożyć do samodzielności. Las w którym mieszkają jest wycinany pod uprawy palmy oleistej czy budowę kopalń. Olej palmowy jest kupowany przez polski i europejski przemysł spożywczy i kosmetyczny i trafia m.in. do ciastek. Kupując produkty zawierające ten składnik przyczyniamy się do likwidacji kolejnych gatunków roślin i zwierząt. Raport przygotowany przez Intergovernmental Science-Policy Platform on Biodiversity and Ecosystem Services (IPBES) przynosi alarmujące wieści. Coraz większe obszary oceanów są martwe. W odległych częściach lasów tropikalnych panuje cisza, gdyż zanikły owady, a wraz z nimi zniknęły ptaki, obszary trawiaste pustynnieją. Ludzie doprowadzili do znaczących zmian na 75% obszarów lądu oraz 66% obszaru oceanów. Autorzy raportu doliczyli się już ponad 400 martwych stref na oceanach, a ich łączna powierzchnia jest niewiele mniejsza od powierzchni Polski. Podkopujemy fundamenty naszej gospodarki, sposobu życia, bezpieczeństwa żywnościowego, zdrowia i jakości życia na całym świecie, mówi sir Robert Watson, przewodniczący IPBES. Moim największym zmartwieniem jest stan oceanów. Plastik, martwe strefy, nadmierne połowy, zakwaszenia wód... Naprawdę niszczymy oceany na wielką skalę. Człowiek w całej swojej historii nie doświadczył tak wielkiego załamania ekosystemu. Zdaniem autorów raportu, obecnie zagrożonych wyginięciem jest około miliona gatunków roślin i zwierząt. Niektóre z nich mogą zniknąć w ciągu kilku dekad. Średnia liczebność gatunków w większości habitatów lądowych spadła od 1900 roku o 20%. Zagrożonych jest ponad 40% płazów, 33% koralowców i ponad 33% ssaków morskich. Mniej jasny jest stan owadów, ale wiemy, że co najmniej 10% gatunków jest zagrożonych. Od XVI wieku wyginęło co najmniej 680 gatunków kręgowców, a do roku 2016 z powierzchni ziemi zniknęło ponad 9% udomowionych ssaków wykorzystywanych jako źródła żywności pracy w rolnictwie. Co najmniej 1000 kolejnych gatunków takich ssaków jest zagrożonych. Ekosystemy, gatunki, dzikie populacje, lokalne odmiany i gatunki udomowionych roślin i zwierząt stopniowo znikają. Utrzymująca nas sieć życia na Ziemi staje się coraz mniejsza i coraz bardziej dziurawa. Zjawiska te to bezpośredni skutek działań człowieka. Zagrażają one dobrostanowi ludzi na całym świecie, mówi współautora badań profesor Josef Settle. Działania naszego gatunku prowadzą do błyskawicznej degradacji Ziemi. Od 1970 roku wartość produkcji rolnej zwiększyła się o około 300%, zbiory włókna surowego wzrosły o 45%, a każdego roku ludzkość zużywa około 60 miliardów ton surowców odnawialnych i nieodnawialnych, to 2-krotnie więcej niż w roku 1980. Jednocześnie degradacja ziemi spowodowała spadek produktywności aż 23% globalnych upraw. Zanikanie owadów zapylających zagraża obszarom rolnym, na których uprawiane są co roku rośliny o łącznej wartości 577 miliardów USD. Z powodu degradacji obszarów przybrzeżnych nawet 300 milionów ludzi na świecie jest zagrożonych przez większą liczbą powodzi i huraganów. Przykładem niech będzie cyklon Nargis, który 11 lat temu zabił niemal 140 000 ludzi. Skutki cyklonu i następujących po nim powodzi byłyby znacznie mniejsze, gdyby wcześniej ludzie nie zniszczyli lasów namorzynowych, będących naturalną ochroną dla wybrzeża. W 2015 roku aż 33% zasobów ryb było nadmiernie odławianych, 60% było odławianych na maksymalnym możliwym poziomie. Jedynie 7% połowów prowadzono tak, że populacja ma szansę się odrodzić. Od 1992 roku powierzchnia obszarów miejskich zwiększyła się ponaddwukrotnie. Od 1980 roku zanieczyszczenie plastikiem zwiększyło się 10-krotnie. Każdego roku do wód i gleb ludzie wypuszczają 300-400 milionów ton metali ciężkich, toksyn, rozpuszczalników i innych odpadów przemysłowych. Do tego należy dodać olbrzymią ilość nawozów sztucznych, które są głównymi odpowiedzialnymi za powstawanie oceanicznych martwych stref. Ludzie niszczą też przyrodę wprowadzając inwazyjne gatunki na nowe tereny. Autorzy raportu dysponowali szczegółowymi danymi dotyczącymi 21 krajów i okazało się, że od 1970 roku liczba gatunków inwazyjnych zwiększyła się w każdym z nich o około 70%. Poważnym problemem są zmiany klimatu. Specjaliści ocenili, że 47% ssaków lądowych oraz niemal 25% zagrożonych gatunków ptaków może już odczuwać negatywne skutki tych zmian. Autorzy raportu przygotowali też liczne scenariusze przyszłego rozwoju sytuacji. Wszystkie one – z wyjątkiem jednego – pokazują, że negatywne trendy będą kontynuowane po roku 2050. Ten jeden scenariusz, który pozwoli uratować ziemski ekosystem, a zatem pozwoli na zapewnienie dobrego poziomu życia jak największej liczbie ludzi, zakłada przeprowadzenie fundamentalnej przebudowy gospodarek i społeczeństw. Zmiana ta wymaga rozsądnego zarządzania, zmiany przyzwyczajeń czy technologii produkcji. Przykładem niech będzie tutaj wspomniany już olej palmowy. Jego produkcja oznacza katastrofę ekologiczną w Azji. Wycinane są lasy tropikalne, zanikają kolejne gatunki. A wszystko po to, by odpowiedzieć na zapotrzebowanie konsumentów w Europie czy Ameryce Południowej, zajadających się przemysłowo produkowanymi słodyczami. Możliwe jest produkowanie słodyczy bez oleju palmowego, jednak firmy nie odczuwają presji ze strony konsumentów, nie widzą więc potrzeby zmiany technologii produkcji i dokonywania inwestycji. Raport pokazuje też, że obszary zarządzane przez lokalne społeczności i rdzenną ludność są zwykle w lepszej kondycji niż obszary zarządzane przez państwa czy korporacje. Co najmniej 25% światowych lądów jest zarządzanych, używanych lub zajmowanych przez rdzenną ludność. Obszary te są w znacznie lepszej kondycji niż te, którymi zarządzają państwa i firmy. Jednak coraz częściej prawa tych społeczności są naruszane, a rządy poszczególnych państw nie biorą pod uwagę i nie szanują ich wiedzy. Autorzy raportu uważają, że lokalne społeczności będą kluczowym elementem transformacji, której musimy dokonać, jeśli do roku 2050 chcemy poprawić stan ziemskich ekosystemów. Trudno jednak będzie zmusić rządy do przestrzegania praw rdzennych mieszkańców. Warto tutaj przytoczyć przykład Filipin, gdzie przed 40 laty rdzennym mieszkańcom udało się zablokować budowę zapór wodnych na rzece Chico. Obecnie budowy ruszyły i są prowadzone za chińskie pieniądze w ramach programu „Jeden pas i jedna droga”. Ten chiński „nowy Jedwabny Szlak” już w ubiegłym roku został nazwany najbardziej ryzykownym pod względem ekologicznym przedsięwzięciem w historii człowieka. Z podsumowania raportu wynika jeden wniosek. Przyszłość nie będzie dla ludzkości dobra, jeśli już teraz nie zaczniemy działać. Nie ma dla nasz przyszłości bez zdrowego środowiska naturalnego, mówi Sandra Diaz. « powrót do artykułu
  19. Naukowcy opisali nową postać demencji, występującą u seniorów powyżej 80. roku życia. Objawy LATE, bo o niej mowa, przypominają alzheimera, ale ich przyczyna jest zupełnie inna. Międzynarodowy zespół opisał chorobę na łamach pisma Brain. Skrót LATE oznacza encefalopatię ze złogami białka TDP-43 z przewagą zmian w układzie limbicznym (ang. limbic-predominant age-related TDP-43 encephalopathy). W zeszłym roku Peter Nelson, neuropatolog z Uniwersytetu Kentucky w Lexington, pomógł zorganizować konferencję, którą poświęcono nienazwanej wtedy jeszcze LATE. Oszacowania są różne, ale niewykluczone, że nawet 1/4 osób w wieku 85 lat i starszych ma LATE. To choroba, która dotyczy ostatniego odcinka ludzkiego spektrum starzenia - wyjaśnia Nelson. Podobnie jak alzheimer, LATE przejawia się zaburzeniami pamięci i demencją, jednak zamiast złogów beta-amyloidu i splątków neurofibrylarnych występują tu złogi TDP-43, które rozprzestrzeniają się po mózgu; pojawiają się m.in. w ciele migdałowatym czy hipokampie. W artykule z periodyku Brain opisano etapy proteinopatii TDP-43. Niestety, obecnie nie ma testów klinicznych, które pozwalałyby zidentyfikować LATE u żywej osoby. Chorobę diagnozuje się przede wszystkim po wyeliminowaniu innych jednostek, przez co mamy do czynienia z rozpoznaniem przez wykluczenie. Naukowcy mają nadzieję, że nadanie chorobie nazwy i sporządzenie opisu ułatwią jej wychwytywanie. Jeśli pojawi się np. 80-letni pacjent z zaburzeniami pamięci, w którego mózgu nie ma śladów alzheimera, ale rezonans uwidacznia mniejszy niż zwykle hipokamp, [...] na prowadzenie może się wysuwać przypuszczenie, że to LATE. Specjaliści, którzy komentują doniesienia zespołu Nelsona, podkreślają, że w mózgach starszych osób "mieszają się" przejawy różnych problemów, z których każdy może się przyczyniać do demencji. Z tego powodu wskazanie symptomów proteinopatii TDP-43 staje się trudniejsze. Nelson dodaje, że to LATE może odpowiadać za część ostatnich niepowodzeń związanych z lekami na alzheimera. W testach klinicznych mogli bowiem brać udział ludzie z LATE, co zamaskowało potencjalnie dobre rezultaty. Cierpieli też na tym pacjenci z LATE, którzy powinni mieć własne badania kliniczne. « powrót do artykułu
  20. Grafen ma wiele zalet i jedną poważną wadę – brak pasma wzbronionego, przez co nie nadaje się do użycia w roli półprzewodnika. Możliwe jest jednak sztuczne wytworzenie pasma wzbronionego w grafenie poprzez dołączenie do niego atomów wodoru. Naukowcy z Göttingen i Pasadeny zarejestrowali właśnie jedną z najszybciej przebiegających reakcji chemicznych, jakie kiedykolwiek badano – niezwykły obraz atomów wodoru łączących się z grafenem. Uczeni bombardowali grafen atomami wodoru. Wodór zachowywał się nieco inaczej, niż się spodziewaliśmy, mówi Alec Wodtke z Wydziału Dynamiki Powierzchni Instytutu Chemii Biofizycznej im. Maksa Plancka i profesor Instytutu Chemii Fizycznej z Uniwersytetu w Göttingen. Zamiast natychmiast odlatywać od grafenu, atomy wodoru na chwilę przyklejały się do atomów węgla i dopiero później się od nich odbijały. Tworzyły czasowe wiązanie chemiczne, wyjaśnia. Naukowców zaintrygowało jeszcze jedno zjawisko. Otóż atomy wodoru miały dużą energię przed spotkaniem z grafenem. Gdy zaś go opuszczały ich energia była znacznie niższa. Jej większość traciły podczas zderzenia, lecz nie było jasne, co się z tą energią stało. Naukowcy z Göttingen i ich koledzy z Caltechu (California Institute of Technology), chcąc wyjaśnić zagadkę zaginionej energii, opracowali model teoretyczny, który przetestowali na komputerze, a uzyskane wyniki porównali z wynikami eksperymentów. Jako, że okazały się one zgodne, naukowcy mogli odtworzyć to, co w ciągu femtosekund zachodziło pomiędzy węglem a wodorem. To wiązanie chemiczne istnieje przez około 10 femtosekund. To jedna z najszybszych bezpośrednio zaobserwowanych reakcji chemicznych, mówi Alexander Kandratsenka z Göttingen. W ciągu tych 10 femtosekund atom wodoru przekazuje niemal całą swoją energię atomowi węgla w grafenie. Prowadzi do do powstania fali dźwiękowej, która rozprzestrzenia się na zewnątrz od miejsca, w którym atomy się zetknęły. Przypomina to propagację fali powstającej po wrzuceniu kamienia do wody, wyjaśnia uczony. To między innymi dzięki tej fali dźwiękowej atom wodoru łatwiej niż przypuszczano łączy się z atomem węgla. Uzyskane wyniki mogą mieć fundamentalne znaczenie dla przemysłu i możliwości wykorzystania grafenu w roli półprzewodnika. Jednak same eksperymenty wymagały olbrzymiej wiedzy, zasobów i odpowiedniego sprzętu. Musieliśmy prowadzić je w warunkach próżni niemal doskonałej, by utrzymać grafen w czystości, mówią badacze. Ponadto samo odpowiednie przygotowanie atomów wodoru wymagało wykorzystania olbrzymiej liczby systemu laserowych. « powrót do artykułu
  21. Ćwiczenia mogą poprawić pamięć u osób z niewydolnością serca. Zgodnie z badaniem, którego wyniki zaprezentowano na kongresie Europejskiego Towarzystwa Kardiologicznego, problemy poznawcze występują aż u 2/3 pacjentów z niewydolnością serca. Włoscy naukowcy podkreślają, że osoby, które w ciągu 6-min testu (ang. 6 minute walk test, 6MWT) pokonały większą odległość, a także ludzie młodsi i lepiej wykształceni rzadziej wykazywali deficyty poznawcze. Wyniki sugerują zatem, że sprawniejszych pacjentów cechuje zdrowsze funkcjonowanie mózgu. Przekaz dla pacjentów jest taki, że powinni się gimnastykować. Na razie nie mamy bezpośrednich dowodów, że aktywność fizyczna poprawia funkcjonowanie poznawcze chorych z niewydolnością serca, ale wiemy, że wpływa ona korzystnie zarówno na jakość, jak i długość ich życia. Dodatkowo badania na starszych dorosłych wykazały, że ćwiczenia wiążą się z poprawą funkcji poznawczych. W przyszłości mamy nadzieję wykazać, że tak samo jest w przypadku pacjentów z niewydolnością serca - opowiada prof. Ercole Vellone z Università degli Studi di Roma Tor Vergata. Do funkcji poznawczych szczególnie uszkodzonych u chorych z niewydolnością serca należą pamięć, prędkość przetwarzania, a także funkcje wykonawcze, tj. zwracanie uwagi, planowanie, ustanawianie celów, podejmowanie decyzji i rozpoczynanie realizacji zadań. To obszary ważne dla zapamiętania informacji związanych z leczeniem i właściwą reakcją na proces chorobowy. Pacjenci z niewydolnością serca z łagodnym zaburzeniem poznawczym [ang. mild cognitive impairment, MCI] mogą np. zapominać o przyjmowaniu leków i nie rozumieć, że tycie to sytuacja alarmowa wymagająca interwencji. Studium ekipy Vellone'a unaocznia, że dysfunkcja poznawcza jest częstym problemem u osób z niewydolnością serca; 67% ma co najmniej lekką jej postać. Klinicyści muszą dostosować do tego swoje podejście, np. angażując opiekunów z rodziny, by nadzorowali przyjmowanie leków. W badaniu wykorzystano dane ze studium HF-Wii, które objęło 605 pacjentów z niewydolnością serca z 6 krajów. Średnia wieku wynosiła 67 lat; 71% próby stanowili mężczyźni. Funkcjonowanie poznawcze określono za pomocą Montrealskiego Testu do Oceny Stanu Poznawczego (ang. Montreal Cognitive Assessment, MoCA), a tolerancję wysiłku pacjentów zbadano, wykorzystując 6MWT. Funkcjonuje błędne przekonanie, że pacjenci z niewydolnością serca nie powinni ćwiczyć. To, oczywiście, nieprawda. Trzeba [po prostu] znaleźć aktywność, która sprawia przyjemność i wykonywać ją regularnie. [...] Mamy mocne dowody, że to poprawi stan zdrowia i pamięć i sprawi, że poczujesz się lepiej. « powrót do artykułu
  22. Panda wielka żywi się wyłącznie pędami bambusa, a mimo to jest zaliczana do drapieżnych (Carnivora). Ostatnio udało się wykazać, że pod pewnymi względami przestawienie się na restrykcyjną dietę wegetariańską nie było tak dużym skokiem ewolucyjnym, jak się wydaje. Badanie Fuwena Weia z Chińskiej Akademii Nauk pokazało, że zawartość białka i węglowodanów w diecie pandy plasuje ją dość blisko hiperdrapieżników, których dieta składa się w ponad 70% z mięsa. W przypadku pandy białko zaspokaja ok. 50% zapotrzebowania energetycznego, co stawia ją wśród wilków czy zdziczałych kotów. "Jak wiemy, panda należy do Carnivora, ale jest skrajnie wyspecjalizowana w pokarmie roślinnym, bambusie. W oparciu o to, co je, należy ją absolutnie uznać za roślinożercę, lecz gdy weźmie się pod uwagę zawartość makroskładników [...], należy do drapieżników". Pandy mają cechy wspólne z roślinożercami; chodzi m.in. o budowę czaszki, muskulaturę szczęk i uzębienie przystosowane do włóknistej diety. Dysponują też pseudokciukiem (fałszywym 6. palcem na przednich kończynach, powstałym z ruchomej kości nadgarstka), który służy do przytrzymywania bambusa. Oprócz tego pandy utraciły zdolność wyczuwania smaku umami (często wiąże się ona z jedzeniem mięsa). Z drugiej strony przewód pokarmowy, enzymy trawienne i mikrobiom Ailuropoda melanoleuca przypominają te występujące u drapieżników, a nie roślinożerców. Na potrzeby najnowszego badania Wei nawiązał współpracę m.in. z ekologiem-dietetykiem Davidem Raubenheimerem z Uniwersytetu w Sydney. Zespół analizował zawartość makroskładników w diecie pandy (czyli co zwierzęta te zjadają i wchłaniają). Stosując metodę zwaną geometrią żywieniową, naukowcy ustalili, że mieszanina makroskładników, jaką panda spożywa i absorbuje, jest podobna do drapieżników. Zawartość makroskładników w mleku także plasuje ją jednoznacznie wśród drapieżników. Autorzy publikacji z pisma Current Biology podkreślają, że uzyskane wyniki pomogą rozwiązać kilka kwestii związanych z ewolucją pandy wielkiej, w tym niezwykłe przejście na skrajną roślinną specjalizację pokarmową przez przedstawiciela rzędu Carnivora. W rzeczywistości przejście to było bardziej powierzchowne niż zakładano i łączyło przystosowanie do nowych rodzajów pokarmu z relatywnie mniejszymi zmianami w zakresie makroskładników. Bambusowa dieta doprowadziła do rozwoju przystosowań dot. zębów, czaszki i 6. "palca". Sam przewód pokarmowy zmienił się jednak nieznacznie, co sugeruje, że potrzeba było minimalnych ewolucyjnych modyfikacji, by poradzić sobie z właściwościami makroskładnikowymi bambusa. Generalnie krótki przewód pokarmowy i obfitość bambusa pozwalają przetwarzać duże ilości surowca, kompensując niską efektywność trawienia. Badanie pokazuje też coś innego, demonstruje, że by zrozumieć ekologię ewolucyjną jakiegoś zwierzęcia, trzeba wziąć pod uwagę zarówno spożywane pokarmy, jak i ich skład. « powrót do artykułu
  23. Pierwsze szczątki denisowian znalezione poza Syberią potwierdzają hipotezę mówiącą, że to właśnie ten tajemniczy gatunek człowieka jako pierwszy zasiedlił Tybet. Jeszcze do niedawna sądzono, że pierwsi ludzie przybyli na Wyżynę Tybetańską przed 12 000 lat, a stałe osadnictwo liczy sobie zaledwie 3600 lat. Przed kilkoma miesiącami informowaliśmy o wynikach badań na stanowisku Nwya Devu, gdzie w warstwach sprzed 30-40 tysięcy lat znaleziono wiele narzędzi wykonanych ludzką ręką. Wówczas to John Olsen z University of Arizona wysunął hipotezę, mówiącą, że skoro większość Tybetańczyków posiada nabyty od denisowian gen pozwalający na życie na dużej wysokości, to nie można wykluczyć, że sami denisowianie mogli żyć na dużej wysokości, a więc to oni jako pierwsi ludzie przybyli do Tybetu. O istnieniu denisowian dowiedzieliśmy się w 2010 roku, gdy zsekwencjonowano DNA fragmentu kości znalezionego w Denisowej Jaskini na Syberii. Z czasem dowiedzieliśmy się też że wielu mieszkańców Chin, Tybetu i Azji Południowo-Wschodniej odziedziczyło część DNA po denisowianach. Jean-Jacques Hublin z Insytutu Antropologii Ewolucyjnej im. Maksa Plancka w Lipsku zaczął się zastanawiać, czy któreś ze szczątków znalezionych wcześniej w Tybecie mogą należeć do denisowian. Uczony wraz z zespołem przyjrzał się żuchwie znalezionej w 1980 roku w jaskini Baishiya Karst w dolinie rzeki Jiangla. Stwierdzili, że jej kształt oraz wielkość zębów są inne niż u Homo sapiens. Badania radioizotopowe wykazały, że zabytek liczy sobie 160 000 lat. Z kości nie udało się wyekstrahować DNA, jednak analiza białek kolagenu z zęba potwierdziła, że kość należała do denisowianina. H. sapiens i neandertalczycy mieli inną sekwencję aminiokwasów w kolagenie, zatem kodowana była ona przez inne geny. Odkrycie to wyjaśnia zatem, skąd w jaskini Nwya Devu znalazło się tysiące narzędzi sprzed 30-40 tysięcy lat. Fakt, że tak dawno temu ludzie mogli żyć w Tybecie jest niezwykle zaskakujący. Nawet dzisiaj Tybet jest trudnym miejscem do życia. Jest tam mało zasobów naturalnych i brakuje tlenu, wyjaśnia Hublin. Wspomniane badania są pierwszymi, podczas których analiza protein została wykorzystana jako jedyna metoda identyfikacji gatunku hominina, wyjaśnia Frido Welker z chińskiego Uniwersytetu Lanzhou. Technika ta jest coraz częściej używana do pracy ze szczątkami, w których nie ma DNA. Gdy mamy do czynienia ze szczątkami z chłodnych części Eurazji musimy często się pogodzić z tym, że nie uda się pozyskać DNA, dodaje Murray Cox z nowozelandzkiego Massy University. Hublin dodaje, że wcześniej odkryte szczątki hominina z Chin posiadają cechy charakterystyczne, które nie pasują ani do H. sapiens, ani do H. erectus. Sądzę,że większość pochodzących z Chin szczątków liczących sobie od 350 000 do 50 000 lat to szczątki denisowian, mów Hublin. Prawdopodobnie w muzeach na całym świecie znajduje się olbrzymia ilość pozostałości po denisowianach, ale zostały nieprawidłowo sklasyfikowane, dodaje Cox. Jednak Sheela Athreya z Texas A&M University studzi zapał. Uczona zwraca uwagę, że o denisowianach, ich wyglądzie oraz o tym kiedy i gdzie żyli wiemy bardzo mało, zatem obecnie klasyfikowanie szczątków na podstawie ich wyglądu jest przedsięwzięciem bardzo ryzykownym. « powrót do artykułu
  24. Fragmenty tworzyw sztucznych i metali, okruchy szkła, a nawet bursztynu – to przykładowe zanieczyszczenia, które mgr Zbigniew Jelonek, doktorant z Uniwersytetu Śląskiego, znalazł w próbkach węgla drzewnego i brykietu z węgla drzewnego – popularnych paliwach do grilla. Obecność tego typu substancji jest szczególnie niepożądana m.in. ze względu na związki muta- i kancerogenne, które powstają w wyniku spalania i osiadają na grillowanej żywności, a następnie, wraz z nią, dostają się do organizmu człowieka. Naukowiec postanowił określić ilość i rodzaj zanieczyszczeń występujących w dostępnych na polskim rynku paliwach stałych do grilla, a także porównać wyniki z deklarowanymi przez producentów zawartościami węgla organicznego w produktach. Mgr Zbigniew Jelonek opracuje także standardy szybkiej identyfikacji niepożądanych dodatków, aby zoptymalizować proces produkcji tych paliw i dostosować go do obowiązujących norm. Dotychczasowe wyniki badań węgli drzewnych i brykietu z węgla drzewnego do grilla nie nastrajają optymistycznie. W związku z występującymi w analizowanych produktach niebezpiecznymi związkami najbezpieczniej jest korzystać z grilla elektrycznego lub gazowego. A jeśli już decydujemy się na zakup stałych paliw grillowych, wybierajmy te, które mają certyfikat jakości – radzi naukowiec. Paliwa grillowe są wykorzystywane do obróbki żywności, w związku z tym w celu oceny ich jakości opracowana została norma PN-EN 1860-2. Zgodnie z wytycznymi w tego typu paliwach maksymalna zawartość zanieczyszczeń nie powinna przekraczać 1%. Niepożądane dodatki to przede wszystkim: węgle kopalne, ropa naftowa, koks, szkło, żużel, rdza, szkło, metale czy tworzywa sztuczne – wylicza mgr Zbigniew Jelonek. Jeśli produkt spełnia kryteria normy, wówczas może otrzymać certyfikat. Jak wyjaśnia autor badań, próbki do analizy zostały pozyskane z węgla drzewnego oraz brykietu z węgla drzewnego od wiodących producentów i dystrybutorów tych produktów w Polsce. Wśród nich znalazły się paliwa grillowe pochodzące z czternastu województw, zakupiliśmy także kilka opakowań drogą internetową, wybierając produkty pozbawione oznaczeń, opisów, podanego producenta, a także towar dostępny w sieciach handlowych i supermarketach – dodaje. Pozyskane próbki zostały następnie odpowiednio przygotowane do obserwacji mikroskopowych. Mgr Zbigniew Jelonek poddał analizie petrograficznej 62 sztuki preparatów oraz 10 sztuk popiołów. Badania wykazały, że poziom zanieczyszczeń w emitowanych gazach podczas spalania zależy od zawartości biomasy nieprzetworzonej termicznie w tych produktach oraz niepożądanych dodatków mineralnych, organicznych i ropopochodnych. Analizy zanieczyszczonych węgli i brykietu potwierdziły wysoką zawartość wielopierścieniowych węglowodorów aromatycznych oraz szczególnie niebezpiecznych, kancerogennych benzopirenów i benzoperylenu. Otrzymane wyniki badań komentuje dr hab. Monika Fabiańska z Katedry Geochemii, Mineralogii i Petrografii UŚ. Niewątpliwie warto byłoby również zwrócić uwagę, że zidentyfikowane wielopierścieniowe węglowodory aromatyczne, występujące w paliwach grillowych i brykiecie stanowią zaledwie niewielki procent obecnych w nich szkodliwych substancji, takich jak związki fenolowe czy aromatyczne pochodne aminowe – mówi promotor naukowa rozprawy doktorskiej. Podczas procesu grillowania substancje te mogą przedostawać się do produktów lub być wchłaniane bezpośrednio przez drogi oddechowe przez osoby znajdujące się w pobliżu grilla. Warto także pamiętać o znacznych ilościach gazów obecnych w spalinach z paliw grillowych, w tym tlenku węgla – dodaje. Zdarza się, że deklarowana przez producenta ilość węgla różni się w badanych próbach od ilości rzeczywistej. Rozbieżności są znaczące. W niektórych przypadkach wynosiły aż 15%, a wagową różnicę uzupełniać mogą np. piasek lub inne zanieczyszczenia – mówi naukowiec. Z przeprowadzonych badań wynika ponadto, że istotny jest region, z którego pozyskuje się surowce do produkcji paliw grillowych. Dotyczy to przede wszystkim nadmiernego występowania pierwiastków ciężkich i śladowych w niektórych węglach drzewnych i brykiecie. Analizy będą kontynuowane, jednak już dziś wiemy, że konieczne jest wprowadzenie dodatkowych kontroli tego typu paliw na poziomie ich produkcji, a także przed wprowadzeniem ich na rynek – mówi doktorant. W ramach przygotowywanej rozprawy doktorskiej naukowiec opracował już szybką, prostą i tanią metodę identyfikacji różnego rodzaju zanieczyszczeń. Planujemy szkolenia adresowane do pracowników firm produkujących paliwa do grilla, aby tego typu kontrole mogły być przeprowadzone już w przedsiębiorstwach – dodaje. Zaimplementowanie opracowanych rozwiązań planowane jest w firmie BG-Project Barbara Gąsior oraz w deklarujących współpracę zakładach produkujących paliwa grillowe. Zbigniew Jelonek jest pracownikiem firmy BG Project, w której odpowiada za wykonywanie analiz mikroskopowych paliw stałych. Od 2017 roku realizuje na Wydziale Nauk o Ziemi doktorat wdrożeniowy, którego celem jest badanie zanieczyszczeń występujących w węglu drzewnym oraz brykiecie z węgla drzewnego. Rozprawa doktorska przygotowywana jest pod kierunkiem promotora naukowego – dr hab. Moniki Fabiańskiej z Wydziału Nauk o Ziemi oraz opiekuna przemysłowego – mgr Barbary Gąsior reprezentującej firmę BG Project. Otrzymane dotychczas wyniki zostały zaprezentowane w kilkunastu artykułach naukowych i kilku artykułach popularnonaukowych. Ponadto przygotowane zostały dwa zgłoszenia patentowe. Projekt "Doktorat wdrożeniowy", zainicjowany przez Ministerstwo Nauki i Szkolnictwa Wyższego, umożliwia nawiązywanie efektywnej współpracy pomiędzy środowiskiem naukowym a środowiskiem społeczno-gospodarczym, prowadzonej w ramach studiów doktoranckich. « powrót do artykułu
  25. Ludzkość wytwarza coraz więcej informacji. I część z nich warto jest dla przyszłych pokoleń. Jednak książki mogą spłonąć, do komputera można się włamać, płyty DVD ulegają z czasem degradacji. I mimo że technologie przechowywania danych są wciąż udoskonalane, to woda czy cyberatak mogą doprowadzić do utraty danych. Szacuje się, że do roku 2020 globalna ilość danych cyfrowych wyniesie 44 biliony gigabajtów. To 10-krotnie więcej niż było ich w 2013 roku. Z czasem nawet chmury obliczeniowe nie będą w stanie przechowywać coraz większej ilości informacji. Rozwiązaniem problemu może okazać się chemia i nieco tanich molekuł. Wyobraźmy sobie, że możemy całą Nowojorską Bibliotekę Publiczną zapisać w łyżeczce molekuł, mówi Brian Cafferty. To naukowiec z Uniwersytetu Harvarda, który wraz z kolegami z laboratorium profesora George'a Whitesidesa ze swojej uczelni oraz grupą profesora Milana Mrksicha z Northwestern University opracowali technikę zapisywania informacji w oligopeptydach. Tak zapisane dane można by przechowywać przez miliony lat, dostęp do danych można by uzyskać tylko przy fizycznym dostępie do nośnika, a po zapisaniu danych ich utrzymanie nie wymagałoby używania energii. Obecnie, przynajmniej na tym etapie, nie postrzegamy naszej metody jako konkurencyjnej wobec istniejących metod zapisu danych. Ona je uzupełnia i powstaje przede wszystkim z myślą o długotrwałej archiwizacji informacji, mówi Cafferty. Od niedawna słyszymy, że naukowcy potrafią zapisywać dane w DNA. O ile jednak DNA jest małe w porównaniu z układami scalonymi, to w świecie molekuł jest duże. Ponadto synteza DNA wymaga sporych umiejętności i dużo pracy. Jeśli mielibyśmy w ten sposób zapisywać dużą ilość danych, to musimy liczyć się z długotrwałym procesem i dużymi kosztami. Cafferty mówi, że opracowana przezeń technika korzysta nie tyle z biologii co z chemii organicznej i analitycznej. Wykorzystano przy tym mniejsze i lżejsze molekuły. Za pomocą pojedynczego procesu syntezy można zapisać taniej i wkładając w to mniej wysiłku niż przy wykorzystaniu DNA. Naukowcy użyli oligopeptydów, które występują powszechnie, są stabilne i mniejsze niż DNA, RNA czy białka. Oligopeptydy mają różną masę, a gdy się je wymierza można z łatwością je od siebie odróżnić, podobnie jak litery w alfabecie. Użyto przy tym, oczywiście, kodu binarnego. Na przykład litera „M” wykorzystuje 4 z 8 możliwych oligopeptydów, każdy o innej masie. Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bajtowi, w 32 można przechować cztery bajty. Dotychczas Cafferty i jego zespół zapisali, przechowali i odczytali w oligopeptydach wykład Richarda Feynmana There is plenty of room at the bottom, zdjęcie Calude'a Shannona ojca teorii informacji oraz słynny drzeworyt Wielka fala w Kanagawie. W tej chwili zespół jest w stanie odczytywać zapisane informacje z dokładnością 99,9%. Zapis odbywa się z prędkością 8 bitów na sekundę, a odczyt z prędkością 20 bitów na sekundę. Oba czasy bez wątpienia da się znacząco poprawić. Naukowcy są też w stanie udoskonalić stabilność, pojemność oraz obniżyć cenę swoich molekuł. Na potrzeby badań wykorzystywali bowiem specjalnie tworzone molekuły. Jednak, jak zapewniają, w przyszłości właściciele archiwów będą mogli kupować standardowe molekuły, a ich cena może wynosić 1 cent za molekuły pozwalające na przechowanie ponad 10 MB danych. W odpowiednich warunkach oligopeptydy są stabilne przez setki lub tysiące lat, stwierdzają autorzy badań. Mogą przetrwać bez światła i powietrza, w wysokiej temperaturze i niskiej wilgotności. Dostęp do tak zarchiwizowanych informacji byłby możliwy tylko przy fizycznym dostępie do nośnika, a informacje, w razie prób ich zaburzenia czy zniszczenia, łatwo odzyskać metodami chemicznymi. Cafferty przewiduje, że w przyszłości, dzięki olbrzymiej pojemności oligopeptydów mogą powstać archiwa, które na niewielkiej przestrzeni będą przechowywały gigantyczne ilości informacji, całość zaś będzie tania, stabilna i nie będzie zużywała prądu. « powrót do artykułu
×
×
  • Dodaj nową pozycję...