Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36958
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Na łamach British Medical Journal (BMJ) Case Reports opisano pierwszy znany przypadek ostrej psychozy wywołanej... brexitem. Choroba dotknęła ponad 40-letniego mężczyznę, który przejął się wynikami referendum. W magazynie opisano, jak zdrowie mężczyzny zaczęło szybko się pogarszać po tym, jak 26 czerwca 2016 roku ogłoszono wstępne wyniki referendum. Trzy tygodnie później przyjęto go do szpitala z objawami pobudzenia i zagubienia. Po przyjęciu na oddział psychiatryczny mężczyzna stwierdził, że pochodzi z wielokulturowej rodziny i wstydzi się, że jest Brytyjczykiem. Patrzyłem na mapę z wynikami głosowania i stwierdziłem, że mieszkam w okręgu wyborczym, który głosował inaczej, niż ja, powiedział. Mężczyzna opowiadał, jaką rolę po referendum odegrały w jego życiu kwestie rasowe  i media społecznościowe. Nie tylko ja odczuwałem obawy w związku z brexitem. W tym samym czasie podobne odczucia miał mój przyjaciel, który opowiadał o tym, co dzieje się w USA. Rozmawialiśmy w serwisach społecznościowych o kwestiach rasowych. Jak powiedziała żona pacjenta, po referendum zaczął on coraz więcej czasu spędzać w mediach społecznościowych i coraz bardziej martwiły go kwestie rasowe. Po przyjęci do szpitala otrzymał leki na chorobę dwubiegunową i schizofrenię i po 2 tygodniach całkowicie wyzdrowiał. Poprzedni, znacznie słabszy, epizod psychotyczny, miał przed 13 laty w związku ze stresem w pracy. Brexit był w tym przypadku głównym czynnikiem, który wywołał stres, ze względu na jego zbieżność w czasie, wagę, jaką do tego wydarzenia przywiązywał pacjent, naturę ewolucji epizodu psychotycznego oraz jego zawartość, stwierdził Zia Katshu z University of Nottingham. Nie można wykluczyć, że do stanu pacjenta przyczyniły się też stres w pracy i w domu. Sotiris Vandoros z King's College London mówi, że niepewność związana z brexitem może być czynnikiem negatywnie wpływającym na zdrowie psychiczne. Finansowe skutki referendum nie są od razu oczywiste, jednak perspektywa opuszczenia Unii Europejskiej może powodować, ze ludzie martwią się o to, czy ich pracodawca się nie przeniesie, czy będą mieli pracę oraz o ogólny stan gospodarki. Opisany przypadek jest skrajny, jednak już w ubiegłym roku przeprowadzono badania, z których wynika, że dobrostan Brytyjczyków pogorszył się po referendum. « powrót do artykułu
  2. Wysokie stężenia fruktozy w diecie hamują zdolność wątroby do metabolizowania tłuszczu. Efekt jest specyficzny dla fruktozy; równie wysokie poziomy glukozy poprawiają bowiem spalającą tłuszcz funkcję wątroby. Innymi słowy, naukowcy wykazali, że suplementacja diety wysokotłuszczowej fruktozą i glukozą wywiera rozbieżny (dywergencyjny) wpływ na działanie wątrobowych mitochondriów i utlenianie kwasów tłuszczowych. To jedno z serii badań, jakie przeprowadzamy, rozważając rolę dużych ilości fruktozy w diecie odnośnie do insulinooporności i zespołu metabolicznego. Fruktoza sprawia, że wątroba akumuluje tłuszcz. Działa prawie jak dodatek większej ilości tłuszczu do diety. Mamy do czynienia z odwrotnością wzbogacenia diety glukozą, bo ta wspiera zdolność wątroby do spalania tłuszczu i w ten sposób przyczynia się do zdrowszego metabolizmu - opowiada C. Ronald Kahn z Joslin Diabetes Center. Najważniejszy wniosek z badań jest taki, że duża ilość fruktozy w diecie jest zła. Nie chodzi o większą kaloryczność, ale o wpływ na metabolizm wątrobowy, który sprawia, że tłuszcz jest gorzej spalany. W rezultacie suplementacja diety fruktozą sprawia, że wątroba magazynuje więcej tłuszczu, a to złe zarówno dla wątroby, jak i metabolizmu całego organizmu. Kiedy jednak zamienisz cukier w diecie z fruktozy na glukozę, to choć są one jednakowo kaloryczne, glukoza nie będzie działać w ten sposób. W rzeczywistości [...] ogólny metabolizm będzie nieco lepszy niż w przypadku czystej diety wysokotłuszczowej. W ramach ostatniego studium chcieliśmy ustalić na mechanistycznym poziomie, czemu się tak dzieje - dodaje Kahn. Podczas eksperymentów na zwierzętach zespół z Joslin Diabetes Center porównywał wpływ metaboliczny 6 diet: zwykłej paszy, paszy z wysoką zawartością fruktozy, paszy z wysoką zawartością glukozy, diety wysokotłuszczowej, diety wysokotłuszczowej z dużą zawartością fruktozy i diety wysokotłuszczowej z dużą ilością glukozy. Autorzy raportu z pisma Cell Metabolism analizowali znane markery stłuszczenia wątroby. Przyglądali się np. poziomom acylkarnityny w hepatocytach (powstaje ona, gdy wątroba spala tłuszcze). Okazało się, że poziom acylkarnityny był najwyższy u zwierząt na wysokofruktozowej diecie wysokotłuszczowej. W przypadku diety wysokotłuszczowej z dużą zawartością glukozy był zaś niższy niż przy czystej diecie wysokotłuszczowej, co sugeruje, że glukoza wspiera spalanie tłuszczu. Amerykanie analizowali też aktywność CPT1a, acylotransferazy karnitynowej 1a, która jest kluczowym enzymem odpowiedzialnym za transport kwasów tłuszczowych do mitochondriów, gdzie ulegają one utlenianiu. W przypadku CPT1a im wyższy poziom, tym lepiej, bo to oznacza, że mitochondria poprawnie spełniają swoje zadanie i spalają tłuszcz. Niestety, naukowcy stwierdzili, że w przypadku diety wysokotłuszczowej suplementowanej fruktozą stężenia enzymu są niskie, a jego aktywność bardzo niska. Na końcu zespół zajął się samymi mitochondriami. Gdy są one zdrowe, mają m.in. charakterystyczny owalny kształt. "W diecie wysokotłuszczowej z fruktozą były jednak pofragmentowane i nie potrafiły tak dobrze spalać tłuszczu, jak zdrowe organelle. W diecie wysokotłuszczowej z glukozą mitochondria wyglądały bardziej prawidłowo; spalały normalnie tłuszcz". Uzyskane wyniki i monitorowane markery pokazały, że diety wysokotłuszczowa i wysokotłuszczowa z dodatkiem fruktozy uszkadzają mitochondria i sprawiają, że wątroba raczej syntetyzuje i magazynuje tłuszcz niż go spala. Ekipa Kahna przypuszcza, że opracowanie leku, który blokuje metabolizm fruktozy, mogłoby zapobiec negatywnym oddziaływaniom tego cukru i rozwojowi stłuszczeniowej choroby wątroby. « powrót do artykułu
  3. Za trzy tygodnie zostanie przedstawione szczegółowe podsumowanie projektu Deep Carbon Observatory (DCO), prowadzonego od 10 lat przez amerykańskie Narodowe Akademie Nauk. W programie bierze obecnie udział niemal 1000 naukowców z niemal 50 krajów na świecie. Mediom udostępniono już główne wnioski z raportu, które zostały opublikowane w piśmie Elements. Z badań wynika, że w oceanach, najwyższej warstwie gleby oraz w atmosferze znajduje się 43 500 gigaton (Gt – miliardów ton) węgla. Cała reszta jest uwięziona w ziemskiej skorupie, płaszczu i jądrze. Całkowita ilość węgla obecnego na naszej planecie to 1,85 miliarda Gt. Każdego roku z głębi Ziemi za pośrednictwem wulkanów oraz innych aktywnych regionów emitowanych jest od 280 do 360 milionów ton (0,28–0,36 Gt) węgla. Zatem całkowita antropogeniczna emisja węgla jest od 40 do 100 razy większa, niż całkowita emisja z aktywności wulkanicznej. Obieg węgla w głębi planety wykazuje długoterminową stabilność. Czasami dochodzi do katastrofalnych wydarzeń, podczas których do atmosfery przedostają się duże ilości węgla, co powoduje ocieplenie klimatu, zakwaszenie oceanów oraz masowe wymieranie. W ciągu ostatnich 500 milionów lat Ziemia doświadczyła co najmniej 5 tego typu wydarzeń. Upadek meteorytu, który przed 66 miliony laty przyczynił się do zagłady dinozaurów, spowodował emisję od 425 do 1400 Gt CO2 powodując ogrzanie klimatu i masowe wymieranie roślin i zwierząt. Niewykluczone, że uda się opracować system wczesnego ostrzegania przed erupcjami wulkanicznymi, gdyż przed 5 laty zaobserwowano, iż przed wybuchem w gazach wulkanicznych zmniejsza się udział dwutlenku siarki, a zwiększa dwutlenku węgla. Węgiel, będący podstawą wszelkiego życia i źródłem energii dla ludzkości, obiega planetę od płaszcza po atmosferę. By zabezpieczyć naszą przyszłość, musimy lepiej zrozumieć cały cykl obiegu węgla. Kluczowe jest określenie, jak wiele jest tego węgla, gdzie on się znajduje, jak szybko i w jakiej ilości przemieszcza się pomiędzy głębokimi obszarami ziemi a atmosferą i z powrotem, mówi Marie Edmonds z University of Cambridge, która bierze udział w projekcie DCO. Z kolei Tobias Fischer z University of New Mexico przypomina, że dotychczas w ramach prac DCO powstało ponad 1500 publikacji naukowych. Cieszymy się z postępu, jednak trzeba podkreślić, że głębokie warstwy naszej planety to obszar w dużej mierze nieznany nauce. Dopiero zaczynamy zdobywać potrzebną nam wiedzę. Ponad powierzchnią Ziemi występuje 43 500 gigaton węgla. Niemal cały ten węgiel, bo 37 000 gigaton znajduje się w głębinach oceanów. Kolejne 3000 gigaton występuje w osadach morskich, a 2000 Gt w biosferze lądowej. W powierzchniowych wodach oceanów występuje 900 Gt węgla, a w atmosferze jest go 590 Gt. Eksperci z DCO oceniają też, że obecnie na Ziemi aktywnych jest około 400 z 1500 wulkanów, które były aktywne od ostatniej epoki lodowej. Kolejnych 670 wulkanów, które były aktywne przed epoką lodową, może emitować gazy. Dotychczas udokumentowano emisję ze 102 takich wulkanów, z czego 22 to wulkany, w przypadku których ostatnia erupcja miała miejsce dawniej niż 2,5 miliona lat temu. Dzięki stacjom monitorującym, modelom cyfrowym i eksperymentom wiemy, że w latach 2005–2017 mierzalne ilości CO2 emitowało do atmosfery ponad 200 systemów wulkanicznych. Jeszcze w roku 2013 ich liczbę oceniano na 150. Udokumentowano też superregiony w których dochodzi do rozproszonej emisji gazów z wnętrza Ziemi, takie jak Yellowstone, Wielki Rów Wschodni w Afryce czy wulkaniczna prowincja Technong w Chinach. Dzięki tym badaniom możliwe było stwierdzenie, że emisja z takich regionów jest porównywalna z emisją wulkaniczną « powrót do artykułu
  4. Z informacji opublikowanych przez Net Applications rynkowy udział przeglądarek Microsoftu jest rekordowo niski. W sierpniu Internet Explorer i Edge straciły 1,8 punktu procentowego i obecnie należy do nich 12% rynku. Zapewne będziemy świadkami dalszych spadków. W bieżącym roku udziały przeglądarek z Redmond wahały się wcześniej w granicach 12,4–14 procent. Za większość wrześniowego spadku, niemal 1,4 pp, odpowiada Internet Explorer. Przeglądarka, która niegdyś dominowała w internecie ma obecnie zaledwie 6,1% udziałów. Udziały Edge'a spadły o 0,4% do poziomu 5,9%. Jeszcze w sierpniu Edge zanotował wzrost i miał najwyższe udziały w swojej historii. Przyszłość microsoftowych przeglądarek rysuje się w czarnych barwach. Internet Explorer jest utrzymywany przy życiu tylko dlatego, że domaga się tego część przedsiębiorstw potrzebujących tej przeglądarki ze względu na kompatybilność. Jednak zainteresowanie tą przeglądarką wyraźnie spada. Dość powiedzieć, że w ubiegłym miesiącu używało jej tylko 7% użytkowników Windows, a w ciągu ostatnich miesięcy udziały IE na komputerach z Windows spadły o 60%. Microsoft wolałby nie zajmować się IE i całkowicie poświęcić się rozwojowi Edge'a. Firma zapowiada wypuszczenie wersji Edge'a opartego na google'owskim Chromium. Pozostaje pytanie, czy wobec spadającego zainteresowania Edge'em tworzenie nowej wersji przeglądarki ma sens. Nie najlepiej radzi sobie też Firefox. We wrześniu jego rynkowe udziały zwiększyły się o 0,3% i wynoszą obecnie 8,7%. To już czwarty miesiąc z rzędu, gdy udziały tej przeglądarki są niższe niż 9%. W ciągu ostatniego roku Firefox stracił niemal 1 pp udziałów. Nic nie wskazuje na to, by przeglądarka Mozilli miała odzyskać rynek. Przed dwoma laty jej rynkowe udziały wynosiły 11,4%. Jedynie przez 3 z ostatnich 18 miesięcy do Firefoksa należało więcej niż 10% rynku. Obecnym zwycięzcą konkurencji na rynku przeglądarek jest Chrome do którego należy 68,5% rynku. To o 0,1% mniej niż w rekordowym dla tej przeglądarki lipcu bieżącego roku. W ciągu roku udziały Chrome'a wzrosły o 2,1 punktu procentowego, a obserwacja obecnych trendów pozwala wysnuć przypuszczenie, że do maja przyszłego roku udziały Chrome'a wyniosą ponad 70%. Media prześledziły dane firmy Net Applications od stycznia 2005 roku i stwierdziły, że jak dotąd na przestrzeni ostatnich 14 lat najlepszymi wynikami mógł pochwalić się Internet Explorer. W styczniu 2005 roku należało do niego aż 89,4% rynku. Firefox posiadał wówczas 5,6% udziałów, Netscape Navigator miał 2% rynku, a Safari 1,7%. Do grudnia 2008 roku udziały IE spadły do obecnego poziomu Chrome'a. Obecnie do Safari należy 4,4% rynku, a Opera posiada 1,4%. « powrót do artykułu
  5. Pod koniec sierpnia GlobalFoundries pozwało TSMC i 20 jego klientów o naruszenie 16 patentów GF. Nie trzeba było długo czekać, by pojawił się kontrpozew, w którym TSMC oskarża GF o naruszenie 25 patentów. TSMC domaga się m.in. nałożenie na GF zakazu produkcji urządzeń naruszających patenty, zakazu sprzedaży już wyprodukowanych przedmiotów oraz znaczącego odszkodowania finansowego. Niedługo po tym, gdy pojawiły się informacje o pozwie TSMC, w GlobalFoundries odpowiedziało: TSMC od dawna wykorzystuje swoją dominująca pozycję do wywierania nacisków na mniejszych konkurentów i do wysuwania odwetowych kontrpozwów. Obecny pozew wpisuje się w tę strategię.  Jesteśmy pewni naszego stanowiska oraz wyniku procesu sądowego i nie pozwolimy się zastraszyć. Pod odpowiedzią podpisany jest Sam Azar, wiceprezes ds. prawnych GF. GlobalFoundries złożyło swój pozew w USA i Niemczech, kontrpozew TSMC został złożony w USA, Niemczech i Singapurze. TSMC twierdzi, że patenty, które narusza GF obejmują „co najmniej” technologie wytwarzania układów scalonych od 40 do 12 nanometrów. To „co najmniej” jest zapewne ostrzeżeniem skierowanym do GF, że jeśli uruchomi zapowiadane przez siebie linie produkcyjne w technologii 7 nm to pozew zostanie rozszerzony i na tę technologię. Jim McGregor, główny analityk firmy Tirias Research, komentując przepychanki pomiędzy firmami stwierdził: To sprawa, na której nie wygra nikt, prócz prawników. Tak, jak można się było tego spodziewać, TSMC złożyło kontrpozew w odpowiedzi na działania GlobalFoundries. Co prawda GF domaga się odszkodowania, ale prawdopodobnie sprawa skończy się szerokim porozumieniem dotyczącym wzajemnego licencjonowania patentów, co zabezpieczy obie firmy przed przyszłymi pozwami. W innym przypadku proces potrwa wiele lat, a wszelkie ugody finansowe i tak zostaną przejedzone na koszty procesu. « powrót do artykułu
  6. Naszym rozmówcą jest Marek Pióro – popularyzator „ptasiarstwa”, autor książek „Kalendarz ptaków” i „Plamka mazurka”. Od 12 lat prowadzi blog Plamka mazurka, a od 10 lat pełni funkcję ambasadora Rzeczpospolitej Ptasiej. Znawca ptaków, który bada ich obecność w mitologii, kulturze czy zabobonach. Pisze o ptakach wielowymiarowo. Jak sam mówi, zawdzięcza im naprawdę dużo, między innymi wzbogacenie kontaktów z ludźmi czy rzucenie palenia. Jest Pan tropicielem przysłów, herbów i legend związanych z ptakami, a także ptasich śladów w sztuce, religii i historii. Tego typu wątki pojawiają się m.in. w Pana książce pt. „Plamka mazurka”, np. w opowieściach o bocianie albo czapli. Skąd takie zainteresowania? Tropienie wspomnianych przez Panią tematów przyszło z rozwojem mnie jako autora bloga. Historia, legendy, przysłowia, sztuka czy mitologie obce mi nie były. Ale dopiero wraz z rozkręcaniem bloga zacząłem coraz głębiej je drążyć. Było to dla mnie radosne przypominanie poszczególnych wątków, jak też poznawanie nowych. Chyba w dużej mierze dzięki temu blog przyciągał uwagę wielu osób. Zapewne dzięki temu „Kalendarz ptaków” i „Plamka mazurka” dostarczają mi wzruszeń od Czytelników chwalących te książki. Liczebność populacji ptaków określa się w liczbie par. Są jednak pewne wyjątki. Skąd się one biorą: czy to kwestia biologii gatunku, tradycji czy jeszcze czegoś innego? Dobre pytanie, choć chyba niekoniecznie ja powinienem być jego adresatem. Kwestia liczenia ptaków w parach ma jednak swoje ograniczenia. Albo też... zbyt dużo swobody! Mam tu na myśli dwa pierwsze z brzegu gatunki. Dzięciołka i zimorodka. Liczymy je w parach, choć tak na dobrą sprawę różnie z tym bywa. Słyszałem swego czasu o samicy dzięciołka, która miała trzech partnerów i trzy dziuple ze swoimi jajami, a potem pisklętami. Albo o samcach zimorodków, które miały po trzy samice i trzy norki z przychówkiem. Jakże wygląda przy nich liczony w "buczących" samcach bąk? Podobne jest u wodniczek, które liczone są w śpiewających samcach. Jednak wszystkie gatunki w naszej awifaunie przebijają remizy. Występuje u nich polyginia (samiec kojarzący się z kilkoma samicami) z poliandrią (samica kojarząca się z kilkoma samcami). Myślę, że niejeden scenarzysta telenowel, gdyby znał remizy, mógłby być szczęśliwy. A w dziewiętnastym wieku remizy uznawano za monogamiczny gatunek. Co dla Pana oznacza bycie ambasadorem Rzeczpospolitej Ptasiej? Nominacja na ambasadora Rzeczpospolitej Ptasiej, na której zloty odbywające się w przedostatnie weekendy każdego kwietnia zapraszam, miała być dostrzeżeniem mojego blogowania. Miała zostać pewnym takim jakby zwieńczeniem pisania o ptakach, a stała się odskocznią, trampoliną do dalszego pisania. Z chwilą, gdy zostałem ambasadorem, opuściło mnie ileś nieśmiałości, nabrałem większej pewności siebie. Dzięki temu poznałem wielu fantastycznych ludzi. Po prostu nabrałem w skrzydła pozytywnego wiatru. « powrót do artykułu
  7. Ponad połowa endemicznych gatunków drzew Europy jest zagrożona wyginięciem, wynika z najnowszego raportu MIędzynarodowej Unii Ochrony Przyrody (IUCN). Drzewom zagrażają inwazyjne choroby, szkodniki, zanieczyszczenie powietrza oraz rozrastające się miasta. Wśród gatunków, których liczebność spada wymieniono m.in. jesion, wiąz i jarząb. Europie grozi nie tylko utrata wielu gatunków, ale spadek bioróżnorodności oznacza, że tym trudniej będzie zapobiegać ociepleniu klimatu poprzez zalesianie. To poważny problem nie tylko przyrodniczy. Zagrożone są też niektóre ważne gospodarczo gatunki drzew iglastych, mówi jeden z autorów badań, David Allen. Ekspert ostrzega, że kraje, które rozważają zalesianie i sprowadzają sadzonki z zagranicy, powinny je uważnie badać, by nie zawlec na swoje terytorium chorób i szkodników, które zniszczą jeszcze istniejące lasy. Uważa się, że powinniśmy sadzić więcej drzew. I słusznie. Musimy jednak bardzo szczegółowo sprawdzać, czy nie przywieziemy wraz z nimi szkodników. Bezpieczeństwo biologiczne powinno być priorytetem, mówi. To inwazyjne gatunki szkodników, rozpowszechniane wskutek handlu sadzonkami i surowym drewnem, są największym zagrożeniem dla rodzimych europejskich gatunków drzew. Specjaliści przyjrzeli się 265 endemicznym gatunkom drzew rosnących w Europie i uznali, że 66 z nich jest krytycznie zagrożonych, 58 jest zagrożonych, 31 gatunków uznano za narażone, 7 gatunków trafiło do kategorii „bliski zagrożenia”, a 67 uznano za gatunek najmniejszej troski. Dla 36 gatunków nie było wystarczających danych, by je ocenić. Wiele z najbardziej narażonych gatunków należy do rodzaju Sorbus (jarząb). Znajdziemy wśród nich zarówno jarząb pospolity jak i endemiczny dla Wielkiej Brytanii Sorbus leyana, z którego w stanie dzikim pozostało zaledwie 9 drzew. Specjaliści mówią, że ten ostatni gatunek to stosunkowo nowa hybryda, która zawsze była ograniczona do niewielkiej populacji, więc jego zniknięcie nie będzie miało dużych skutków ekologicznych. Poważniejszym problemem jest zanikanie bardziej rozpowszechnionych gatunków. Tim Rich, jeden z autorów raportu, mówi, że dla niego szczególnie alarmujące jest niszczenie jesiona przez inwazyjne grzyby. Od pięciu lat monitoruję sytuację. W ubiegłym roku zacząłem się poważnie martwić. A w tym roku widzę wymieranie drzew na dużych obszarach i problem nie dotyczy tylko sadzonek, jak to było dotychczas. Teraz umierają wielkie drzewa. Niedawno jechałem przez Pembrokeshire i co 5–10 metrów widziałem martwe lub umierające drzewo. To poważny problem, znacznie poważniejszy niż sądziłem. Narażony na wyginięcie jest też kasztanowiec pospolity, atakowany przez inwazyjnego szrotówka kasztanowcowiaczka. Ten szkodnik został po raz piewrszy zaobserwowany w Macedonii w 1984 roku. Od tamtej pory rozprzestrzenił się od Pirenejów po granice Rosji, dotarł też do Wielkiej Brytanii. Jednak drzewom zagrażają nie tylko inwazyjne gatunki owadów. Kolejne problemy to wycinka lasów, rozrastanie się miast i ośrodków turystycznych, zanieczyszczenia przemysłowe i rolnicze. Badania nad stanem drzew to część szerzej zakrojonego przeglądu europejskich gatunków, którego celem było przyjrzenie się statusowi zwykle pomijanych gatunków po to, by określić priorytety w ochronie przyrody. Okazało się, że wyginięcie grozi od 20 do 50 procentom mięczaków, mszaków i krzewów. Większość z nich to gatunki, które zwykle nie przyciągają naszej uwagi, jednak odgrywają one kluczową rolę w produkcji żywności i podtrzymywaniu ekosystemu poprzez produkcję tlenu, recykling substancji odżywczych czy regenerację gleby. Wysoki odsetek zagrożonych gatunków Europy jest niezwykle alarmujący. Na przykład 92% mięczaków żyjących w Europie to gatunki endemiczne. To znaczy, że jeśli wyginą w Europie, w ogóle znikną z Ziemi, mówi Eike Neubert, specjalista ds. mięczaków. Przywrócenie w Europie liczby mięczaków będzie wymagało znaczących zmian w działaniach dotyczących wykorzystania ziemi, kontroli urbanizacji i odpowiedniego zarządzania półdzikimi obszarami. « powrót do artykułu
  8. Zniknięcie neandartalczyków to jedna z wielkich nierozwiązanych zagadek antropologii. Naukowcy do dzisiaj nie są zgodni, dlaczego jedynym istniejącym obecnie przedstawicielem rodzaju Homo jest nasz gatunek. Autorzy najnowszych studiów uważają, że Homo neanderthalensis wyginął z powodu... budowy trąbki słuchowej. Z artykułu Reconstructing the Neanderthal Eustachian Tube: New Insights on Disease Susceptibility, Fitness Cost, and Extinction opublikowanego na łamach The Anatomical Record dowiadujemy się, że za zniknięcie neandertalczyków z powierzchni Ziemi mogła odpowiadać infekcja, która obecnie trapi niemal każde ludzkie dziecko. To może wyglądać na zbyt daleko posuniętą spekulację, ale gdy zrekonstruowaliśmy przewód Eustachiusza neandertalczyków okazało się, że jego budowa jest uderzająco podobna do budowy u ludzkich dzieci, mówi profesor Samuel Márquez z Downstate Health Sciences University. Zapalenia ucha środkowego są czymś codziennym u małych dzieci, gdyż niewielki kąt zagięcia trąbki słuchowej powoduje, że łatwo osiedlają się tam bakterie odpowiedzialne za zapalenie. Taką samą budowę zauważyliśmy u neandertalczyków, wyjaśnia uczony. Obecnie zapalenia ucha środkowego łatwo się leczy. Ponadto w około 5. roku życia trąbka Eustachiusza wydłuża się u ludzi i zagina pod większym kątem, dzięki czemu łatwiej pozbyć się bakterii i zapalenia niemal nie przytrafiają się starszym osobom. Jednak, jak się okazało, u neandertalczyków struktura trąbki słuchowej nie zmieniała się z wiekiem. A to oznacza, że zapalenia ucha i związane z nim powikłania, takie jak choroby układu oddechowego, utrata słuchu, zapalenia płuc i inne mogły być u nich chorobami chronicznymi, negatywnie wpływającymi na ogólny stan zdrowia i możliwość przetrwania. Tu nie chodzi tylko o ryzyko zgonu z powodu infekcji. Jeśli jesteś ciągle chory nie jesteś tak sprawny i zdolny do konkurowania z Homo sapiens o pożywienie i inne zasoby. W świecie, w którym przeżywają najsprawniejsi jest to poważny problem. Nic więc dziwnego, że przetrwał Homo sapiens a nie neandertalczyk, mówi Márquez. Ten nowy nieznany dotychczas sposób rozumienia funkcji ucha środkowego u neandertalczyków pozwala nam na nowo ocenić ich ogólny stan zdrowia i sprawność fizyczną, komentuje profesor Richard Rosenfeld, otolaryngolog ze State University of New York, uznany ekspert w dziedzinie zdrowia dzieci. Podobnego zdania jest paleoantropolog i emerytowany kurator Amerykańskiego Muzeum Historii Naturalnej, Ian Tattersall, który uważa, że badania te poszerzają naszą wiedzę na temat neandertalczyków, naszych bardzo bliskich kuzynów, którzy jednak w kluczowych aspektach różnili się od współczesnego człowieka. « powrót do artykułu
  9. Od dawna do obniżania ciśnienia wykorzystywane są zioła, takie jak lawenda czy rumianek. Ostatnio Kalifornijczykom udało się wskazać mechanizm molekularny, który odpowiada za ich hipotensyjne działanie. Badanie, którego wyniki ukazały się w Proceedings of the National Academy of Sciences (PNAS), pokazuje, że wiele z roślin wykorzystywanych do obniżenia ciśnienia aktywuje specyficzny kanał potasowy (KCNQ5) w naczyniach krwionośnych. Ekspresja KCNQ5 i innych kanałów potasowych, w tym KCNQ1 i KCNQ4, zachodzi w mięśniówce gładkiej naczyń. Aktywowany KCNQ5 rozkurcza naczynia; to mechanizm, który przynajmniej po części odpowiada za hipotensyjny (obniżający ciśnienie) wpływ pewnych roślin. Odkryliśmy, że aktywacja KCNQ5 może być mechanizmem molekularnym, wspólnym dla zróżnicowanego zestawu roślinnych hipotensyjnych leków tradycyjnych. Analizowaliśmy m.in. lawendę wąskolistną (Lavandula angustifolia). Zauważyliśmy, że należy ona do najefektywniejszych aktywatorów kanału KCNQ5, podobnie jak wyciąg z nasion kopru włoskiego i ekstrakt z rumianku - opowiada prof. Geoff Abbott z Uniwersytetu Kalifornijskiego w Irvine. « powrót do artykułu
  10. Dziewiąta Planeta, hipotetyczny nieznany dotychczas obiekt wchodzący w skład Układu Słonecznego, może nie być planetą. Astronomowie Jakub Scholtz z Durham University i James Unwin z University of Illinois at Chicago zaproponowali hipotezę mówiącą, że to... pierwotna czarna dziura. Pierwotne czarna dziury to również obiekty hipotetyczne. Zgodnie z obowiązującymi teoriami, powstały one tuż po Wielkim Wybuchu i nie są wynikiem zapadania grawitacyjnego jak znane nam czarne dziury, ale powstały z niezwykle gęstej materii, która powstała po Wybuchu. Ze względu na mechanizm swojego powstawania pierwotne czarne dziury nie są tak masywne, jak czarne dziury powstałe w wyniku kolapsu. Jednocześnie ich masa minimalna również może być znacznie mniejsza, mniejsza nawet niż masa Słońca. Najmniejsze z pierwotnych czarnych dziur już nie istnieją, wyparowały przez miliardy lat istnienia wszechświata. Jednak te bardziej masywne wciąż mogą istnieć. I to właśnie jedna z nich może być obiektem znanym jako Dziewiąta Planeta. Pogłoski o istnieniu nieznanej planety w Układzie Słonecznym krążą w środowisku pseudonaukowym od kilku dekad. Jednak przed trzema laty na łamach Astronomical Journal pojawił się artykuł, którego autorzy – naukowcy z prestiżowego California Institute of Technology – informowali, że planeta taka rzeczywiście może istnieć. Jakub Scholtz i James Unwin skupili się na dwóch niewyjaśnionych dotychczas faktach. Pierwszy z nich to niezwykłe orbity niektórych obiektów transneptunowych, wskazujących na oddziaływanie zewnętrznego źródła. Źródło takie musiałoby mieć masę od 5 do 15 mas Ziemi i krążyć wokół Słońca w odległości 300–1000 jednostek astronomicznych. Drugi fakt to zaobserwowanych niedawno przez satelitę OGLE (Optical Gravitational Lensing Experiment) sześć ultrakrótkich epizodów mikrosoczewkowania grawitacyjnego, z których każde trwało od 0,1 do 0,3 doby. Mikrosoczewkowane obiekty znajdują się w kierunku poprzeczki galaktyki w odległości 8000 parseków do Ziemi, a soczewkujący obiekt musiałby mieć masę od 0,5 do 20 mas Ziemi i mógłby być albo grupą swobodnie poruszających się planet, albo pierwotną czarną dziurą. Naukowcy zwracają uwagę, że obie wymienione anomalie są powodowane przez obiekty, których masa znajduje się w tym samym przedziale. Być może najbardziej naturalnym wyjaśnieniem jest stwierdzenie, że anomalie wywołała nieznana populacja planet. Na przykład anomalie zarejestrowane przez OGLE można interpretować jako obecność swobodnie poruszających się planet, których masa jest bardziej skoncentrowana niż lokalna masa gwiazd, a Dziewiąta Planeta może być jedną z tych planet, która została przechwycona przez Układ Słoneczny. To by oznaczało, że musimy zaktualizować nasze modele powstawania planet, ale obecne poszukiwania Dziewiątej Planety powinny być kontynuowane, czytamy w artykule opublikowanym w arXiv. W naszej pracy skupiliśmy się na bardziej ekscytującej hipotezie. Jeśli to, co zarejestrował OGLE zostało wywołane obecnością populacji pierwotnych czarnych dziur, to jest też możliwe, że anomalie orbit obiektów transneptunowych to skutek oddziaływania jednej z tych czarnych dziur przechwyconych przez Układ Słoneczny, dodają autorzy. Jeśli Scholtz i Unwin mają rację i rzeczywiście mamy tu do czynienia z pierwotną czarną dziurą, to jej wykrycie będzie niezwykle trudne. Tego typu czarna dziura o masie 5-krotnie większej od masy Ziemi miałaby średnicę około... 5 centymetrów, a jej temperatura promieniowania Hawkinga wynosiłaby 0,004 kelwina, co czyni ją zimniejszą niż mikrofalowe promieniowanie tła. Jeśli tak, to na załączonej grafice widzimy jej rzeczywistą wielkość. Dlatego też obaj naukowcy proponują nie poszukiwania samej czarnej dziury, a poszukiwania sygnałów oddziaływania jej halo na otoczenie. Halo ciemnej materii takiej dziury rozciąga się bowiem na odległość 8 j.a. czyli mniej więcej od Ziemi do Saturna, zatem możliwe jest zauważenie jego interakcji z pobliskimi obiektami. « powrót do artykułu
  11. Międzynarodowy zespół naukowców odkrył, że 12-HEPE, lipid produkowany przez brunatną tkankę tłuszczową (BAT) w odpowiedzi na zimno, pomaga obniżyć poziom cukru we krwi. Uzyskane wyniki mogą utorować drogę nowym lekom na cukrzycę. Zespół zauważył także, że mirabegron, lek stosowany przy zespole nadreaktywnego pęcherza, zwiększa u ludzi ilość 12-HEPE uwalnianego do krwiobiegu. W odpowiedzi na zimno BAT produkuje różne lipidy. Jednym z nich jest 12-HEPE. Jego funkcja pozostawała nieznana do momentu, aż autorzy raportu z pisma Cell Metabolism przeprowadzili ostatnio swoje eksperymenty. Okazało się, że u otyłych myszy, którym wstrzyknięto stężony roztwór glukozy, poziom cukru był skuteczniej obniżany, kiedy podano im 12-HEPE (porównań dokonywano do gryzoni z grupy kontrolnej, których nie potraktowano lipidem). Brazylijsko-amerykańsko-niemiecki zespół uważa, że 12-HEPE wpływa korzystnie na tolerancję glukozy u otyłych myszy, gdyż sprzyja wychwytowi glukozy przez mięśnie szkieletowe i BAT. Badania z udziałem pacjentów wskazały na możliwą fizjologiczną rolę 12-HEPE. Wolontariuszy podzielono na 3 grupy: 1) szczupłych i zdrowych, 2) z nadwagą i 3) otyłych. Badania krwi pokazały, że u osób szczupłych poziom 12-HEPE był wyższy niż u ludzi z nadwagą i o wiele wyższy niż w grupie otyłej. Wg naukowców, można to wyjaśnić tym, że u otyłych proporcja masy brunatnej tkanki tłuszczowej jest mniejsza niż u osób szczupłych. Co więcej, niedobór BAT w 3. grupie może odpowiadać za otyłość, a nawet za podwyższone ryzyko cukrzycy. Badania in vitro na komórkach pokazały, że 12-HEPA zwiększał wychwyt glukozy przez adipocyty, co sugeruje, że 12-HEPE ma swój wkład nie tylko w proces przystosowania się do chłodu. Sporo wskazuje bowiem na to, że drastycznie obniżony poziom lipidu we krwi otyłych osób może, przynajmniej częściowo, odpowiadać za ich podwyższony poziom cukru. W ramach studium inna grupa szczupłych ochotników dostawała mirabegron, który jak wcześniej wykazano, może aktywować BAT. Grupie kontrolnej podawano placebo. Zademonstrowano, że u ludzi dostających mirabegron w osoczu występowały podwyższone poziomy 12-HEPE. Mirabegron działa na kilka sposobów, niektóre z nich są niepożądane. Aktywuje uwalnianie różnych innych lipidów i nie celuje specyficznie w obniżanie poziomu glukozy. Lipid typu omega-3, taki jak 12-HEPE, mógłby [zaś] mieć o wiele lepszy profil toksykologiczny - podkreśla Luiz Osório Leiria z Instytutu Biologii Universidade Estadual de Campinas. W niedalekiej przyszłości naukowcy chcą m.in. ustalić, z jakim receptorem wiąże się 12-HEPE, by sprzyjać wychwytowi glukozy. Dzięki temu ekipa będzie mogła opracować nowe cząsteczki, które także z nim oddziałują. « powrót do artykułu
  12. Gwałtownie wzrosła liczba ofiar tajemniczej choroby związanej z paleniem e-papierosów. Jak informuje CDC (Centrum Kontroli i Zapobiegania Chorobom) dotychczas na terenie 46 stanów i Amerykańskich Wysp Dziewiczych potwierdzono 805 przypadków uszkodzenia płuc u palących e-papierosy. Jeszcze tydzień temu wiedziano o 530 takich przypadkach, a przed 2 tygodnimi było ich 380. Agencja donosi też o 12 przypadkach zgonów. Przypomnijmy, że przed miesiącem informowaliśmy o prawdopodobnie pierwszym zgonie związanym z e-papierosami. Wielu z hospitalizowanych przyznało, że wykorzystywało e-papierosy do palenia THC, inni mówili o łączeniu THC i nikotyny. Niektórzy twierdzili jednak, że wykorzystywali jedynie nikotynę. Urzędnicy mówią jednak, że pacjenci często nie chcą ujawniać, iż palili THC. Wciąż jednak nie wiadomo jaki produkt lub produkty, prowadzą do uszkodzenia płuc i śmierci wśród użytkowników e-papierosów. To bardzo złożone śledztwo i nie powinniśmy spodziewać się szybkich odpowiedzi, mówi Anne Schuchat, wicedyrektor CDC. Podczas przesłuchania w Kongresie pani Schuchat stwierdziła, że jest bardzo sfrustrowana powolnym przebiegiem śledztwa. Jest ono jednak skomplikowane ze względu na bardzo dużą ofertę produktów dostępnych na rynku e-papierosów. E-papierosy to stosunkowo nowy produkt, który nie jest regulowany żadnymi przepisami. Istnieje też olbrzymia liczba różnych wkładów, które palą użytkownicy. Wkłady te składają się w znakomitej większości z substancji, których wpływu na zdrowie człowieka po podgrzaniu i inhalacji nikt nigdy nie badał. W przeszłości pojawiały się już doniesienia o potencjalnym szkodliwym wpływie niektórych z nich. Jednak od kilku tygodni najwyraźniej mamy do czynienia z poważnym kryzysem. Z nieznanego jeszcze powodu e-papierosy zaczęły poważnie szkodzić swoim użytkownikom, a niektórzy z nich zmarli. « powrót do artykułu
  13. Metabolizm, sen, nastroje, układ odpornościowy, dojrzewanie i seks – to zaledwie wierzchołek tego, co kontrolują hormony, potężne związki chemiczne, których tajemnica sięga zatęchłych piwnic pełnych słojów z mózgami w formalinie i nowoczesnych klinik hormonalnych w Los Angeles. Lekarz, który w latach 20. XX wieku propagował wazektomię jako niezawodną metodę zwiększania libido, studentka medycyny, która dwadzieścia lat później odkryła hormon hCg informujący o ciąży, oraz matka, która używała przysadek mózgowych zmarłych, by za pomocą wydobytego z nich hormonu wzrostu leczyć swojego syna – to tylko niektórzy bohaterowie tej pełnej fascynujących niuansów, opisów badań i zabawnych anegdot książki. Zostali tu sportretowani zarówno najważniejsi naukowcy stojący za rewolucyjnymi odkryciami na temat równowagi hormonalnej, jak i szarlatani, którzy proponowali równie szatańskie kuracje. Pobudzeni to pasjonująca, dowcipna i szokująca opowieść o historii endokrynologii. A także o tym, że bywamy zaledwie marionetkami we władzy adrenaliny, oksytocyny, estrogenu czy testosteronu. Imponująca, cudowna historia utkana z seksu, cierpienia, neurologii, biologii, medycyny i prób odkrywania samego siebie. Książka Randi Hutter Epstein pobudza wyobraźnię, a jednocześnie ją uspokaja. Siddhartha Mukherjee, autor Cesarza wszech chorób. Biografii raka Endokrynologia, jak pokazuje ta książka, rodziła się z połączenia pomysłowości i arogancji. The New Yorker
  14. Cukrzycy typu 2. można się pozbyć, pod warunkiem jednak, że w ciągu pierwszych 5 lat od diagnozy schudniemy o co najmniej 10%, stwierdzają autorzy badań prowadzonych pod kierunkiem uczonych z University of Cambridge. Możliwe jest zatem wyleczenie się z cukrzycy bez konieczności drastycznej zmiany stylu życia czy kosztem ekstremalnego ograniczenia liczby przyjmowanych kalorii. Na cukrzycę typu 2. cierpi 400 milionów osób na całym świecie. Może ona prowadzić do chorób serca, udarów, ślepoty i amputacji. Wiadomo, że chorobę można trzymać w ryzach popraz zmianę stylu życia i zażywanie leków. Wiadomo również, że istnieje związek pomiędzy niezwylke restrykcyjną dietą – polegającą na przyjmowaniu przez 8 tygodni nie więcej niż 700 kalorii dziennie – a powrotem poziomu cukru do normalnego poziomu. Taka dieta powoduje, że cukrzyca znika u 9 na 10 dopiero co zdiagnozowanych osób oraz u 50% od dawna chorujących. Nie jest jednak jasne, czy choroby można się pozbyć za pomocą mniej restrykcyjnej diety, która byłaby bardziej do przyjęcia dla większej liczby ludzi. Żeby się tego dowiedzieć, zespół naukowców przeanalizował dane z badań ADDITION-Cabridge. To długoterminowe badania, w których wzięło udział 867 osób w wieku 40–49 lat u których właśnie zdiagnozowano cukrzycę. Analiza wykazała, że po pięciu latach remisja cukrzycy nastąpiła u 257 osób. Gdy bliżej im się przyjrzano, okazało się, że osoby, które w ciągu tych pięciu lat straciły na wadze co najmniej 10% były z dwukrotnie większym prawdopodobieństwem wolne od cukrzycy w porównaniu z osobami, których waga się nie zmieniła. Od pewnego czasu wiadomo było, że można doprowadzić do remisji choroby za pomocą drastycznych metod, jak intensywna utrata wagi i drastyczna redukcja spożywanych kalorii. Jednak stosowanie takich środków może być dla ludzi bardzo trudne. Uzyskane przez nas wyniki sugerują, że można pozbyć się cukrycy, co najmniej na pięć lat, doprowadzając do umiarkowanego spadku wagi o 10%. To może być łatwiejsze do osiągnięcia i może zmotywować więcej osób, mówi doktor Hajira Dambha-Miller. Ze szczegółami badań można zapoznać się w piśmie Diabetic Medicine. « powrót do artykułu
  15. W Rezerwacie Leśnym Habarana, w pobliżu wpisanego na Listę Światowego Dziedzictwa UNESCO lankijskiego stanowiska archeologicznego Sigirija, znaleziono w sobotę kolejne trzy martwe dzikie słonie. Strażnicy uważają, że zostały one otrute przez okolicznych mieszkańców. Od piątku znaleźliśmy ciała 7 samic [wszystkie pochodziły z tego samego stada, a jedna była ciężarna w momencie zgonu] - powiedział rzecznik policji Ruwan Gunasekera. W związku z podejrzeniem otrucia będą przeprowadzone sekcje zwłok (wstępne oględziny odbywały się już w weekend). Władze przeczesują teren w poszukiwaniu ewentualnych następnych ciał. Policja podkreśla, że miał miejsce wzrost liczby incydentów z udziałem słoni; zwierzęta pojawiały się w wioskach i niszczyły okoliczne uprawy. Lankijski rząd poinformował ostatnio, że liczba ofiar w konflikcie słoni i ludzi sięgnęła rekordowych wartości: w ostatnich 5 latach dzikie słonie zabiły ponad 375 osób, a ludzie zabili ponad 1100 słoni. Zgodnie z ostatnim spisem, liczebność populacji słoni w Sri Lance wyniosła nieco powyżej 7 tys. Ekspansja wiosek i gospodarstw przyczyniła się do utraty habitatu oraz źródeł wody i pożywienia słoni. « powrót do artykułu
  16. Po raz pierwszy badacze zidentyfikowali pralkę jako rezerwuar wielolekoopornych patogenów. Patogeny, pojedynczy klon Klebsiella oxytoca, były wielokrotnie transmitowane na dzieci z oddziału intensywnej opieki neonatologicznej w niemieckim szpitalu. Transmisja się zakończyła, gdy ze szpitala usunięto energooszczędną pralkę, przeznaczoną do domowego użytku. To bardzo nietypowy dla szpitala przypadek, związany z wykorzystaniem pralki do użytku domowego. Zwykle w szpitalach stosuje się specjalne pralki i procesy czyszczące, które zgodnie z zaleceniami, bazują na wysokich temperaturach i środkach dezynfekujących. Ewentualnie szpitale korzystają z usług zewnętrznych pralni - podkreśla dr Ricarda M. Schmithausen ze Szpitala Uniwersyteckiego w Bonn. Badanie, którego wyniki ukazały się w piśmie Applied and Environmental Microbiology, ma spore znaczenie dla pralek z gospodarstw domowych. Jak wyjaśnia Schmithausen, by oszczędzać energię, temperatury wody w naszych pralkach stały się niższe i daleko im do 60°C. Przez to są mniej śmiertelne dla patogenów. W takich warunkach geny oporności i różne mikroorganizmy mogą pozostawać w urządzeniach. Jeśli w gospodarstwie domowym przebywają wymagający opieki seniorzy z otwartymi ranami bądź cewnikami albo młodsi ludzie z ropiejącymi urazami czy zakażeniami, aby uniknąć transmisji groźnych patogenów, pranie powinno się robić w wyższych temperaturach albo ze skutecznymi środkami dezynfekującymi - dodaje dr Martin Exner. Podczas dochodzenia specjalistom nie udało się zidentyfikować źródła zakażeń K. oxytoca w inkubatorach i wśród personelu medycznego. Ostatecznie okazało się, że noworodki z OIOM-u stykały się z patogenem przez pralkę. Ubrania, które transmitowały K. oxytoca, to pomagające utrzymać ciepło w inkubatorze dziergane czapeczki i skarpetki. Naukowcy uważają, że bakterie były rozsiewane na ubranie przez resztki wody pozostające po praniu w uszczelce i/lub przez proces ostatecznego płukania, kiedy zimną wodę przepuszcza się przez komorę na detergent. Badanie pokazuje, że by zapobiec gromadzeniu resztek wody, w której zachodzi wzrost mikroorganizmów, potrzebne są zmiany dot. budowy pralki i cyklu prania. Niemcy dodają, że nadal nie wiadomo, jak i z jakiego źródła patogeny trafiły do pralki. Na szczęście dzieci z OIOM-u były skolonizowane, ale niezakażone K. oxytoca. « powrót do artykułu
  17. Podczas ostatnich wykopalisk na cmentarzysku ludu Xiongnu w północno-środkowej Mongolii chińsko-mongolski zespół archeologów znalazł szereg cennych artefaktów, w tym dwa pozłacane smoki. Prace na stanowisku obejmującym ok. 400 grobów trwają od prawie 3 lat. W lipcu zakończono wykopaliska grobu oznaczonego symbolem M189. Jak poinformował szef chińskiej ekipy dr Lan Wanli, każdy ze smoków ma 8 cm długości. Przedstawiono je w sposób typowy dla Zachodniej Dynastii Han. Rzemieślnik kunsztownie oddał oczy, zęby czy pióra stworów. Eksperci podejrzewają, że stanowiły one ozdobę jakiegoś naczynia. Wg Lana, pozłacane srebrne smoki wskazują na wysoki status zmarłego mężczyzny. Opisywany grób jest starszy od większości grobów arystokracji Xiongnu, odkrytych dotąd na terenie Rosji i Mongolii. Archeolog dodaje, że poza smokami odkopano klamrę do pasa z jadeitu, drewniane kubki, skórzaną uprzęż końską, rydwany i broń. Dno trumny wyścielono tkaniną. Na tym znajdowała się warstwa prosa z niewielką domieszką komosy. Jeszcze wyżej położono kolejną warstwę materiału, a na niej ponownie rozsypano proso, tym razem z dużą ilością trocin wymieszanych z drobnymi kawałkami węgla i komosy. Na samej górze znajdował się materiał. Lan podsumowuje, że archeolodzy po raz pierwszy spotkali się z takim sposobem aranżowania trumny przedstawiciela arystokracji Xiongnu. « powrót do artykułu
  18. Osoby, które uważają się za ważące zbyt dużo – niezależnie od tego, czy rzeczywiście mają nadwagę – cechują się mniejszą wytrwałością w działaniu – wynika z badania przeprowadzonego przez polskich naukowców. Zdaniem badaczy brak wytrwałości u osób z negatywnym obrazem własnego ciała może być efektem internalizacji (czyli uznania za własne wartości, norm, poglądów itp., narzucanych początkowo z zewnątrz) krzywdzących stereotypów. Osoby z nadwagą lub otyłością często są postrzegane jako nieatrakcyjne, leniwe i mało konsekwentne. Gdy same zaczynają tak o sobie myśleć, ich poczucie własnej wartości spada i pojawiają się problemy natury psychologicznej. Mgr Wojciech Styk z Katolickiego Uniwersytetu Lubelskiego im. Jana Pawła II wraz ze współpracownikami z Uniwersytetu Medycznego w Lublinie oraz Uniwersytetu Kardynała Stefana Wyszyńskiego w Warszawie sprawdzali, jak obraz ciała oraz rzeczywisty wskaźnik masy ciała (BMI) wiążą się z wytrwałością w dążeniu do osobistego celu oraz umiejętnością kontrolowania rozpraszających myśli i wspomnień. Pomysł na badanie zrodził się z moich osobistych doświadczeń (w młodości miałem nadwagę) i doświadczeń osób, które zrzuciły zbędne kilogramy, a mimo to ocena ich własnego ciała była nadal negatywna. Jedna z pacjentek po skutecznej diecie i osiągnięciu prawidłowej masy ciała powiedziała, że mimo tego sukcesu, gdyby na ulicy ktoś zawołał: "Hej, gruba", ona odwróciłaby się pierwsza… Szukałem potwierdzenia tego zjawiska i jego źródła – opowiada mgr Styk. W badaniu wzięło udział 135 ochotników, którzy za pomocą strony internetowej dzielili się informacjami dotyczącymi wymiarów ciała oraz odczuciami na jego temat. Badani zaznaczali, czy uważają, że ważą zbyt dużo, zbyt mało lub w sam raz. Następnie rozwiązywali proste labirynty. Mieli za zadanie rozwiązać ich jak najwięcej – bez ograniczenia czasowego i jakiejkolwiek motywacji zewnętrznej. Okazało się, iż uczestnicy o prawidłowej masie ciała byli bardziej wytrwali w działaniu (rozwiązywali więcej labiryntów), niż osoby z nadwagą lub otyłością. Cechowali się też większą odpornością na dystraktory (czynniki rozpraszające), tzn. potrzebowali przeciętnie mniej czasu na przejście pojedynczego labiryntu. Już w poprzednich badaniach brak wytrwałości u osób z nadwagą i otyłością łączono z trudnościami w powstrzymywaniu nieistotnych myśli lub wspomnień, np. o jedzeniu lub wyglądzie, oraz sugerowano, że mogą one prowadzić do przejadania się i utrzymywania zbyt wysokiej masy ciała. W niniejszym badaniu także uzyskano korelację pomiędzy BMI a umiejętnością kontrolowania pobocznych myśli, ale była ona słaba. Co ciekawe mniejszą wytrwałością w działaniu charakteryzowali się również badani, którzy po prostu postrzegali siebie jako ważących zbyt dużo. Dotyczyło to szczególnie osób, które w istocie miały podwyższony BMI, ale także uczestników o prawidłowej masie ciała. Prawie jedna trzecia badanych, mimo posiadania prawidłowej masy ciała, oceniła, że waży zbyt dużo i osiągnęła gorsze rezultaty w analizowanych wskaźnikach wytrwałości, niż badani, którzy ocenili swoją wagę jako prawidłową – piszą autorzy. Obecnie badania są kontynuowane – chcemy zbadać mechanizm działania specyficznych wyobrażeń umysłowych tzw. symulacji mentalnych, które są stosowane jako jedna z metod wzmacniania wytrwałości osób odchudzających się. Mam nadzieję, że wyniki tych badań pomogą osobom walczącym z nadwagą i otyłością. Badania są prowadzone w podobnej formie jak poprzednie (przez internet) oraz "na miejscu" z grupą osób uczestniczących w programie odchudzania prowadzonym przez dietetyka i psychologa wspierającego uczestników – dodaje mgr Styk. « powrót do artykułu
  19. Astronomowie obserwują ostatnie etapy łączenia się trzech supermasywnych czarnych dziur. Krążą one wokół siebie w centrum trzech galaktyk, do połączenia których dochodzi w odległości około miliarda lat świetlnych od Ziemi. Niezwykły taniec czarnych dziur specjaliści zauważyli wewnątrz obiektu SDSS J084905.51+111447.2. Obserwowaliśmy parę czarnych dziur, a gdy użyliśmy kolejnych technik [obrazowania rentgenowskiego o wysokiej rozdzielczości przestrzennej, obrazowania w bliskiej podczerwieni oraz spektroskopii optycznej – red.] znaleźliśmy ten niezwykły system, mówi główny autor badań, Ryan Pfeifle z George Mason University. Mamy tutaj najsilniejsze z dostępnych dowodów na istnienie systemu trzech aktywnych supermasywnych czarnych dziur. Badania wspomnianego systemu rozpoczęły się od jego obrazowania w świetle widzialnym za pomocą teleskopu Sloan Digital Sky Survey (SDSS) w Nowym Meksyku. Dane udostępniono w społecznościowym projekcie Galaxy Zoo, którego użytkownicy oznaczyli SDSS J084905.51+111447.2 jako miejsce, w którym właśnie dochodzi do łączenia się czarnych dziur. Naukowcy przeanalizowali więc dane zebrana przez teleskop kosmiczny Wide-field Infrared Survey Explorer (WISE). Pracuje on w podczerwieni i jeśli rzeczywiście w galaktyce dochodzi do łączenia się czarnych dziur, to powinien on zaobserwować co najmniej dwa źródła gwałtownego pochłaniania materii. Kolejne obserwacje potwierdziły podejrzenia. Chandra X-ray Observatory wykrył istnienie silnych źródeł promieniowania X, co wskazuje, że czarne dziury pochłaniają tam duże ilości pyłu i gazu. Podobne dowody zdobył Nuclear Spectroscopic Telescope Array (NuSTAR). Kolejne obrazowanie w świetle widzialnym przeprowadzone za pomocą SDSS i Large Binocular Telescope potwierdziły obecność trzech aktywnych czarnych dziur. Dzięki użyciu wielu instrumentów opracowaliśmy nową technikę identyfikowania potrójnych układów supermasywnych czarnych dziur. Każdy z tych teleskopów dostarczył nam nieco innych informacji o tym, co się tam dzieje. Mamy nadzieję, że za pomocą tej techniki znajdziemy więcej układów potrójnych, mówi Pfeifle. Naukowcy stwierdzili, że odległość pomiędzy każdą z czarnych dziur, a jej sąsiadami wynosi od 10 do 30 tysięcy lat świetlnych. Będzie ona malała, gdyż galaktyki, do których należą te dziury, łączą się, więc i czarne dziury są skazane na połączenie. Dzięki wykryciu przez LIGO fal grawitacyjnych pochodzących z łączenia się czarnych dziur, wiemy co nieco o tym, jak przebiega taki proces. Jednak łączenie się układu potrójnego wygląda prawdopodobnie nieco inaczej. Specjaliści podejrzewają, że obecność trzeciej dziury powoduje, iż dwie pierwsze łączą się znacznie szybciej. Istnienie układu potrójnego może pozwolić też na wyjaśnienie teoretycznego „problemu ostatniego parseka”. Gdy dochodzi do połączenia dwóch galaktyk ich czarne dziury nie zderzają się czołowo, ale powinny minąć się po orbicie hiperbolicznej. Musi istnieć mechanizm, który spowoduje, że zbliżą się do siebie. Najważniejszym takim mechanizmem jest dynamiczne tarcie. Gdy czarna dziura zbliża się do gwiazdy, gwiazda jest przyspieszana, a czarna dziura spowalniana. Mechanizm ten spowalnia czarne dziury na tyle, że tworzą powiązany ze sobą układ podwójny. Dynamiczne tarcie nadal działa, dziury zbliżają się do siebie na odległość kilku parseków. Jednak proces krążenia czarnych dziur wokół siebie powoduje, że w pobliżu zaczyna brakować materii. W końcu jest jej tak mało, że jej oddziaływanie nie wystarczy, by dziury się połączyły. Ostatecznie do połączenia się czarnych dziur mogłyby doprowadzić fale grawitacyjne, ale ich oddziaływanie ma znaczenie dopiero, gdy dziury zbliżą się do siebie na odległość 0,01–0,001 parseka. Wiemy jednak, że czarne dziury się łączą, pozostaje więc pytanie, co rozwiązuje problem ostatniego parseka, czyli co powoduje, że zbliżą się do siebie na tyle, iż utworzą jedną czarną dziurę. Obecność trzeciej czarnej dziury wyjaśniałaby, jaka siła powoduje, że czarne dziury się łączą. Nie można też wykluczyć, że w układach potrójnych dochodzi nie tylko do połączenia się dwóch czarnych dziur, ale i do wyrzucenia trzeciej z nich w przestrzeń kosmiczną. « powrót do artykułu
  20. W południowo-wschodniej Bułgarii, w pobliżu Bojanowa, odkryto szkielet starożytnego miłośnika sportu, najprawdopodobniej trackiego arystokraty, oraz mosiężne balsamarium w kształcie głowy boksera bądź zapaśnika (na twarzy widać ślady złamania nosa). Pod żuchwą zmarłego znajdowała się wybita w Hadrianopolis brązowa moneta cesarza Karakalli z grecką inskrypcją (datuje się ona na 198–217 n.e.). Znalezisko, które opisano na łamach American Journal of Archaeology, pochodzi z czasów, gdy Tracja była prowincją rzymską. Balsamarium, in. unguentarium lub lacrimatorium, to naczynie do przechowywania płynnych wonności/pachnideł. To z Bułgarii przedstawia mężczyznę z bródką i skrzywionym (nie w pełni wygojonym) nosem. Nosi on nakrycie głowy z kociej skóry. Kiedyś pokryte śniedzią balsamarium było wyposażone w przykrywkę, ale się ona nie zachowała. Naczynie ma 12 cm wysokości (bez uchwytów) i maksymalnie 10,8 cm szerokości. Jego pojemność to 670 ml. Twarz mężczyzny uwiecznionego w formie naczynia jest gładko ogolona, wyjątek stanowi wspomniana bródka. Źrenice oczu są wklęsłe, co sugeruje, że kiedyś były wyłożone kamieniami albo pastą szklaną. Cienkie i płytkie zagłębienie wokół ust służyło zapewne jako miejsce przyczepu warstewki czerwonawego metalu (miał on oddawać czerwień wargową). Drobny fragment takiego metalu zachował się nawet w prawym kąciku ust. Rzemieślnik z detalami oddał budowę zwierzęcia, z którego skóry miało być wykonane nakrycie głowy. Z przodu widać np. pysk z zaznaczonymi nozdrzami i półprzymkniętymi oczami. Przez wyraźnie widoczne cętki zespół Danieli Agre z Bułgarskiej Akademii Nauk spekuluje, że twórcy zależało, by skóra wyglądała np. na lamparcią. Kocie nakrycie głowy może być nawiązaniem do lwa nemejskiego pokonanego przez Heraklesa. Niewykluczone, że przedstawienie sportowca w nakryciu głowy ze skóry dzikiego kota miało sugerować podobieństwo do Herkulesa i w ten sposób wskazywać na heroiczną moc i odwagę atlety. W ceglanym grobie, zlokalizowanym w południowo-wschodnim kwadrancie kurhanu Kral Mezar, znaleziono także szkielet mężczyzny, który zmarł w wieku ok. 35-40 lat. Archeolodzy natrafili przy nim na w pełni zachowany strigil, czyli narzędzie higieniczne, którym zeskrobywano ze skóry olej, pot czy brud. W naszej opinii grób należał do trackiego arystokraty, który raczej nie był zawodowym sportowcem, a po prostu uczynił z ćwiczeń/aktywności fizycznej część codziennego życia - mówi Agre. « powrót do artykułu
  21. Mimo, że cyfrowa komunikacja i stosowane w niej systemy bezpieczeństwa stają się coraz bardziej zaawansowane, wciąż dochodzi do wycieków danych. Wycieki te to poważny problem z potencjalnie niszczycielskimi konsekwencjami w postaci wybuchu wojen czy sporów ekonomicznych i społecznych. Chociaż media elektroniczne są nieodzowne w naszym codziennym życiu, papier wciąż jest głównym medium przechowywania informacji i wiele ważnych dokumentów wciąż istnieje wyłącznie w formie papierowej, mówią naukowcy z Chin, którzy opracowali nową metodę zapisywania ukrytych informacji na papierze. Na łamach magazyny Matter uczeni z Uniwersytetu w Nankinie informują o wykorzystaniu bibuły filtracyjnej pokrytej związkami manganu do drukowania niewidocznych gołym okiem informacji. Można je odczytać oświecając papier światłem UV. Oczywiście istnieją już podobne techniki ukrywania tekstu na papierze. Mają one jednak liczne wady. Po pierwsze, nie można ich usunąć. Po drugie, gdy już zauważymy taki ukryty tekst, to – nawet jeśli został zaszyfrowany – mamy do niego dostęp i możemy pracować nad złamaniem kodu. Chiński wynalazek jest znacznie bardziej doskonały i bezpieczny. Nowa technika polega na pokryciu środkami chemicznymi zawierającymi mangan papieru używanego do produkcji bibuł filtracyjnych. Następnie wystarczy czysta woda, by nanieść nań napis niewidoczny gołym okiem. Woda zmienia bowiem właściwości fotoluminescencyjne związków zawierających mangan. Wystarczy oświetlić papier promieniami UV, a napis zobaczymy w postaci ciemnego tekstu na jaśniejszym tle. Całość charakteryzuje się bardzo niską toksycznością, a dodatkową zaletą techniki jest fakt, że ukrytego napisu można się pozbyć, Wystarczy przez około 15 sekund potraktować papier suszarką, by napis zniknął. Sam papier można wykorzystać nawet 30-krotnie. Chińczycy przypuszczają, że jeśli uda im się znaleźć inne podłoże niż bibuła filtracyjna, to będzie można jeszcze więcej razy wykorzystać papier. Co interesujące, ukryty napis samoczynnie nie zniknie jeśli nie potraktujemy go suszarką. Eksperymenty wykazały, że może on przetrwać ponad 3 miesiące. To jednak nie wszystkie postępy, jakich dokonali uczeni z Nankinu. Wykorzystali też dwa różne związki zawierające mangan. Jeden z nich został naniesiony na papier jako tło, a drugim wykonano ukryty nadruk. Nadruku nie można było zobaczyć ani gołym okiem, ani za pomocą promieniowania UV, gdyż po oświetleniu UV oba związki emitują światło o niemal identycznej długości fali i intensywności. Jednak związek użyty do wykonania napisu emituje światło nieco dłużej, napis można więc zobaczyć wykorzystując techniki obrazowania opierające się na różnicy czasu. Na tym jednak nie koniec. W kolejnym eksperymencie uczeni wykorzystali różne zawierające mangan tusze do wydrukowania serii liczb, które emitowały światło w różnym czasie po ekspozycji na UV. Dzięki temu, poprzez śledzenie zmian intensywności emisji światła możliwe jest odczytanie liczb w odpowiedniej kolejności i odszyfrowanie wiadomości. Następnie informację można usunąć poprzez płukanie w specjalnym roztworze, by później na tym samym papierze nanieść te same liczby za pomocą różnych tuszy, przez co wyświetlą się w innej kolejności, kodując inną wiadomość. To niezwykle wysoki poziom zabezpieczeń, który może sprawdzić się w zastosowaniach wojskowych czy przemysłowych, stwierdzili badacze.   « powrót do artykułu
  22. Potężna burza geomagnetyczna, która spowoduje wyłączenia prądu, awarie satelitów i urządzeń elektrycznych jest nie do uniknięcia. Prawdopodobnie tego typu wydarzenia mają miejsce częściej, niż nam się wydaje i, bazując na najnowszych badaniach, można przypuszczać, że takiego uderzenia ze strony Słońca możemy spodziewać się prawdopodobnie w ciągu najbliższych 100 lat. Nikt nie jest jednak w stanie powiedzieć, czy nastąpi ono w następnej dekadzie czy w następnym wieku. Jako, że w coraz większym stopniu jesteśmy uzależnieni od technologii, burze gaomagnetyczne – związane z aktywnością Słońca – są coraz groźniejsze dla naszej cywilizacji. Już przed 10 laty informowaliśmy o raporcie NASA i Narodowej Akademii Nauk opisującym katastrofalne skutki, jakie mogłaby przynieść burza geomagnetyczna, czyli gwałtowna zmiana pola magnetycznego Ziemi spowodowana koronalnymi wyrzutami masy na Słońcu. Autorzy raportu szacują, że same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Mało prawdopodobne, by nawet tak potężne państwo było w stanie całkowicie się z niej podnieść, informowaliśmy. Dotychczas najsilniejszą znaną nam burzą geomagnetyczną była ta z września 1859 roku, kiedy to zorza polarna była widoczna na Karaibach, doszło do awarii sieci telegraficznych i pożarów. Sądzono jednak, że tak silne wydarzenia mają miejsce raz na 500 lat. Okazuje się jednak, że zdarzają się znacznie częściej. Jeffrey Love i jego koledzy ze Służby Geologicznej Stanów Zjednoczonych informują na łamach Space Weather o wynikach analizy, jakiej poddali New York Railroad Storm, burzę magnetyczną z 1921 roku. Tego typu wydarzenia ocenia się według skali Dst (disturbance short time). To skala oceny uśrednionej aktywności pola magnetycznego Ziemi. Jeśli ulega ono osłabieniu, a tak się dzieje przy koronalnych wyrzutach masy ze Słońca, pojawiają się na niej wartości ujemne. Wartość bazowa Dst Ziemi wynosi około -20 nanotesli (nT). Wartości poniżej -250 nT są uznawane za superburzę. Naukowcy dysponują bardzo ograniczonym zestawem danych dotyczących burzy z 1859 roku i na tej podstawie uznają, że w tym czasie Dst wynosiło pomiędzy -850 a -1050 nT. Tymczasem, jak wynika z badań Love'a i jego zespołu, Dst podczas burzy z 1921 roku wynosiło około -907 nT. Burza z roku 1921 mogła być bardziej intensywna niż ta z roku 1859. Zanim przeprowadziliśmy badania wiedziano, że było to gwałtowne zjawisko, jednak nie wiedziano, do jakiego stopnia. Pomiary historycznych burz geomagnetycznych nie są proste. Obecnie dysponujemy całym szeregiem instrumentów monitorujących, jednak nasza wiedza od wydarzeniach sprzed roku 1957, kiedy to pojawił się indeks Dst, jest bardzo uboga, a dane opierają się na informacjach z różnych magnetometrów rozmieszczonych na całym świecie. Przed badaniami Love'a cała nasza wiedza o burzy z 1921 roku była oparta na danych z jednego obserwatorium na Samoa. Jednak autorom najnowszej analizy udało się dotrzeć do notatek wykonanych przez specjalistów z Australii, Hiszpanii i Brazylii. Dzięki temu mogli ocenić intensywność tego wydarzenia bardziej precyzyjnie niż wcześniej. Ich wyliczenia są też bardziej precyzyjne niż te, dotyczące burzy z 1859 roku, które opierają się na daych z jednego magnetometru w Indiach. Burza z 1921 roku została nazwana New York Railroad Storm od pożaru kolejowej wieży kontrolnej w Nowym Jorku, który wówczas wybuchł. Obecnie wiemy, że dowody na związek pomiędzy burzą, a tym pożarem są słabe. Jednak wiemy również, że tego samego dnia wybuchły też trzy inne wielkie pożary, które dotychczas przeoczono. Do jednego z nich doszło w wyniku pojawienia się silnych prądów indukcyjnych w telegrafach na stacji kolejowej w Brewster w stanie Nowy Jork. Stacja całkowicie spłonęła. Drugi z pożarów zniszczył centralę telefoniczną w Karlstad w Szwecji, a trzeci wybuchł w Ontario. Wiemy też, że burza ta przebiegła dwuetapowo. W Karlstad operatorzy centrali najpierw informowali o awarii i dymie. A gdy dym się rozwiał, nastąpił nagły pożar okablowania. Autorzy najnowszych badań dotarli tez do zapisków wskazujących, że zorzę polarną obserwowano wówczas na Samoa, w Arizonie i w pobliżu Paryża, a do awarii sieci telegraficznych i telefonicznych doszło w Wielkiej Brytanii, Nowej Zelandii, Danii, Japonii, Brazylii i Kanadzie. Wszystko zaś wskazuje na to, że mieliśmy do czynienia z wydarzeniem o średniej intensywności, które w ciągu kilku godzin znacznie się wzmocniło, powodując liczne problemy. Gdyby taka burza jak w 1921 roku miała miejsce dzisiaj, doszłoby to zakłócenia pracy wielu systemów. Doświadczylibyśmy wyłączeń prądu, awarii sieci telekomunikacyjnych, być może utraty niektórych satelitów. Nie twierdzę, że byłby to koniec świata, ale doszłoby do zniszczeń na wielką skalę, stwierdza Love. « powrót do artykułu
  23. Filtr stworzony na Uniwersytecie w Exeter może rozłożyć plastikowe mikrowłókna, które trafiają do wody podczas prania ubrań. Inteligentny filtr je wychwytuje i za pomocą zestawu enzymów rozkłada do 2 produktów: kwasu tereftalowego i glikolu etylenowego. W wysokich stężeniach związki te mogą być toksyczne, ale ilość wody wykorzystywana w czasie prania wystarczy do rozcieńczenia ich do bezpiecznego poziomu. Filtr opracowało 10 studentów z różnych kierunków. By rozpocząć produkcję filtra i jego montowanie w urządzeniach, grupa PETexe współpracuje z partnerami przemysłowymi, np. firmą Miele. Syntetyczne włókna, takie jak poliester czy nylon, stanowią sporą część materiałów ubraniowych. Mikrowłókna uwalnianie w czasie każdego prania spływają do oceanu. Przez to znajdują się w wodzie z kranu, jedzeniu, które spożywamy, a nawet w powietrzu, którym oddychamy. Nasz inteligentny filtr, zaprojektowany tak, by pasował do odpływu pralek, wychwytuje ok. 75% tych włókien i je rozkłada - wyjaśnia Rachael Quintin-Baxendale. Quintin-Baxendale dodaje, że rozłożenie w ten sposób większych kawałków plastiku zajęłoby dużo czasu, ale mikrowłókna są tak drobne, że mamy nadzieję rozłożyć je w pełni pomiędzy praniami. Obecnie eksperymentujemy z różnymi stężeniami enzymów, aby znaleźć optymalne warunki do tego procesu. Lydia Pike opowiada, że polimerem najczęściej wykorzystywanym w ubraniach jest poli(tereftalan etylenu), PET. Podstawowym enzymem stosowanym przez nas do rozłożenia go jest PETaza. Oprócz tego studenci pracują nad aplikacją, która pozwoli ludziom monitorować proces i zarządzać filtrem. Dzięki niej możliwe też będzie udostępnianie danych; członkowie PETexe wykorzystają je do poprawienia wydajności enzymów. Choć na obecnym etapie skupiamy się na pralkach, możliwe, że działające na podobnych zasadach filtry znajdą zastosowanie w fabrykach materiałów i w stacjach uzdatniania wody. Projekt jest wspierany i sponsorowany przez różne podmioty, w tym Google'a. Filtr uzyskiwany za pomocą drukarki 3D został stworzony na listopadowy iGEM (International Genetically Engineered Machine), czyli konkurs z dziedziny biologii syntetycznej organizowany przez MIT. PETexe ma jednak nadzieję, że pomysł uda się dalej rozwinąć... « powrót do artykułu
  24. Najnowszy raport na temat oceanów i lodu, przygotowany na zlecenie Międzyrządowego Zespołu ds. Zmian Klimatu (IPCC), pokazuje, że oceany tracą zdolność absorbowania ciepła i pochłaniania dwutlenku węgla z atmosfery. Innymi słowy, w coraz mniejszym stopniu łagodzą one zmiany klimatu. Od początku lat 90. ubiegłego wieku tempo ogrzewania się oceanów zwiększyło się dwukrotnie, a oceaniczne fale ciepła stają się coraz częstsze i bardziej intensywne. To zmienia ekosystem oceanu i napędza coraz potężniejsze sztormy. Oceany stają się też coraz bardziej kwaśne, co zagraża i rafom koralowym i rybołówstwu. Oceany nie są w stanie nadążyć za rosnącą emisją gazów cieplarnianych, mówi Ko Barrett, wiceprzewodniczący IPCC i wicedyrektor US NOAA. Konsekwencje dla natury i człowieka będą olbrzymie, dodaje. Raport został przygotowany przez ponad 100 naukowców z 30 krajów. Przed dwoma dniami opublikowano jego 42-stronicowe podsumowanie. Autorzy raportu prognozują, że jeśli emisja gazów cieplarnianych nadal będzie rosła, to do roku 2100 poziom oceanów zwiększy się o 1,1 metra. To o 10 centymetrów więcej, niż przewidywano w raporcie z 2013 roku. Richard Alley, geolog z Pennsylvania State University mówi, że szacunki te i tak są bardzo ostrożne, gdyż naukowcy nie są w stanie powiedzieć, kiedy może dojść do załamania się lądolodów, szczególnie w zachodniej Antarktyce. Jeśli to się stanie, zmiany w poziomie oceanów będą znacznie szybsze niż przewiduje raport. Przyrost poziomu oceanów może być albo nieco niższy, albo nieco wyższy, albo znacznie wyższy. Na pewno zaś nie będzie znacząco niższy, mówi Alley. Zwiększony poziom oceanów to wyższe ryzyko powodzi w czasie sztormów, które będą coraz częstsze i coraz silniejsze. Do roku 2050 powodzie, które obecnie uznajemy za powodzie stulecia, będą w wielu miejscach na świecie miały miejsce co roku. Jednak to, jak poważne będą zmiany klimatu wciąż będzie zależało od nas. Do roku 2300 poziom oceanów może wzrosnąć od 0,6 do 5,4 metra. Wszystko będzie zależało od tego, jak szybko ludzkość będzie zmniejszała emisję gazów cieplarnianych. Poziom oceanów będzie rósł przez kolejne wieki. Pytanie brzmi: czy będziemy w stanie tym zarządzać, mówi klimatolog Michael Oppenheimer z Princeton University i koordynator prac nad rozdziałem dotyczącym wzrostu poziomu oceanów. We wstępnej wersji raportu znalazła się też informacja, że z powodu wzrostu poziomu oceanów miejsce zamieszkania będzie musiało zmienić 280 milionów ludzi. Z ostatecznej wersji analizy dane te usunięto, gdyż naukowcy uznali, że źle zinterpretowali jedne z badań. Odnośnie zaś pokrywy lodowej naukowcy stwierdzili, że od roku 1979 letni minimalny zasięg lodu w Arktyce zmniejsza się średnio o 13% co dekadę. To prawdopodobnie najszybsze tempo od co najmniej 1000 lat. Około 20% ziemi w Arktyce jest narażonej na gwałtowne rozmarznięcie, co doprowadzi do obniżenia poziomu gruntu. Do końca wieku obszar Arktyki pokryty niewielkimi jeziorami może zwiększyć się o 50%. Z kolei w górach na całym świecie do roku 2100 może dojść do utraty 80% małych lodowców. Zmiany klimatu mają wpływ na obieg wody od najwyższych partii gór po głębiny oceaniczne, co odbija się na ekosystemie. Bez znacznych redukcji emisji do roku 2100 ogólna masa zwierząt morskich może zmniejszyć się o 15%, a masa maksymalnego połowu ryb spadnie aż o 24%. Jak mówi ekolog rybołówstwa Kathy Mills z Gulf of Maine Research Institute w Portland, na północnym Atlantyku wieloryby przeniosły się bardziej na północ w poszukiwaniu chłodniejszych wód, a to zwiększa ryzyko, że zaplączą się w sieci do połowu homarów. Zmiany w oceanach oznaczają, że w przyszłości ludzkość czekają poważne problemy, mówi Jane Lubchenco z Oregon State University, była szefoa NOAA. « powrót do artykułu
  25. Czy leczenie nowotworów bez chemio- czy radioterapii, nawet bez chirurgii jest możliwe? Biofizyk Khaled Barakat z University of Alberta pracuje nad innowacyjnymi immunoterapiami, które mają zwalczać wiele rodzajów raka dzięki pigułkom wzmacniającym układ odpornościowy. Na określenie tego pomysłu używamy słowa 'magia', gdyż koncepcja zakłada, że terapia nie jest związana z żadnym konkretnym nowotworem. Ma ona radzić sobie z problemami związanymi z każdym rodzajem nowotworów, stwierdza uczony. Po raz pierwszy o poszukiwaniu „magicznej pigułki” na raka Barakat poinformował przed czterema laty, gdy Alberta Cancer Foundation i Li Ka Shing Applied Virology Institute rozpoczęły warty 5,4 miliona dolarów projekt badawczy. Barakat stanął na czele zespołu złożonego z wybitnych onkologów, wirusologów, immunologów, chemików i farmaceutów. Do pomocy zaprzęgnięto też jeden z najszybszych superkomputerów na świecie Blue Gene/Q. Teraz, po czterech latach badań, zespół naukowy ogłosił, że wpadł na trop molekuły, która potencjalnie może posłużyć do stworzenia „magicznej pigułki”. To potężna molekuła. Wstępnie potwierdza, że dobrze wybraliśmy kierunek badań. A dzięki wytężonej pracy całego zespołu dokonujemy obiecujących postępów w badaniach nad kolejną molekułą, która ma inny cel, stwierdza Barakat. Nowotwory wykorzystują punkty kontrolne układu odpornościowego. To rodzaj molekularnych hamulców, które zapobiegają nadmiernej reakcji układu odpornościowego. Niektóre nowotwory potrafią aktywować wiele takich punktów, przez co rozwijający się guz nie jest atakowany przez limfocyty T. W ostatnich latach wielu specjalistów skupiło się na poszukiwaniu przeciwciał, które omijałyby punkto kontrolne i rekatywowały limfocyty T. W ubiegłym roku dwaj naukowcy, James Allison i Tasuku Honjo, otrzymali medycznego Nobla za badania nad sposobami walki z nowotworami z wykorzystaniem punktów kontrolnych układu immunologicznego. Terapia za pomocą przeciwciał monoklonalnych na zawsze zmieniło immunoterapię przeciwnowotworową. Jednak tego typu terapie obarczone są ryzykiem. Przeciwciała to duże molekuły, które mogą pozostawać w organizmie całymi miesiącami, co zwiększa prawdopobieństwo, że układ odpornościowy zacznie atakować własny organizm, niszcząc tkanki i narządy. Ponadto terapie za pomocą przeciwciał są kosztowne i skomplikowane. Barakat i jego zespół spędzili ostatnie cztery lata na próbach stworzenia, za pomocą komputera Blue Gene/Q małej molekuły, która reaktywowałaby unieruchomiony przez nowotwór układ odpornościowy i nie niosła ze sobą ryzyka powikłań. Gdy już stworzyli taką wirtualną molekułę, zsyntetyzowali ją. Ta już stworzona molekuła ma oddziaływać na punkt kontrolny PD-1 i powodować, że układ odpornościowy zaatakuje komórki czerniaka. Jednocześnie trwają prace nad drugą molekułą, oddziałującą na punkt kontrolny CTLA-4. Punkt PD-1 hamuje proliferację limfocytów T i wytwarzanie cytokin, z kolei CTLA-4 hamuje aktywację limfocytów T. Olbrzymią zaletą opracowywanych molekuł jest fakt, że organizm pozbywa się ich w ciągu godzin. Ponadto, jako że są zancznie mniejsze niż przeciwciała, mogą wniknąć głębiej w tkankę. Prawdopodobnie można je będzie również tanio wytwarzać i podawać w formie pigułki. A jako, że za cel biorą punkty kontrolne, mogą potencjalnie służyć do walki z wieloma rodzajami nowotworów, od czerniaka i raka piersi, poprzez chłoniaka po raka mózgu. Barakat i jego zespół założyli już firmę, której zadaniem jest wyjście poza uniwersyteckie badania laboratoryjne i rozpoczęcie testów na zwierzętach. Mają nadzieję, że uzyskają dofinansowanie od firmy farmaceutycznej, dzięki czemu będą mogli zatrudnić „armię chemików”. Zadaniem tego zespołu, na którego czele miałby stanąć chemik Frederick West, będzie stworzenie kilku tysięcy analogów i derywatów wspomnianych molekuł oraz ich przetestowanie. W ten sposób uczeni powinni znaleźć molekułę o optymalnej budowie. Taką, która nie tylko będzie spełniała postawione przed nią zadania, ale będzie też odpowiednio rozpuszczalna, silna i miała możliwe najniższą toksyczność. To jak układanie kostki Rubika. Mamy działające rozwiązanie. Teraz musimy wszystko odpowiednio poskładać. Aby to zrobić potrzebujemy zespołu 60 chemików. Obecnie mamy ich 4-5, stwierdza Barakat. Nowo założona firma nazywa się HEKA Therapeutics. Heka był bogiem magii w starożytnym Egipcie. Magia jest wymagająca, ale możliwa, mówi Barakat. Ze szczegółami badań można zapoznać się w Scientific Reports. « powrót do artykułu
×
×
  • Dodaj nową pozycję...