Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36962
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Nowotwory mózgu opierają się immunoterapii, zatrzymując limfocyty T w szpiku kostnym. Pewne nowotwory mózgu wiążą się z niską liczbą limfocytów T w krwi obwodowej. Może to być skutkiem terapii onkologicznej, ale okazuje się, że istnieje też inne zjawisko, które odpowiada za taki stan. Zespół naukowców, m.in. z Uniwersytetu w Osace, ujawnił dużą liczbę limfocytów T uwięzionych w szpiku. Japończycy zaproponowali mechanizm, za pośrednictwem którego nowotwory sekwestrują te komórki. Autorzy artykułu z pisma Nature Medicine przyglądali się wynikom badań obrazowych i laboratoryjnych pacjentów z nowotworami mózgu. Potwierdzili, że w porównaniu do grupy kontrolnej, mieli oni niski poziom limfocytów T i to nawet przed rozpoczęciem terapii. Obkurczona śledziona wskazywała, że limfocyty się tu nie ukrywały. Podobne wyniki uzyskiwano u myszy. Analiza szpiku gryzoni pokazała jednak, że znajdowała się tu duża liczba limfocytów T. Gdy zbadaliśmy szpik kostny ludzi, odkryliśmy tę samą sekwestrację limfocytów, co u myszy. Kiedy w mózgu był guz, komórki odpornościowe, które normalnie by go atakowały, pozostawały w szpiku - tłumaczy Pakawat Chongsathidkiet. Za pomocą cytometrii przepływowej specjaliści wykazali, że istnieje silna odwrotna zależność między poziomem białka powierzchniowego S1P1 limfocytów T i liczbą limfocytów T w szpiku. Funkcjonalne S1P1 jest limfocytom potrzebne do opuszczenia szpiku i innych narządów układu odpornościowego, np. śledziony, grasicy i węzłów chłonnych. Na szczęście naukowcy znaleźli sposób na oswobodzenie limfocytów. Blokowanie zdolności komórki do internalizowania S1P1 powodowało, że limfocyty T wydostawały się ze szpiku. Spodziewamy się, że nasze wyniki zapewnią wskazówki, które pomogą zwiększyć wpływ immunoterapii na guzy mózgu. [Dzięki temu] będzie się dało pobudzić uwięzione limfocyty T do migrowania i atakowania guzów - podsumowuje Shohei Koyama. « powrót do artykułu
  2. Spożywanie umiarkowanych ilości węglowodanów wydaje się najbardziej korzystne dla zdrowia, dowiadujemy się z najnowszego The Lancet. Badania, podczas których obserwowano ponad 15 400 Amerykanów biorących udział w Atherosclerosis Risk in Communities Study (ARIC) wykazały, że diety niskowęglowodanowa, gdy z węglowodanów pochodzi mniej niż 40% energii, oraz wysokowęglowodanowa (>70% energii) są powiązane ze zwiększoną śmiertelnością. Najmniejsze ryzyko zgonu wiązało się z umiarkowanym spożyciem węglowodanów (50–55% energii). Wnioski takie potwierdzono za pomocą metaanalizy danych obejmujących ponad 432 000 osób z ponad 20 krajów. Wykazała ona, że nie wszystkie diety niskowęglowodanowe są sobie równe. Jeśli węglowodany zastępujemy białkiem i tłuszczem zwierzęcym z mięsa czy sera, dieta taka jest powiązana z większym ryzykiem zgonu. Tam, gdzie węglowodany zostały zastąpione białkiem i tłuszczem roślinnym, ryzyko zgonu było mniejsze. Musimy bardzo rozważnie wybierać diety, mówi doktor Sara Seidelmann z Brigham and Women's Hospital w Bostonie, która stała na czele zespołu badawczego. Diety niskowęglowodanowe, w których węglowodany są zastępowane białkiem i tłuszczem, stają się coraz bardziej popularne wśród ludzi chcących żyć zdrowo i się odchudzić. Jednak nasze analizy pokazują, że powszechne w Europie i Ameryce Północnej diety niskowęglowodanowe oparte na produktach zwierzęcych są powiązane ze skróceniem życia i powinno się ich unikać. Jeśli już ktoś chce stosować dietę niskowęglowodanową, to zastąpienie węglowodanów tłuszczami i białkami roślinnymi może zapewnić dłuższe zdrowsze życie, stwierdza uczona. Wcześniejsze badania wykazały, że diety niskowęglowodanowe są w krótkim terminie korzystne dla układu krążenia i pozwalają schudnąć. Jednak badania nad ich długoterminowym wpływem na zdrowie przyniosły mieszane wyniki. Co więcej, podczas wcześniejszych badań nie brano pod uwagę rodzaju i źródła białka i tłuszczu, którymi zastępowano węglowodany. Podczas najnowszych badań pod uwagę wzięto dane 15 428 osób w wieku 45–64 lat, które przystąpiły do badania ARIC w latach 1987–1989. Mężczyźni, którzy brali w nich udział spożywali od 600 do 4200 kalorii dziennie, a kobiety od 500 do 3600 kalorii. A analizy wykluczono dane osób przyjmujących skrajne ilości kalorii. Na początku badań oraz 6 lat później uczestnicy wypełniali kwestionariusze, w których informowali co jedli i pili, jakie ilości i jak często. Na tej podstawie wyliczano spożycie węglowodanów, tłuszczów i białek. Po uwzględnieniu takich czynników jak wiek, płeć, rasa, ogólna ilość przyjmowanych kalorii, poziom wykształcenia, aktywność fizyczna, dochody, palenie papierosów i cukrzyca, oceniano związek pomiędzy ilością spożywanych węglowodanów a śmiertelnością. Uczeni sprawdzili też, ilu uczestników badań wciąż żyje. Okazało się, że po 25 latach po przystąpieniu do ARIC zmarły 6283 osoby. Wykres zależności spożycia węglowodanów i śmiertelności układał się w kształt litery U. Osoby pobierające z węglowodanów mniej niż 40% energii oraz więcej niż 70% energii były narażone na większe ryzyko zgonu, niż ci, którzy pobierali z nich 50–55% energii. Obliczenia wykazały, że po osiągnięciu 50. roku życia spodziewana długość życia dla osób z grupy spożywającej umiarkowane ilości węglowodanów wynosiła 33 lata. Dla osób spożywających mało węglowodanów spodziewana długość życia wynosiła 29 lat, a dla grupy spożywającej dużo weglowodanów – 32 lata. Naukowcy zauważają jednak, że jako iż  informacje o diecie zbierano na początku ARIC i 6 lat później, to nie można wykluczyć, że po 25 latach badani zmienili swoją dietę. Kolejnym etapem badań sporządzono metaanalizę 432 179 przypadków z Ameryki Północnej, Europy i Azji. Wykazała ona istnienie podobnego trendu – osoby spożywające dużo i mało węglowodanów żyły krócej niż ci, którzy jedli ich umiarkowane ilości. Doktor Seidelmann zwraca też uwagę, że przyglądając się wynikom tych badań trzeba brać poprawkę na czynniki kulturowe. W Ameryce Północnej i Europie średnia konsumpcja węglowodanów zapewnia 50% energii, tymczasem w Azji jest to 60%. Zatem zalecana konsumpcja węglowodanów może być przez Azjatów postrzegana jako niska. Podczas kolejnych analiz naukowcy skupili się na białkach i tłuszczach, którymi zastępowane są węglowodany. Wykazali, że jeśli zostaną one zastąpione produktami zwierzęcymi, to dieta taka będzie bardziej szkodliwa niż umiarkowane spożycie węglowodanów. Jeśli zaś zastąpimy je produktami roślinnymi, dieta będzie korzystna i zmniejszy się ryzyko zgonu. W naszych badaniach wyjaśniliśmy kilka niejasnych dotychczas rzeczy. Zbyt dużo i zbyt mało węglowodanów jest szkodliwe, ale najważniejsze jest to, jaki rodzaj tłuszczu, białka i węglowodanów przyjmujemy, mówi współautor badań profesor Walter Willett z Uniwersytetu Harvarda. Biorąc pod uwagę wyniki innych badań uczeni sądzą, że na Zachodzie, gdzie dieta niskowęglowodanowa często wiąże się z ograniczeniem spożycia warzyw, owoców i ziaren oraz ze wzrostem spożycia produktów zwierzęcych, prowadzi ona do zwiększonego ryzyka śmierci. « powrót do artykułu
  3. Wiele wskazuje, że ekstrakt z liści klonu czerwonego zawojuje rynek kosmetyczny. Naukowcy wykazali bowiem, że zapobiega on powstawaniu zmarszczek. Wcześniej specjaliści analizowali chemię i wpływ na zdrowie soków i syropu uzyskiwanego z klonu cukrowego i klonu czerwonego. Historyczne zapiski sugerowały jednak, że inne części drzew także mogą być użyteczne. Indianie wykorzystywali liście klonu czerwonego w swojej tradycyjnej medycynie. Dlaczego mielibyśmy więc ignorować liście? - pyta retorycznie dr Navindra P. Seeram z Uniwersytetu Rhode Island. Zmarszczki powstają, gdy enzym elastaza rozkłada elastynę w skórze. "Chcieliśmy sprawdzić, czy wyciągi z liści klonu czerwonego mogą zmniejszyć aktywność elastazy" - opowiada dr Hang Ma. Amerykanie skoncentrowali się na fenolowych związkach z liści: galotaninach zawierających rdzeń z sorbitolu (ang. glucitol-core-containing gallotannins, GCGs). Sprawdzali, w jaki sposób GCGs wchodzą w interakcje z elastazą, by zahamować jej aktywność i jak budowa cząsteczki wpływa na zdolność hamowania działania enzymu. Okazało się, że GCGs z wieloma grupami 3,4,5-trihydroksybenzoilowymi (ang. galloyl groups) były skuteczniejsze od GCGs z jedną taką grupą. Akademicy podkreślają, że GCGs mogą znacznie więcej niż li tylko przeszkadzać elastazie. Wcześniejsze badania grupy Seerama pokazały bowiem, że chronią one skórę przed stanem zapalnym i rozjaśniają ciemne plamy, takie jak piegi czy plamy soczewicowate. "Można sobie wyobrazić, że te ekstrakty będą napinać ludzką skórę jak roślinny botoks. Tyle tylko, że zabieg będzie polegał na miejscowej aplikacji, a nie na wstrzykiwaniu toksyny". Seeram i Ma opracowali oczekujący na przyznanie patentu preparat Maplifa, który zawiera GCGs z letnich i jesiennych liści oraz soku klonu. Ekipa liczy na znalezienie rynku dla Maplify w sektorze kosmetycznym i suplementów diety. « powrót do artykułu
  4. Truskawki pomagają zmniejszyć stan zapalny jelita grubego. Dr Hang Xiao z Uniwersytetu Massachusetts w Amherst i jego zespół podkreślają, że jeśli wyniki uda się powtórzyć na ludziach, za pomocą prostej interwencji dietetycznej będzie można zmniejszać stan zapalny i poprawiać stan zdrowia pacjentów z nieswoistymi zapaleniami jelit (ang. inflammatory bowel disease, IBD), np. chorobą Leśniowskiego-Crohna. Doktorant Yanhui Han zaznacza, że większość wcześniejszych raportów dotyczyła oddziaływania oczyszczonych związków i ekstraktów z truskawek. Kiedy jednak testuje się wyłącznie oczyszczone substancje i wyciągi, pomija się wiele innych ważnych składników, np. błonnik, a także związane z nim związki fenolowe. Dzieje sie tak, bo nie da się ich wyekstrahować za pomocą rozpuszczalników. Istnieje też inna przyczyna, dla której warto badać wpływ całych owoców: w realnym życiu ludzie jedzą głównie truskawki, a nie wyciągi z nich. W eksperymencie uwzględniono 4 grupy myszy: zdrową żywioną w standardowy sposób, a także 3 grupy myszy z nieswoistym zapaleniem jelit wywołanym siarczanem sodowym dekstranu, którym podawano zwykłą karmę albo paszę zawierającą 2,5% lub 5% proszku z całych truskawek. Okazało się, że spożycie odpowiadające 3/4 kubka truskawek u ludzi znacząco hamowało objawy, np. utratę wagi czy wodnistą biegunkę. Naukowcy zaobserwowali, że w ten sposób można też było obniżyć wskaźnik aktywności choroby oraz zapobiec skróceniu jelita i powiększeniu śledziony. Oprócz tego dzięki diecie uwzględniającej truskawki udawało się zmniejszyć liczebność prozapalnych komórek w błonie śluzowej jelita grubego. Towarzyszyło temu zahamowanie nadprodukcji prozapalnych cytokin, takich jak TNF-α, IL-1β i IFN-γ. Dodatkowo analizy immunohistochemiczne pokazały, że truskawki zmniejszyły ekspresję prozapalnych białek w śluzówce jelita. Naukowcy przypominają, że związany z IBD stan zapalny zmienia skład mikrobiomu jelitowego: liczebność bakterii szkodliwych wzrasta, a korzystnych spada. Podczas testów dieta zawierająca truskawki częściowo odwracała zmiany mikroflory wywołane przez siarczan sodowy dekstranu: zwiększała się liczebność bakterii z rodzajów Lactobacillus i Bifidobacterium, a obniżała tych z rodzajów Akkermansia i Dorea. W ten sposób udawało się też odtworzyć produkcję krótkołańcuchowych kwasów tłuszczowych w jelicie ślepym. Ekipa Xiao uzyskała eksperymentalne dowody, że truskawki mogą wpływać na anormalne szlaki metaboliczne u myszy z IBD, co prowadzi do obserwowanego zmniejszenia stanu zapalnego jelita. W przyszłości Amerykanie chcą zweryfikować swoje ustalenia na ludziach z IBD. « powrót do artykułu
  5. Obecnie wykorzystywane technologie rozpoznawania obrazów bazują na sztucznej inteligencji. Komputery uczą się odróżniać na zdjęciach i filmach różne przedmioty, ludzi czy zwierzęta. Problem jednak w tym, że proces ten wymaga dużych mocy obliczeniowej i dużych ilości energii, przez co systemy takie nie będą nadawały się np. do przyszłych przenośnych urządzeń medycznych. Naukowcy z Uniwersytetu Stanforda zaprojektowali system, który potrafi znacznie szybciej klasyfikować obrazy, używając przy tym znacznie mniej energii. Samochody autonomiczne mają pod masą dość duże, dość powolne i zużywające dużo energii komputery, mówi profesor Gordon Wetzstein, który stał na czele grupy badawczej. W przyszłości będziemy potrzebowali czegoś szybszego i mniejszego. Wetzstein i Julie Chang postanowili wykonać taki właśnie krok ku przyszłości, tworząc rodzaj optyczno-elektrycznego komputera wyspecjalizowanego w analizie obrazów. Pierwszą warstwą ich prototypowej kamery jest warstwa optyczna, która wstępnie przetwarza obraz. Warstwa druga to tradycyjny komputer. W warstwie optycznej ma miejsce fizyczne przetwarzanie danych z obrazu, który jest po prostu filtrowany na różne sposoby. Jako, że proces ten ma miejsce w miarę przechodzenia światła przez kolejne filtry, całość odbywa się z olbrzymią prędkością i nie wymaga zasilania. Przekazaliśmy optyce część zadań wykonywanych dotychczas przez procesory i sztuczną inteligencję, mówi Chang. W wyniku takiego podejścia cały system ma do przeprowadzenia znacznie mniej obliczeń, znacznie rzadziej odwołuje się do pamięci, a całość trwa znacznie szybciej. Dzięki pominięciu wstępnego przetwarzania obrazu przez procesor osiągnięto wiele korzyści. Pominęliśmy miliony obliczeń, a wszystko to z prędkością światła, mówi Wetzstein. Testy pokazały, że zbudowany prototyp może konkurować pod względem prędkości i dokładności z obecnie używanymi systemami rozpoznawania obrazu. I wystarczy mu do tego znacznie mniej obliczeń. Bez problemu rozpoznawał samoloty, samochody, koty, psy i wiele innych obiektów. Prototyp jest duży, jednak jesto twórcy nie wykluczają, że w przyszłości zostanie zminiaturyzowany na tyle, by mieścić się w kamerze wideo. Przyszłe wersje naszego systemu będzie można wykorzystać do szybkiego podejmowania decyzji np. przez samochody autonomiczne, dodaje Wetzstein. « powrót do artykułu
  6. Jeden na 15 Amerykanów (6,5%) w wieku powyżej 40 lat doświadcza fantomowych (nieistniejących) zapachów. Autorzy raportu z JAMA Otolaryngology-Head and Neck Surgery jako pierwsi wykorzystali dane reprezentatywne dla Amerykanów, by określić częstość występowania i czynniki ryzyka fantomowego postrzegania zapachów. Zespół dr Kathleen Bainbridge z Narodowego Instytutu Głuchoty i Innych Problemów Komunikacyjnych analizował dane 7417 uczestników 2011-2014 National Health and Nutrition Examination Survey (NHANES) w wieku powyżej 40 lat. Mimo ich istotności, problemy z powonieniem są często przeoczane. [Tymczasem] mogą one mieć wielki wpływ na apetyt, preferencje pokarmowe i zdolność wyczuwania sygnałów zagrożenia, np. ognia, wycieków gazu czy zepsutego jedzenia - opowiada dr Judith A. Cooper. Prof. Donald Leopold z Centrum Medycznego Uniwersytetu Vermont dodaje, że często jakość życia pacjentów doświadczających silnych woni fantomowych jest bardzo zła. Niejednokrotnie nie udaje im się utrzymać zdrowej wagi. By ustalić, czy dana osoba doświadczała zapachów fantomowych, czy nie, naukowcy wykorzystali pytanie zadawane w ramach NHANES: Czy czasem czujesz nieprzyjemny lub przypominający spaleniznę zapach, gdy w rzeczywistości w otoczeniu niczego takiego nie ma? Próbując określić korelacje między zapachami fantomowymi a cechami badanych, akademicy przyglądali się ich wiekowi, płci, wykształceniu, pochodzeniu etnicznemu, statusowi socjoekonomicznemu, pewnym nawykom zdrowotnym i ogólnemu stanowi zdrowia. Ekipa Bainbridge przypomina, że we wcześniejszym badaniu przeprowadzonym w szwedzkiej społeczności wykazano, że woni fantomowych doświadczało 4,9% ludzi powyżej 60. r.ż. Zjawisko to występowało częściej u kobiet niż u mężczyzn. Studium amerykańskie wykazało podobną chorobowość w grupie ludzi w wieku 60+. Co jednak ciekawe, częstość występowania woni fantomowych w grupie wiekowej 40-60 lat była jeszcze większa. O występowaniu woni fantomowych wspominało circa 2-krotnie więcej kobiet niż mężczyzn, a przewaga pań była szczególnie widoczna w przypadku wieku poniżej 60 lat. Czynnikami ryzyka dla zapoczątkowania zapachów fantomowych okazały się również urazy głowy, kserostomia (czyli suchość w jamie ustnej), zły ogólny stan zdrowia oraz niski status socjoekonomiczny. Naukowcy dywagują, że osoby z niskim statusem socjoekonomicznym mogą być bardziej narażone na kontakt z zanieczyszczeniami środowiskowymi i toksynami albo częściej mają choroby, które przyczyniają się do woni fantomowych bezpośrednio lub przez leki używane do ich terapii. Przyczyny postrzegania zapachów fantomowych nie są [dobrze] poznane. Zjawisko to może mieć coś wspólnego z nadreaktywnymi neuronami receptorowymi węchu lub problemami dotyczącymi części mózgu odpowiedzialnej za rozumienie sygnałów zapachowych [...] - podsumowuje Bainbridge. « powrót do artykułu
  7. Zdaniem międzynarodowego zespołu naukowego, wszechświat jest pełen planet zawierających wodę. Uczeni uważają, że jest ona ważnym składnikiem egzoplanet o rozmiarach od 2 do 4 wielkości Ziemi. To była dla nas wielka niespodzianka, gdy zdaliśmy sobie sprawę, że musi być tak dużo wodnych światów, mówi główny autor badań, doktor Li Zen z Uniwersytetu Harvarda. Z badań, przeprowadzonych za pomocą teleskopów Keplera i Gaia wynika bowiem, że wiele ze znanych nam egzoplanet zawiera do 50% wody. Dla porównania, na Ziemi woda stanowi zaledwie 0,02% masy planety. Wiele z potwierdzonych dotychczas około 4000 egzoplanet można zaliczyć do jednej z dwóch kategorii: takich, których średnica wynosi około 1,5 średnicy Ziemi oraz takich o średnicy około 2,5 średnicy naszej planety. Po przeanalizowaniu średnic i mas badanych egzoplanet uczeni stworzyli model ich budowy. Sprawdziliśmy, jak masa ma się do średnicy i stworzyliśmy model wyjaśniający tę zależność, mówi Li Zeng. Wynika z niego, ze planety o średnicy do 1,5 średnicy Ziemi to zwykle światy skaliste o masie 5-krotnie większej niż masa naszej planety. Z kolei te o średnicy 2,5-krotnie większej od średnicy Ziemi mają masę 10-krotnie większą od naszej planety i są światami wodnymi. Tam występuje woda, ale nie jest ona tak powszechnie dostępna jak na Ziemi. Temperatury powierzchni tych planet wynoszą 200–500 stopni Celsjusza, są otoczone atmosferą zdominowaną przez parę wodną z płynną warstwą poniżej. W głębi planety woda ta, pod wpływem wysokiego ciśnienia, została prawdopodobnie zmieniona w lód. Jeszcze niżej jest skaliste jądro planety. Piękno naszego modelu polega na tym, że wyjaśnia nam, jak skład planety ma się do znanych nam danych na jej temat, mówi Li Zeng. Nasze dane wskazują, że około 35% egzoplanet większych od Ziemi powinno być bogate w wodę. Te wodne światy formowały się w podobny sposób, jak jądra dużych planet Układu Słonecznego. Niedawno rozpoczęta misja TESS pozwoli na znalezienie większej ich liczby, a w przyszłości teleskop Jamesa Webba pozwoli na zbadanie ich atmosfery. To ekscytujący okres dla badaczy egzoplanet, stwierdza uczony. « powrót do artykułu
  8. Jak informuje Sabin Center for Climate Change Law z Columbia University, na koniec lipca bieżącego roku w 24 krajach świata sądy rozpatrywały ponad 1000 pozwów dotyczących zmian klimatycznych skierowanych przeciwko rządom, korporacjom i osobom indywidualnym. Aż 888 takich spraw wniesiono w Stanach Zjednoczonych. Spora ich część to pozwy wniesione przez bardzo młodych ludzi. W kwietniu bieżącego roku Sąd Najwyższy Kolumbii uznał racje skarżących, 25 osób w wieku 7–26 lat, którzy pozwali rząd kraju, korporacje i władze lokalne stwierdzając, że wycinka amazońskich lasów zagraża ich prawu do życia w zdrowym środowisku, pozbawia ich możliwości cieszenia się zdrowiem, dostępu do czystej wody i żywności. Sąd uznał, że Amazonia ma być chroniona i dał rządowi 5 miesięcy na opracowanie i wdrożenie planu powstrzymania wylesiania Amazonii. W USA najgłośniejszą sprawą wniesioną przez młodych ludzi jest pozew tzw. „climate kids”. To grupa 21 młodych ludzi w wieku 11–22 lat z 10 stanów. Pozew Juliana vs. U.S. został złożony w Sądzie Okręgowym w Oregonie w roku 2015 i wówczas jako pozwanych wymieniono w nim prezydenta Obamę i wielu urzędników rządowych. W pozwie czytamy, że brak odpowiednich działań przeciwko globalnemu ociepleniu narusza prawa najmłodszej generacji do życia, wolności i własności oraz oznacza, że rząd nie chroni odpowiednio powierzonych mu zasobów publicznych. Po stronie rządu początkowo opowiedział się przemysł wydobywczy. Przedstawiciele administracji prezydenta Obamy oraz koncernów próbowali nie dopuścić do przyjęcia sprawy przez sąd. Pierwszą sprawę rządzący i koncerny przegrały w kwietniu 2016 roku, kiedy to sąd oddalił ich żądania dotyczące odrzucenia oskarżenia. Doszło do apelacji, którą administracja Obamy i koncerny znowu przegrały. Po kolejnych nieudanych próbach obalenia pozwu przed jego rozpatrzeniem, w czerwcu 2017 roku sąd, na wniosek przedstawicieli koncernów, pozwolił im wycofać się ze sprawy i ustalił termin rozpoczęcia procesu na 5 lutego 2018 roku. W tym czasie w Białym Domu rządził już prezydent Trump, więc obecnie sprawa toczy się przeciwko niemu i jego administracji. Nowa administracja przyjęła agresywną taktykę prawną, wskutek czego nie udało się rozpocząć procesu w zaplanowanym terminie. Sprawa trafiła do Dziewiątego Okręgowego Sądu Apelacyjnego, który wyznaczył nowy termin rozprawy na 29 października bieżącego roku. Administracja prezydencka nie miała jednak zamiaru składać broni. Starano się zarówno przekonać sąd wyższej instancji do wydania sądowi niższej nakazu oddalenia sprawy, jak i proszono sąd o wydanie wyroku uproszczonego na podstawie dotychczas zgromadzonych dokumentów. Sąd uznał te działania za zmierzające do przedłużania sprawy i oddalił wnioski Białego Domu. W końcu 30 lipca zapadła najważniejsza z dotychczasowych decyzji. Sąd Najwyższy USA odrzucił wniosek Białego Domu o zawieszenie sprawy, nakazał rozpoczęcie procesu w zaplanowanym terminie 29 października i zabronił rządowi składania wniosków o wcześniejsze rozpatrzenie sprawy zanim „climate kids” nie przedstawią przed sądem wszystkich swoich argumentów. Większość ludzi wie, że zmiany klimatu mają miejsce, ale odsuwają tę myśl od siebie, by móc żyć w dotychczasowy sposób, mówi 15-letni Isaac Vergun, jeden z „climate kids”. To nie ich wina. Oni nie potrafią inaczej, dodaje 13-letni Zealand Bell. Specjaliści z Sabin Center mówią, że trudno będzie przekonać sąd, by uznał prawo do życia w czystym środowisku za jedno z podstawowych praw człowieka. Kolumbijskie i amerykańskie dzieci nie są same. Podobnej natury sprawy sądowe oczekują na rozpatrzenie w Pakistanie i Indiach. Sąd w Norwegii odrzucił zaś pozew Greenpeace'u i młodzieżowej organizacji ekologicznej, które próbowały powstrzymać planowane wydobycie gazu i ropy w Arktyce. « powrót do artykułu
  9. Czternastego sierpnia na śrubę statku Instytutu Oceanologii PAN s/y Oceania nawinęła się unosząca się pod powierzchnią wody, niewidoczna dla nawigatorów zerwana sieć trałowa, tzw. sieć widmo (ang. ghost net). Prowadzący badania na szelfie Spitsbergenu statek dryfował, a ponieważ inspekcja wykonana za pomocą kamery pokazała, że załoga nie jest w stanie usunąć awarii, kapitan zdecydował o powiadomieniu gubernatora Spitsbergenu i norweskiej straży przybrzeżnej. Dzięki okrętowi Nordkapp z ekipą nurków po kilkunastu godzinach było już po wszystkim. Akcję przeprowadzono nieodpłatnie. Naukowcy przypominają, że sieci widmo stanowią zagrożenie nie tylko dla jednostek pływających, ale i dla przyrody. Są wykonane z grubego materiału przypominającego nylon i latami unoszą się w wodzie. Chwytają się w nie ryby, ptaki i ssaki morskie. Gdy morze wyrzuci je na brzeg, nadal zbierają krwawe żniwo wśród zwierząt. W 2017 r. zespół z Instytutu Oceanografii Polskiej Akademii Nauk doliczył się np. około 100 szkieletów reniferów, które zginęły na wybrzeżach Spitsbergenu po zaplątaniu w sieci. Wg WWF-u, zalegające w morzu sieci widma wciąż generują niekontrolowany przyłów, a ich skuteczność sięga nawet 20%. Jak mówi Marta Kalinowska, w polskiej strefie przybrzeżnej Bałtyku może być nawet do 810 t takich sieci. Ujmując statystyki obrazowo, ekspertka dodaje, że to ciężar opowiadający masie 5 dorosłych płetwali błękitnych. Rozwiązaniem wydaje się wyłowienie "ghost nets" za pomocą ciągniętego za kutrem specjalnego drapaka, tzw. szukarka i/lub oczyszczanie wraków, bo to w nie wplątuje się spora część sieci. WWF Polska chwali się, że od 2011 r. prowadzi działania na rzecz wyławiania sieci widmo. Do tej pory dzięki wspólnemu wysiłkowi wyłowiono już 300 t sieci. « powrót do artykułu
  10. Z najnowszego numeru Current Biology dowiadujemy się o zaskakujących różnicach pomiędzy płciami w postrzeganiu ruchu. Okazuje się, że mężczyźni zauważają ruch znacznie szybciej niż kobiety. Podczas eksperymentów zaobserwowano, że obie płci równie dobrze rozpoznają, czy czarne i białe pasy na ekranie poruszają się w prawo czy w lewo. Potrafimy to ocenić często w czasie krótszym niż dziesiąte części sekundy. Jednak testy wykazały też, że kobietom zajmuje to od 25 do 75 procent więcej czasu. Zdaniem badaczy niekoniecznie oznacza to, że u mężczyzn mamy do czynienia z szybszym przetwarzaniem obrazów. Zauważają bowiem, że podobne zjawisko szybszej oceny kierunku ruchu występuje o osób z autyzmem i depresją. Niewykluczone, że u osób takich mamy do czynienia z zaburzeniami aktywności neuronów związanych z przetwarzanie obrazu i podobne zjawisko występuje u mężczyzn. Byliśmy niezwykle zaskoczeni. Dotychczas zdobyto bardzo mało dowodów na międzypłciowe różnice w niskopoziomowym przetwarzaniu obrazów. Szczególnie mało jest tak znaczących różnic, jak obecnie zaobserwowaliśmy, mówi Scott Murray z University of Washington. Murray i Duje Tadin z University of Rochester wykorzystywali test ruchomych pasów do badania osób z autyzmem. Choroby ze spektrum autyzmu aż 4-krotnie częściej dotykają chłopców niż dziewczynek. Dlatego też badacze zwracali podczas eksperymentu uwagę na płeć uczestników. Grupą kontrolą były osoby zdrowe. Uczeni mówią, że różnice pomiędzy płciami w postrzeganiu ruchu  stały się bardzo szybko widoczne. Aby potwierdzić swoje odkrycie poprosili inny zespół badawczy o przeprowadzenie takiego samego eksperymentu na dodatkowej, większej grupie osób. Dodatkowe badanie potwierdziło to, co zauważyli Murray i Datin. Naukowcy mówią, że zaobserwowanych różnic nie da się wytłumaczyć prędkością przetwarzania danych, zdolnościami do widzenia czy różnicami w motoryce. Ich występowania nie widać też na skanowaniu mózgu metodą funcjonalnego rezonansu magnetycznego. Okazuje się zatem, że pomiędzy kobietami a mężczyznami istnieją nierozpoznane wcześniej różnice w przetwarzaniu obrazów. Ich odkrycie może pozwolić na znalezienie kolejnych różnic w przetwarzaniu sygnałów wizyjnych pomiędzy płciami. Dlatego też naukowcy uważają, że podczas badań nad percepcją i procesami poznawczymi trzeba brać pod uwagę płeć osoby badanej. Fakt, że różnice nie były widoczne na fMRI wskazuje, że albo występują one w innym obszarze mózgu niż obrazowany, albo też współczesne techniki nie pozwalają na zauważenie tych różnic. Być może dzięki tym badaniom uda się w przyszłości zrozumieć, dlaczego chłopcy chorują na autyzm znacznie częściej niż dziewczynki. « powrót do artykułu
  11. Czterdziestodwuletniej pacjentce, która uskarżała się na opuchliznę i ptozę powieki lewego oka, usunięto otorbioną sztywną soczewkę gazoprzepuszczalną (ang. rigid gas permeable contact lens, RGP). Soczewka dostała się tam po uderzeniu lotką od badmintona 28 lat wcześniej. Pacjentka sądziła, że RGP wypadła i przez większość czasu po wypadku nie miała żadnych problemów. Mieszkanka Dundee w Szkocji zgłosiła się do lekarza z powodu opadania powieki i opuchlizny (drugi z objawów występował od pół roku). Ostatecznie kobieta trafiła do Sirjhuna Patela, Lai-Ling Tan i Helen Murgatroyd z Ninewells Hospital & Medical School. Specjaliści podejrzewali, że chodzi o zwykłą cystę. Ich wstępną diagnozę potwierdził rezonans magnetyczny, który wykazał obecność 6-mm torbieli z białkową zawartością. Podczas zabiegu po rozcięciu torbieli lekarze zauważyli jednak ciało obce. Ponieważ wydawało się bardzo kruche, trzeba je było ostrożnie wyciągać. Szybko okazało się, że to soczewka RGP, która przez lata tkwiła w tkankach miękkich. Okuliści podkreślają, że nie było oznak sugerujących wcześniejszy uraz powieki czy tarczki. Pacjentka upierała się, że od dziesięcioleci nie nosiła takich soczewek i nie ma pojęcia, skąd RGP wzięła się w jej oku. Podczas szczegółowego wywiadu matka 42-latki przypomniała sobie, że jako nastolatka córka dużo grała w badmintona i pewnego razu została uderzona lotką w lewe oko. Pacjentka została uderzona [...] lotką, gdy grała w badmintona w wieku 14 lat. Nosiła wtedy soczewkę RGP, której nigdy nie znaleziono. Założono więc, że szkło wypadło i się zgubiło - napisali autorzy publikacji z British Medical Journal. Początkowo w miejscu urazu występowała opuchlizna. Ponieważ szybko zeszła, a poza opadaniem powieki (ptozą) nic się nie działo, o sprawie zapomniano. Dopiero w zeszłym roku pojawiła się wypukłość wielkości ziarna grochu, która z czasem przekształciła się w bolesną przy dotykaniu większą cystę. To właśnie skłoniło Szkotkę do udania się do lekarza. « powrót do artykułu
  12. Po 10 latach w rejonie Machu Picchu ponownie wypatrzono i sfotografowano gryzonia Dactylomys peruanus, który bywa nazywany peruwiańskim lub górskim szczurem bambusowym. D. peruanus pojawia się tak rzadko, że w klasyfikacji Międzynarodowej Unii Ochrony Przyrody (IUCN) wspomina się o niedoborze danych na jego temat. Pewnego dnia strażnicy z Servicio Nacional de Áreas Naturales Protegidas por el Estado (SERNANP) rutynowo patrolowali ruiny Phuyupatamarki przy Szlaku Inków. W lesie bambusowym zobaczyli gryzonia z rodziny kolczakowatych. Ostatnio przedstawiciela tego gatunku widziano w tych okolicach w 2008 r. podczas aktualizacji Plan Maestro del Santuario Histórico de Machupicchu. Zwierzę zostało, oczywiście, sfotografowane i opisane na witrynie SERNANP. D. peruanus występuje w Peru i Boliwii. Jego naturalnym habitatem są subtropikalne lub tropikalne wilgotne lasy. « powrót do artykułu
  13. Tegoroczna edycja listy szanghajskiej (ARWU – Academic Ranking of World Universities) ponownie pokazuje, że polskie uczelnie ciągną się w światowym ogonie. Za najlepszą nadwiślańską instytucję edukacji wyższej został uznany Uniwersytet Warszawski, który uplasowano w 4. setce. Twórcy listy szanghajskiej, naukowcy z Shanghai Jiao Tong University, postanowili, że dokładne pozycje na liście przyznawane są tylko 100 najlepszym uczelniom na świecie. Inne uczelnie klasyfikowane są w odpowiednich setkach. I tak z polskich uczelni na liście znajdziemy wspomniany już Uniwersytet Warszawski oraz Uniwersytet Jagielloński (5. setka). Dalsze miejsca zajęły AGH (7. setka), Uniwersytet Adama Mickiewicza w Poznaniu, Warszawski Uniwersytet Medyczny, Politechnika Warszawska (wszystkie w 8. setce), Śląski Uniwersytet Medyczny (9. setka), Politechnika Łódzka, Uniwersytet Mikołaja Kopernika w Toruniu, Uniwersytet Łódzki oraz Uniwersytet Wrocławski (10. setka). Od samego początku istnienia listy szanghajskiej, czyli od 2003 roku, nieprzerwanie otwiera ją Harvard University. Zaraz za nim, jak niemal co roku, uplasował się Uniwersytet Stanforda, a pierwszą trójkę najlepszych uczelni świata zamyka University of Cambridge. Wśród pierwszych 10 najlepszych szkół wyższych na świecie znajdziemy też MIT, University of California Berkeley, Princeton University, University of Oxford, Columbia University, California Institute of Technology i University of Chicago. Listę, tradycyjnie już, zdominowały amerykańskie uczelnie wyższe. W pierwszej 10 jest ich 8, w pierwszej 20 zaś aż 16. Spoza USA do pierwszej 20 najlepszych uczelni świata zaliczono jeszcze University College London oraz Szwajcarski Federalny Instytut Technologiczny w Zurichu. W pierwszej setce znalazło się 46 uczelni z USA, 8 z Wielkiej Brytanii, 6 z Australii, 5 ze Szwajcarii, 4 a Niemiec, 4 z Holandii, 4 z Kanady, 3 z Japonii, 3 ze Szwecji, 3 z Chin, 3 z Francji, 2 z Danii, 2 z Belgii, 2 z Izraela, 2 z Singapuru i po jednym z Rosji, Finlandii i Norwegii. Poza tymi państwami wyżej od polskich zostały sklasyfikowane uczelnie takich krajów jak Arabia Saudyjska, Korea Południowa, Hongkong, Tajwan, Irlandia, Hiszpania, Portugalia, Włochy, Brazylia, Austria, Czechy, Meksyk, Argentyna i RPA. « powrót do artykułu
  14. Starożytni Egipcjanie stosowali zaawansowane metody balsamowania o wiele wcześniej (ok. 1500 lat) i na większym obszarze geograficznym niż przypuszczano. Potwierdziły to badania przeprowadzone na mumii z Górnego Egiptu z ok. 3700-3500 r. p.n.e. Od 1901 r. była ona przechowywana w Muzeum Egipskim w Turynie. Ponieważ nigdy jej nie konserwowano, można ją było poddać różnym testom. Wcześniej sądzono, że tak jak predynastyczna mumia mężczyzny A z Gebelein (Muzeum Brytyjskie) mumia przechowywana w Turynie powstała naturalnie, w wyniku wysuszenia przez gorący pustynny piasek. Analizy chemiczne przeprowadzone przez zespół z Uniwersytetu Yorku i Macquarie University w Sydney wykazały jednak, że mumia z Włoch przeszła proces balsamowania. Olej roślinny, podgrzaną żywicę drzewa iglastego, wonny ekstrakt roślinny i gumę/cukier (także z roślin) zmieszano i wykorzystano do zaimpregnowania materiału, którym owinięto ciało. Co istotne, w skład mieszaniny wchodziły związki przeciwbakteryjne, używane przez balsamistów w podobnych proporcjach w szczycie rozwoju ich rzemiosła ok. 2500 lat później. Opisywane badanie to pokłosie studium z 2014 r., w ramach którego związki balsamujące zidentyfikowano w lnianych zawojach z grobów jamowych z Mostageddy w Górnym Egipcie z ok. 4500-3350 r. p.n.e. Badania mumii z Turynu rozszerzają naszą ograniczoną wiedzę o okresie prehistorycznym oraz ekspansji wczesnych praktyk balsamowania. Pozwalają też zdobyć więcej informacji o tej konkretnej mumii. Na podstawie analiz chemicznych i oglądu ciała, badań genetycznych, datowania radiowęglowego oraz analiz mikroskopowych lnianych zawojów potwierdziliśmy, że proces rytualnej mumifikacji miał miejsce ok. 3600 r. p.n.e. Poddano jej mężczyznę w wieku 20-30 lat - opowiada dr Jana Jones z Macquarie University. Istnieje mało dostępnych do badań mumii w "naturalnym" stanie. Nasze datowanie radiowęglowe pokazuje, że [ta z Turynu] pochodzi z wczesnej kultury nagadyjskiej, znacząco poprzedzającej Egipt faraoński [...] - podsumowuje prof. Tom Higham z Uniwersytetu Oksfordzkiego. « powrót do artykułu
  15. Najnowsze eksperymenty sugerują, że dimetylotryptamina (DMT), psychoaktywny związek występujący w ayahuasce, wywołuje w mózgu zjawiska, które przypominają te związane z doświadczeniami z pogranicza śmierci (ang. near-death experiences, NDE). Naukowcy z Imperial College London (ICL) wyjaśniają, że DMT to główny alkaloid wielu roślin, m.in. Mimosa hostilis, Diplopterys cabrerana oraz Psychotria viridis. Ludzie przeżywający NDE wspominają często o przebywaniu poza ciałem, uczuciach przejścia do innego świata, wewnętrznym spokoju. Podobne wrażenia pojawiają się u osób będących pod wpływem dimetylotryptaminy. Zespół z ICL postanowił przyjrzeć się bliżej tym podobieństwom. W ramach studium grupie 13 zdrowych ochotników (6 kobietom i 7 mężczyznom w średnim wieku ok. 34 lat) w czasie 2 sesji podawano dożylnie jedną z 4 dawek fumaranu DMT i placebo (3 ochotników dostało 7 mg, czworo 14 mg, jeden/jedna 18 mg, a pięcioro 20 mg fumaranu). Podczas pierwszej sesji wszystkim podawano placebo, a tydzień później DMT. Badani byli nieświadomi kolejności podawania związków. Akademicy porównali doświadczenia ochotników z próbką ludzi, którzy przeżyli NDE i wypełnili kwestionariusze. Badani odpowiadali na 16 pytań w rodzaju: Czy powracały do ciebie sceny z przeszłości?, Czy widziałeś lub czułeś się otoczony przez jasne światło? Po każdej sesji ochotnicy z eksperymentu ICL wypełniali ten sam kwestionariusz. Okazało się, że wszyscy uzyskiwali liczbę punktów, przekraczającą próg pozwalający na stwierdzenie NDE. To oznacza, że dimetylotryptamina naśladuje rzeczywiste doświadczenia z pogranicza śmierci. Intensywność doświadczeń jest podobna jak przy NDE. Uzyskane wyniki są ważne, bo przypominają, że NDE występują z powodu znaczących zmian w działaniu mózgu, a nie z powodów zewnętrznych. Dimetylotryptamina to niesamowite narzędzie, które umożliwia nam badanie i lepsze rozumienie psychologii i biologii umierania - podkreśla dr Robin Carhart-Harris. Mimo uderzających podobieństw doświadczeń stwierdzono też pewne różnice. DMT częściej wiązało się z uczuciem wejścia do nieziemskiej rzeczywistości, a NDE z silniejszymi wrażeniami dojścia do punktu, z którego nie ma odwrotu. Naukowcy sądzą, że może to mieć coś wspólnego z kontekstem badań; ochotników przygotowano psychologicznie do badania i monitorowano w bezpiecznym otoczeniu. Emocje i kontekst są szczególnie ważne przy doświadczeniach z pogranicza śmierci i substancjach psychodelicznych. Choć można zaobserwować pewne obszary wspólne dla doświadczeń wywołanych przez DMT i NDE, konteksty, w jakich się pojawiają, są bardzo różne. DMT to silny związek psychoaktywny. Możliwe, że zmienia aktywność mózgu w podobny sposób, jaki ma miejsce podczas doświadczeń z pogranicza śmierci. Liczymy, że w ramach przyszłych badań zmierzymy zmiany w aktywności mózgu wywołane przez dimetylotryptaminę [...] - podsumowuje doktorant Chris Timmermann. « powrót do artykułu
  16. Na University of Michigan powstały pozbawione wcześniejszych wad akumulatory litowo-metalowe. Dzięki zastosowaniu stałego ceramicznego elektrolitu naukowcy pozbyli się takich wad jak mala żywotność i krótkie spięcia. To może być technologia, która zmieni zasady gry, mówi profesor Jeff Sakamoto, który stoi na czele zespołu badawczego. Akumulatory litowo-metalowe były w latach 80. uznawane za przełomową technologię. Okazało się jednak, że mają one tendencję do samozapłonu. Atomy litu grupowały się w dendryty doprowadzając do zwarcia i pożaru. W 1991 roku pojawiły się bardziej stabilne, ale mniej pojemne, akumulatory litowo-jonowe i szybko podbiły rynek. Akumulatory te wykorzystują grafitową anodę, która absorbuje lit i zapobiega formowaniu się dendrytów. Takie rozwiązanie ma jednak poważną wadę. Grafit może przechować jeden jon litu na sześć atomów węgla, co ogranicza jego pojemność właściwą do około 350 mAh na gram. Tymczasem pojemność właściwa akumulatorów litowo-metalowych to około 3800 mAh/g. Obecnie akumulatory litowo-jonowe charakteryzują się gęstością energetyczną rzędu 600 watogodzin na litr. Gęstość energetyczna akumulatorów z elektrolitem stałym może zaś sięgać 1200 Wh/L. Naukowcy z University of Michigan, by poradzić sobie z problemem zapłonu akumulatorów litowo-metalowych stworzyli specjalną ceramiczną warstwę, która stabilizuje całość uniemożliwiając formowanie się dendrytów. To aż pozwala na wykorzystanie właściwości litu, jego wysokiej gęstości energetycznej i wysokiego przewodnictwa, bez ryzyka samozapłonu i degradacji. Fizycznie ustabilizowaliśmy lit za pomocą ceramiki. Teraz jest niepalny. Nie ma też płynu, który zwykle zasila pożary akumulatorów. Pozbywając się paliwa, pozbywasz się ognia, cieszy się Sakamoto. Przy okazji prac nad odpowiednim zabezpieczeniem litu warstwą ceramiczną okazało się, ze znacząco poprawiła ona też tempo ładowania akumulatorów. Zmniejszyło się ono z 20–50 godzin do 3 godzin. Mówimy tutaj o 10-krotnym przyspieszeniu tempa ładowania w porównaniu z wcześniejszymi akumulatorami o stałym elektrolicie. Dorównaliśmy więc pod tym względem akumulatorom litowo-jonowym, stwierdza uczony. Co interesujące, podczas dotychczasowych testów nie zauważono, by nowy akumulator ulegał degradacji. Testowaliśmy go przez 22 dni. Aumulator był w takim samym stanie po zakończeniu testów jak na ich początku. Nie odnotowaliśmy żadnej degradacji. Nic nam nie wiadomo, by istniały inne akumulatory ze stałym elektrolitem, które podobnie się zachowują, powiedział jeden z badaczy, Nathan Taylor. « powrót do artykułu
  17. W USA terapie genowe przestają być objęte specjalnym nadzorem. Urzędy odpowiedzialne za nadzór nad rynkiem medycznym stwierdziły, że to, co niegdyś było egzotyczną dziedziną nauki stało się standardową formą działania w medycynie i nie jest obciążone nadzwyczajnym ryzykiem. Dotychczas wszystkie wnioski o rozpoczęcie badań nad terapiami genowymi musiały zostać zaakceptowane przez specjalny panel specjalistów z Narodowych Instytutów Zdrowia. Teraz akceptacja taka nie będzie wymagana, a panel będzie sprawował rolę doradczą. Zmieni się też postępowanie Food and Drug Administration, która ma traktować terapie genowe jak wszystkie inne terapie czy procedury medyczne i stosować do nich takie same przepisy oraz zasady. Urzędnicze propozycje to ważny kamień milowy, który może przyczynić się do przyspieszenia prac nad terapiami genowymi. Jednak część ekspertów uważa, że jest zbyt wcześnie na rezygnację ze specjalnego nadzoru nad takimi terapiami. "To nie jest dobry moment, by dokonywać takich decyzji opierając się na stwierdzeniu, że znamy związane z tym ryzyka", stwierdza Midred Cho, bioetyk z Uniwersytetu Stanforda. Gdy po raz pierwszy pojawiły się terapie genowe, budziły one tyle obaw i zastrzeżeń, że w NIH powołano Recombinant DNA Advisory Committee (RAC), którego celem jest analiza każdego z eksperymentów i potencjalnych skutków dla pacjentów. Gdy w 1999 roku nastolatek zmarł po terapii genowej badania na tym polu zostały wstrzymane. Od tamtego czasu nauka poczyniła jednak duże postępy i w ubiegłym roku FDA zatwierdziła pierwsze w USA terapie genowe na nowotowory i wrodzoną ślepotę. Dyrektor NIH Francis Collins i szef FDA Scott Gottlieb napisali, że najwyższy czas, by FDA mogło samodzielnie zatwierdzać terapie genowe, bez potrzeby starania się przez ich twórców o zatwierdzenie również ze strony NIH. Obecnie w USA złożono ponad 700 wniosków na eksperymenty z terapiami genowymi. Nie jest nierozsądnym przewidywanie, że pewnego dnia terapie genowe staną się standardowymi procedurami medycznymi. Narzędzia, których używamy do oceny innych dziedzin medycyny będą teraz używane także do oceny terapii genowych, stwierdzili obaj menedżerowie. FDA ma odpowiednie narzędzia, by się tym zająć. Nie sądzę, byśmy mieli do czynienia z jakąś wielką deregulacją. Nikt nie chce, by doszło do jakiegoś wypadku podczas prób klinicznych terapii genowych. Ścisły nadzór, czy to jednej czy dwóch instytucji, jest niezwykle ważny, mówi Leigh Turner z Centrum Bioetyki University of Minnesota. Z kolei Jeffrey Kahn, dyrektor Instytutu Bioetyki Uniwersytetu Johnsa Hopkinsa zauważa, że obecne działania są zgodne z wystawionymi przed laty rekomendacjami Institute of Medicine. Mamy odpowiednie mechanizmy chroniące pacjentów. Nie ma już potrzeby traktowania tych terapii w szczególny sposób. Jednak pani Cho, która jest członkiem RAC, zauważa, że terapie genowe są niezwykle skomplikowane i wciąż do końca nie wiemy, jak wiele z nich działa. Mamy tutaj do czynienia zarówno z cudownymi ozdrowieniami i wycofaniem się choroby, jak i ze spektakularnymi porażkami. « powrót do artykułu
  18. Syntetyczny drobnocząsteczkowy związek KHS101 zaburza metabolizm komórek glejaka wielopostaciowego i doprowadza do ich autofagii. Glejak wielopostaciowy to najczęściej występujący pierwotny guz ośrodkowego układu nerwowego. Wskaźnik 5-letniego przeżycia wynosi poniżej 5%. Kiedy zaczęliśmy badania, sądziliśmy, że KHS101 może spowolnić wzrost glejaka. Byliśmy [więc] zaskoczeni, gdy stwierdziliśmy, że po wystawieniu na jego działanie komórki guza zasadniczo podlegają autodestrukcji - opowiada dr Heiko Wurdak z Uniwersytetu w Leeds. Naukowcy z międzynarodowego zespołu mają nadzieję, że ich ustalenia utorują drogę nowym lekom, które pewnego dnia pomogą wydłużyć życie pacjentów. Badania pokazały, że KHS101 zaburza mitochondria i metabolizm komórek nowotworu. Tym samym wyłącza dostawy energii i prowadzi do ich autodestrukcji. Eksperymenty zademonstrowały, że u myszy z przeszczepionymi od ludzi komórkami glejaka KHS101 pokonuje barierę krew-mózg (BKM) i o ok. 50% zmniejsza wzrost guza, co prowadzi do wzrostu przeżywalności (porównań dokonywano do gryzoni, którym podawano placebo). Co ważne, terapia nie szkodziła zdrowym komórkom. Efekt cytotoksyczny jest wywierany przez zaburzenie mitochondrialnego białka opiekuńczego HSPD1 (ang. heat shock protein family D member 1). Zaobserwowano, że w komórkach glejaka KHS101 sprzyja agregacji białek regulujących integralność mitochondriów i metabolizm energii. Autorzy raportu z pisma Science Translational Medicine oceniali także skuteczność KHS101 w odniesieniu do różnych profili genetycznych komórek w obrębie guza i guzów różnych pacjentów. Okazało się, że wszystkie linie komórek glejaka reagowały na leczenie. « powrót do artykułu
  19. Rozbudowane systemy mikroskopijnych tuneli z kryształów granatu z Tajlandii to wynik działalności endolitycznych mikroorganizmów. Zespół Magnusa Ivarssona z Uniwersytetu Południowej Danii badał budowę i zawartość rozgałęzionych tuneli, wykrytych w kryształach granatu z osadów rzecznych i gleby w Tajlandii. Autorzy artykułu z pisma PLoS ONE chcieli ustalić, czy powstały one w wyniku działania procesów abiotycznych, czy biotycznych (biologicznych). Analizy chemiczne wykazały obecność związków organicznych oraz włókienkowatych struktur, przywodzących na myśl bakterie i grzyby. To silna sugestia, że kiedyś w tunelikach żyły organizmy. Trudno jednak powiedzieć, czy same wydrążyły one tunele (były euendolitami, które aktywnie wnikały do wnętrza i wytwarzały przestrzenie dostosowane do swoich kształtów i rozmiarów), czy raczej kolonizowały istniejące ubytki i pęknięcia. Kształt tuneli nie wyklucza całkowicie pochodzenia abiotycznego, z drugiej jednak strony pewne cechy, np. łączniki między sąsiadującymi tunelami, sugerują, że przynajmniej częściowo zostały one utworzone przez jakieś organizmy. Tunele zostały zauważone, bo znacząco obniżają jakość i wartość granatów jako kamieni szlachetnych. Dzięki temu przeprowadzono badania, które pokazały, że stanowią one nieznany dotąd habitat organizmów endolitycznych. Naukowcy podkreślają, że w ubogich w żelazo osadach, takich jak te, w których znaleziono kryształy, granaty stanowią cenne źródło tego pierwiastka dla organizmów utleniających żelazo. Ivarsson dodaje, że do tego, by zidentyfikować istoty drążące tunele, potrzebne są obserwacje żywych organizmów w warunkach laboratoryjnych. « powrót do artykułu
  20. Zestalona biaława masa, znaleziona w jednym z naczyń z grobowca Ptahmesa, wysokiego rangą urzędnika z czasów panowania faraona Setiego I oraz jego syna Ramzesa II, to najstarszy znany twardy ser. Grobowiec znajduje się w Sakkarze. Został zbudowany w XIII w. p.n.e. W 1885 r. odkryli go łowcy skarbów. Większość tutejszych artefaktów trafiła do muzeów w Holandii, Włoszech i USA. Z czasem budowlę zasypały piaski. W 2010 r. jej ponownego odkrycia dokonali archeolodzy z Uniwersytetu w Kairze. Parę lat później specjaliści natknęli się tutaj na rozbite naczynia. W jednym z nich znajdowała się zestalona biaława masa oraz tkanina, która okrywała całość albo miała chronić zawartość. Zespół Enrica Greco z Uniwersytetu w Katanii postanowił przeanalizować zestaloną masę. Po rozpuszczeniu próbki naukowcy oczyścili jej białkowe składowe i zbadali za pomocą chromatografii cieczowej sprzężonej ze spektrometrią mas. Wykryte peptydy pokazały, że próbka pochodziła z produktu nabiałowego z mieszanego mleka krowiego i owczego bądź koziego. Cechy tkaniny sugerują, że nadawała się ona do przechowywania produktów stałych, a nie cieczy, co w połączeniu z innymi wskazówkami skłoniło autorów publikacji z pisma Analytical Chemistry do wysnucia wniosku, że badany nabiał to najprawdopodobniej twardy ser. Inne peptydy z próbki ujawniły, że ser był skażony pałeczką maltańską (Brucella melitensis), czyli bakterią wywołującą brucelozę. Jeśli wyniki wstępnych analiz się potwierdzą, próbka zostanie uznana za najstarszy opisany biomolekularny dowód tej choroby. « powrót do artykułu
  21. Humanoidalne roboty będą powoli wkraczały do naszej codzienności. Dlatego też psychologów interesuje kwestia interakcji człowieka z takimi maszynami i chcą znać odpowiedź na pytanie, jak reagujemy na obecność humanoida. Okazuje się, że obecność takiej maszyny zmienia np. naszą zdolność koncentracji. Grupa francuskich naukowców przeprowadziła eksperyment, w którym wzięło udział 58 osób. Badani mieli do rozwiązania standardowy test skupienia uwagi. Na ekranie pokazywano im różne wyrazy, a ich zadaniem było odpowiedzenie, jakiego koloru są litery. Trzeba było zatem skupić się na kolorze, a ignorować znaczenie słowa. Szybkość odpowiedzi świadczyła o stopniu skupienia uwagi. Respondenci byli poddawani testom dwukrotnie. Raz gdy byli sami, a drugi raz gdy w odległości 1,5 metra od nich stał humanoidalny robot i obserwował ich przez 60% czasu testu. Zanim jednak przystąpili do testu ludzie zapoznawali się z robotem. Zadawali mu serię zdefiniowanych wcześniej pytań. Robot odpowiadał albo przyjaźnie, przekazując pozytywne odpowiedzi, albo był niegrzeczny, a treść odpowiedzi miała negatywny wydźwięk. Okazało się, że osoby, które były obserwowane przez „niegrzecznego” robota kończyły test wcześniej niż wówczas, gdy wykonywały go same. W przypadku, gdy mieli do czynienia z „dobrym” robotem nie zauważono żadnej zmiany tempa odpowiedzi. Naukowcy spekulują, że w obecności nieprzyjaźnie nastawionego robota ludzie są bardziej czujni, co pozwala na lepsze skupienie uwagi. Wcześniej podobne zjawisko zaobserwowano u osób, które były obserwowane przez krytycznie nastawionych do nich ludzi. Tutaj opisano pierwsze badania, w których ludzi zastąpiono robotem. « powrót do artykułu
  22. Nowy superizolujący żel stworzony na University of Colorado, Boulder, może znakomicie zwiększyć wydajność energetyczną budynków oraz pozwolić na zbudowanie pomieszczeń mieszkalnych dla kolonistów na Marsie. Wspomniany aerożel przypomina spłaszczony plastik, jest podobny do soczewek kontaktowych. Ma on tak doskonałe właściwości izolujące, że można pokryć nim dłoń i rozpalić na nim ogień, a nie poczujemy żaru. W przeciwieństwie do innych podobnych produktów jest w dużej mierze przezroczysty. Przezroczystość to niezwykle pożądana cecha, gdyż pozwala na użycie tego żelu na szybach czy do zbudowania habitatów poza Ziemią. Można dzięki niemu korzystać ze światła słonecznego i chronić się przed olbrzymimi wahaniami temperatury, jakie mają miejsce na Marsie czy Księżycu, wyjaśnia profesor Ivan Smalyukh z Wydziału Fizyki CU Boulder. Aerożele w co najmniej 90% składają się z gazu. Przypominają gąbkę, która więzi powietrze w miliardach miniaturowych porów. To właśnie ten uwięziony gaz czyni aerożel tak dobrym izolatorem. Jednak obecnie większość dostępnych aerożeli jest nieprzezroczystych, a to oznacza, że nie można ich użyć np. do pokrycia okien. Smalyukh i jego zespól rozpoczęli produkcję żelu od celulozy. Precyzyjnie kontrolując sposób łączenia się poszczególnych molekuł tego materiału, byli w stanie ułożyć je we tak uporządkowany wzór, że światło może przechodzić przez nowy materiał, czyniąc go tym samym przezroczystym. Co interesujące, celulozę do produkcji żelu pozyskano ze zużytej brzeczki piwnej z lokalnych browarów. Nie tylko dokonaliśmy recyklingu i spowodowaliśmy, że wartościowy materiał nie trafił na wysypisko, ale tanim kosztem zyskaliśmy możliwość wyprodukowania naszego żelu, mówi doktorant Andrew Hess. Nowy materiał, który jest 100-krotnie lżejszy od szkła, może przynieść olbrzymie korzyści. Jak informuje Departament Energii, w USA niemal 25% energii używanej do chłodzenia i ogrzewania budynków, jest tracona przez szyby. Straty sięgają tutaj miliardów dolarów rocznie. Twórcy nowego żelu nie wykluczają, że można z niego wyprodukować cienką przezroczystą warstwę izolacyjną, którą każdy będzie mógł nakleić na szyby w swoim domu i zaoszczędzić w ten sposób spore kwoty. Żel otrzymał już nagrodę zawodów 2018 iTech organizowanych przez NASA, a jego twórcy prowadzą rozmowy z producentami okien. « powrót do artykułu
  23. W Chinach oficjalnie stwierdzono, że pstrąg tęczowy może funkcjonować w handlu jako łosoś. Stało się tak po majowych doniesieniach Centralnej Telewizji Chińskiej (CCTV), że przez lata pstrągi były oznaczane i sprzedawane jako łososie. Wg nadawcy, aż 1/3 ryb sprzedawanych w Chinach jako łososie to de facto pstrągi z prowincji Qinghai. Zamiast zakazać tej praktyki, CAPPMA (China Aquatic Products Processing and Marketing Alliance), organizacja non-profit działająca pod egidą Ministerstwa Rolnictwa, orzekła jednak, że by ujednolicić przemysł, nazwę "łosoś" uznaje się za termin ogólny, obowiązujący w odniesieniu do wszystkich ryb z rodziny łososiowatych (Salmonidae). Zewnętrznie pstrąg tęczowy i łosoś nie są do siebie podobne, ale ich czerwonawe mięso trudno już odróżnić. Wiadomość podana przez CCTV rozjuszyła konsumentów, którzy zaczęli podnosić, że pstrąg uchodzi za rybę bardziej podatną na zakażenie pasożytami. Jedzenie jego surowego mięsa zwiększa więc ryzyko parazytozy. Krótko po doniesieniach medialnych w Sieci pojawiły się wpisy, że pstrągi z prowincji Qinghai są nie tylko zapasożycone, ale i często malowane, by bardziej przypominały łososie. Twierdzenia te zostały odrzucone przez China Fisheries Association (CFA), które oświadczyło, że krajowe pstrągi są higienicznie karmione i hodowane w warunkach kwarantannowych. CAPPMA uprasza firmy związane z rybołówstwem/przetwórstwem i restauracje, żeby oznaczały produkty, tak by konsumenci wiedzieli, skąd pochodzi ryba i jaki gatunek reprezentuje. « powrót do artykułu
  24. SERS, niezwykle czuła laboratoryjna metoda analizy składu chemicznego, po dekadach od wynalezienia ma szansę się upowszechnić. Właśnie znika główna przeszkoda hamująca rozwój tej obiecującej techniki badawczej: niskiej jakości podłoża, na które nanoszono próbki. Nowe podłoża, gwarantujące powtarzalność pomiarów i odpowiednie wzmocnienie sygnałów, są już dostępne dzięki naukowcom z Instytutu Chemii Fizycznej PAN w Warszawie. Kolejny skok jakościowy w technikach detekcji niewielkich ilości związków chemicznych będzie z dużym prawdopodobieństwem związany ze wzmacnianą powierzchniowo spektroskopią ramanowską (Surface Enhanced Raman Spectroscopy, SERS). SERS jest techniką znaną od dekad, o potencjalnie znakomitej przyszłości. Pojawiają się na przykład koncepcje mikroskopów ramanowskich, zdolnych do śledzenia pojedynczych cząsteczek chemicznych bez ich wcześniejszego znakowania, tak uciążliwego np. we współczesnej mikroskopii fluorescencyjnej. Szerokie stosowanie SERS było dotychczas radykalnie ograniczone z uwagi na niską jakość podłoży, na które należało nanosić badany roztwór, żeby otrzymać odpowiednie wzmocnienie sygnału. W Instytucie Chemii Fizycznej Polskiej Akademii Nauk (IChF PAN) w Warszawie już kilka lat temu zaprezentowano prototypowe podłoża spełniające wszystkie wymogi niezbędne do przekształcenia SERS w rutynową, powszechną technikę laboratoryjną. Obecnie, po kolejnych udoskonaleniach i testach, nowe podłoża, już z normami ISO, stają się dostępne dla wszystkich zainteresowanych dzięki działającej w ramach IChF PAN inicjatywie SERSitive (www.sersitive.eu), finansowanej ze środków Narodowego Centrum Badań i Rozwoju. Co ciekawe, rozpoczynająca się właśnie produkcja i dystrybucja podłoży SERSitive będzie prowadzona nie w odrębnej firmie, lecz w ramach działań statutowych IChF PAN. Informacje dotyczące podłoży SERS i ich produkcji przedstawiono na konferencji 20th International Conference on Spectroscopy and Spectral Analysis (ICSSA 2018), właśnie odbywającej się w Vancouver w Kanadzie. SERS wykorzystuje subtelne zjawisko fizyczne. Gdy światło pada na cząsteczkę, fotony są pochłaniane i wkrótce emitowane ponownie, niemal zawsze z tą samą energią co niesiona przez zaabsorbowany foton (jest to tzw. rozpraszanie rayleighowskie). Zdarza się jednak, że podczas absorpcji część energii pochłanianego fotonu zwiększy energię drgań lub obrotów cząsteczki. W takim przypadku emitowany nieco później foton będzie miał odrobinę mniejszą energię od pierwotnego. Analogicznie, może dojść do sytuacji, gdy energia wyemitowanego fotonu nieco się zwiększy, ponieważ uniesie on część energii drgań lub obrotów cząsteczki. Mówimy wtedy o rozpraszaniu ramanowskim. W zarejestrowanym widmie cząsteczki, po obu stronach częstotliwości typowej dla rozpraszania rayleighowskiego, pojawią się wówczas piki wynikające ze zjawiska Ramana. Sygnał ramanowski w widmie jest jednak bardzo słaby, ponieważ w ten sposób rozprasza się tylko jeden foton na miliony innych. Na szczęście od 1974 roku wiadomo, że sygnał ramanowski może się wzmocnić miliony, a niekiedy nawet miliardy razy, jeśli cząsteczki analizowanego związku będą osadzone na silnie schropowaconym podłożu. Główny problem z podłożami do SERS polegał na tym, że muszą one spełniać szereg kryteriów. Powinny być na przykład powtarzalne i jednorodne, a przy tym uniwersalne przynajmniej pod kątem zastosowań w badaniach określonej grupy związków chemicznych. Aby wyeliminować tło w widmach, podłoża muszą też być czyste, a jednocześnie powinny zapewniać duże wzmocnienie sygnału. Tymczasem dostępne do tej pory podłoża nie gwarantowały dosłownie niczego: sygnał ramanowski był raz wzmacniany, a raz nie, przy czym raz wzmocnienie mogło sięgać 100 tysięcy razy, a innym razem 10 tysięcy. Wyzwaniem okazało się nie tyle osiągnięcie dobrego wyniku w poszczególnych parametrach, ile spełnienie wszystkich wymogów jednocześnie. W praktyce skala trudności okazała się tak wielka, że przez kilkadziesiąt lat nikt nie wyprodukował podłoży gwarantujących zadowalającą jakość pomiarów! – wyjaśnia mgr Monika Księżopolska-Gocalska (IChF PAN), która pracuje w grupie prof. dr. hab. Roberta Hołysta i od początku prowadzi nadzór nad projektem SERSitive. Podłoża SERSitive powstają w procesie elektrochemicznego nanoszenia nanocząstek srebra i złota na szkło przewodzące, tzw. ITO (szczegóły procesu są chronione dwoma patentami). Wielkości nanocząstek wahają się od 50 do 200 nanometrów. Silnie schropowacone podłoża są dostępne w dwóch odmianach: pokrytej wyłącznie nanocząstkami srebra oraz hybrydowej, zawierającej nanocząstki i srebra, i złota. Płytki mają rozmiary 9x7x0.7 mm, przy czym obszar aktywny ma wielkość 4x5 mm. Rozmiary płytek zostały tak dobrane, aby łatwo było nakroplić roztwór, a kropla dobrze się rozprowadziła. W razie potrzeby płytkę można nawet zanurzyć w niewielkim naczyniu z badaną substancją – mówi mgr inż. Paweł Albrycht (IChF PAN), zajmujący się w grupie SERSitive udoskonalaniem i modernizacją podłoży. Platformy SERSitive wzmacniają sygnały całej gamy substancji chemicznych, zwłaszcza wielocząsteczkowych o dużych cząsteczkach z wiązaniami podwójnymi. W praktyce oznacza to zdolność do detekcji wielu związków organicznych. W testach medycznych czy kryminalistycznych możliwe jest wykrywanie obecności narkotyków we krwi czy moczu, a także konkretnych bakterii w materiale biologicznym. O skali wyzwań związanych z podłożami do SERS może świadczyć fakt, że na udoskonalenie elektrochemicznych metod ich wytwarzania świat musiał czekać aż 47 lat. Gdy sześć lat temu sami zaczynaliśmy prace nad tymi podłożami, przez pierwsze półtora roku nam także nie wychodziło kompletnie nic. Fakt, że dziś jesteśmy w stanie nie tylko wytwarzać odpowiednie podłoża, ale nawet oferować je innym, pokazuje, jak wielką rolę w rozwoju współczesnej nauki odgrywa upór wsparty rzetelną wiedzą i intuicją badawczą – podsumowuje prof. Hołyst. O właściwościach podłoży SERSitive może się przekonać każdy zainteresowany: do testów są one udostępniane bezpłatnie. « powrót do artykułu
  25. Przed 8200 laty wcześni rolnicy potrafili przystosować się do zmian klimatycznych. Dowody na takie przystosowanie znaleźli właśnie uczeni z Univrsity of Bristol. W PNAS opublikowali oni właśnie wyniki swoich badań społeczności epok kamienia i miedzi z Çatalhöyük we wschodniej Anatolii. W szczytowym momencie rozwoju osadnictwa w tej miejscowości doszło do znanych nam zmian klimatycznych, które wiązały się ze spadkiem temperatur spowodowanych przedostaniem się do oceanu olbrzymich ilości wody polodowcowej z dużego jeziora w Kanadzie. Badania kości wykazały, że w tym czasie pasterze skupili się na hodowli owiec i kóz, które są bardziej odporne na suszę niż krowy. Liczne ślady nacięć na kościach zwierząt świadczą też o tym, iż maksymalnie starano się wykorzystać każde źródło pożywienia, którego musiało wówczas brakować. Uczeni przeanalizowali też pozostałości tłuszczu zwierzęcego na ściankach naczyń ceramicznych. Znaleźli tam tłuszcze przeżuwaczy, zgodny ze znalezionymi kośćmi, a stosunek izotopów wodoru w tłuszczu pozwolił wykryć zmianę wzorców opadów. Zmiana stosunku izotopów nastąpiła w czasie zmiany klimatycznej, co wskazuje na zmianę wzorca opadów. Dotychczas dane świadczące o wzorcach opadów otrzymywaliśmy z osadów jezior lub oceanów. Po raz pierwszy informacje takie uzyskano z naczyń ceramicznych. To zaś otwiera nowe pole badawcze, możemy rekonstruować klimat w miejscu, w którym żyli ludzie, mówi główna autorka badań doktor Melanie Roffet-Salque. « powrót do artykułu
×
×
  • Dodaj nową pozycję...