Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37615
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    246

Zawartość dodana przez KopalniaWiedzy.pl

  1. Na University of Miami powstał największy na świecie symulator huraganów. Maszyna stojąca w Rosenstiel School of Marine and Atmospheric Science przypomina olbrzymie akwarium. Nazwano ją SUSTAIN (SUrge-STructure-Atmosphere Interaction Facility) i wyposażono w silnik o mocy 1700 koni mechanicznych oraz w mieszadła poruszające 144 000 litrów wody. Urządzenie powoli się rozpędza, by w końcu symulować huragany kategorii 5., czyli wiatry, których prędkość wynosi co najmniej 252 km/h. W „akwarium” o wymiarach 23x6x2 metry umieszczono makiety domów, co pozwala na przyjrzenie się wpływowi huraganów na infrastrukturę nadbrzeżną. Głównym zadaniem SUSTAIN jest udoskonalenie prognoz dotyczących intensywności huraganów - mówi Brian Haus, który stoi na czele projektu. Przez ostatnie 20 lat stopniowo udoskonalaliśmy przewidywania dotyczące drogi, jaką przebędzie huragan. Jednak ani trochę nie posunęliśmy się do przodu w kwestii przewidywania intensywności - wyjaśnia uczony. Przypomina on np. huragan Wilma z 2005 roku, który w ciągu kilku godzin nad Meksykiem zwiększył siłę z kategorii 2. (154-177 km/h) do kategorii 5. Takie zjawiska przerażają meteorologów, gdyż trudno je przewidzieć - stwierdza Haus. Naukowcy mają też nadzieję, że SUSTAIN, który jest sześciokrotnie większy niż największe symulatory huraganów, pozwoli na badania zniszczeń infrastruktury przybrzeżnej. To bardzo ważne, gdyż większość zasad i modeli wykorzystywanych przez nas podczas wznoszenia infrastruktury nie opiera się na żadnych rzeczywistych danych dotyczących tego, co dzieje się podczas huraganów - wyjaśnia Haus. Miami jest siedzibą wielu instytucji badających najsilniejsze wiatry. Znajduje się tam National Hurricane Center, należąca do NOAA Hurricane Research Division, a na Florida International University działa Wall of Wind, urządzenie symulujące huragany 5. kategorii. NOAA i US Air Force często wysyłają samoloty do centrum huraganów, prowadzone są intensywne badania nad tymi zjawiskami. Dlatego też środowisko naukowe wiąże duże nadzieje z SUSTAIN. Urządzenie pozwoli na przeprowadzenie licznych badań i przyczyni się do zacieśnienia współpracy pomiędzy różnymi grupami naukowymi. « powrót do artykułu
  2. Z powodu upałów australijska gospodarka traci 6,2 miliarda dolarów rocznie. To pokazuje, jakie straty ekonomiczne mogą czekać kraje, w których z powodu globalnego ocieplenia zwiększy się liczba najbardziej gorących dni. Doktor Kerstin Zander i jej koledzy z Charles Darwin University przeprowadzili ankiety wśród 1726 pracujących. Chcieli dowiedzieć się, jaki wpływ mają wysokie temperatury na gospodarkę. Z wywiadów wynika, że średnio australijski pracownik bierze w ciągu roku 4,4 dnia wolnego z powodu zbyt wysokiej temperatury. Ponadto 70% respondentów odpowiedziało, że z powodu upałów byli w ciągu ostatnich 12 miesięcy mniej produktywni przez co najmniej 1 dzień, a 30% stwierdziło, że ich produktywność często spada w związku ze zbyt wysoką temperaturą. Bardziej szczegółowe badania pozwoliły naukowcom obliczyć, że absencje w pracy spowodowane upałem oznaczają roczną stratę w wysokości 845 dolarów amerykańskich na pracownika. Obniżenie wydajności pracy kosztuje jeszcze więcej, bo 932 dolary rocznie. W sumie z powodu upałów gospodarka Australii traci 0,4% PKB rocznie. Zander przyznaje, że wyliczenia jej zespołu są dość ostrożne, strata może być więc większa. Zauważa też, że ankiety dotyczyły rekordowo ciepłego roku. Ale wcześniejszy rok był również rekordowo ciepły. Rok następny także - mówi uczona. Ocieplający się klimat będzie związany z coraz większymi stratami, gdyż będzie rosła liczba wyjątkowo gorących dni. To badanie pokazuje, że już teraz zbyt wysokie temperatury są odpowiedzialne za równie duże straty co absencje chorobowe - stwierdza Steven Sherwood z University of New South Wales. Uczony przypomina, że olbrzymia liczba ludzi żyje na obszarach tropikalnych i subtropikalnych. W okolicach południa praca musi być tam przerywana. Sherwood nie wyklucza, że podobnie będzie działo się w przyszłości w Australii. Zander zauważa, że koszty związane z absencjami czy mniejszą wydajnością w gorące dni mogą być jeszcze większe w krajach o tradycyjnie chłodniejszym klimacie. Tamtejsi mieszkańcy oraz infrastruktura nie są bowiem przyzwyczajeni do wysokich temperatur równie dobrze jak Australijczycy. « powrót do artykułu
  3. Przed ustanowieniem krążenia pępowinowego przez 11 pierwszych tygodni ciąży za odżywianie zarodka odpowiada mleko maciczne z gruczołów macicznych. By stwierdzić, jak glikogen i inne substancje są transportowane do embrionu i łożyska, John Aplin z Uniwersytetu w Manchesterze badał tkanki przekazane przez pacjentki. Dysponując próbkami z wszystkich etapów wczesnej ciąży, Brytyjczycy mogli śledzić zmiany zachodzące w czasie. Barwienie pozwoliło stwierdzić obecność glikogenu. Okazało się, że materiał zapasowy występował w niszach doczesnej, gdzie ulegał enzymatycznemu rozkładowi na mniejsze cząsteczki, które dyfundowały do przestrzeni międzykosmówkowej. Na końcu wszystko ulegało wchłonięciu przez łożysko. Część cukru jest wykorzystywana bezpośrednio jako źródło energii do wzrostu zarodka, a reszta jest ponownie przekształcana w glikogen. Oprócz tego naukowcy śledzili transport glikoprotein, które poza cukrem zawierają białka, a te da się rozłożyć do aminokwasów - składników budulcowych tkanek. Aplin podkreśla, że fakt, iż w pierwszych tygodniach macica stanowi jedyne źródło składników odżywczych, nie jest wcale zaskoczeniem (pępowina powstaje między 5. a 12. tygodniem). Na początku ciąży łożysko jest bowiem o wiele większe od zarodka, dlatego ciśnienie krwi tętniczej mogłoby go wybić ze ściany macicy. W dalszych etapach badań zespół Aplina chce sprawdzić, jak dieta matki i inne czynniki, np. palenie, wpływają na gromadzenie glikogenu w doczesnej. « powrót do artykułu
  4. Analizy, wykonane za pomocą nowej techniki, wykazały obecność w wodzie pitnej substancji używanych podczas szczelinowania hydraulicznego. O wynikach badań poinformowano na łamach najnowszego numeru PNAS (Proceedings of the National Academy of Sciences). Badania przeprowadzone w trzech domach w pobliżu jednego z odwiertów ujawniły obecność w wodzie pitnej związku chemicznego 2-BE oraz innych niezidentyfikowanych zanieczyszczeń organicznych. Identyczne zanieczyszczenia są obecnie w wodzie używanej do szczelinowania. To ważne badania, gdyż wykazaliśmy, że związki chemiczne przeniosły się o dwa kilometry i trafiły do ujęć wody pitnej. Zidentyfikowane przez nas związki chemiczne pochodzą albo z płynów używanych do szczelinowania, albo z procesów wiertniczych, przemieściły się one wraz z gazem przez naturalne pęknięcia w skałach. Po raz pierwszy mamy też dostęp do wszystkich niezbędncyh danych, każdy więc może powtórzyć badania - mówi profesor Susan Brantley z Pennsylvania State University. Uczona zauważa, że po raz pierwszy udało się w pełni udokumentować tego typu zanieczyszczenia w wodzie pitnej. Konieczne są dalsze badania, dzięki którym opinia publiczna uzyska pełną wiedzę i możliwe będzie wprowadzenie odpowiednich przepisów udoskonalających niekonwencjonalne techniki pozyskiwania gazu - dodaje współautor badań, hydrogeolog Garth Llewellyn z Appalachia Hydrogeolgic and Environmental Consulting. Już wcześniej w wodzie pitnej wykrywano gaz, jednak nie zauważono zanieczyszczeń i nie było wiadomo, co powoduje, że w wodzie w kranach pojawiła się piana. Badania potwierdziły, że może dochodzić do przypadków zanieczyszczenia wody pitnej związkami chemicznymi wykorzystywanymi podczas szczelinowania hydraulicznego. Na razie jednak nie są znane skutki ani dokładny mechanizm zanieczyszczenia. Wcześniejsze badania nie ujawniały zanieczyszczeń, dopiero wykorzystanie niekonwencjonalnej techniki GcxGC-TOFMS, będącej połączeniem chromatografii gazowej i spektrometrii mas pokazały, że woda została zanieczyszczona. « powrót do artykułu
  5. Badania przeprowadzone przez uczonych z Uniwersytetów Harvarda i Syracuse wykazały, że gdyby udało się wdrożyć plan administracji prezydenckiej i zmniejszyć ilość CO2 emitowanego przez amerykańskie elektrownie, ocaliłoby to życie 3500 osób rocznie. Wraz ze zmniejszeniem emisji dwutlenku węgla doszłoby do zmniejszenia emisji sadzy i innych związków powodujących choroby płuc i układu krążenia. Dotychczasowe badania wykazały, że zanieczyszczenia emitowane przez elektrownie zabijają każdego roku 20-30 tysięcy Amerykanów. Plan nakreślony przez EPA (Agencja Ochrony Środowiska) zakłada, że do roku 2030 emisja CO2 zostanie ograniczona o 30% w porównaniu z emisją z roku 2005. Autorzy najnowszych badań obliczyli, że wdrożenie tego planu ocali rocznie życie od 780 do 6100 osób, średnio będzie to 3500 osób. O ponad 1000 osób rocznie zmniejszy się śmiertelność w Pennsylvanii, Ohio, Teksasie i Illinois, stanach, które najbardziej cierpią przez zanieczyszczenie powietrza z elektrowni. Liczba osób hospitalizowanych zmniejszy się o 1000 rocznie, a o 220 rocznie spadnie liczba ataków serca. Na potrzeby badań przeanalizowano dane z 2417 elektrowni i przeprowadzono symulacje komputerowe dotyczące rozprzestrzeniania się zanieczyszczeń. Badania zostały pochwalone zarówno przez EPA jak i środowisko naukowe. Skrytykowali je natomiast przedstawiciele przemysłu energetycznego, stwierdzając, że badania są kosztowne i zawierają błędy. Stwierdzili oni, że nowe regulacje doprowadzą do wzrostu cen energii. Z kolei zwolennicy badań zauważają, że zmniejszą się koszty opieki zdrowotnej. Nowe badania pochwalili też trzej byli doradcy naukowi prezydenta George'a W. Busha. « powrót do artykułu
  6. Regularne energiczne maszerowanie lub wolne bieganie może wspomóc terapię onkologiczną. Zespół prof. Brada Behnke'a z Uniwersytetu Stanowego Kansas zauważył, że umiarkowane gimnastykowanie się zwiększa utlenowanie guza. W ramach najnowszego studium wykorzystywano modele raka prostaty. "Gdybyśmy mogli zwiększyć skuteczność radioterapii, poprawilibyśmy też rokowania pacjentów. [...] Ćwiczenie to terapia przynosząca korzyści licznym układom. Co więcej, może trwale zmienić środowisko wewnątrz guza". Choć amerykańskie Narodowe Instytuty Zdrowia zalecają, by chorzy na nowotwory i wyleczeni byli aktywni fizycznie, niewiele badań poświęcono kwestii, co dzieje się w guzie w czasie ćwiczeń i tuż po nich. Fakt ten skłonił Behnke'a do połączenia własnego doświadczenia w zakresie fizjologii integracyjnej z badaniami nad nowotworami. Niedotleniony guz jest często bardzo agresywny. Ponieważ tlen uwrażliwia na radioterapię, pomaga uśmiercić komórki nowotworowe. By zwiększyć skuteczność leczenia, przed jego rozpoczęciem stosuje się różne interwencje, takie jak oddychanie stężonym tlenem. Skoro za pomocą ćwiczeń wpływamy na wszystkie układy organizmu - [w tym na] płuca, serce i naczynia krwionośne - możemy wykorzystać dysfunkcyjną waskulaturę i wzmocnić dopływ krwi do guza. Kluczem do sukcesu wydają się umiarkowane ćwiczenia. Mała dawka ruchu będzie bowiem niewystarczająca, a za duża odetnie dopływ krwi do guza albo upośledzi układ odpornościowy. Jak wyjaśnia Behnke, umiarkowana aktywność fizyczna wykorzystuje 30-60% pułapu tlenowego. Amerykanie dodają, że umiarkowana aktywność fizyczna ogranicza także efekty uboczne leczenia onkologicznego, w tym zmęczenie, zmniejszenie masy mięśniowej czy kacheksję. Ćwiczenia o umiarkowanym natężeniu naprawdę nie mają żadnych skutków ubocznych - podsumowuje Behnke. « powrót do artykułu
  7. Jeśli potraktować wirus HIV jak zamkniętą puszkę, naukowcy właśnie odkryli otwieracz do niej - cząsteczkę JP-III-48, która naśladuje białko CD4. CD4 to glikoproteina z powierzchni komórek odpornościowych, m.in. limfocytów T, która wiąże białka wirusa HIV. Umożliwia to wniknięcie wirusa do komórki i namnażanie. Odkryliśmy, że ludzie zakażeni wirusem HIV-1 mają naturalnie występujące przeciwciała, które potencjalnie można wykorzystać do neutralizacji wirusa. Wspomogliśmy je nieco, dodając cząsteczkę działającą jak otwieracz do konserw i zmuszającą otoczkę wirusa do odsłonięcia regionów rozpoznawanych przez przeciwciała [...] - wyjaśnia prof. Andrés Finzi z Uniwersytetu w Montrealu. W ramach wcześniejszego studium ta sama ekipa naukowców wykazała, że surowica pacjentów zakażonych wirusem HIV-1 ułatwia eliminację zainfekowanych komórek, gdy dwa białka wirusa - Nef i Vpu - są nieaktywne wskutek mutacji. Niestety, w realnym życiu dzikie wirusy HIV-1 nadal dysponują tymi białkami, które spełniają funkcję ochroniarzy. Można je jednak przechytrzyć, umieszczając na powierzchni komórek zarażonych osób imitującą glikoproteinę CD4 cząsteczkę JP-III-48. Wirus musi wyeliminować glikoproteiny CD4, by się chronić. Dodanie JP-III-48 powoduje, że jego otoczka otwiera się jak kwiat. Wtedy przeciwciała naturalnie obecne po infekcji mogą obrać na cel zakażone komórki [...] - opowiada dr Jonathan Richard. Chcąc pozbyć się patogenu raz na zawsze, musimy reaktywować rezerwuary wirusa HIV, tak by opuścił swoje kryjówki, a potem zabić zarażone komórki za pomocą JP-III-48 i już występujących przeciwciał - twierdzi Finzi. Warto dodać, że JP-III-48 została opracowana przez badaczy z Uniwersytetu Harvarda i Uniwersytetu Pensylwanii. Kolejnym krokiem Amerykanów mają być testy cząsteczki na małpach. « powrót do artykułu
  8. Osoby z nadwagą – ale nie otyłe – które cierpią na cukrzycę typu 2. żyją dłużej, niż osoby o prawidłowej wadze z cukrzycą typu 2. To kolejny już znany „paradoks nadwagi”. Zewsząd słyszymy, że zbyt duża waga jest szkodliwa dla zdrowia, jednak co jakiś czas dowiadujemy się, że chorzy z nadwagą żyją dłużej niż osoby o prawidłowej wadze cierpiące na tę samą chorobę. Nadwaga zwiększa ryzyko wystąpienia chorób układu krążenia, ale cierpiące na nie osoby z nadwagą żyją dłużej niż ich szczupli koledzy chorujący na to samo. Już przed trzema laty informowaliśmy o wynikach badań, które wykazały, że nadwaga i otyłość nie są same w sobie związane z większym ryzykiem zgonu. Dotychczas przeprowadzono szesnaście badań nad długością życia osób z nadwagą i cukrzycą typu 2. Niektóre z nich pokazywały, że osoby takie żyją dłużej niż ludzie o wadze prawidłowej, inne nie wykazywały takiego związku. Jednak wiele z tych badań było trapionych przez błędy metodologiczne, prowadzono je na małej próbce, opierano się na kwestionariuszach, a nie danych klinicznych itp. itd. Podczas najnowszych badań doktorzy Stephen Atkin i Pierluigi Costanzo z brytyjskiego University of Hull przyjrzeli się 10 568 pacjentom z cukrzycą typu 2. Losy każdego z nich śledzono średnio przez 11 lat. Uczeni stwierdzili, że chociaż osoby z nadwagą (czyli BMI 25-29,9) były bardziej narażone na ataki serca i udary, to jednak średnio żyły dłużej niż osoby o prawidłowej wadze. Średnio ryzyko zgonu było w ich przypadku o 13% mniejsze niż u osób z wagą prawidłową oraz otyłych. Na największe ryzyko zgonu narażone były osoby z niedowagą. Naukowcy nie wiedzą, dlaczego tak się dzieje. Niewykluczone, że nadwaga chroni przed osteoporozą i ogólnym osłabieniem organizmu. Może też być tak, że u osób o wadze prawidłowej cukrzyca typu 2. przybiera bardziej agresywną formę. « powrót do artykułu
  9. Grupa licealistów przeprowadziła niezwykle szczegółową analizę danych zebranych przez Green Bank Telescope (GBT), dzięki czemu odkryła nowy pulsar. Obiekt jest jednym z niewielu pulsarów krążących wokół gwiazdy neutronowej i ma największą orbitę wśród wszystkich znanych pulsarów tego typu. Pulsary to szybko obracające się gwiazdy neutronowe. Są one pozostałościami po gwiazdach, które zakończyły życie jako supernowe. Około 10% znanych pulsarów występuje w układach podwójnych, z tego większość krąży wokół białych karłów. Nieliczne obiegają inną gwiazdę neutronową lub gwiazdy podobne do Słońca. Nowy pulsar, nazwany PSR J1930-1852 został po raz pierwszy zauważony w 2012 roku. Teraz udało się potwierdzić jego istnienie i określić kilka cech charakterystycznych. Wiadomo, że obiega on towarzyszącą gwiazdę w ciągu 45 dni. „Jego orbita jest dwukrotnie większa niż innych pulsarów tego typu” - mówi Joe Swiggum, główny autor artykułu opublikowanego w Astrophysical Journal. „Parametry pulsara dają nam nieocenione wskazówki dotyczące sposobu powstawania takich systemów” - dodaje młody uczony. « powrót do artykułu
  10. Zespół naukowy pracujący pod kierunkiem uczonych z University of Cincinnati stwierdził, że leki generyczne oparte na takrolimusie działają u chorych po przeszczepach identycznie jak oryginał. Podczas badań, sfinansowanych przez Agencję ds. Żywności i Leków (FDA) wykorzystano dwa generyki różniące się od siebie siłą, czystością i zawartością substancji czynnej, oraz takrolimus o nazwie handlowej Prograf. Leki badano na 70 osobach po udanych przeszczepach. Odkryliśmy, że nie ma różnicy pomiędzy oryginałem a oboma generykami. Innymi słowy, jeśli pacjent dotychczas przyjmował oryginał i zaczął używać generyku to – o ile przyjmuje go zgodnie z zaleceniami – zmiana nie powinna nieść ze sobą żadnych konsekwencji klinicznych - stwierdziła główna autorka badań, profesor Rita Alloway. Uczona mówi, że wyniki uzyskane przez jej zespół są bardzo istotne, gdyż ponad 70% przepisywanego takrolimusa to generyki. Mimo, że dotychczas nie ma doniesień o negatywnych skutkach ich zażywania, zarówno lekarze jak i pacjenci obawiają się możliwych konsekwencji związanych z zastąpieniem oryginałów lekami generycznymi. Większość leków immunosupresyjnych trzeba dobierać indywidualnie do pacjenta i upewniać się, że we krwi występuje odpowiednie ich stężenie. Zbyt duża dawka zwiększa toksyczność leków, zbytnio tłumi układ odpornościowy i zwiększa ryzyko zachorowania na nowotwory. Zbyt mała dawka może prowadzić do odrzucenia przeszczepionego organu - wyjaśnia Alloway. To właśnie fakt, że wymagana jest duża precyzja powoduje obawy o to, czy immunosupresyjne generyki mogą zastąpić oryginały. « powrót do artykułu
  11. Specjaliści z Uniwersytetu Kolumbii Brytyjskiej odkryli, że budowa nerwów jamy gębowej i języka fałdowców (Balaenopteridae) pozwala im się 2-krotnie wydłużyć, a następnie zwinąć jak lina do bungee. Odkrycie było zupełnie nieoczekiwane, bo u innych kręgowców nerwy mają bardziej ustaloną długość - tłumaczy Wayne Vogl. [...] Sposób żywienia fałdowców wymaga poważnych zmian w anatomii języka i tkanki tłuszczowej jamy gębowej [gardło jest pokryte fałdami i tworzy wielką kieszeń]. Teraz widzimy, że konieczna jest modyfikacja nerwów w tych tkankach, tak by one również wytrzymały deformację. U ludzi rozciąganie nerwów prowadzi zazwyczaj do ich uszkodzenia. U fałdowców neurony są jednak upakowane w centralnym rdzeniu w taki sposób, że poszczególne włókna nerwowe nie są tak naprawdę rozciągnięte, ale się po prostu rozwijają. Naszym kolejnym krokiem będzie ustalenie, jak rdzenie są złożone, by umożliwić szybkie rozwinięcie i zwinięcie podczas żerowania - ujawnia Robert Shadwick. Na razie naukowcy nie wiedzą, czy podobne rozwiązanie występuje u innych zwierząt, np. kameleonów z elastycznymi językami. « powrót do artykułu
  12. Zanikanie wielkich roślinożerców może spowodować, że w ekosystemie pojawi się poważna luka. Problem dotyczy przede wszystkim Afryki i części Azji, w tym najbardziej zróżnicowanych przyrodniczo obszarów planety. Międzynarodowy zespół ekspertów pracujących pod kierunkiem profesora Williama Ripple'a z Oregon State University przyjrzał się 74 gatunkom roślinożerców. Pod uwagę wzięto gatunki, których masa ciała przekracza 100 kilogramów. Uczeni ostrzegają, że nosorożcom, zebrom, wielbłądom, słoniom czy tapirom grozi wyginięcie. Ich zdaniem bez radykalnych działań wielcy roślinożercy – i wiele małych – wyginą w wielu regionach świata, co pociągnie za sobą olbrzymie koszty ekologiczne, społeczne i ekonomiczne. Profesor Ripple mówi, że gdy rozpoczynał badania, był przekonany, że największym zagrożeniem dla dużych roślinożerców jest kurczenie się habitatów i zmiany w nich zachodzące. Tymczasem ku naszemu zdumieniu okazało się, że dwoma głównymi przyczynami spadku liczebności dużych roślinożerców są polowania oraz zmiany habitatu. Na Ziemi istnieje około 4000 gatunków lądowych roślinożerców. Zamieszkują oni wszystkie kontynenty z wyjątkiem Antarktydy. Już w 1992 roku Kent H. Redford, wówczas doktor na University of Florida ukuł termin „pusty las” na oznaczenie zmian zachodzących wśród roślinożerców zamieszkujących lasy. Teraz grupa Ripple'a przeprowadziła szersze badania i zauważyła, że podobne zanikanie roślinożerców widoczne jest na sawannach czy pustyniach. Najbardziej zagrożone są gatunki zamieszkujące Południowo-Wschodnią Azję, Indie oraz Afrykę. W Europie istnieje tylko jeden zagrożony gatunek roślinożercy (żubr), a w Ameryce Południowej żaden nie jest zagrożony. Jednak nie wynika to z dobrej ochrony zwierząt, a z faktu, że ludzie wytępili na tych kontynentach większość dużych ssaków. Autorzy najnowszych badań zauważyli, że 25 gatunków największych roślinożerców zajmuje obecnie zaledwie 19% swoich historycznych terenów. Zwierzętom bardzo zagraża zwiększający się zasięg zwierząt hodowlanych. Od 1980 roku liczba hodowlanych roślinożerców wzrosła 3-krotnie. Konkurują one z dzikimi zwierzętami o żywność, wodę i tereny, zwiększa się też ryzyko kontaktów, a zatem i przenoszenia chorób. Nie mniejszym zagrożeniem są polowania. Aż miliard ludzi spożywa mięso dzikich zwierząt, ponadto zwierzęta te są zabijane nie tylko dla mięsa. Przez zabobony związane z tzw. chińską medycyną ludową masowo giną nosorożce. Zanikanie wielkich roślinożerców pociągnie za sobą trudne do oszacowania skutki. Wiadomo, że zmniejszą się źródła pożywienia dla dużych drapieżników, więc ucierpią lwy czy tygrysy, zmniejszy się rozprzestrzenianie się nasion, co negatywnie odbije się na roślinności, pojawią się częstsze i bardziej intensywne pożary, spowolnieniu ulegnie obieg substancji odżywczych, zajdą zmiany w habitatach mniejszych zwierząt, jak ryby, ptaki czy płazy. « powrót do artykułu
  13. Międzynarodowy zespół naukowców odkrył w Chinach nowy gatunek ptaka - wierzbówkę syczuańską (Locustella chengi). Wg autorów publikacji z Avian Research, ptak występuje w pięciu górskich prowincjach środkowych Chin. Wierzbówka syczuańska jest niezwykle tajemnicza i trudna do wypatrzenia, bo jej preferowany habitat stanowią gęsty busz i plantacje herbaty - podkreśla Pamela Rasmussen, biolog z Uniwersytetu Stanowego Michigan, która pomogła udokumentować i opisać 10 nowych gatunków ptaków. Ptak ten odznacza się unikatowym śpiewem, który składa się z powtarzanych serii: niskiego wyciągniętego buczenia i krótszych kliknięć. Choć ptak pozostaje nieuchwytny, jest powszechny w środkowych Chinach i nie wydaje się, by był zagrożony. Plik z nagraniem śpiewu L. chengi zamieszczono na witrynie Avian Vocalizations Center. Najbliższym kuzynem nowego ptaka jest Locustella mandelli. Oba gatunki można często znaleźć na zboczach tych samych gór, jednak L. chengi woli niżej położone habitaty. Nie konkurując z L. madelli, wierzbówka syczuańska występuje nawet do wysokości 2280 m. Analiza mitochondrialnego DNA (mtDNA) pokazała, że oba gatunki wierzbówki są blisko spokrewnione, a ich wspólny przodek żył ok. 850 tys. lat temu. Łacińska nazwa wierzbówki syczuańskiej upamiętnia zmarłego chińskiego ornitologa - prof. Chenga Tso-hsina. Był on założycielem pekińskiego Muzeum Historii Naturalnej. Napisał też 140 artykułów naukowych i 30 książek. « powrót do artykułu
  14. Wspaniałe umiejętności lotnicze nietoperzy to zasługa nie tylko echolokacji, ale i bardzo wrażliwych komórek czuciowych (dotykowych) w skrzydłach. Reagują one na najmniejsze nawet zmiany w przepływie powietrza. Naukowcy z Uniwersytetu Johnsa Hopkinsa, a także Uniwersytetów Columbii i Maryland zademonstrowali, jak receptory ze skrzydeł wysyłają informację dot. przepływu powietrza do mózgu, pozwalając nietoperzowi na błyskawiczne dostosowanie kontroli lotu. Dotąd nikt nie badał komórek czuciowych ze skrzydeł nietoperza, dzięki którym mogą one być czymś więcej niż środkiem napędowym, kończyną [...] czy płatem. Ustalenia mogą [też] wyjaśnić szerszą kwestię, jak organizmy wykorzystują dotyk, by sterować ruchem - opowiada Cynthia F. Moss. Amerykanie badali skrzydła mroczków brunatnych (Eptesicus fuscus). Odkryli macierz receptorów. Znaczna ich liczba tworzyła skupiska u podstawy włosków. Takie umiejscowienie komórek dotykowych (komórek Merkla i lancetowatych końcówek) pozwala ssakom wyczuć zmiany w przepływie powietrza. Kiedy biolodzy stymulowali włoski krótkimi podmuchami powietrza, reakcja komórek pierwszorzędowej kory somatosensorycznej była z nimi ściśle zsynchronizowana. Zespół stwierdził też, że unerwienie skrzydeł nietoperza różni się od unerwienia kończyn przednich innych ssaków, co stanowi wskazówkę odnośnie do ich ewolucji. Zdumieni autorzy publikacji z Cell Reports zauważyli, że receptory skrzydeł łączą się nie tylko z wyższymi, ale i niższymi odcinkami rdzenia kręgowego, które zwykle unerwiają tułów zwierzęcia. « powrót do artykułu
  15. Eksperci obawiają się, że podróż na Marsa może wiązać się z uszkodzeniem mózgów astronautów. W ostatni piątek przedstawiono wyniki badań, z których wynika, że długotrwała ekspozycja na promieniowanie kosmiczne wiąże się z podobnym do demencji upośledzeniem zdolności poznawczych. Finansowane przez NASA badania na myszach wykazały, że promieniowanie kosmiczne powoduje zmiany w strukturze oraz integralności komórek mózgu i synaps. Profesor onkologii, Charles Limoli, z Uniwersytetu Kalifornijskiego w Irvine mówi, że bez wątpienia skutki promieniowania dla ludzi będą takie same jak dla myszy. Astronauci mogą doświadczyć problemów poznawczych, które będą prowadziły do zmniejszenia ich możliwości, zagubienia, pojawienia się stanów lękowych oraz długoterminowych problemów poznawczych - mówi uczony. To z kolei może negatywnie wpłynąć na całą misję, szczególnie gdy np. w czasie gdy astronauci będą spali pojawią się problemy i ludzi trzeba będzie awaryjnie wybudzić. U myszy poddanych badaniom pojawiły się zmiany fizyczne w mózgu, zauważono też mniejszą zdolność do uczenia się, a zwierzęta miały problemy z pamięcią. Były też mniej ciekawe otoczenia, nie interesowały się tym, co wokół nich. Już z wcześniejszych badań wiadomo, że uszkodzenia i utrata synaps to wczesna oznaka rozwijającej się choroby Alzheimera. Planowana przez NASA załogowa misja na Marsa będzie trwała co najmniej 2,5 roku. Dotarcie do Czerwonej Planety zajmie około 6 miesięcy, pobyt na Marsie to co najmniej 18 miesięcy. Zanim ludzie polecą tak daleko konieczne będzie poradzenie sobie z licznymi problemami medycznymi, które może spowodować zarówno długotrwałe przebywanie w stanie nieważkości jak i wystawienie się na oddziaływanie czynników, przed którymi chroni nas atmosfera i pole magnetyczne Ziemi. « powrót do artykułu
  16. Osoby z nowotworami podścieliskowymi przewodu pokarmowego (ang. gastrointestinal stromal tumors, GIST) są bardziej zagrożone również innymi nowotworami. Naukowcy wyliczyli, że przed i po postawieniu diagnozy wystąpią one u 1 na 5,8 pacjenta. Autorzy publikacji z pisma Cancer podkreślają, że chorzy z GIST są bardziej narażeni na inne mięsaki, chłoniaka nieziarniczego, rakowiaka, czerniaka złośliwego, a także raka jelita grubego, przełyku, trzustki, niedrobnokomórkowego płuc, prostaty czy nerki. Tylko 5% pacjentów z GIST ma dziedziczne zaburzenie, które predysponuje ich do rozwoju licznych łagodnych i złośliwych guzów. Badanie wskazuje, że mogą oni zapaść na choroby spoza ich zespołu, ale dokładny mechanizm zjawiska nie jest jeszcze znany - opowiada prof. Jason K. Sicklick z Uniwersytetu Kalifornijskiego w San Diego. Akademicy podkreślają, że by zrozumieć związek między GIST a innymi nowotworami, konieczne są dalsze badania, ale odkrycia już teraz mają znaczenie kliniczne. Dr James D. Murphy, współautor studium, uważa np., że zdiagnozowanie GIST uzasadnia skryning pod kątem innych nowotworów, na które tacy pacjenci są najbardziej podatni. Zespół stwierdził, że w porównaniu do populacji generalnej USA, u osób z GIST częstość występowania nowotworów przed i po postawieniu diagnozy jest, odpowiednio, o 44 i 66% wyższa. Do najczęstszych guzów należą nowotwory układu moczowo-płciowego, piersi, krwi i układu oddechowego. U nie-Latynosów wyższe jest ryzyko nowotworów przed zdiagnozowaniem GIST. U pacjentów z guzami o wielkości poniżej 10 cm ryzyko kolejnego nowotworu jest wyższe niż u osób z pokaźniejszymi zmianami. Ludzie z GIST mniejszymi od 2 cm są najbardziej zagrożeni rozwojem dodatkowych guzów zarówno przed, jak i po postawieniu diagnozy. « powrót do artykułu
  17. Serwis Spaceflight.com donosi, że naukowcy z należącego do NASA Johnson Space Center przeprowadzili udane testy w próżni relatywistycznego napędu elektromagnetycznego (EmDrive). To już kolejne potwierdzenie, że „niemożliwy” - bo jak twierdzi wielu ekspertów, łamiący prawa fizyki – napęd może działać. Koncepcję EmDrive opracował brytyjski naukowiec Roger Shawyer. Przez lata była ona odrzucana. W końcu w 2013 roku Chińczycy z Politechniki Południowozachodniej w Xi'an donieśli o zbudowaniu silnika i uzyskaniu ciągu. Najważniejsze potwierdzenie nadeszło w roku 2014, gdy NASA poinformowała, że przeprowadziła testy silnika Cannae, opartego na koncepcji EmDrive, i uzyskała ciąg rzędu 30-50 mikroniutonów. Teraz dowiadujemy się o kolejnych udanych testach, tym razem w próżni. Nawet wyniki uzyskane w ubiegłym roku przez NASA spotkały się z niedowierzaniem ekspertów. Wielu specjalistów stwierdziło, że ciąg uzyskany przez Chińczyków czy Amerykanów pochodzi z naturalnego ruchu konwekcyjnego powietrza ogrzewanego promieniowaniem mikrofalowym wykorzystywanym w silniku. Teraz jednak hipoteza ta została obalona. Paul March, inżynier z NASA Eagleworks poinformował, że podczas testów w próżni również uzyskano ciąg w EmDrive. To oznacza, że ciąg nie może pochodzić z ruchu powietrza. W przyszłości EmDrive może zostać wykorzystany w olbrzymiej liczbie zastosowań podczas badań i prac w przestrzeni kosmicznej. Jako, że EmDrive nie potrzebuje do pracy paliwa jego wykorzystanie będzie oznaczało olbrzymie oszczędności np. na Międzynarodowej Stacji Kosmicznej. Na samą ISS nie trzeba będzie dostarczać paliwa, stacja nie będzie wymagała też korygowania jej kursu przez odwiedzające ją pojazdy. Wystarczy, że wyposaży się ją w EmDrive. Podobną rolę napęd będzie mógł pełnić w satelitach geostacjonarnych. Obecnie muszą one zabierać sporo paliwa. Dzięki zastosowaniu silnika elektromagnetycznego masa startowa typowego komunikacyjnego satelity geostacjonarnego spadnie z obecnych 3 ton do około 1,3 tony. Takie satelity można by wystrzeliwać na niską orbitę okołoziemską (LEO), a EmDrive w ciągu 36 dni wprowadzałby je na orbitę geostacjonarną (GEO). Co więcej, jak twierdzi March, pojazd kosmiczny rozpoczynający podróż z LEO byłby napędzany przez EmDrive bardziej efektywnie niż pojazd wyposażony w koncepcyjny napęd Warp I generacji. Ocenia się, że pojazd wyposażony w silnik EmDrive o wydajności 500-1000 niutonów/kW, który korzystałby z ogniw paliwowych zasilanych tlenem i wodorem, mógłby zabrać z Ziemi na Księżyc od 2 do 6 osób, a podróż w jedną stronę trwałaby zaledwie 4 godziny. Na razie najbardziej wydajny silnik EmDrive, ten, o którym donosili Chińczycy z Xi'an, osiąga 1 niuton/kW. March sądzi, że wydajność 500-1000 niutonów/kW uda się osiągnąć w ciągu najbliższych 50 lat. Pod warunkiem oczywiście, że żadne prawa fizyki nie przeszkodzą w działaniu EmDrive. Bardziej ambitne plany to wysłanie ludzi na Marsa w pojeździe wyposażonym w 2-magawatowy generator atomowy. Podróż miałaby trwać 70 dni. Misja w 90-tonowym pojeździe wyposażonym w 2-megawatowy napęd pozwoliłaby na znaczne skrócenie czasu podróży, dzięki temu, że stosunek ciągu do masy byłby większy niż grawitacyjne przyspieszenie Słońca - mówi doktor White. Co więcej, misje marsjańskie wyposażone w EmDrive byłyby niezależne od okienek startowych otwierających się co dwa lata, kiedy to Mars i Ziemia są w najkorzystniejszym położeniu względem siebie. Planowanie takich podróży byłoby więc znacznie łatwiejsze. Możliwości EmDrive nie ograniczają się jednak tylko do Marsa. Podróż z Ziemi na Saturna trwałaby 9 miesięcy, przez 6 miesięcy astronauci mogliby badać Tytana, kolejne 6 miesięcy Enceladusa, więc do domu wróciliby po niecałych 3 latach. Z kolei podróż do najbliższej gwiazdy, Alfa Centauri, położonej o 4,3 roku świetlnego, trwałaby 92 lata jeśli nie miałyby być prowadzone szczegółowe badania, a zatem pojazdu – który osiągnąłby prędkość 9,4% prędkości światła - nie trzeba by spowalniać. Jeśli zaś pojazd miałby zostać spowolniony w celu prowadzenia badań tego systemu, podróż trwałaby 130 lat. To i tak znacznie krócej niż obliczana na wiele tysięcy lat podróż za pomocą współczesnych napędów. Wracając jednak do rzeczywistości, trzeba zauważyć, że załogowy pojazd kosmiczny z EmDrive musiałby zostać wyposażony w przenośny reaktor atomowy po mocy od 1 d0 100 MW. Odpowiednia technologia już istnieje. Ostatnio US Navy zbudowała 220-megawatowy generator dla międzykontynentalnych rakiet balistycznych. Badania nad EmDrive wciąż trwają i czynione są postępy. Paul March poinformował właśnie, że dzięki nowemu modelowi komputerowemu udało się wyjaśnić, dlaczego NASA podczas swoich badań nad EmDrive musiała użyć w silniku polietylenu o wysokiej gęstości (HDPE), podczas gdy silniki testowane w Wielkiej Brytanii i Chinach obyły się bez niego. Okazało się, że przyczyną był fakt, że Brytyjczycy i Chińczycy użyli magnetronu do generowania mikrofal, a ponadto korzystali ze znacznie silniejszego (2,5 kW) źródła mocy niż Amerykanie (mniej niż 100 W). Inny sposób kontrolowania częstotliwości mikrofal przez Amerykanów spowodował konieczność zastosowania innej metody pomiaru ciągu. Symulacje pokazały też, że zwiększenie mocy wejściowej generatora mikrofal powoduje, że powstaje bardziej skupiona wiązka napędzająca pojazd. Z symulacji dowiadujemy się też, że – zgodnie z tym co uzyskała NASA podczas eksperymentów – moc rzędu 100 watów pozwala na uzyskanie ciągu 50 mikroniutonów przy wykorzystaniu HDPE, przy mocy 10 kW powinno się uzyskać (bez HDPE) ciągu około 6 niutonów, a przy 100 kW ciąg powinien wzrosnąć do około 1300 niutonów. Symulacje wykazały też, że po przekroczeniu 50 kW mocy wejściowej wydajność silnika – mierzona jako stosunek ciągu do mocy wejściowej – spada. Należy przy tym zwrócić uwagę na jeden istotny czynnik. Symulacje przeprowadzone przez White'a nie zakładały, że próżnia kwantowa jest niezniszczalna i niezmienna, tymczasem większość fizyków uważa, że taka właśnie jest, gdyż dotychczasowe eksperymenty wykazały, że cząstki elementarne mają takie same właściwości niezależnie od tego kiedy i gdzie powstały. W warsztatach NASA Eagleworks zaczęto budować, w oparciu o obliczenia White'a, magnetron z falowodem. Moc systemu wyniesie od 100 do 1200 watów i będzie on wykorzystywany do dalszych testów EmDrive. « powrót do artykułu
  18. Bakterie uśmiercone za pomocą srebra mogą zabijać kolejne mikroorganizmy za pomocą tzw. efektu zombi - dowodzą naukowcy. Podczas studium pałeczki ropy błękitnej (Pseudomonas aeruginosa) zabijano, stosując roztwór azotanu srebra. Później izolowano martwe bakterie, oczyszczano i wprowadzano do żywych szczepów Pseudomonas. Okazało się, że ekspozycja na roztwór azotanu nie tyle uśmiercała pałeczki, co przekształcała je w uwalniające przez długi czas srebro "zombi". Jeśli czynnik antybakteryjny pozostaje chemicznie aktywny po zabiciu, to nie koniec historii, lecz zaledwie jej początek. W zasadzie jeśli czynnik nie zostanie wypłukany, ta sama ilość może zabijać pokolenie po pokoleniu - wyjaśnia dr David Avnir z Uniwersytetu Hebrajskiego w Jerozolimie. Mechanizm opisany na łamach Scientific Reports wyjaśnia spostrzeżenie, że w wielu przypadkach aktywność czynników przeciwbakteryjnych jest wydłużona i znacznie wykracza poza to, czego można by się spodziewać na podstawie zastosowanej dawki - podkreśla Izraelczyk. Naukowiec dodaje, że dzięki temu odkryciu można by zmniejszyć dawki i ograniczyć toksyczność metalicznych i niebiodegradowalnych czynników antybakteryjnych, wykorzystywanych do leczenia ran czy oczyszczania wody. Od jakiegoś czasu akademicy intensywnie badają antybakteryjne właściwości kationów metali. Zespół Avnira postanowił sprawdzić, co się dzieje ze srebrem, gdy już uśmierci bakterie. [...] Po zastosowaniu podstawowych zasad chemii stało się oczywiste, że srebro zamknięte w martwych bakteriach musi być w stanie się z nich uwolnić i uśmiercić nowe populacje bakterii. Działanie mechanizmu przeszło nasze najśmielsze oczekiwania. Teraz Izraelczycy planują eksperymenty z innymi czynnikami przeciwbakteryjnymi i mikroorganizmami. « powrót do artykułu
  19. Microsoft otrzymał patent na okulary, które mają rozpoznawać emocje osób będących w zasięgu wzroku osoby korzystającej z urządzenia. Wniosek patentowy został złożony w październiku 2012 roku, patent przyznano przed kilkoma dniami. Nie wiadomo, czy Microsoft ma w ogóle zamiar sprzedawać opatentowane przez siebie urządzenie. Z wniosku patentowego dowiadujemy się, że użytkownik okularów będzie miał możliwość określenia, która osoba ma być analizowana. Okulary zostaną wyposażone m.in. w kamery z czujnikami odległości oraz mikrofony. Urządzenia będą wyłapywały więc i analizowały informacje wizualne i dźwiękowe. Analizie zostaną poddane gesty, pozycja ciała, oczy, głos i jego zmiany. Informacja o wynikach analizy zostanie wyświetlona na okularach. Analizowana osoba ma nie wiedzieć, że jest przedmiotem czyjegoś zainteresowania. « powrót do artykułu
  20. Naukowcy z IBM-a ogłosili, że dokonali dwóch ważnych kroków na drodze ku zbudowaniu praktycznego komputera kwantowego. Po raz pierwszy udało się jednocześnie wykryć i zmierzyć oba typy błędów kwantowych. Zaprezentowali też architekturę obwodu kwantowego, który można skalować. Opracowany przez IBM-a obwód, składający się z matrycy czterech nadprzewodzących kubitów pozwala na jednoczesne wykrywanie dwóch podstawowych rodzajów błędów, z którymi będziemy mieli do czynienia w komputerach kwantowych. Dotychczas możliwe było wykrywanie albo jednego, albo drugiego rodzaju błędów. Błędy te będą pojawiały się wskutek oddziaływania takich czynników jak np. ciepło, promieniowanie elektromagnetyczne czy błędy materiałowe. Pojawiają się i w tradycyjnych komputerach, jednak poradzenie sobie z nimi w komputerach kwantowych stanowi szczególnie trudne wyzwanie, gdyż stany kwantowe są niezwykle delikatne. Oba błędy mogą przydarzyć się w stanie superpozycji. Jeden ze z nich to przypadkowa zmiana zawartości komórki pamięci pomiędzy 0 a 1. Już wcześniejsze badania wykazały, że nie wystarczy wykryć tego błędu i go skorygować, gdyż obok błędu zmiany bitu w komputerach kwantowych może dojść też do błędu zmiany fazy, czyli relacji pomiędzy 0 a 1 w superpozycji. Zatem w komputerach kwantowych do skorygowania błędu w pamięci konieczne jest zatem wykrycie i skorygowanie obu rodzajów błędów. Naukowcy IBM-a, jako pierwsi na świecie, potrafią tego dokonać. Jako, że opracowane przez IBM-a obwody kwantowe można wykonać za pomocą standardowych technik używanych obecnie przy produkcji komputerów, nie powinno być większych problemów ze stworzeniem i przetestowaniem obwodów składających się z dużej liczby kubitów. « powrót do artykułu
  21. Nad terytorium dzisiejszych Chin szybował ok. 160 mln lat temu dinozaur wielkości gołębia ze skrzydłami à la nietoperz. Autorzy publikacji z Nature uważają, że Yi qi, co po mandaryńsku oznacza "dziwne skrzydła", należał do skansoriopteryksów, rodziny teropodów, która obejmuje dinozaury prawdopodobnie najbliżej spokrewnione z ptakami. To najbardziej nieoczekiwane odkrycie, jakiego dokonałem, a w mojej karierze natrafiłem na parę naprawdę niezwykłych dinozaurów. Znam złożoność przejścia od dinozaurów do ptaków, ale i tak nowe znalezisko mnie szokuje - podkreśla Xu Xing z Instytutu Paleontologii Kręgowców i Paleoantropologii w Pekinie. Akademicy odkryli Yi qi w prowincji Hebei w Chinach. Zaskoczyły ich paliczkowate kości wystające z nadgarstków dinozaura. Zespół żartował, że zwierzę wykorzystywało je jak kijki narciarskie albo ogromne pałeczki. Ich prawdziwą funkcję odkrył Corwin Sullivan, który ze względu na inny realizowany projekt przeglądał literaturę przedmiotu nt. latających i szybujących zwierząt. W podręczniku trafiłem na akapit, w którym wspominano, że polatuchy mają w nadgarstku lub łokciu rozpórki z chrząstki do wspierania błony lotnej [...]. Dalsze badania ujawniły na szczątkach dinozaura resztki błoniastej tkanki. Biorąc pod uwagę wygląd, Sullivan uważa, że Yi qi głównie szybował, od czasu do czasu niezdarnie uderzając skrzydłami. Choć Yi qi dzielił cechy z nietoperzami, nie jest z nimi spokrewniony. Naukowcy podkreślają, że pięknie obrazuje ewolucję konwergencyjną. Sullivan opowiada, że Yi qi miał małą głowę z drobnymi hakowatymi zębami, które pozwalały sobie radzić z owadami oraz niewielkimi ssakami i jaszczurkami. Yi qi wydaje się częścią jurajskiej radiacji małych dinozaurów, która była eksperymentowaniem z różnymi sposobami wzbicia się w powietrze. « powrót do artykułu
  22. Osoby z cukrzycą typu 2. mają problem z regulacją poziomu cukru, zwłaszcza po posiłkach. Naukowcy z Uniwersytetu Missouri wykazali, że zjadając więcej białka na śniadanie, diabetycy mogą ograniczyć skoki glikemii zarówno po śniadaniu, jak i lunchu. Ludzie często zakładają, że ich odpowiedź glikemiczna na jeden posiłek będzie taka sama, jak na inne posiłki, ale to nieprawda. Wiemy na przykład,, że ma znaczenie, co i kiedy jemy. Jeśli pominiemy śniadanie, odpowiedź glikemiczna na lunch będzie olbrzymia. W ramach naszego studium odkryliśmy, że u osób, które jadły śniadanie, odpowiedź glikemiczna na lunch była właściwa - opowiada prof. Jill Kanaley. Amerykanie monitorowali poziom glukozy, insuliny i kilku hormonów przewodu pokarmowego po śniadaniu i lunchu. Ochotnicy z cukrzycą typu 2. jedli wysokobiałkowe albo wysokowęglowodanowe śniadania, a lunch zawierał standardową ilość białek i cukrów. Naukowcy stwierdzili, że zjedzenie na śniadanie większej ilości białek obniżało poposiłkowy poziom glukozy. Po lunchu stężenie insuliny było nieco podwyższone, co sugeruje, że organizm prawidłowo regulował glikemię. Pierwszy posiłek dnia jest krytyczny dla podtrzymania kontroli glikemicznej przy późniejszych posiłkach. Śniadanie działa jak priming na resztę dnia. Jego zjedzenie skłania komórki do zwiększenia stężenia insuliny przy drugim posiłku, co jest dobre, bo pokazuje, że organizm działa prawidłowo, próbując regulować poziom cukru. By osiągnąć korzyści, diabetycy nie muszą wcale jeść dużo białka. Sugerujemy spożywanie na śniadanie 25-30 g białka, co mieści się w granicach zaleceń [amerykańskiej] Agencji Żywności i Leków. « powrót do artykułu
  23. Wg naukowców ze Szkoły Medycznej Uniwersytetu Kalifornijskiego w San Diego, wskaźnik zapadalności na nowotwór trzustki jest najwyższy w krajach z najmniejszą ilością światła słonecznego. Niskie nasłonecznienie to skutek połączenia grubej pokrywy chmur i dużej szerokości geograficznej. Przed opublikowaniem raportu w Journal of Steroid Biochemistry and Molecular Biology naukowcy analizowali dane ze 107 krajów. Brali poprawkę na różnice międzynarodowe oraz potencjalnie istotne czynniki, takie jak spożycie alkoholu, otyłość i palenie. Jeśli mieszkasz na dużych szerokościach geograficznych albo na obszarze z grubą pokrywą chmur, przez większą część roku nie możesz wytwarzać witaminy D, co skutkuje większym od normalnego ryzykiem nowotworu trzustki - twierdzi prof. Cedric F. Garland. Wśród ludzi żyjących w słonecznych krajach blisko równika standaryzowany dla wieku współczynnik zachorowalności na nowotwory trzustki to zaledwie 1/6 wartości wyliczonej dla osób żyjących daleko od równika. Istotność niedoboru światła słonecznego silnie sugeruje, ale nie udowadnia, że niedobór witaminy D może się przyczyniać do ryzyka nowotworu trzustki. Naturalnie witamina D występuje w niewielkiej gamie pokarmów. Do dobrych źródeł zalicza się tłuste ryby, np. łososia i tuńczyka. Niewielkie jej ilości znajdują się zaś w wątrobie wołowej, żółtku jaja i serach. Witaminą D wzbogaca się mleko, płatki śniadaniowe i soki, ale większość ekspertów zgodnie twierdzi, że ludzie potrzebują dodatkowych ilości witaminy, wytwarzanych po wystawieniu skóry na działanie słońca, a zwłaszcza promieniowania UVB. Produkcję witaminy D ograniczają zachmurzenie oraz ciemna skóra. Poprzednio specjaliści z San Diego zidentyfikowali związek między dużą szerokością geograficzną a wyższym ryzykiem nowotworu trzustki. Jak tłumaczy Garland, najnowsze studium pozwoliło stwierdzić, że oszacowanie promieniowania UVB z poprawką na grubość pokrywy chmur zapewnia jeszcze bardziej precyzyjne przewidywania odnośnie do ryzyka tego nowotworu. W ramach wcześniejszych badań zespół Garlanda i dr. Edwarda D. Gorhama stwierdził, że u osób z wystarczającym poziomem metabolitu witaminy D (25-hydroksywitaminy D) w surowicy ryzyko raka piersi i jelita grubego jest znacząco niższe. Omawiane opracowanie to pierwsze wskazanie na potencjalną rolę niedoboru witaminy D w etiologii nowotworu trzustki. « powrót do artykułu
  24. Podczas rozpoczętej wczoraj konferencji Build Microsoft zaprezentował nowe rozwiązania, przeglądarkę Edge (Project Spartan) oraz liczne narzędzia, które mają ułatwić developerom przystosowanie do Windows 10 kodu napisanego dla Androida, iOS-a, .NET i Win32. Koncern z Redmond zaprezentował nowe usługi dla inteligetnych aplikacji w chmurze Azure, narzędzia dla Visual Studio i .NET dla Windows, Macintosha i Linuksa. Uczestnicy konferencji mogli zapoznać się z nowymi możliwościami Windows 10. Od takich pozwalających na łatwe dostosowywanie aplikacji do cech różnych urządzeń po nowe sposoby tworzenia kodu dla systemu operacyjnego. Dzięki Universal Windows Platform developerzy będą mogli stworzyć pojedynczą aplikację, która będzie dostosowywała się np. do różnych rozdzielczości ekranu na różnych urządzeniach, zintegrują z nią Cortanę i Xbox Live, stworzą ofertę, hologramy i opublikują ją w Windows Store. Narzędzia Microsoftu mają pozwolić na bardzo łatwe – wymagające niewielkich zmian w kodzie – dostosowanie obecnych aplikacji napisanych dla iOS-a czy Androida. Taki kod będą mogli oferować użytkownikom Windows za pośrednictwem Windows Store. Koncern przygotował cztery różne SDK – dla witryn WWW, dla technologii .NET i Win32, dla Android Java/C++ oraz dla iOS Objective C. Microsoft poinformował też, że Windows 10 na urządzeniach przenośnych będzie współpracował jedynie z Edge. Miłośnicy Internet Explorera będą mogli korzystać z tej przeglądarki na pecetach, laptopach czy tabletach o większej przekątnej ekranu. Koncern chce, by do roku podatkowego 2018, który rozpocznie się dla niego w połowie roku kalendarzowego 2017, Windows 10 był używany na miliardzie urządzeń. Koncern nie zdradził, na kiedy zaplanował oficjalny debiut nowego OS-u. Z wcześniejszych doniesień wynika, że może nastąpić to pod koniec lipca. « powrót do artykułu
  25. Departament Sprawiedliwości i FBI przyznały, że w ciągu dwóch ostatnich dekad XX wieku niemal każdy ekspert z elitarnego laboratorium kryminalistycznego złożył wadliwe zeznania w procesach, w których był powoływany. Mowa tutaj o pracownikach laboratorium specjalizującego się w mikroskopowym porównywaniu włosów. W USA trwa właśnie największy w historii kraju przegląd zakończonych spraw. Są one badane pod kątem użycia w nich nieprawidłowych danych kryminalistycznych. Specjaliści z National Association of Criminal Defense Lawyers (NACDL) oraz organizacji Innocence Project pomogli rządowi w dokładnym przyjrzeniu się 268 procesom, w których w roli biegłych występowało 26 z 28 pracowników wspomnianego laboratorium. Okazało się, że w ponad 95% przypadków zinterpretowali oni wyniki badań tak, że potwierdzały one oskarżenie. We wspomnianych procesach wydano 32 wyroki śmierci. Czternastu ze skazanych już nie żyje, gdyż albo wykonano wyrok, albo zmarli w więzieniu. Błędy popełnione przez pracowników laboratorium nie muszą oznaczać, że skazywano osoby niewinne. Badania włosów nie były bowiem jedynym dowodem. Mimo to obrońcy oskarżonych oraz prokuratury federalne i stanowe we wszystkich stanach zostały powiadomione o problemie i mają zbadać, czy istnieją podstawy do apelacji. Eksperci zajmujący się problematyką systemu prawnego mówią, że mamy do czynienia z jednym z największych skandali prawnych w USA. Jak się bowiem okazało, system sprawiedliwości nie uchronił się przed dopuszczeniem w formie dowodu wątpliwych badań naukowych. Od dawna podejrzewano, że techniki kryminalistyczne opierające się na subiektywnym badaniu wzorców – takie właśnie jak porównywanie włosów czy śladów po ugryzieniu - mogły przyczynić się do skazań niewinnych ludzi. Od 1989 roku na podstawie badań DNA uniewinniono w Stanach Zjednoczonych 329 niesłusznie skazanych osób. W ponad 25% spraw wykorzystywano wspomniane powyżej techniki kryminalistyczne. Teraz, jak zwracają uwagę eksperci, najważniejsze jest, w jaki sposób zareagują władze i sądy stanowe. FBI zidentyfikowało około 2500 przypadków przestępstw, w których eksperci Biura potwierdzili dopasowanie włosów. Dotychczas zakończono przegląd 342 spraw sądowych. Do przejrzenia pozostało jeszcze około 1200. Wiadomo, że w 268 wyniki badań włosów świadczyły w sądzie przeciwko oskarżonym. Wiadomo też, że w 257 przypadkach eksperci FBI złożyli wadliwe zeznania. Peter Neufeld, współzałożyciel Innocence Project pochwalił starania FBI mające na celu wyjaśnienie sprawy, jednak podkreślił, że trzy dekady pracy FBI nad porównywaniem włosów to kompletna katastrofa. „Konieczne jest przeprowadzenie szeroko zakrojonego śledztwa, które wyjaśni jak to się stało, że FBI, rządy stanowe polegające na wiedzy ekspertów wytrenowanych przez FBI oraz sądy dopuściły do tego, co się stało i dlaczego nie zostało to zauważone znacznie wcześniej - dodaje Neufeld. Mam nadzieję, że nasze prace będą precedensem i w przyszłości w podobnych przypadkach nie trzeba będzie czekać całymi latami na naprawienie niesprawiedliwości - powiedział dyrektor NACDL, Norman Reimer. FBI przyznaje, że do 2012 roku nie istniała żadna spisana instrukcja informująca ekspertów Biura, w jaki sposób mają składać zeznania, by wyniki ich badań były zrozumiałe dla laików. Obecnie opracowywane są podobne instrukcje dla specjalistów z 19 pozostałych dyscyplin kryminalistyki laboratoryjnej. Śledztwo federalne we wspomnianej sprawie rozpoczęło się w 2012 roku, po publikacji artykułu, w którym dziennikarze The Washington Post stwierdzili, że od lat 70. na podstawie niewłaściwych badań laboratoryjnych mogło dojść do skazania setek niewinnych osób w sprawach o morderstwa czy gwałty. Dotychczas śledztwo potwierdziło podejrzenia. Okazało się, że eksperci FBI niemal zawsze mówili w sądzie o tym, że znalezione na miejscu przestępstwa włosy „niemal na pewno” odpowiadają włosom oskarżonych. Cytowali przy tym statystyki pochodzące... z ich własnych doświadczeń zawodowych. Tymczasem brak jest powszechnie przyjętych badań, które określałyby z jakim prawdopodobieństwem włosy różnych ludzi mogą być do siebie podobne. Z czasem pojawiało się coraz więcej dowodów sugerujących, że FBI korzysta z niepewnej metody. W 2002 roku FBI poinformowało, że przeprowadziło badania DNA, które wykazały, że eksperci porównujący włosy mylą się w ponad 11% przypadków. W Dystrykcie Kolumbii, gdzie przejrzano już wszystkie sprawy sądowe, w których dopuszczono dowód z porównania włosów, na podstawie badań DNA uniewinniono 3 z 7 skazanych. W dwóch stanach uniewinniono kolejne 2 osoby. Cała piątka spędziła w więzieniu po 20-30 lat. Byli skazani za morderstwa i gwałty. Profesor Brandon L. Garrett z Univeristy of Virginia zauważa, że w naszym systemie prawnym nie mamy narzędzia radzenia sobie z błędami systemowymi. Jest to związane z precedensem sądowym. Skoro dopuszcza on dowód z włosów, to trudno jest w innych procesach zablokować dopuszczenie takiego dowodu. Garrett zauważa też inny problem. O ile FBI prowadzi obecnie szczegółowe badania wątpliwych spraw, o tyle problemem może być fakt, że może znaleźć się niewielu sędziów, prokuratorów i adwokatów, którzy są w stanie lub chcą coś z tym zrobić. Władze federalne zaoferowały przeprowadzeni analiz DNA w sprawach wątpliwych oraz zapowiedziały, że nie będą podnosiły zastrzeżeń proceduralnych jeśli sprawy trafią do apelacji w sądach federalnych. Problem jednak w tym, że wiele tych spraw jest na tyle starych, iż dowody biologiczne nie istnieją lub nie są dostępne. A jedynie Kalifornia i Teksas dopuszczają aplacje na podstawie wycofania się ekspertów z wcześniejszych twierdzeń lub gdy postęp nauki pozwala podważyć wcześniejsze dowody. Prawnicy mówią jednak, że dowody wadliwe z naukowego punktu widzenia można by potraktować jako naruszenie prawa do uczciwego procesu, gdyś sądom przedstawiono fałszywe lub wprowadzające w błąd zeznania. FBI sprawdza obecnie kolejne sprawy, jednak ma problemy w przypadku tych, które zakończyły się przed rokiem 1985. Po tej dacie dokumenty digitalizowano. Ponadto dotychczas Biuro nie było w stanie przejrzeć 700 spraw, gdyż policja lub prokuratura nie odpowiedziała na prośbę o udostępnienie informacji. Problem może być jeszcze szerszy, gdyż zajmujący się badaniem włosów kryminalistycy z FBI wyszkolili 500-1000 lokalnych i stanowych specjalistów w swojej dziedzinie. Stany Teksas, Nowy Jork i Północna Karolina prowadzą własne śledztwo w tej sprawie. Własne śledztwa zapowiada też 15 kolejnych stanów. « powrót do artykułu
×
×
  • Dodaj nową pozycję...