Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Zespół z Uniwersytetu w Tel Awiwie zidentyfikowali mechanizm neurologiczny, który odpowiada za zaburzenie regulacji emocji i wzrost lęku po zaledwie jednej nieprzespanej nocy. Przed naszym badaniem nie było jasne, co odpowiada za zaburzenia emocjonalne związane z niedoborem snu. Zakładaliśmy, że będzie on intensyfikował przetwarzanie emocjonalnych obrazów i z tego powodu upośledzi mózgowe funkcje wykonawcze. Byliśmy więc zaskoczeni, gdy odkryliśmy, że niedobór snu ma znaczący wpływ na przetwarzanie zarówno naładowanych emocjami, jak i neutralnych obrazów - opowiada prof. Talma Hendler. Okazuje się, że tracimy wtedy neutralność. Zdolność mózgu do odróżnienia rzeczy istotnych jest zaburzona. To trochę tak, jakby wszystko stało się nagle ważne. Studentka Eti Ben-Simon dwukrotnie badała 18 dorosłych. Raz testy pod kontrolą fMRI i/lub EEG były wykonywane po dobrze przespanej nocy, a raz po pozbawieniu snu w laboratorium. Jedno z zadań polegało na określeniu, w jakim kierunku żółta kropka przemieszcza się na tle zdjęć: pozytywnego (kot), negatywnego (okaleczonego ciała) i neutralnego (łyżka). Okazało się, że po dobrze przespanej nocy ochotnicy określali kierunek kropki przemieszczającej się na neutralnym tle szybciej i dokładniej, a EEG wskazywało na inne reakcje neurologiczne na neutralne i naładowane emocjonalnie "rozpraszacze". Po pozbawieniu snu badani wypadali jednak źle w obu sytuacjach, a reakcja elektryczna ich mózgu nie różniła się znacząco w zależności od rodzaju zdjęcia. Może być tak, że pozbawienie snu generalnie zaburza ocenę, ale bardziej prawdopodobne jest, że brak snu sprawia, że obrazy neutralne wywołują odpowiedź emocjonalną - opowiada Ben-Simon. W drugim eksperymencie, leżąc w skanerze do funkcjonalnego rezonansu magnetycznego (fMRI), badani mieli w określonym momencie wciskać klawisz. Należało przy tym ignorować wyświetlane w tle neutralne bądź naładowane emocjonalnie obrazy. Izraelczycy zauważyli, że po nieprzespanej nocy ludzie rozpraszali się, widząc jakiekolwiek zdjęcie. Zdradzał to wzorzec aktywacji odpowiadającej za przetwarzanie informacji emocjonalnych struktury układu limbicznego - ciała migdałowatego. Ujawniliśmy zmianę w emocjonalnej specyficzności ciała migdałowatego [...]. Ustalenia Izraelczyków wskazują na rolę snu w podtrzymaniu równowagi emocjonalnej i zdrowiu psychicznym. Obecnie naukowcy sprawdzają, czy i ewentualnie jak nowe metody interwencyjne (koncentrujące się głównie na śnie paradoksalnym REM) mogą pomóc zmniejszyć rozregulowanie emocjonalne w zaburzeniach lękowych, depresji czy zespole stresu pourazowego. « powrót do artykułu
  2. Na Uniwersytecie Illinois powstaje przenośne urządzenie do oceny stopnia uszkodzenia oka OcuCheck. Mierzy ono poziom witaminy C w płynie, który pokrywa lub wycieka z oka. Czujnik wykorzystuje fakt, że film łzowy [...] zawiera niewielkie ilości kwasu askorbinowego, czyli po prostu witaminy C, podczas gdy we wnętrzu oka jest go znacznie więcej. Koncepcja jest więc taka, że jeśli uszkodzenie głęboko penetruje oko, kwas askorbinowy będzie wyciekać w dużych stężeniach - podkreśla dr Dipanjan Pan. Obecnie pacjenci z urazami oka muszą się udać do szpitala, by przejść tam badanie okulistyczne. Proces jest często skomplikowany, czasochłonny i niedokładny - tłumaczy Pan. OcuCheck ma to zmienić. Amerykanie dodają, że żadna z obecnie stosowanych technik nie bazuje na pomiarze kwasu askorbinowego. W nowym czujniki na papierowym filtrze układa się 1-nanometrową warstwę grafenowych płytek. W górnej warstwie znajdują się polimer, który oddziałuje z grafenem, złote elektrody i oksydaza askorbinianowa, enzym, który wiąże się z witaminą C. [...] Związanie kwasu askorbinowego z oksydazą askorbinianową niszczy oddziaływania polimeru z grafenem, zmieniając właściwości elektryczne czujnika - tłumaczy Pan. Podczas testów z próbkami pobranymi w czasie operacji od 16 pacjentów naukowcy odkryli, że czujnik może wykryć cały zakres stężeń witaminy C z wysoką czułością, trafnością i swoistością. Dotąd nie prowadzono badań na próbkach pacjentów z urazami, ale jak wyjaśniają Amerykanie, próbki mieszano z krwią i czułość OcuChecka [nadal] się utrzymywała, bo papierowy filtr odciągał krew. Profesor projektowania przemysłowego tworzy właśnie obudowę, która pozwoli na przenoszenie urządzenia. Pan i oftalmolog dr Leanne Labriola założyli zaś firmę InnSight Technology, która ma odpowiadać za komercjalizację produktu. « powrót do artykułu
  3. Elektroniczne papierosy zawierają związki chemiczne łączone z chorobami układu oddechowego. Badacze z Uniwersytetu Harvarda stwierdzili np., że diacetyl, wiązany z ciężkimi chorobami dróg oddechowych jest obecny w ponad 75% elektronicznych papierosów i płynów do ich napełniania. W aromatyzowanych płynach odkto też dwa inne potencjalnie niebezpiecznie związki. OSHA (Occupational Safety and Health Administration) już w przeszłości wydała ostrzeżenie dla przemysłu chemicznego, gdyż diacetyl wiązany jest z występowaniem zarostowego zapalenia oskrzelików. Choroba ta, zwana potocznie "płucami pop-cornowymi", została po raz pierwszy odnotowana u pracowników zakładów spożywczych, którzy wdychali zapach sztucznego masła na liniach produkujących pop-corn. Ponad dekadę temu odkryto "płuca pop-cornowe" i wówczas zauważono niebezpieczeństwo związane z wdychaniem sztucznych aromatów. Diacetyl i inne podobne do niego aromaty są używane nie tylko w pop-cornie, ale również tam, gdzie występują zapachy owocowe, alkoholowe oraz - jak dowiedzieliśmy się z naszych badań - w pachnących słodyczami płynach do e-papierosów - mówi profesor Joseph Allen, główny autor badań. Obecnie na rynku USA występuje ponad 7000 rodzajów aromatyzowanych papierosów elektronicznych i płynów do ich wypełniania. E-papierosy szybko zdobywają popularność, brak jest jednak badań na temat ich wpływu na zdrowie użytkowników. Obecnie produkt ten nie jest w żaden sposób regulowany. Amerykańska FDA (Agencja ds. Żywności i Leków) opublikowała propozycję regulacji. Agencja powołuje się przy tym na swoje uprawnienia dotyczące regulowania niektórych produktów zawierających tytoń i nikotynę. Allen i jego zespół przetestowali 51 wiodących marek e-papierosów i liquidów. Szukali w nich diacetylu, acetoiny oraz 2,3-pentanedionu. To związki podejrzewane o wywoływanie chorób układu oddechowego w miejscach pracy. Każdy z e-papierosów został umieszczony w komorze, gdzie specjalne urządzenie wielokrotnie przez osiem sekund zasysało dym z końcówki papierosa i wypuszczało go do komory. Pomiędzy poszczególnymi zasysaniami mijało 15-30 sekund. Powietrze w komorze poddano następnie analizie. W 47 z 51 badanych papierosów znaleziono co najmniej jeden z poszukiwanych związków chemicznych. Diacetyl znaleziono w 39 papierosach, acetoina występowała w 46, a 2,3-pentanedion w 23. Większość obaw o wpływ e-papierosów na zdrowie koncentrowało się wokół nikotyny, zatem wielu rzeczy nie wiemy o elektronicznych papierosach. Zawierają one nie tylko różną ilość nikotyny, ale można w nich znaleźć też inne substancje rakotwórcze, takie jak formaldehyd oraz - co wykazały nasze badania - aromaty, które mogą uszkadzać płuca - mówi profesor David Christiani. « powrót do artykułu
  4. Najnowsze badania specjalistów z Penn Medicine wykazały, że aspiryna nie chroni przed nowotworem, dodatkowo nie poprawia też rokowań ani przeżywalności chorych z agresywnym rakiem sutka. Okazuje się jednak, że zmniejsza gęstość tkanki, pozwalając w pewnych przypadkach na wcześniejsze wykrycie zmian. Wyniki obu badań mają być zaprezentowane 9 grudnia na Sympozjum Raka Piersi w San Antonio. W ramach pierwszego badania naukowcy przyglądali się wzorcom zażywania aspiryny, patologii nowotworu i ogólnej przeżywalności 1000 pacjentek leczonych w Centrum Nowotworów Abramsona. Zdiagnozowano u nich różne typy guzów, w tym raki z nadekspresją receptora HER2 czy raki potrójnie negatywne (czyli takie, w przypadku których w analizach immunohistochemicznych nie stwierdza się ekspresji receptorów estrogenów, receptora progesteronu i receptora naskórkowego czynnika wzrostu HER2). Czternaście procent uczestniczek wspominało o stosowaniu aspiryny przez co najmniej 30 dni przed postawieniem diagnozy. Zespół dr Julii C. Tchou stwierdził, że historia przyjmowania aspiryny nie wiązała się z polepszoną przeżywalnością, bez względu na status receptorów. Po pięciu latach śledzenia losów pacjentek Amerykanie zauważyli nawet, że niskie dawki aspiryny korelowały z niższą ogólną przeżywalnością, w porównaniu do pacjentek, które nie przyjmowały jej przed rozpoznaniem. Wcześniejsze badania wykazywały, że aspiryna może zapewnić przeciwnowotworowe korzyści. Wiele z nich miało jednak charakter wstępny, przedkliniczny [...]. Ich autorzy nie przyglądali się też uprzedniemu zażywaniu aspiryny. Nasze danie nie potwierdzają tezy, że ta stosowana od 100 lat pigułka ma właściwości ochronne [...] w przypadku kobiet z rakiem piersi. By to potwierdzić [lub wykluczyć], potrzebne są jednak większe badania kohortowe - wyjaśnia doktorantka Yun R. Li. W ramach 2. badania akademicy sprawdzali, czy wykorzystanie aspiryny wiąże się z gęstością piersi (duża gęstość tkanki gruczołowej należy do biomarkerów ryzyka). Oceniano dokumentację medyczną 26 tys. kobiet, które przeszły rutynową mammografię w 2012 i 2013 r. i w poprzednim roku odbyły wizytę u lekarza (w jej trakcie spisano zażywane leki). Zespół natrafił na ujemną zależność między stosowaniem aspiryny a gęstością tkanki stwierdzaną w czasie mammografii. W porównaniu do kobiet z bardzo gęstymi piersiami, kobiety z większą zawartością tkanki tłuszczowej i mniej gęstymi piersiami częściej stosowały aspirynę. Amerykanie stwierdzili też, że prawdopodobieństwo posiadania skrajnie gęstych piersi spadało z dawką zażywanej aspiryny. Korelacja była szczególnie istotna u kobiet poniżej 60. r.ż. i wśród Afroamerykanek. « powrót do artykułu
  5. Rosja odnotowała kolejną spektakularną porażkę swojego programu kosmicznego. W atmosferze spłonął zaawansowany wojskowy satelita Kanopus-ST. Satelita nie oddzielił się od rakiety Sojuz-2-1v, która w niedzielę wyniosła go w przestrzeń kosmiczną. Zawiódł jeden z czterech zaczepów - oświadczyło anonimowe źródło w Rosyjskich Siłach Obrony Kosmicznej. Kanopus-ST to eksperymentalny satelita, który miał pozwolić na przeprowadzenie testów śledzenia okrętów podwodnych. Chociaż z wcześniejszych doniesień na temat instrumentów znajdujących się na pokładzie Kanopus-ST możemy domyślać się, że ich rozdzielczość była zbyt mała, by zauważyć okręt podwodny, to satelita mógł być prekursorem bardziej zaawansowanych urządzeń. To właśnie potencjalne możliwości śledzenia okrętów spowodowały, że status projektu Kanopus zmieniono na wojskowy i i informacje zostały utajnione - mówi Anatolij Żak, wiodący ekspert ds. rosyjskiego programu kosmicznego. Informacje o kłopotach misji przekazali Amerykanie. To NORAD (North America Aerospace Defense Command) odkryła, że Kanopus-ST nie oddzielił się od górnego członu rakiety Sojuz. Na pokładzie rakiety znajdował się też satelita KYuA-1 służący do kalibracji radarów. Oddzielił się on prawidłowo i wszedł na przewidzianą orbitę. « powrót do artykułu
  6. Pod koniec listopada prezydent Obama podpisał ustawę o wydobywaniu bogactw naturalnych w przestrzeni kosmicznej. US Commercial Space Launch Competitivness Act of 2015 przewiduje, że każdy materiał, jaki obywatel USA lub amerykańska firma znajdą na asteroidzie lub księżycu, należy do znalazcy, który może zrobić z tym materiałem to, co mu się podoba. Ustawa zrywa więc z koncepcją, że przestrzeń kosmiczna jest wspólnym dobrem mieszkańców Ziemi i - przynajmniej na gruncie amerykańskiego prawodawstwa - nadaje odkrywcom i inwestorom prawo do prywatnej eksploatacji jej zasobów. Christopher Johnson, prawnik z Secure World Foundation, która skupia się na przyszłej długoterminowej eksploatacji zasobów w przestrzeni kosmicznej mówi, że omawiana ustawa tworzy ramy prawne dla przyszłej eksploatacji kosmosu. Stworzenie ram prawnych to jednak nie wszystko. Eksploatacja zasobów pozaziemskich jest wciąż tak kosztowna, że w najbliższych latach nikt sie jej nie podejmie. Jednak sam fakt wejścia w życie ustawy może przyspieszyć ten moment, gdyż nowe prawo daje gwarancje odnośnie znalezionych zasobów. Firmy badające możliwość eksploatacji surowców spoza naszej planety już informują o poruszeniu wśród inwestorów. To nasze zwycięstwo. Już nie wyglądamy na wariatów. Nie musimy ciężko pracować, by w ogóle przekonać kogokolwiek do inwestycji, mówi Meagan Crawford z firmy Deep Space Industries, która chce eksploatować asteroidy. NAS uważa, że obecnie łatwo dostępnych z Ziemi jest około 1500 asteroid, z czego około 10% może zawierać cenne zasoby. Na asteroidach może znajdować się nikiel, żelazo, złoto i platyna. Jednak pierwszym celem firm wydobywczych będzie... woda. I nie ma być ona wykorzystana do celów spożywczych, a do pozyskiwania wodoru i produkcji paliwa dla pojazdów kosmicznych. Produkcja paliwa w przestrzeni kosmicznej i możliwość tankowania tam pojazdów może przynieść kolosalne oszczędności, gdyż pojazdy nie będą musiały zabierać paliwa z Ziemi. Przedstawiciele Deep Space Industries mówią, że pierwsza misja badawcza na asteroidę może ruszyć już w 2017 roku. W jej ramach firma będzie wysyłała niewielkie sondy, które zbadają najbardziej obiecujące asteroidy i wrócą z próbkami. Wydobycie minerałów może ruszyć już w 2020 roku. Z kolei Planetary Resources, założona przez Larry'ego Page'a, poszukuje obiecujących asteroidów za pomocą teleskopów. W przyszłym roku chce wystrzelić satelitę badawczego. Obie firmy oceniają, że w ciągu najbliższych 10-15 lat eksploracja kosmosu przyniesie 3 biliony dolarów wpływów. « powrót do artykułu
  7. Mozilla oznajmiła, że kończy prace nad rozwojem i zaprzestaje sprzedaży smartfonów w systemem Firefox OS. Samego systemu jednak nie porzuca. Organizacja ma zamiar eksprymentować z użyciem go na innych urządzeniach oraz w sieciach Internet of Things. Takie informacje przekazano podczas zorganizowanego w przez Mozillę w Orlando spotkania dla deweloperów. Jesteśmy dumni z korzyści, jakie Firefox OS przynosi platformom sieciowym i będziemy kontynuować eksperymenty nad jego użyciem na różnych urządzeniach. Wszystko co stworzymy będzie projektem opensource'owym, zorientowanym na użytkownika, a zbudowane przez nas narzędzia przyczynią się do rozwoju ekosystemu - oświadczył Ari Jaaksi, wiceprezes odpowiedzialny za dział Connected Devices. Firefox OS został po raz pierwszy zaprezentowany w 2013 roku. W celu odróżnienia go od Androida oraz iOS-a Mozilla od początku pozycjonowała swój systemy jako platformę przede wszystkim dla platform zorientowanych na sieć. nigdy jednak nie udało się szerzej zainteresować konsumentów tym systemem i wykorzystującymi go urządzeniami. « powrót do artykułu
  8. Naukowcy z Uniwersytetu w Umea oraz Szwedzkiego Uniwersytetu Nauk Przyrodniczych odkryli, że zwiększone stężenie dwutlenku węgla w atmosferze doprowadziło do zmian metabolizmu roślin w XX wieku. To pierwsze przeprowadzone na szeroką skalę badania dowodzące tego typu zmian. Będą miały one wpływ m.in. na modele klimatyczne, za pomocą których naukowcy próbują prognozować scenariusze przyszłych zmian. U większości roślin dodatkowe wchłanianie CO2 jest równoważone przez fotooddychanie. Szwedzi odkryli, że wzrost atmosferycznego dwutlenku węgla na przestrzeni XX wieku spowodował zmianę równowagi pomiędzy fotosyntezą a fotooddychaniem na rzecz tej pierwszej. To oznacza, że rośliny pochłaniają coraz więcej dwutlenku węgla. Jednak taka sytuacja nie będzie trwała nieprzerwanie. Wiadomo bowiem, że wraz z rosnącą temperaturą zwiększa się fotorespiracja. W przyszłości zatem większe wchłanianie CO2 zostanie w jakiejś części zrównoważone przez fotooddychanie. Dotychczas badania nad odpowiedzią roślin na zwiększone stężenie dwutlenku węgla opierało się na krótkoterminowych eksperymentach, których wyniki były wykorzystywane do symulowania zmian na przestrzeni dekad czy wieków. Nie dysponowaliśmy bowiem wcześniej narzędziami, które pozwalały na badanie długoterminowych zmian metabolicznych. Teraz zrekonstruowaliśmy historyczne zmiany w metabolizmie, które zachodziły w odpowiedzi na zmiany środowiskowe. W ten sposób położyliśmy fundamenty pod stworzenie lepszych modeli przyszłego zachowania się roślin - mówi profesor Jürgen Schleucher. Szwedzi przeprowadzili badania na licznych gatunkach roślin korzystających z fotosyntezy C3. To one odpowiadają za większość globalnej fotosyntezy i dostarczają nam najwięcej kalorii z roślin. Zmiany w metabolizmie zauważyli najpierw badając próbki buraków cukrowych uprawianych w latach 1890-2012. Zmiany te w pełni można było wyjaśnić za pomocą większego stężenia atmosferycznego dwutlenku węgla. Później takie same zmiany zauważono u wielu gatunków torfowców na całej półkuli północnej. Na potrzeby swoich badań Szwedzi opracowali nową metodę z wykorzystaniem spektroskopii magnetycznego rezonansu jądrowego. Badając izotopy glukozy z roślin przechowywanych w zielnikach byli w stanie zbadać zmiany, jakie zaszły w ciągu ponad 100 lat. « powrót do artykułu
  9. Dzieci z chorobami alergicznymi, zwłaszcza astmą i katarem siennym, ok. 2-krotnie częściej mają nadciśnienie i wysoki cholesterol, co sprawia, że są bardziej zagrożone chorobami serca. Podwyższone ryzyko nadciśnienia i nieprawidłowego profilu lipidowego utrzymywało się nawet wtedy, gdy badacze z Northwestern Medicine wzięli poprawkę na otyłość. "To badanie pokazuje, że ryzyko sercowo-naczyniowe zaczyna się na wcześniejszych etapach życia, niż nam się wydawało. Biorąc pod uwagę, jak częste są choroby alergiczne w dzieciństwie, wydaje się, że powinniśmy intensywniej monitorować małych pacjentów [...], dając im szansę na zmianę trybu życia i zniwelowanie ryzyka - podkreśla dr Jonathan Silverberg. Silverberg analizował związki między astmą, katarem siennym i egzemą a czynnikami ryzyka chorób sercowo-naczyniowych, wykorzystując dane z 2012 National Health Interview Survey. Wzięło w nim udział 13.275 dzieci. Wyliczono, że astma, egzema i katar sienny występowały u, odpowiednio, 14, 12 i 16,6% próby. Wszystkie jednostki chorobowe wiązały się z wyższym odsetkiem nadwagi bądź otyłości. Ponieważ korelacja z nadciśnieniem i wysokim cholesterolem była niezależna od otyłości, Amerykanie sądzą, że pewną rolę może odgrywać stan zapalny związany z astmą. Ponadto dzieci z silną astmą prowadzą przeważnie siedzący tryb życia, co także negatywnie wpływa na ciśnienie i lipidogram. « powrót do artykułu
  10. Naukowcy z brazylijskiego Centrum Polarnego i Klimatycznego informują o znalezieniu w Antarktyce arsenu pochodzącego z... chilijskich kopalni miedzi. Arsen jest wykorzystywany w procesie wytopu miedzi i uwalnia się wówczas do atmosfery. Znaleziona przez Brazylijczyków trucizna przebyła 6500 kilometrów z północy Chile do lodów Antarktyki. Zdaniem Franciele Schwanck, która kierowała grupą badawczą, odkrycie jest bardziej alarmujące dla Chile niż dla Antarktyki. Przyniesionego z powietrzem arsenu jest zbyt mało, by wpłynął negatywnie na antarktyczny ekosystem, jednak - jak podkreślają naukowcy - to tylko jedno z wielu zanieczyszczeń, które tam docierają. Jednak większy problem ma Chile. Dłuższe wystawienie na działanie arsenu może wywoływać nowotwory oraz wiele chorób chronicznych. Odkrycie chilijskiego arsenu w Antarktyce oznacza prawdopodobnie, że samo Chile jest znacznie bardziej zanieczyszczone. Chile to największy światowy producent miedzi. Dostarcza on około 30% tego metalu. Z wcześniejszych badań wiemy, że zanieczyściliśmy Antarktykę m.in. ołowiem i uranem. « powrót do artykułu
  11. Australijskie badanie wykazało, że w przeliczeniu na jednostkę powierzchni średnio miasta wspierają większą liczbę zagrożonych gatunków niż rejony poza nimi. Autorzy publikacji z pisma Global Ecology and Biogeography przyglądali się rozkładowi 1643 chronionych australijskich gatunków. Analizowali, ile z nich występuje w jednostkach o powierzchni kilometra kwadratowego. Zestawiając ze sobą komórki zlokalizowane w mieście i poza nim, naukowcy oceniali relatywne znaczenie obszarów zurbanizowanych dla ich ochrony. Zespół ustalił, że gatunki chronione można spotkać we wszystkich australijskich miastach (pod uwagę wzięto 99 miast z liczbą mieszkańców powyżej 10 tys.). W środowiskach miejskich występowało aż 30% gatunków chronionych tego kontynentu. Co więcej, miasta stale wspierały większą liczbę gatunków chronionych niż inne obszary. Zaobserwowano różnice dotyczące roślin i zwierząt. Poszczególne gatunki zagrożonych roślin występowały co prawda w mniejszej liczbie miast niż zagrożone gatunki zwierząt, ale w przypadku roślin częściej zdarzało się, że większa część rozmieszczenia gatunku przypadała właśnie na obszary miejskie. Poszczególne miasta obejmowały unikatowe zestawy gatunków chronionych, zwłaszcza roślin. Nasze wyniki pokazują, że by poradzić sobie z wymieraniem, nie można nadal ignorować miejsc, gdzie większość z nas żyje i pracuje - podsumowuje dr Christopher Ives. « powrót do artykułu
  12. Amerykański magazyn konsumencki Consumer Report przeprowadził badania niezawodności laptopów. W ankiecie wzięło udział 58 000 osób, a na podstawie udzielonych odpowiedzi stworzono ranking najbardziej niezawodnych laptopów kupionych w latach 2010-2015. Najbardziej niezawodnym komputerem przenośnym na amerykańskim rynku okazał się MacBook Air, w którego przypadku odsetek awarii wynosi 7%. Na drugim miejscu uplasował sie MacBook Pro z odsetkiem awarii równym 9%. Ogólnie szacowany odsetek awarii (EFR) dla komputerów Apple'a to 10%. Najlepszymi laptopami z systemem Windows są zaś maszyny z serii NV i LT produkowane przez Gatewaya. Odsetek awarii wynosi w ich przypadku, odpowiednio, 13 i 14 procent. Dobrze wypadł też ATIV Book Samsunga (14%) oraz ThinkPady Lenovo i XPS Della (po 15%). Z Consumer Report dowiadujemy się też, że droższy nie znaczy bardziej niezawodny. Na przykład w przypadku drogich laptopów z linii Envy produkcji HP odsetek awarii wyniósł 20%, podczas gdy tańsze HP Pavilion charakteryzowały się EFR rzędu 16%. Najgorzej wypadły laptopy z serii Y produkcji Lenovo, których EFR oceniono na 23%. « powrót do artykułu
  13. Hipopotamy nilowe (Hippopotamus amphibius) są zazwyczaj uważane za roślinożerców. Nawet doniesienia o osobnikach, które polują, jedzą padlinę czy kradną zdobycz krokodylom, nie są w stanie zmienić tego poglądu, bo ludzie uważają, że to coś niezwykłego, wyjątek od reguły. Współpraca naukowców z 4 kontynentów wykazała jednak, że mięsożerność to coś typowego dla hipopotamów. Biolodzy podkreślają, że H. amphibius są fakultatywnymi mięsożercami, zjadającymi mięso i wnętrzności padliny. Mięsożerność nie jest odbiegającym od normy zachowaniem, ograniczonym do konkretnych jednostek w pewnych rejonach, ale wzorcem zachowania, który występuje w populacjach zamieszkujących współczesny zasięg gatunku we wschodniej i południowej Afryce. Mięsożerność często wiąże się ze wspólnym żerowaniem wielu osobników, a nawet całych grup społecznych. Autorzy artykułu z pisma Mammal Review podkreślają, że zjadaniem padliny, zwłaszcza innych hipopotamów, można wyjaśnić odmienne niż u pozostałych podatnych zwierząt, np. słoni, bawołów czy antylop, wzorce czasowo-przestrzenne i dynamikę śmiertelności w przebiegu wąglika. Marcus Clauss dodaje, że wszystkie elementy układanki do siebie pasują, bo hipopotamy są najbliższymi żyjącymi krewnymi waleni, a wszystkie walenie są mięsożerne. « powrót do artykułu
  14. Inżynierowie z Columbia University są pierwszymi, którymi udało się zaprząc mechanizmy molekularne żywych organizmów do zasilania układów scalonych. Uczeni wykorzystali w tym celu ATP (adenozyno-5'-trifosforan). To niezwykle ważna molekuła, która transportuje energię wewnątrz komórek. ATP połączono z układem CMOS dzięki sztucznej membranie lipidowej zawierającej pompy jonowe napędzane przez ATP. Niewykluczone, że w przyszłości prace prowadzone na Columbia University będą stanowiły podstawę do zbudowania całkowicie nowego systemu łączącego elementy biologiczne z układami scalonymi. Łącząc element biologiczny z CMOS uzyskaliśmy nowy system, którego stworzenie za pomocą jednego z tych elementów nie jest możliwe. Jesteśmy podekscytowani nowymi możliwościami, które stwarzają takie systemy, jak np. zasilanie elementów elektronicznych przez ATP czy rozpoznawanie molekuł przez układy scalone wyposażone w zmysły węchu i smaku. Układy elektroniczne, wzbogacone o komponenty biologiczne, mogą zyskać nowe możliwości - mówi profesor Ken Shepard, szef zespołu badawczego. W systemach biologicznych energia jest przechowywana w formie potencjałów w membranach lipidowych. ATP transportuje energię z miejsca wytworzenia do miejsca użycia. Uczeni z Columbia University umieścili w układzie CMOS "komórkę", która dzięki ATP przesyłała jony, prowadząc do pojawienia się potencjału elektrycznego z którego korzystał układ scalony. Stworzyliśmy system w skali makro, o rozmiarach kilkunastu milimetrów, by sprawdzić, czy całość działa. Dzięki temu uzyskaliśmy dane pozwalające na stworzenie generalnego modelu takiego systemu, co pozwoli nam stwierdzić, jakie warunki muszą być spełnione, by zmaksymalizować pozyskiwanie energii chemicznej za pomocą pomp jonowych - dodaje Shepard. Już wcześniej pozyskiwano energię z systemów biologicznych, jednak grupa Sheparda zrobiła to na znacznie mniejszą skalę, wykorzystując tylko te elementy komórki, które są niezbędne do wytworzenia energii. Dzięki temu możliwe było stworzenie krzemowo-biologicznej hybrydy. To bardzo obiecujące osiągnięcie. Obecnie do poszukiwania ładunków wybuchowych wykorzystuje się psy. Jednak gdybyśmy mogli wykorzystać tylko część psa - molekułę odpowiadającą za wyczucie materiału - nie potrzebowalibyśmy całego zwierzęcia - mówi Shepard. « powrót do artykułu
  15. Raport opublikowany przez Global Carbon Project przewiduje, że w 2015 roku emisja dwutlenku węgla mogła... ulec obniżeniu. To dobra i zaskakująca wiadomość. Nie można jednak powiedzieć, że całkowicie niespodziewana. Już w roku 2014 emisja zwiększyła się zaledwie o 0,6%. Tak minimalnego wzrostu nie zanotowano nigdy podczas wzrostu gospodarczego. W latach, w których świat przeżywał recesję emisja dwutlenku węgla zmniejszała się, jednak zawsze, gdy na świecie notowano wzrost gospodarczy, widać było jednocześnie znaczy wzrost emisji CO2. W bieżącym roku spodziewamy się, że emisja nie wzrośnie lub lekko spadnie. Pomimo silnego wzrostu gospodarczego - mówi profesor Rob Jackson z Uniwersytetu Stanforda. Za spadek globalnej emisji CO2 odpowiada głównie mniejsze zużycie węgla przez Chiny. Po dekadzie szybkiego wzrostu w roku 2014 chiński wzrost emisji zmniejszył się do 1,2% w roku 2014. Spodziewamy się, że w bieżącym roku spadnie o 3,9%, mówi współautor badań Corinne Le Quere z University of East Anglia. W 2014 roku Chiny były największym emitentem CO2. Kraj ten wypuścił do atmosfery 27% globalnej emisji dwutlenku węgla. Na niechlubnym drugim miejscu uplasowały się Stany Zjednoczone (15,5%), za nimi była Unia Europejska (9,5%) oraz Indie (7,2%). Zmniejszenie emisji przez Chiny było możliwe dzięki dużym inwestycjom. Z jednej strony w Państwie Środka zamknięto wiele małych przestarzałych elektrowni węglowych, z drugiej zaś spada tam tempo wzrostu zużycia węgla. W 2014 roku aż połowa nowo zainstalowanych mocy pochodziła z takich źródeł jak energia wody, słońca, wiatru oraz energia nuklearna. W ogóle na całym świecie zainstalowano w ubiegłym roku rekordowo dużo systemów do pozyskiwania energii ze Słońca i wiatru. Najbardziej obiecujący jest fakt, że obniżenie emisji miało miejsce w czasie dużego, 3-procentowego, światowego wzrostu gospodarczego. Jednak nawet jeśli w ciągu dekady czy dwóch ludzkość całkowicie przestanie zwiększać emisję, to nadal będziemy wysyłali do atmosfery olbrzymie ilości dwutlenku węgla, stwierdza Jackson. Jeśli chcemy ustabilizować klimat musimy w ciągu najbliższych dekad zmniejszyć emisję niemal do zera. Największy światowy truciciel, Chiny, wyemitowały w 2014 roku aż 9,7 miliarda ton dwutlenku węgla. Niemal przez dekadę chińska emisja rosła w tempie 6,7% rocznie. W 2014 roku wzrost spadł do 1,2%, a w bieżącym roku prawdopodobnie Chiny wyemitują mniej CO2 niż w roku 2014. Chiny są też największym na świecie użytkownikiem energii z wiatru. W samym tylko 2014 roku w Państwie Środka zainstalowano wiatraki o łącznej mocy 23 GW. Chińska emisja w przeliczeniu na mieszkańca wynosi 7,1 tony rocznie. Drugi największy emitent to USA, które w 2014 roku wypuściły do atmosfery 5,6 miliarda ton CO2. Przez ostatnią dekadę amerykańska emisja zmniejszała się o 1,4% rocznie. Obecnie wynosi ona 17,4 tony CO2 na mieszkańca. Unia Europejska wyemitowała w ubiegłym roku 3,4 miliarda ton dwutlenku węgla. Europejska emisja spada od 10 lat w średnim tempie 2,4% rocznie. Początkowo spadek był związany z przenoszeniem produkcji poza UE, jednak od 2007 roku obserwujemy spadek także i tych transferów zanieczyszczeń. Obecnie UE emituje 6,8 tony CO2 na mieszkańca. Indie to kraj, którego emisja znacznie rośnie. W 2014 roku wzrost indyjskiej emisji był - w milionach ton CO2 - taki sam jak spadek emisji z UE. Obecnie Indie emitują tyle dwutlenku węgla co Chiny w roku 1990. Indie emitują obecnie 2 tony CO2 na mieszkańca. Jeśli obecne trendy się utrzymają, to w ciągu 2-3 lat Indie będą emitowały tyle dwutlenku węgla co Unia Europejska. Jeśli rzeczywiście chcemy, by ludzkość emitowała mniej dwutlenku węgla, konieczne jest, by znaczną część nowych mocy instalowanych przez Indie stanowiły odnawialne źródła energii. « powrót do artykułu
  16. Naukowcy z Uniwersytetu w Umeå odkryli w podniebieniu miękkim zarówno niemowląt, jak i dorosłych unikatowe włókna mięśniowe. Wydaje się, że większa ich liczba występuje u osób, które chrapią i cierpią na bezdech senny. Odkrycie specjalnej grupy włókien daje nam lepszy wgląd w złożoną anatomię i fizjologię górnych dróg oddechowych oraz specjalizację ewolucyjną. We włóknach tych brakuje pewnych kluczowych białek lub są one zmodyfikowane. Co ciekawe, dotąd o ich braku wspominano wyłącznie w genetycznych chorobach mięśni - podkreśla Farhan Shah. Zespół z uniwersyteckiego Laboratorium Biologii Mięśni, który pracował pod przewodnictwem prof. Pera Ståla, postanowił zastosować nową metodę, by sprawdzić, czy związane z chrapaniem drgania i rozciąganie tkanek mogą powodować nerwowo-mięśniowe uszkodzenia górnych dróg oddechowych i skutkować obturacyjnym bezdechem sennym (OBS) oraz zaburzeniami przełykania. Unikatowe włókna odkryto, badając mięśnie zdrowych osób i pacjentów z OBS. Szwedzi oceniali, czy specjalizacja mięśni części ustnej gardła znajduje odzwierciedlenie w cytoarchitekturze włókien mięśniowych. Analizowano filamenty pośrednie i kompleks białkowy związany z dystrofiną języczka i mięśnia podniebienno-językowego. Układem odniesienia były mięśnie ludzkich kończyn. Okazało się m.in., że o ile wszystkie mięśnie kończyn wykazywały immunoreakcję na panel przeciwciał przeciw różnym domenom białek cytoszkieletu desminy i dystrofiny, o tyle subpopulacja włókien mięśniowych podniebienia nie wykazywała albo wykazywała słabą odpowiedź na desminę i koniec cząsteczki dystrofiny zwany C-terminalem. W większości tych drugich zachodziła ekspresja ciężkiego łańcucha miozyny I (włókien wolnych). « powrót do artykułu
  17. W lasach Andów odkryto nowego przedstawiciela rodziny połozowatych. Synophis zaheri, bo o nim mowa, mierzy 351-372 mm. Ma smukłe ciało i wyraźnie zaznaczoną szyję. Ponad 1/3 głowy stanowią duże i wyłupiaste oczy. Są czarne i trudno odróżnić źrenicę od tęczówki. Górna część ciała ma mieniącą się, szarobrązową barwę, zaś brzuch jest mlecznożółty. Wąż ma silnie zmodyfikowany kręgosłup i rząd biegnących nad nim powiększonych łusek. Jego nazwa to uhonorowanie dla dr. Hussama El-Dina Zahera, brazylijskiego herpetologa. Autorzy publikacji z pisma ZooKeys wyjaśniają, że nowy gatunek stanowi populacja z lasu mglistego pacyficznych zboczy południowo-zachodniego Ekwadoru. S. zaheri jest spokrewniony z S. calamitus. Ustalenie dystrybucji geograficznej i różnorodności genetycznej taksonów będzie wymagało zdobycia dodatkowych próbek genetycznych. Jak można się domyślić, ze względu na rzadkość gatunków nie będzie to łatwe. « powrót do artykułu
  18. Pracujący w polu rolnik z okolic Citta della Pieve - miasteczka położonego w odległości około 45 kilometrów na południowy-zachód od Perugii - odkrył nietknięty etruski grobowiec. Wewnątrz znajdują się sarkofagi, urny przedmioty złożone wraz ze zmarłym oraz tajemnicza marmurowa głowa. Fakt, że grobowiec nie został splądrowany może uczynić go jednym z najważniejszych znalezisk archeologicznych ostatnich lat. To całkowita niespodzianka. Obszar ten jest oddalony od miejsc odwiedzanych przez rabusiów grobów, więc ten pochówek pozostał nietknięty, mówi Clarita Natalini z nadzoru archeologicznego Umbrii. Etruskowie to jeden z najbardziej tajemniczych ludów starożytności. Używali nieindoeuropejskiego języka, stworzyli wysoko rozwiniętą cywilizację i z czasem roztopili się w rzymskim żywiole. Większość informacji, jakie o nich mamy, pochodzi z ich cmentarzy. Niestety, zwykle znajdowane są splądrowane groby, dlatego też najnowsze odkrycie jest tak ważne. Po wejściu do korytarza archeolodzy stanęli przed zapieczętowanymi podwójnymi kamiennymi drzwiami. Po ich otwarciu znaleźli się w liczącej 1,5 metra kwadratowego komorze grobowej. Znajdują się w niej dwa sarkofagi, cztery urny i różne przedmioty. Na jednym z sarkofagów odkryto długą inskrypcję. Dotychczas udało się odczytać słowo "Laris". To popularne etruskie imię męskie. Wewnątrz znaleziono szkielet mężczyzny. Na drugim z sarkofagów, pokryty malowanym gipsem, również zauważono inskrypcję. Niestety, gips odpadł już w starożytności i odtworzenie napisu z tysięcy kawałków nie będzie łatwym zadaniem. Drugi sarkofag wciąż jest zapieczętowany, naukowcy jeszcze go nie otworzyli. W grobowcu znaleziono też marmurową głowę, odłamaną na wysokości szyi. To piękna twarz młodego mężczyzny. Nie znamy jeszcze jej znaczenia. Być może to część rzeźby, którą uhonorowano jednego ze zmarłych - mówi Natalini. Ważnym znaleziskiem są też cztery urny. Trzy z nich, alabastrowe, ozdobiono pięknymi rzeźbieniami. Użycie alabastru, sposób pochówku oraz inskrypcje sugerują, że mamy do czynienia z miejscem pochowania członków arystokratycznej rodziny z pobliskiego etruskiego Chiusi. Specjaliści oceniają, że grobowiec pochodzi z końca IV wieku przed naszą erą. « powrót do artykułu
  19. U osób ze stopą cukrzycową występuje upośledzenie funkcji poznawczych. Cukrzyca to choroba wieloukładowa, która wpływa m.in. na mózg. Ryzyko, że u diabetyka rozwinie się demencja, jest 2-krotnie wyższe niż u "normalnej" osoby. Stopa cukrzycowa to symptom, że cukrzyca sieje spustoszenie w całym układzie sercowo-naczyniowym - podkreśla dr Rachel Natovich z Uniwersytetu Ben-Guriona. Nie ma badań koncentrujących się na funkcjonowaniu poznawczym pacjentów ze stopą cukrzycową, chociaż makro- i mikrozmiany naczyniowe leżące u podłoża tego zespołu są układowe i występują w wielu różnych narządach, w tym w mózgu. Obecne badania nad stopą cukrzycową skupiają się na epidemiologii, prewencji i leczeniu owrzodzenia. Izraelskie badanie pokazuje, że osoby ze stopą cukrzycową mniej zapamiętują, mają gorszą koncentrację, problemy z uczeniem, zmniejszone hamowanie, wolniejsze reakcje poznawcze i psychomotoryczne, a także obniżoną fluencję słowną. To oznacza, że w porównaniu do generalnej populacji diabetyków, u osób z powikłaniem w postaci stopy cukrzycowej występują dodatkowe problemy poznawcze. Choć przed rozwojem stopy cukrzycowej zdolności poznawcze obu grup były takie podobne, obecny status poznawczy pacjentów ze stopą cukrzycową jest znacząco gorszy. Natovich proponuje zmiany w strategii leczenia. Wg niej, pacjenci ze stopą cukrzycową muszą być rutynowo monitorowani pod kątem zmian poznawczych, wczesne ich wykrycie pozwoli bowiem wdrożyć właściwe terapie. Pani doktor uważa także, że ze względu na problemy pamięciowe, z uwagą i funkcjami wykonawczymi rodzina i lekarz muszą odgrywać bardziej aktywną rolę w opiece nad chorym. Wspomina też o programach edukacyjnych dla diabetyków (miałyby one dotyczyć możliwych powikłań poznawczych oraz znaczenia kontrolowania choroby). Natovich dodaje, że warto również pomyśleć o organizowaniu dla pacjentów ze stopą cukrzycową grup szkoleniowych dot. polepszenia kontroli choroby, odżywiania i aktywności fizycznej. « powrót do artykułu
  20. Na Uniwersytecie Stanowym Karoliny Północnej odkryto kolejną - po graficie i diamencie - fazę stałego węgla, nazwaną Q-carbon. Naukowcy opracowali też technikę, dzięki której można wykorzystać Q-carbon do tworzenia w temperaturze pokojowej i przy ciśnieniu atmosferycznym struktur podobnych do diamentów. Stworzyliśmy trzecią fazę stałego węgla. Jedynym miejscem, gdzie może ona naturalnie występować mogą być jądra niektórych planet - mówi profesor Jay Narayan. Q-carbon ma kilka unikatowych cech, a jedną z najbardziej interesujących jest występowanie ferromagnetyzmu. Nie sądziliśmy, że to w ogóle możliwe - dodaje uczony. Ponadto Q-carbon jest twardszy niż diament i świeci pod wpływem nawet niewielkich dawek energii. Wytrzymałość Q-carbonu i jego podatność na uwalnianie elektronów czyni go bardzo obiecującym materiałem do zastosowań w wyświetlaczach - dodaje uczony. Naukowcy rozpoczęli swojąpracę od podłoża, które pokryli amorficznym węglem. Następnie oświetlili węgiel pojedynczym impulsem lasera, który trwał około 200 nanosekund. Impuls podniósł temperaturę węgla do około 3727 stopni Celsjusza, a później doszło do gwałtownego schładzania. Całość przebiegała przy ciśnieniu atmosferycznym. W wyniku tego prostego procesu powstała warstwa Q-carbonu. Naukowcy z Karoliny Północnej są w stanie w sposób kontrolowany wytwarzać warstwy o grubości od 20 do 500 nanometrów. Odpowiednio dobierając podłoże oraz długość trwania impulsu można też kontrolować, jak szybko węgiel się schładza. Manipulując zaś tempem schładzania się można tworzyć struktury podobne do diamentów. Możemy tworzyć nano- i mikroigły, nanokropki, duże błony diamentowe, a wszystko to może przydać się do dostarczania leków, w procesach przemysłowych czy do stworzenia wysokotemperaturowych przełączników czy w energoelektronice. Nasze podobne do diamentu obiekty mają strukturę monokryształu, co czyni je bardziej wytrzymałymi niż struktury polikrystaliczne. A wszystko to uzyskujemy w temperaturze pokojowej i przy ciśnieniu atmosferycznym używając w tym celu lasera podobnego do lasera okulistycznego. Cały proces jest więc relatywnie tani - wyjaśnia Narayan. « powrót do artykułu
  21. Zespół z Uniwersytetu w Buffalo odkrył, w jaki sposób zwiększyć liczbę neuronów dopaminowych otrzymywanych z komórek skóry, co daje nadzieję na wykorzystanie ich w leczeniu choroby Parkinsona. Choć zarodkowe komórki macierzyste stanowiły duży przełom, uzyskanie z nich neuronów dopaminergicznych zajmowało dużo czasu i w wyniku procesu otrzymywano niezbyt dużo komórek. Próbując znaleźć do przekształcania komórki, które łatwo by się pozyskiwało, naukowcy zwrócili się ku skórze. Także i tutaj pojawił się jednak problem niewystarczającej liczebności. Ostatnio zespołowi ze Szkoły Medycyny i Nauk Biomedycznych im. Jacobsa Uniwersytetu w Buffalo udało się znaleźć sposób na zwiększenie konwersji komórek skóry w neurony dopaminowe. Zidentyfikowano i przezwyciężono główną przeszkodę. Jak twierdzą autorzy publikacji z pisma Nature Communications, funkcję bramkarza pełni czynnik transkrypcyjny p53. Stwierdziliśmy, że p53 próbuje zachować status quo w komórce - zapobiega zmianie jednego typu komórki w drugi. Gdy obniżyliśmy ekspresję tego białka, stało się coś interesującego: łatwiej nam było przeprogramować fibroblasty w neurony - wyjaśnia prof. Jian Feng. To genetyczny sposób na zmianę jednej komórki w drugą. Pokazuje nam, że po usunięciu barier możemy traktować komórkę jak platformę programową. Gdybyśmy umieli zidentyfikować kombinacje czynników transkrypcyjnych, które kontrolują, jakie geny są włączone, a jakie wyłączone, moglibyśmy zmieniać odczyt genomu [...] i generować tkanki podobne do występujących w organizmie, z tkanką mózgu włącznie. Ludzie lubią myśleć, że rzeczy postępują w sposób hierarchiczny, że zaczynamy od pojedynczej komórki i rozwijamy się do dorosłego z ok. 40 bilionami komórek, tymczasem nasze badania pokazują, że nie ma żadnej hierarchii. Wszystkie nasze komórki mają taki sam kod źródłowy jak nasza pierwsza komórka; kod ten jest [po prostu] różnie odczytywany, by wygenerować wszystkie typy komórek organizmu. Amerykanie ustalili, że czasowanie to kluczowy element procesu. Odkryliśmy, że moment w cyklu tuż przed tym, gdy komórka próbuje sprawdzić środowisko, by upewnić się, że wszystko jest gotowe do duplikacji genomu, to najlepszy czas, gdy komórka jest podatna na zmianę. Obniżając poziom p53 we właściwym punkcie cyklu komórkowego, za pomocą kombinacji czynników transkrypcyjnych odkrytych w czasie wcześniejszych badań Amerykanie mogli z łatwością zmienić komórki skóry w neurony dopaminergiczne. Manipulacje te uruchamiały ekspresję białka Tet1, które odgrywa ważną rolę w metylacji DNA. Nasza metoda jest szybsza i o wiele bardziej wydajna. Przy najlepszej z wcześniejszych technik w ciągu ok. 2 tygodni można było uzyskać 5% neuronów dopaminergicznych. Z naszą w 10 dni uzyskujemy aż 60%. Naukowcy przeprowadzili wiele eksperymentów, udowadniając, że są to działające neurony dopaminergiczne śródmózgowia, do których utraty dochodzi w przebiegu parkinsona. « powrót do artykułu
  22. Wypijanie 2-3 kubków kawy dziennie chroni przed cukrzycą typu 2. Duńscy naukowcy zidentyfikowali 2 związki, którym można przypisać to działanie. Wcześniejsze badania pokazały, że picie kawy pomaga zapobiec cukrzycy typu 2., dlatego naukowcy myśleli, że chodzi o kofeinę. Szybko się jednak okazało, że wpływ alkaloidu na glukozę i insulinę jest krótkotrwały, a kawa bezkofeinowa działała tak samo jak zwykła kawa. By sprawdzić, jakie bioaktywne związki chronią przed cukrzycą, Søren Gregersen ze Szpitala Uniwersyteckiego w Aarhus badał wpływ różnych substancji z kawy na szczurze linie komórkowe. Duńczycy zauważyli, że diterpen kafestol i kwas kawowy zwiększały wydzielanie insuliny po dodaniu glukozy. Dodatkowo kafestol nasilał wychwyt glukozy w komórkach mięśniowych, osiągając poziom typowy dla dzisiejszych leków przeciwcukrzycowych. Gregersen i inni uważają, że dwojakie działanie kafestolu sprawia, że jest on świetnym kandydatem do dalszego rozwijania leków do zapobiegania i leczenia cukrzycy. Dodają też, że jest on eliminowany przez filtry ekspresów przelewowych, dlatego prawdopodobnie w kawie istnieją także inne związki prozdrowotne. « powrót do artykułu
  23. Liczne badania wykazały, że podstawowy składnik aktywny konopi indyjskich, delta-9-tetrahydrokannabinol (delta 9-THC) powoduje pojawienie się u zdrowych osób tymczasowych objawów psychotycznych podobnych do występujących u schizofreników. Dotychczas jednak nie był znany mechanizm występowania tego zjawiska. W Biological Psychiatry omówiono właśnie wyniki badań, których autorzy stwierdzają, że delta 9-THC intensyfikuje przypadkowe wyładowania neuronów zwane szumem neuronalnym. Niewykluczone zatem, że to zwiększony szum neuronalny odpowiada u zdrowych osób za wystąpienie efektów psychotycznych po użyciu konopi. Dawka równa połowie typowego skręta zwiększa szum neuronalny i prowadzi do wystąpienia efektów podobnych do psychozy - wyjaśnia profesor psychiatrii Deepak Cyril D'Souza z Yale University. Zarówno zależność od dawki jak i silna pozytywna korelacja każą nam się domyślać, że podobne do psychozy objawy po użyciu cannabis mogą być związane z szumem neuronalnym, który zaburza normalne przetwarzanie informacji w mózgu - dodaje doktor Jose Cortes-Briones z Yale. Naukowcy badali wpływ delta 9-THC na czynność elektryczną mózgu u 24 osób. Badani otrzymali dożylnie albo dwie dawki delta 9-THC albo placebo. Była to randomizowana podwójnie ślepa próba. Jeśli spostrzeżenia naukowców z Yale się potwierdzą, to mogą one pomóc w wyjaśnieniu niektórych objawów występujących u osób cierpiących na schizofrenię. To niezwykle interesujące badania, które sugerują związek pomiędzy wpływem na mózg aktywnego składnika konopi indyjskich a objawami schizofrenii. Upośledzenie funkcji korowych przez delta 9-THC może wyjaśniać część wpływu marihuany na funkcje poznawcze. To nie tylko pomoże nam zrozumieć niektóre procesy leżące u podstaw psychozy, ale będzie też ważnym argumentem w dyskusji o medycznych i prawnych aspektach dostępu do marihuany, mówi doktor John Krystal, wydawca Biological Psychiatry. « powrót do artykułu
  24. Szybkie błyski radiowe (FRB - Fast Radio Bursts) odkryto przed niemal dziesięciu laty i od tamtej pory stanowiły one zagadkę dla astronomów. Naukowcy nie wiedzieli, co jest źródłem tych sygnałów. Jednak dzięki pracy zespołu astronomów, w tym Jeffreya Petersona i Hsiu-Hsien Lina z Carnegie Mellon University jesteśmy bliżej rozwiązania zagadki FRB. Naukowcy przeanalizowali 650 godzin danych Green Bank Telescope (GBT) w poszukiwaniu nowych szczegółów na temat FRB. Badania sugerują, że źródłem błysków jest wysoce zmagnetyzowany obszar wszechświata. Być może biorą one swój początek z supernowej lub wnętrza aktywnej mgławicy, w której formują się gwiazdy. FRB trwają ułamki sekund, ale niosą ze sobą olbrzymie ilości energii. Dotychczas udokumentowano 15 takich wydarzeń, które zdają się nadchodzić z różnych kierunków. Naukowcy wierzą jednak, że w obserwowalnym wszechświecie każdego dnia dochodzi do wielu tysięcy FRB. Podczas analizy wykorzystano wysoce wyspecjalizowane oprogramowanie, które przekopało się przez 40 terabajtów danych z Green Bank Telescope i oznaczyło każdy sygnał, który mógł pochodzić z FRB. Automatyczny program odnalazł w ten sposób ponad 6000 potencjalnych FRB. Następnie do pracy przystąpił Hsiu-Hsin Lin, który samodzielnie wykonał analizę każdego z podejrzanych sygnałów, aż pozostał jeden kandydat nazwały FRB 110523. Był to sygnał o częstotliwości 700-900 MHz. Dotychczas wszystkie zarejestrowane błyski radiowe miały częstotliwość 1,2-1,5 GHz. Dotychczas zarejestrowano 15 FRB. Mam niesamowite szczęście, że znalazłem szesnasty. To nie tylko pierwszy FRB w swoim zakresie częstotliwości. Dostarczył on nam też olbrzymiej ilości danych, dzięki czemu możemy lepiej zrozumieć to zjawisko, stwierdził Lin Sygnał odkryty przez Lina zawierał więcej szczegółów na temat swojej polaryzacji niż inne znane FRB. Dane z GBT dostarczają infromacji na temat polaryzacji kołowej i liniowej. Dotychczas z FRB wiązano jedynie polaryzację kołową. W gigantycznym zbiorze danych znaleźliśmy pewien szczególny sygnał, który pasował do wszystkich znanych charakterystyk FRB, a dodatkowo były tam dane na temat polaryzacji, jakich nigdy wcześniej nie udało się uzyskać - mówi Jaffrey Peterson. Dzięki dodatkowym informacjom naukowcy dowiedzieli się, że w sygnale występuje zjawisko Faradaya. Polega ono na obrocie płaszczyzny polaryzacji, do którego dochodzi gdy sygnał przejdzie przez silne pole magnetyczne. To zdradza warunki, w jakich narodził się sygnał, dzięki czemu teoretycy mogą spróbować wyjaśnić, skąd on pochodzi. Analizy wykazały również, że sygnał przechodził przez dwa różne regiony, w których występował zjonizowany gaz. Region o najsilniej zjonizowanym gazie musiał występować w odległości nie większej niż kilkaset tysięcy lat świetlnych od źródła sygnału. Zdaniem specjalistów wskazuje to albo na mgławicę otaczającą źródło sygnału, albo pobliże centrum galaktyki. « powrót do artykułu
  25. Trampki ShiftWear nowojorskiego projektanta Davida Coelho to idealne rozwiązanie dla osób, które lubią zmiany i połączenie mody z elektronicznymi gadżetami. Ich wygląd można bowiem zmieniać za pomocą aplikacji na smartfony czy tablety. A wszystko za sprawą wbudowanych w cholewkę giętkich wyświetlaczy e-Ink. Przy wykorzystywaniu wyłącznie statycznych obrazów żywotność wbudowanej baterii szacuje się na 30 dni. Buty z 3 długościami cholewki do wyboru mają być wodoodporne, ale można je będzie prać w pralce. Twórca wspomina też o pokryciu podeszwy kewlarem. Giętka elektronika butów będzie się ładować przy każdym kroku [piezoelektrycznie]. Aplikację obsługują urządzenia z iOS-em, Androidem i Windows. Możesz tworzyć własne projekty i dzielić się nimi z przyjaciółmi albo sprzedawać. To oprogramowanie do projektowania, rynek i sieć społeczna, wszystko w jednym. Z oczywistych względów start-up nie chce ujawniać, jak dokładnie działają trampki. Wiadomo tylko, że wykorzystana technologia istnieje od lat. Obecnie trwa zbiórka funduszy na witrynie Indiegogo. Choć do końca pozostało jeszcze kilkanaście dni, Coelho i inni uzyskali już 530% z zakładanych 25 tys. dol. Wspierając przedsięwzięcie, za kwotę od 150 do 1000 dol. można stać się właścicielem własnej pary butów. Najtańszy jest model L1 Classic. « powrót do artykułu
×
×
  • Dodaj nową pozycję...