Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37634
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. W przypadku 75% dorosłych Amerykanów okazało się, że wiek serca jest wyższy niż ich wiek biologiczny. Osoby takie są narażone na zwiększone ryzyko udarów i chorób serca. Twoje serce może być starsze niż ty. Tak jest w przypadku większości mieszkańców USA - mówi doktor Thomas Frieden, dyrektor CDC (Centrum Chorób Zakaźnych i Prewencji), które opublikowało pierwsze badania tego typu obejmujące całą populację. Ocena wieku serca została przeprowadzona na podstawie różnych czynników ryzyka, takich jak m.in. palenie papierosów, nadciśnienie czy otyłość. CDC wykorzystało dane ze wszystkich stanów oraz informacje z dużego, odbywającego się właśnie badania. Na tej podstawie eksperci stwierdzili, że 69 milionów Amerykanów w wieku 30-74 lat ma serce starsze niż wskazuje jego wiek biologiczny. Studium ujawniło też duże różnice pomiędzy płciami czy pochodzeniem etnicznym. Średni wiek serca mężczyzny jest o 8 lat wyższy niż jego wiek biologiczny. W przypadku kobiety różnica wynosił 5 lat. Jeszcze większe różnice występowały pomiędzy rasami. Najgorzej wyglądała sytuacja w przypadku Afroamerykanów, dla których średni wiek serca był o 11 lat wyższy od wieku biologicznego zarówno dla kobiet jak i mężczyzn. Ponadto mieszkańcy stanów południowych mieli średnio starsze serca niż osoby mieszkające w innych stanach. Największy odsetek osób o sercu starszym od wieku biologicznego o co najmniej 5 lat występuje w stanach Mississippi, Kentucky, Luizjana i Alabama. Z kolei najmniejszy - w Utah, Kolorado, Kalifornii, Massachusetts i na Hawajach. Doktor Frieden pociesza, że nigdy nie jest zbyt późno, by cofną zegar biologiczny serca. Wystarczy rzucić palenie czy zadbać o prawidłowe ciśnienie. « powrót do artykułu
  2. Nowa technika polegająca na połączeniu danych z badań terenowych ze zdjęciami satelitarnymi pozwala stwierdzić, że na Ziemi rośnie obecnie około 3 bilionów drzew. To siedmiokrotnie więcej niż dotychczas sądzono. Badania wykazały też, że działalność człowieka ma katastrofalny wpływ na stan zalezienia naszej planety. każdego roku ludzie wycinają około 15 miliardów drzew. Od pojawienia się rolnictwa liczba drzew na planecie zmniejszyła się o 46%. Skala wpływu człowieka jest zadziwiająca. Oczywiście zdawaliśmy sobie sprawę, że człowiek będzie znaczącym czynnikiem wpływającym na liczbę drzew, jednak nie sądziliśmy, że nasz gatunek to główna przyczyna takiej a nie innej gęstości drzewostanów - powiedział Thomas Crowther z Holenderskiego Instytutu Ekologii w Wageningen, który prowadził badania podczas stażu na Yale University. Do niedawna sądzono, opierając to przekonanie na zdjęciach satelitarnych, że na Ziemi rośnie około 400 miliardów drzew. Crowther i jego współpracownicy połączyli dane satelitarne ze znacznie dokładniejszymi danymi z badań terenowych. Zebrali informacje z takich badań prowadzonych na wszystkich kontynentach z wyjątkiem Antarktydy. Informacje dotyczyły łącznej powierzchni około 430 000 hektarów. Dzięki nim uczeni byli w stanie udoskonalić dane pochodzące z satelitów. Następnie wykorzystali swoje szacunki do przyjrzenia się obszarom, które były słabo badane. Na przykład badania terenowe z lasów Kanady i północnej Europy połączone z danymi satelitarnymi zostały wykorzystane do szacowania ze zdjęć satelitarnych liczby drzew w podobnych lasach odległych północnych części Rosji. To nie jest tak, że odkryliśmy nowe drzewa. Po prostu dodaliśmy kolejną warstwę danych, która pozwoliła nam na skorygowanie wcześniejszych szacunków - mówi Crowther. Z nowych szacunków dowiadujemy się, że największa na świecie gęstość zaludnienia na hektar występuje w lasach borealnych USA, Skandynawii i Rosji. W sumie znajduje się w nich 750 miliardów drzew, czyli 24% wszystkich występujących na ziemi. W lasach tropikalnych i subtropikalnych, które zajmują najwięcej przestrzeni spośród wszystkich ziemskich lasów, występuje 1,3 biliona drzew (43%). Crowther przypomina, że ostatnie szacunki nie zmieniają poglądu na wylesianie. Nie mówimy, że wszystko jest w porządku. Uczony zwraca uwagę, że jest wręcz przeciwnie. W regionach, w których wydawałoby się, że lasy powinny mieć się dobrze - czyli w ciepłych, wilgotnych obszarach globu - działalność człowieka powoduje kurczenie się zalesionych terenów. « powrót do artykułu
  3. Grafen to bardzo dobry przewodnik, a eksperci na całym świecie starają się, by zachowywał się też jak półprzewodnik i zastąpił krzem w elektronice przyszłości. Teraz naukowcy z Kanady i Niemiec dowiedli, że domieszkowanie grafenu litem powoduje, że staje się on nadprzewodnikiem. Od mniej więcej dekady wiadomo, że trójwymiarowy krewny grafenu - grafit - może zachowywać się jak nadprzewodnik. Dlatego też naukowcy spróbowali tego samego z grafenem. Symulacje komputerowe sugerowały, że domieszkowanie grafenu litem spowoduje, że w takim materiale pojawią się fonony, czyli wibracje ułatwiające tworzenie się par Coopera. Pary te do układy dwóch fermionów (np. elektronów) oddziałujących poprzez fonony. Ich obecność to element nadprzewodnictwa. Niemiecko-kanadyjski zespół przeprowadził eksperymenty i potwierdził, że symulacje komputerowe dały prawidłowe wyniki. Z artykułu opublikowanego w arXiv dowiadujemy się, że najpierw uczeni hodowali warstwy grafenu na podłożu z węgliku krzemu, a następnie w komorze próżniowej przy temperaturze 8 kelwinów, wzbogacili grafen atomami litu. Zaobserwowano, że w tak przygotowanym materiale zwiększyła się liczba par Coopera i pojawiło się nadprzewodnictwo. Uczeni ze SLAC National Accelerator Laboratory, komentując prace swoich kolegów po fachu, zauważyli, że przyczynią się one do powstania niewielkich nadprzewodzących nanourządzeń kwantowych oraz nadprzewodzących kropek kwantowych. « powrót do artykułu
  4. Powlekanie elektrostatyczne, nowa metoda pokrywania moskitier insektycydem, do 100% zwiększa skuteczność zwalczania pewnych opornych na środki owadobójcze szczepów komarów. W wielu rejonach świata oporność komarów staje się coraz większym problemem. Uważa się, że insektycydy w postaci wodnych zawiesin, emulsji i roztworów oraz moskitiery, które często zawierają mało środka owadobójczego, nie zawsze zabijają komary, pozwalając im wykształcić oporność. Podczas eksperymentów 6 opornych na pyretroidy szczepów komarów z rodzaju Anopheles wystawiano na oddziaływanie takich samych dawek deltametryny na naładowanej powierzchni (pierwotnie opracowanej do wychwytywania pyłków) i standardowej moskitierze PermaNet 2.0. Okazało się, że bazujące na polarności elektrostatyczne powlekanie znacząco zwiększało śmiertelność komarów. Po 15-krotnym zmniejszeniu dawki deltametryny i skróceniu czasu ekspozycji do zaledwie 5 s śmiertelność nadal była wysoka. W ten sam sposób można również wiązać inne cząsteczki, np. insektycydy niepyretroidowe. Podczas eksperymentów ze szczepami komarów z rodzajów Culex i Aedes naukowcy zademonstrowali, że działają na nie 3 klasy środków owadobójczych. Autorzy publikacji z pisma PNAS, m.in. Marit Farenhorst z Uniwersytetu w Wageningen, wspominają o elektrostatycznym powlekaniu ścian, firan, okiennych siatek przeciw owadom czy zastosowaniach w urządzeniach do usuwania zanieczyszczeń. « powrót do artykułu
  5. Firma Palo Alto Networks alarmuje, że cyberprzestępcy włamali się do 225 000 kont użytkowników iPhone'ów, kradnąc tysiące certyfikatów i prywatnych kluczy szyfrujących. To największy tego typu atak na użytkowników iPhone'ów. Firma znalazła 92 próbki nowego szkodliwego oprogramowania, które atakuje urządzenia korzystające z systemu iOS. KeyRaider atakuje urządzenia poddane jailbreakingowi. Jest ono rozpowszechniane przez chiński serwis Cydia. Wydaje się, że ofiarami ataku padli mieszkańcy Chin, Francji, Rosji, Japonii, USA, Wielkiej Brytanii, Niemiec, Kanady, Australii, Włoch, Singapuru, Izraela i Korei Południowej, czytamy w komunikacie Palo Alto Networks. Przypomnijmy, że mianem jailbreakingu określa się usunięcie narzuconych przez producenta ograniczeń w używaniu systemu operacyjnego. Z ograniczeniami takimi często spotykają się użytkownicy urządzeń mobilnych. Nic więc dziwnego, że na tych urządzeniach chętnie dokonywany jest jailbreaking, mimo że działanie takie osłabia mechanizmy zabezpieczeń. Użytkownicy, którzy dokonują jailbreakingu tylko po to, by zainstalować te kilka aplikacji niedostępnych w oficjalnych sklepach, są znacznie bardziej narażeni na infekcje takim kodem jak KeyRaider. Koszt jailbreakingu jest znacznie wyższy niż potencjalne korzyści, mówi Lane Thames, badacz ds. bezpieczeństwa z firmy Tripwire. Przyznaje przy tym, że niektóre z narzucanych przez producentów ograniczeń idą zbyt daleko i służą tylko i wyłączeni producentom, a nie klientom. « powrót do artykułu
  6. W przypadku osób z depresją, które przejawiają ryzykowne zachowania, są pobudzone oraz impulsywne, ryzyko podjęcia próby samobójczej jest o co najmniej 50% wyższe. Podczas międzynarodowego studium BRIDGE-II-MIX naukowcy oceniali 2811 osób cierpiących na depresję (628 podjęło próbę samobójczą). Z każdym z pacjentów był przeprowadzany wywiad psychiatryczny. Analizowano m.in. wcześniejsze próby samobójcze, historię rodziny, przeszłe i obecne leczenie czy wyniki uzyskiwane w Skali Ogólnego Funkcjonowania (Global Assessment of Functioning, GAF). Naukowcy przyglądali się cechom i zachowaniom ludzi, którzy targnęli się na życie i porównywali je z pacjentami z depresją, którzy nie próbowali popełnić samobójstwa. Odkryliśmy, że próbę samobójczą często poprzedzają mieszane stany depresyjne, gdzie pacjent ma z jednej strony depresję, a z drugiej przejawia pobudzenie czy manię. [...] Czterdzieści procent próbujących popełnić samobójstwo pacjentów miało raczej epizod mieszany, a nie [czystą] depresję. Za pomocą kryteriów DSM [klasyfikacji zaburzeń psychicznych Amerykańskiego Towarzystwa Psychiatrycznego] stany mieszane zidentyfikowano tylko u 12% pacjentów, zaś przy zastosowaniu naszych metod odsetek zagrożonych wzrósł aż do 40%. To oznacza, że standardowe metody nie wychwytują wielu pacjentów z grup ryzyka - podkreśla dr Dina Popović ze Szpitala Klinicznego w Barcelonie. Ryzyko popełnienia samobójstwa jest o przynajmniej 50% wyższe, gdy u osoby z depresją występują następujące objawy: 1) ryzykowne zachowania, np. lekkomyślna jazda samochodem czy utrzymywanie stosunków płciowych z wieloma partnerami, 2) pobudzenie psychoruchowe, np. krążenie po pomieszczeniu, wykręcanie dłoni, 3) impulsywność (uleganie zachciankom, działanie bez zastanowienia lub rozważenia konsekwencji). Ponieważ pacjent może spontanicznie nie mówić o tych problemach, wg Popović, klinicysta powinien każdorazowo przeprowadzić odpowiedni wywiad. Plusem tego studium jest to, że to nie testy kliniczne z udziałem idealnych pacjentów, ale duże badanie prowadzone w realnym świecie. Wyniki Popović zostaną zaprezentowane na konferencji Europejskiego College'u Neuropsychofarmakologii (European College of Neuropsychopharmacology, ECNP) w Amsterdamie. « powrót do artykułu
  7. Koncern Seagate pokonał barierę zapisu 1 terabajta danych na pojedynczym talerzu dysku twardego dla laptopów. Oznacza to, że firma jest w stanie produkować niezwykle pojemne 2,5-calowe dyski o grubości 7 milimetrów. Co więcej nowe dyski są o 25% lżejsze niż wcześniejsze modele. Na razie Seagate nie zdradza, kiedy do sprzedaży trafią nowe bardzo pojemne HDD. To już kolejne ważne osiągnięcie amerykańskiej firmy. W 2011 roku ogłosiła ona przełamanie bariery 1TB dla 3,5-calowych HDD, spotykanych w pecetach czy serwerach. Firma sprzedawała początkowo urządzenie o pojemności do 3 terabajtów i gęstości zapisu rzędu 625 gigabitów na cal kwadratowy. Teraz dzięki szybkiemu postępowi technicznemu przedsiębiorstwo będzie w stanie zaoferować pojemne dyski dla laptopow. Mark Re, prezes ds. technologicznych Seagate'a zaznacza, że nowe HDD będą oferowały 4-krotnie większą pojemność od 250-gigabajtowych SSD za znacznie niższą cenę. Firma rozważa obecnie wykorzystanie swojej nowej technologii w dyskach hybrydowych, będących połączeniem HDD i SSD. « powrót do artykułu
  8. IBM i GENCI podpisały umowę, której celem jest stworzenie znacznie bardziej wydajnych superkomputerów niż obecnie. GENCI (Grand Équipement National de Calcul Intensif) to francuska spółka cywilna, której właścicielem są francuskie ministerstwa, agendy rządowe i uczelnie. Zadaniem GENCI jest koordynacja prac krajowych centrów obliczeniowych. IBM i GENCI będą wspólnie pracowały nad superkomputerami o wydajności liczonej w eksaskali, czyli trylion operacji zmiennoprzecinkowych na sekundę. Obecne komputery pracują w petaskali, zatem biliarda operacji na sekundę. Najpotężniejszy współczesny superkomputer, chiński Tianhe-2 osiągnął wydajność niemal 34 PFlops. Maszyny, nad którymi pracują IBM i GENCI mają pracować z prędkością co najmniej 1000 PFlops. Obie firmy uzgodniły, że ich wstępna współpraca potrwa 18 miesięcy. W tym czasie ma powstać komputer działający w eksaskali (EFlops). Rozwijane będą technologie powstające w ramach IBM-owskiej inicjatywy OpenPOWER. Główny cel współpracy to stworzenie wydajnej maszyny do zastosowań naukowych, zatem nie będzie się ona przekładała zbyt szybko na wydajność zwykłych komputerów. IBM chce m.in. łączyć procesory graficzne Nvidii z procesorami POWER za pomocą Nvidia NVLink. Osiągnięcie eksaskali w obliczeniach komputerowych może być niezwykle ważnym krokiem w kierunku przyszłości. Uważa się bowiem, że ludzki mózg przetwarza informacje właśnie z szybkością eksaflopsa. Powstanie równie potężnych komputerów pozwoli na symulowanie pracy mózgu człowieka. « powrót do artykułu
  9. Naukowcy ujawnili, w jaki sposób toksyna MP1 z jadu należącej do osowatych Polybia paulista wybiórczo zabija komórki nowotworowe. Okazuje się, że MP1 wchodzi w interakcje z nieprawidłowo umiejscowionymi lipidami błony komórkowej. Tworzą się przez to otwory, przez które wyciekają cząsteczki kluczowe dla funkcjonowania komórek. Terapie antynowotworowe, które atakują lipidową składową błony komórkowej, byłyby zupełnie nową klasą leków. To mogłoby być użyteczne przy rozwijaniu nowych terapii łączonych [...] - przekonuje Paul Beales z Uniwersytetu w Leeds. MP1, peptyd antydrobnoustrojowy, może hamować wzrost komórek raka prostaty i pęcherza moczowego, a także wielolekoopornych komórek białaczkowych. Dotąd nie było jednak wiadomo, w jaki sposób MP1 wybiórczo zabija wyłącznie komórki nowotworowe. Beales i João Ruggiero Neto z Universidade Estadual Paulista "Júlio de Mesquita Filho" (UNESP) podejrzewali, że może to mieć związek z unikatowymi właściwościami błon komórek nowotworowych. W błonach zdrowych komórek fosfatydylseryna (PS) i fosfatydyloetanolamina (PE) znajdują się w wewnętrznej warstwie fosfolipidów i są zwrócone do wnętrza komórki. W komórkach nowotworowych występują jednak w warstwie zewnętrznej i są zwrócone do otoczenia komórki. Brytyjsko-brazylijski tandem testował swoją teorię, bazując na modelach błon (zawierały one 1) PE, 2) PS albo 3) PE i PS). Okazało się, że PS aż 7-8-krotnie zwiększała wiązanie MP1 z błoną. Obecność PE zwiększała zaś zdolność MP1 do szybkiego niszczenia błony, zwiększając rozmiar otworów aż 20-30-krotnie. Powstające w ciągu kilku sekund pory są na tyle duże, by wypuścić z komórki ważne cząsteczki, takie jak RNA czy białka. Niesamowite zwiększenie przepuszczalności, wywoływane przez peptyd w obecności PE, a także rozmiary porów w błonach były zaskakujące - opowiada Neto. W przyszłości naukowcy chcą zmienić sekwencję aminokwasów MP1 i w ten sposób ustalić, jak budowa peptydu ma się do jego funkcji. Zależy im także na poprawie wybiórczości i mocy MP1. Zrozumienie mechanizmu działania przyda się w przyszłych badaniach translacyjnych. « powrót do artykułu
  10. Amerykański Departament Energii (DoE) zatwierdził budowę kamery o rozdzielczości 3,2 gigapiksela. To najpotężniejsze tego typu urządzenie będzie 'okiem' Large Synoptic Survey Telescope (LSST). LSST rozpocznie pracę w 2022 roku na szczycie góry Cerro Pachón w Chile. Kamera będzie co kilka nocy wykonywała zdjęcia całego południowego nieboskłonu. Ma to służyć przeprowadzaniu szeroko zakrojonego szybkiego spisu obiektów. Specjaliści szacują, że w ciągu 10-letniej pracy dzięki LSST odkryją i skatalogują dziesiątki miliardów obiektów. Po raz pierwszy w historii pojedynczy teleskop ma zaobserwować więcej galaktyk niż jest ludzi na Ziemi. Kamera dla LSST będzie miała rozmiary małego samochodu, a jej waga przekroczy trzy tony. Urządzenie zostanie sfinansowane przez DoE, natomiast koszty budowy LSST poniesie głównie Narodowa Fundacja Nauki (NSF). Budowę kamery zlecono SLAC National Accelerator Laboratory, natomiast poszczególne podzespoły do kamery to efekt szeroko zakrojonej międzynarodowej współpracy. W ich tworzeniu biorą udział m.in. Brookhaven National Laboratory czy Lawrence Livermore National Laboratory. Zbudowanie i przetestowanie kamery zajmie około 5 lat. LSST będzie niezwykle wydajnym urządzeniem. Do publicznej bazy danych trafi dzięki niemu około 6 petabajtów danych. To tak, jakbyśmy codziennie wykonywali 800 000 zdjęć aparatem o rozdzielczości 8 MP. « powrót do artykułu
  11. Shaun Bridges, były członek Secret Service, przyznał się do prania brudnych pieniędzy po tym, jak uczynił to drugi oskarżony w sprawie. Bridges i agent DEA Carlo Force byli przydzieleni do śledztwa w sprawie czarnorynkowej giełdy Silk Road. Przed kilkoma miesiącami sami jednak zasiedli na ławie oskarżonych. Bridges pojawił się ostatnio w sądzie federalnym w San Francisco, gdzie przyznał się do kradzieży bitcoinów wartych ponad 800 000 dolarów oraz do obstrukcji wymiaru sprawiedliwości. Agent przyznał, że kradzież, której dokonał, spowodowała, iż Ross Ulbricht, założyciel Silk Road, sądził, że jest okradany przez inną osobę. Ulbricht, mając Bridgesa za jednego z klientów Silk Road, zwrócił się do niego z prośbą o pomoc w wynajęciu zabójcy, który zgładzi domniemanego złodzieja. Ross Ulbricht został niedawno skazany na dożywotnie więzienie. Jego adwokat, po przyznaniu się Bridgesa, stwierdził, że to "usuwa wszelkie wątpliwości co do korupcji, która ciążyła na śledztwie". Wyrok w sprawie Bridgesa zapadnie w grudniu. « powrót do artykułu
  12. W porównaniu do spędzających w objęciach Morfeusza 7 i więcej godzin, stykając się z wirusem, osoby, które śpią 6 lub mniej godzin, 4-krotnie częściej zapadają na przeziębienie. Dr Aric Prather z Uniwersytetu Kalifornijskiego w San Francisco podkreśla, że to pierwsze badanie, w którym, by ocenić związek między zwyczajami dot. snu a ryzykiem zachorowania, uwzględniono obiektywne miary snu. Przy przewidywaniu prawdopodobieństwa złapania przeziębienia krótki sen był ważniejszy od wszystkich innych [uwzględnionych] czynników. Nie liczyły wiek, poziom stresu, rasa, wykształcenie czy przychód. Nie miało [też] znaczenia, czy ktoś był palaczem. Po wzięciu poprawki na te wszystkie rzeczy statystycznie długość snu nadal była najważniejsza. Naukowcy od dawna wiedzą, że sen jest ważny dla naszego zdrowia; sen złej jakości wiąże się [bowiem] z przewlekłymi chorobami, podatnością na choroby, a nawet przedwczesną śmiercią. Wcześniejsze badania Prathera wykazały, że po zaszczepieniu ludzie, którzy mniej śpią, są słabiej chronieni przed zachorowaniem. Inne studia potwierdziły, że sen należy do czynników regulujących poziom limfocytów T. By sprawdzić, jak sen wpływa na reakcję organizmu na prawdziwe zakażenie, Prather nawiązał współpracę z dr. Sheldonem Cohenem, psychologiem z Carnegie Mellon. Aby bezpiecznie ocenić, jak różne czynniki oddziałują na zdolność zwalczenia choroby, grupa Cohena podaje ochotnikom wirusy przeziębienia. W studium, którego wyniki ukazały się na łamach pisma SLEEP, wykorzystano zebrane nieco wcześniej dane. Między 2007 a 2011 r. zebrano grupę 164 mieszkańców okolic Pittsburgha. Przez 2 miesiące przechodzili oni badania przesiewowe i wypełniali kwestionariusze. Dodatkowo przeprowadzano z nimi wywiady. W ten sposób ustalono wyjściowe wartości kilku parametrów: stresu, temperamentu, a także spożycia alkoholu i palenia. Tydzień przed podaniem wirusa Amerykanie badali zwyczaje senne: czujnik przypominający zegarek zbierał dane dot. jakości snu. Później ochotników zakwaterowywano w hotelu i za pośrednictwem kropli do nosa aplikowano wirusy przeziębienia. Przez tydzień monitorowano ich stan, codziennie pobierając próbki śluzu. Okazało się, że osoby, które tydzień przed podaniem wirusa spały mniej niż 6 godzin, przeziębiały się 4,2 razy częściej niż ludzie śpiący 7 i więcej godzin. Wolontariusze śpiący mniej niż 5 godzin dziennie zapadali na chorobę aż 4,5 razy częściej od śpiących dużo. Skutki wykraczają poza oszołomienie i podenerwowanie. Niewyspanie istotnie wpływa na zdrowie fizycznie - twierdzi Prather, dodając, że tak zaprojektowane studium lepiej pokazuje ryzyko związane z niedospaniem, bo naukowcy nie pozbawiają badanych sztucznie snu, ale bazują na ich naturalnych zwyczajach. To może być czyjś typowy tydzień w sezonie przeziębień. « powrót do artykułu
  13. Plamka ślepa to obszar siatkówki niewrażliwy na bodźce świetlne, w którym nerw wzrokowy opuszcza gałkę oczną. Okazuje się, że za pomocą treningu plamkę ślepą można "obkurczyć". Naukowcy mają nadzieję, że po ulepszeniu protokołu podobny trening sprawdzi się w przypadku związanego z wiekiem zwyrodnienia plamki żółtej. Nie spodziewaliśmy się dużego zmniejszenia ślepoty czynnościowej, ponieważ nie ma szans, by w obrębie samej plamki ślepej pojawiły się fotoreceptory. Da się tylko poprawić wrażliwość na jej obrzeżach, a to okazało się wystarczające, by o ok. 10% zmniejszyć ślepotę czynnościową - opowiada Paul Miller z Uniwersytetu Queensland. Naukowcy trenowali 10 osób przez 20 kolejnych dni. Miały one określić kierunek przemieszczania się sinusoidalnej fali w okręgu umiejscowionym tuż obok plamki ślepej jednego oka. Wielkość okręgu dostosowywano w taki sposób, by badani udzielali prawidłowej odpowiedzi w circa 70% przypadków. Okazało się, że pod koniec treningu ludzie lepiej sobie radzili zarówno z określaniem kierunku ruchu, jak i koloru sinusoidy. Wyniki uzyskane w odniesieniu do jednego oka nie ulegały transferowi na plamkę ślepą drugiego oka. Autorzy publikacji z pisma Current Biology uważają, że nie chodzi więc o sam trening, ale o zwiększenie wrażliwości neuronów, których pola recepcyjne częściowo nakładają się lub stykają z plamką ślepą. W ten sposób oko staje się bardziej wyczulone na słabe sygnały, wywodzące się z pierwotnie ślepych rejonów. Australijczycy podejrzewają, że ich protokół może się sprawdzić przy innych przyczynach ślepoty. Wspominają np. o wspomaganiu za jego pomocą odzyskania wzroku przy wdrażaniu bionicznego oka czy terapii komórkami macierzystymi siatkówki. « powrót do artykułu
  14. Efekt kwantowy powoduje, że możliwe jest stworzenie komputera kwantowego, który wykonuje obliczenia, mimo że nie pracuje. Dotychczas efektywność takiego procesu, zwanego CFC (counterfactual computation), była ograniczona do 50%, co znacznie utrudniało jego zastosowanie w praktyce. Teraz naukowcy pracujący pod kierunkiem profesora Jiangfenga Du z Uniwersytetu Nauki i Technologii Chiny oraz profesora Liang Jianga z Yale University opublikowali na łamach Physical Review Letters artykuł opisujący prace, w czasie których metoda CFC osiągnęła 85% wydajności i potencjalnie może osiągnąć 100%. Główne składniki, które pozwoliły na stworzenie wysoko wydajnego CFC to m.in. wykorzystanie egzotycznych stanów kwantowych - jak superpozycja, pomiar kwantowy i kwantowy efekt Zenona - oraz wykorzystanie zgeneralizowanego protokołu CFC - mówi profesor Du. Najpierw jednak warto wyjaśnić sobie, co oznacza, że wspomniany komputer kwantowy "nie pracuje". Dla naukowców oznacza to, że komputer, który może operować na podzbiorze 'on' lub 'off' przez cały proces obliczeniowy pozostaje w 'off'. Kontrolowanie maszyny w tym stanie wymaga kontrolowanie własności spinu w systemie utworzonym z diamentu. System ten działa jak kwantowy przełącznik. Aby kontrolować pozycję spinu, naukowcy wykorzystali efekt Zenona, który powoduje, że pod wpływem częstych pomiarów kwantowy system pozostaje zamrożony w aktualnym stanie. Procedura zakłada wykorzystanie kwantowego przełącznika i kwantowego rejestru. Dla każdego powtórzenia przygotowujemy kwantowy przełącznik w stanie superpozycji. Następnie 'algorytm', w naszym przypadku bramka NOT, jest przełączana w stan 'on'. Pozornie komputer wykonał ten krok, jednak następujący po tym pomiar usuwa wszystkie zmiany związane z przejściem w stan 'on', zatem prawdopodobieństwo całego systemu wraca do stanu 'off' i zbliża się ono do 100% przy wielkiej liczbie pomiarów (liczba pomiarów zdąża w kierunku nieskończoności i korzystamy przy tym z kwantowego efektu Zenona), wyjaśnia Jiang. To podobna sytuacja, z jaką mamy do czynienia np. w interferometrach. Gdy foton pojawi się przy danym detektorze, możemy wnioskować, że przebył jakąś drogę, a nie inną. Podobnie jest tutaj, gdy cały system znajduje się w stanie 'off'. można wnioskować, że komputer nie działa. Po każdym przebiegu stan zmienia się nieznacznie i w końcu po N powtórzeniach przechodzi on do jakiejś wartości odmiennej od wartości początkowej. Wykrywając ten stan, otrzymujemy wynik, momo że komputer nie działał, dodaje. Dotychczas limit obliczeń CFC wynosił 50%, co jest definiowane jako średnie prawdopodobieństwo poznania stanu obliczeń bez uruchamiania komputera. Generalizowane CFC nie ma jednak takiego limitu, a zespół Du i Jianga wykazał, że po 17 powtórzeniach wydajność wynosi 85%. Wyższa wydajność obliczeń CFC oznacza, że możliwe staje się opracowanie wysoce efektywnej technologii obrazowania z użyciem minimalnej ilości światła. Technologia taka może być szczególnie przydatna przy obrazowaniu próbek biologicznych, które mogą zostać zniszczone przez światło. Dotyczy to zarówno obrazowania protein w zielonym świetle fluorescencyjnym, obrazowania za pomocą ultrafioletu czy za pomocą promieniowania rentgenowskiego. W niektórych przypadkach obraz mógłby powstać za pomocą pojedynczego fotonu. Wykorzystanie pojedynczego fotonu ma sens w takich specjalnych przypadkach, gdy obiekt, który chcemy zobrazować, ma jeden piksel przezroczysty, a inne są nieprzezroczyste. Przy tradycyjnym obrazowaniu foton zostanie pochłonięty przez nieprzezroczysty piksel, tak, jakby komputer wszedł w stan 'on'. W naszej technice taka sytuacja nie ma miejsca. Foton znajdzie przezroczysty piksel i przejdzie przez niego do znajdujące się z tyłu czujnika. W takim przypadku liczba fotonów potrzebnych do zobrazowania obiektu jest równa liczbie takich przezroczystych miejsc w obiekcie. W tradycyjnym obrazowaniu liczba ta jest wielokrotnie większa", mówi współautor badań Fei Kong. Uczeni nie wykluczają też użycie swojej metody w kryptografii kwantowej. Od pewnego już czasu różne grupy specjalistów pracują wykorzystaniem zgeneralizowanej CFC w bezpiecznym przesyłaniu kwantowych danych. « powrót do artykułu
  15. Biolodzy szacują, że aż 90% ptaków morskich na świecie jadło jakiś plastik. Jak ujawnia dr Chris Wilcox z CSIRO Marine and Atmospheric Research, w menu blisko 60 gatunków znajdują się torby, szczoteczki do zębów, zapalniczki, zakrętki od butelek, włókna z syntetycznych tkanin, a nawet kończyny lalek, które zostały wymyte do oceanu z rzek, kanałów ściekowych i wysypisk. Naukowcy z CSIRO oraz Imperial College London (ICL) analizowali publikowane badania, poczynając od wczesnych lat 60. XX w. Stwierdzili, że polimery coraz częściej występują w ptasich żołądkach. W 1960 r. plastik był znajdowany u mniej niż 5% ptaków, zaś do 2010 r. odsetek ten wzrósł aż do 80%. Opierając się na aktualnych trendach, autorzy publikacji z pisma PNAS przewidują, że do 2050 r. spożycie polimerów będzie dotyczyć 99% gatunków ptaków morskich. Ptaki mylą kolorowe obiekty z pokarmem albo połykają je przez przypadek. Prowadzi to do zatkania jelita, utraty wagi, a nawet śmierci. Wykorzystując historyczne obserwacje, przewidujemy, że aż 90% ptaków morskich na świecie jadło kiedyś plastik. To duża liczba, która wskazuje na wszędobylskość skażenia plastikiem - podkreśla dr Wilcox. Denise Hardesty z CSIRO Oceans and Atmosphere dodaje, że ptaki morskie to świetny wskaźnik stanu zdrowia ekosystemu. [...] Oszacowania odnośnie do tak dużego obciążenia ptaków morskich plastikiem potwierdzają niektóre nasze badania terenowe, podczas których u pojedynczego ptaka znalazłam niemal 200 fragmentów plastiku. Największy wpływ na dziką przyrodę będą mieć odpady gromadzące się w Oceanie Południowym, w pasie wokół południowych wybrzeży Australii, południowej Afryki i Ameryki Południowej. Dr Erik van Sebille z Instytutu Granthamów na ICL zaznacza, że plastik będzie miał najgorszy wpływ na regiony z największą bioróżnorodnością. Bardzo boimy się o żyjące na takich obszarach pingwiny czy albatrosy. Mimo że w niesławnych ławicach odpadów na środku oceanów występuje bardzo duże zagęszczenie plastiku, żyje tam bardzo mało zwierząt. Hardesty uważa, że poprawa zarządzania odpadami może zmniejszyć zagrożenie morskiej fauny plastikami i dodaje, że nawet proste zabiegi wiele zmieniają. Wystarczyło uszczelnić gospodarkę odpadami polimerowymi w Europie, by w mniej niż 10 lat wystąpiły mierzalne zmiany dot. plastiku w ptasich żołądkach. « powrót do artykułu
  16. Psycholog społeczny Brian Nosek, dyrektor Center for Open Science w Virginii oraz 269 innych naukowców postanowili zweryfikować dane z 98 artykułów opublikowanych w 3 różnych pismach specjalistycznych. Uczeni chcieli sprawdzić, czy na podstawie opisanych eksperymentów dojdą do takich samych wniosków jak autorzy oryginalnych badań. Próby powtórzenia badań i uzyskania podobnych wyników generalnie spaliły na panewce. Na 100 prób - dwa badania były niezależnie testowane przez dwa różne zespoły - odtworzono jedynie 39 badań. Wynik 39% to subiektywna ocena badaczy co do tego, czy udało się eksperyment powtórzyć. Uczeni wykorzystali też metody statystyczne do oceny, czy badania przyniosły istotne rezultaty. O ile w autorzy oryginalnych eksperymentów aż w 97% twierdzili, że uzyskali znaczące wyniki, to autorzy obecnych studiów uzyskali takie wyniki zaledwie w 36% przypadków. Nosek mówi, że nie ma sposobu, by na podstawie samego artykułu ocenić, czy uzyskane wyniki są prawdziwe czy nie. Błędy mogą istnieć zarówno w pracy oryginalnej, jak i w jej powtórzeniu. Mogą też istnieć ważne czynniki, które zaburzają jedną lub drugą pracę. Jednak projekt przeprowadzony przez Noska i jego kolegów dowodzi, że w psychologicznych pismach naukowych publikowane są badania, które nie przechodzą pozytywnie testu sprawdzającego ich wiarygodność. Zdaniem Noska istnieje potrzeba badań sprawdzających inne badania. Obecnie niemal nikt nie przeznacza funduszy na tego typu działania. Badania Noska to część Reproducibility Project, który rozpoczęto w 2011 roku w związku z ujawnionym skandalem dotyczącym fałszowania statystyk podczas badań psychologicznych. John Ioannidis, epidemiolog ze Stanford University mówi, że prawdziwy odsetek błędnych prac może przekraczać 80%. Dzieje się tak, gdyż twórcy Reproducibility Project skupiają się wyłącznie na pracach publikowanych w poważanych pismach, autorzy oryginalnych badań ściśle z nimi współpracują, a badacze próbujący odtworzyć prace innych skupiają się głównie na tych eksperymentach, w których wykorzystano stosunkowo proste metody. Powinniśmy wykorzystać ten projekt to poprawy sytuacji, a nie do lamentowania nad nią. Sam fakt, że naukowcy współpracują na tak szeroką skalę wskazuje, iż naprawdę dążą do poprawienia sytuacji, stwierdza Ioannidis. Z kolei Andrew Gelman, statystyk z Columbia University podkreśla, że testy Noska są wyjątkowo cenne. Po raz pierwszy bowiem wzięto pod uwagę tak dużą liczbę eksperymentów. Dotychczas podobne sprawdzenia były wykonywane na małych próbkach lub też posługiwano się symulacjami statystycznymi. Sam Nosek podkreśla, że jego celem nie jest potępianie autorów poszczególnych prac, ale wskazanie, jak wiele błędów i niedociągnięć pojawia się w publikacjach psychologicznych. Istnieje na przykład ryzyko, że eksperymenty nudne, ale prawdziwe, nie zostaną opublikowane czy też, że do publikacji trafią interesujące prace, z których wnioski wyciągnięto nie na podstawie eksperymentów, a analiz statystycznych, często próbując różnych metod, by właśnie takie sensacyjne wyniki uzyskać. « powrót do artykułu
  17. Grupa sześciorga studentów z Willem de Kooning Academie wpadła na pomysł, jak wykorzystać psujące się owoce - młodzi Holendrzy produkują z nich skóropodobny materiał. Projekt Fruitleather Rotterdam rozpoczął się od zadania zleconego przez wykładowców - studenci dizajnu mieli zaprojektować krótkie wydarzenie sprzedażowe. Nasz 6-osobowy zespół zdecydował się dodatkowo zająć problemem marnowania jedzenia. Z okien Akademii roztacza się widok na plac Binnenrotte, gdzie w każdy wtorek i sobotę odbywa się targ. Widzieliśmy, że pod koniec dnia teren może być dosłownie zasłany odpadami spożywczymi [zepsutymi lub nienadającymi się do sprzedaży owocami i warzywami], zdecydowaliśmy więc, że to problem, który chcemy rozwiązać od strony projektowej - wyjaśnia Hugo de Boon. Studenci dowiedzieli się, że dziennie marnuje się aż 3,5 t owoców/warzyw, a ponieważ pozbycie się odpadów kosztuje właściciela 12 eurocentów od kilograma, wiele osób robi to nielegalnie. Młodych ludzi zainspirowały techniki stosowane przez szefów kuchni. Jedna z nich polega na miksowaniu owoców, gotowaniu i wreszcie suszeniu pulpy (w ten sposób powstaje coś przypominającego cukierki, tzw. fruitleather). Mango, nektaryny, jabłka czy pomarańcze są odbierane od sprzedawców. Choć nikt nie chce zdradzić szczegółów metody produkowania, de Boon uchyla rąbka tajemnicy. Najpierw owoce są drylowane/pestkowane i zgniatane na pureé. By pozbyć się bakterii i zapobiec psuciu, masę należy wygotować. Po wystudzeniu rozprowadza się ją na specjalnej powierzchni, co jest kluczowe dla procesu suszenia. By zademonstrować właściwości materiału, grupa wyprodukowała torbę. De Boon twierdzi, że nadaje się on również do wytwarzania ubrań, a nawet mebli. Materiał wzbudził zainteresowanie przemysłu. Ze studentami skontaktował się już np. producent tapicerki samochodowej, pomysłowa szóstka pracuje jednak na razie nad usprawnieniem procesu i poprawą jakości "owocowej skóry". Za pomocą naszego projektu chcieliśmy zwiększyć świadomość problemu marnowania jedzenia i pokazać, że istnieje rozwiązanie. « powrót do artykułu
  18. Od wielu lat europejscy politycy, ekolodzy i rybacy spierają się o trałowanie na dużych głębokościach. Krytycy tej techniki połowu argumentują, że jest ona niezwykle szkodliwa dla środowiska.Najnowsze badania ponownie rozgrzały debatę. W Current Biology ukazał się artykuł opisujący badania, których autorzy opisali, jak wraz z głębokością zmienia się w sieciach odsetek ryb pożądanych ekonomicznie do tych niepożądanych. To porządnie przeprowadzone badania. Wynika z nich wprost, że trałowanie poniżej 600 metrów to strata czasu - mówi Les Watling, biolog z University of Hawaii, specjalizujący się w głębokich obszarach morskich. To pierwszy naprawdę dobry zestaw danych naukowych, który wspiera hipotezę, że wprowadzenie limitu głębokości dla trawlerów jest korzystne ekonomicznie i ekologicznie, dodaje. Od dawna wiadomo, że trałowanie blisko dna niszczy ekosystem, to dobrze udokumentowane zjawisko. Brakowało jednak badań, które jednoznacznie pozwalałyby na wyznaczenie limitu głębokości, poniżej którego łowienie staje się nieopłacalne i nieekologiczne. Podczas ostatnich badań analizowano zawartość sieci, które podczas połowów na Atlantyku były zanurzane na głębokość 240-1500 metrów. Badania wykazały, że wraz z głębokością wzrasta liczba niepożądanych ryb, a najbardziej dramatyczny wzrost ma miejsce pomiędzy 600 a 800 metrem. Łapie się wówczas szczególnie dużo rekinów i płaszczek, w tym przedstawicieli zagrożonych gatunków. Analiza ekonomiczna wykazała również, że w wymienionych granicach spada wartość połowu. Przed rozpoczęciem badań nie byliśmy pewni, czy zauważymy jakikolwiek trend. Byliśmy zdumieni, gdy okazało się, że zmiana jest tak wyraźna. Myślę, że to interesujące dodatkowe argumenty w toczącej się dyskusji - mówi Jo Clarke, biolog morski z University of Glasgow. Clarke ma nadzieję, że podobne badania zostaną przeprowadzone na innych wodach i uda się sprawdzić, czy takie zjawisko występuje też w innych obszarach globu. Myślę, że taki trend będzie najbardziej widoczny w okolicach Nowej Zelandii - mówi Watling. W 2013 roku Parlament Europejski przyjął uchwałę zakazującą trałowania poniżej 800 metrów. Wciąż nie została ona ratyfikowana przez ministrów krajów członkowskich. Naukowcy mają nadzieję, że z czasem zostanie wprowadzony zakaz trałowania na głębokości poniżej 600 metrów. Ważne jest każde działanie, które przyczynia się do ochrony bioróżnorodności - mówi Watling. « powrót do artykułu
  19. Już przy pierwszym epizodzie psychozy ludzie przetwarzają informacje inaczej od zdrowej grupy kontrolnej. Projektując eksperyment, fińscy naukowcy wzięli pod uwagę trzy rodzaje problemów. Po pierwsze, w badaniach funkcjonalnym rezonansem magnetycznym (fMRI) często biorą udział osoby przewlekle chore, a w przypadku wczesnej psychozy, gdzie wzorce działania mózgu nie zostały jeszcze wbudowane, różnice z grupą kontrolną mogą być słabiej wyrażone. Po drugie, należało się upewnić, że wszystkim - chorym i grupie kontrolnej - prezentuje się te same bodźce. Idealnie stymulacja powinna zawierać dużo informacji, tak jak sytuacje w realnym życiu. Rozwiązaniem okazało się wyświetlanie w skanerze "Alicji w Krainie Czarów" Tima Burtona. W badaniach Finów wzięło udział 46 pacjentów z pierwszym epizodem psychozy i 32 osoby zdrowe. Odkryto znaczące różnice w aktywności przedklinka (praecuneus), regionu związanego z pamięcią, świadomością wzrokowo-przestrzenną czy samoświadomością. W ramach studium, opierając się na aktywności utrwalonej w czasie oglądania filmu, próbowaliśmy stwierdzić, czy dana osoba jest pacjentem z pierwszym epizodem psychozy, czy zdrową osobą z grupy kontrolnej. Ustaliliśmy, że szczególnie dobrze udaje się to dzięki monitorowaniu aktywności przedklinka, [...] centralnego ośrodka integracji informacji odnoszących się do ja i pamięci epizodycznej [...] - wyjaśnia Eva Rikandi z Aalto University. Działając w ten sposób, Finowie uzyskali 80-proc. trafność klasyfikacji. Komentując odkrycia kolegów po fachu i odnosząc się do wyzwalania przez "Alicję w Krainie Czarów" innych wzorców aktywności mózgu, hiszpański psychiatra prof. Celso Arango podkreśla, że powinniśmy wiedzieć, czy pacjent z psychozą postrzega film jako bardziej, czy mniej odnoszący się do jego życia niż zdrowy człowiek i jak by to wyglądało przy filmach z gatunków innych niż fantasy. « powrót do artykułu
  20. Ministerstwo Transportu i Infrastruktury Badenii-Wirtembergii wydało firmie Daimler zezwolenie na użytkowanie autonomicznych 18-kołowych ciężarówek na drogach wspomnianego kraju związkowego. Po raz pierwszy ciężarówki Future Truck 2025 zostały zaprezentowane podczas ubiegłorocznego salonu samochodowego. Pojazdy zostały wyposażone w czujniki, kamery i technologie, których celem jest utrzymanie pojazdu na środku pasa. Wykorzystują też trójwymiarowe mapy, dzięki czemu pokładowy komputer zna topografię terenu. Potrafi też łączyć się z innymi pojazdami i wymieniać z nimi informacje. Firma pracuje też nad technologią "Blind Spot Assist", która za pomocą radarów monitoruje otoczenie pojazdu i informuje o niewidocznych w lusterkach uczestnikach ruchu. Będziemy pierwsi, który wprowadzą tę technologię na rynek. Naszym celem jest stworzenie ciężarówki, która nie będzie powodowała wypadków - mówi Wolfgang Bernhard z Daimlera. Przedstawiciele koncernu zapewniają, że ich autonomiczne ciężarówki będą kontrolowane przez człowieka. W kabinie będzie siedział kierowca, gotów w każdej chwili do przejęcia kontroli nad pojazdem. Jednak dzięki temu, że pojazd będzie autonomiczny, kierowca będzie mógł zajmować się innymi rzeczami np. planując na tablecie drogę i przestanki, dzięki czemu jego znużenie będzie o 25% mniejsze niż znużenie kierowcy zajmującego się wyłącznie prowadzeniem samochodu. Także niemiecki rząd federalny jest zainteresowany rozwojem technologii autonomicznych pojazdów. Krajowe Ministerstwo Transportu podjęło już decyzję o rozbudowie infrastruktury elektronicznej na fragmentach autostrady A9 w Bawarii. Ma to pomóc producentom samochodów w testowaniu pojazdów autonomicznych w warunkach prawdziwego ruchu. Daimler wydaje się najbardziej zaawansowaną firmą w dziedzinie autonomicznych samochodów ciężarowych. Firma w ubiegłym roku testowała swoje pojazdy na zamkniętym odcinku autostrady A14 pod Magdeburgiem. W maju bieżącego roku prowadziła testy na drogach Nevady i ma zgodę na ich wykorzystywanie na drogach publicznych tego stanu. Warto tutaj przypomnieć o firmie Royal Truck and Equipment, która jeszcze w bieżącym roku rozpocznie testy specjalnych ciężarówek na Florydzie. Pojazdy te, w przeciwieństwie do samochodów Daimlera, będą jednak pozbawione kierowcy. « powrót do artykułu
  21. Drzemki w środku dnia wiążą się z niższym ciśnieniem i przepisywaniem mniejszych ilości leków na nadciśnienie. W obecnych czasach wskutek kultury pracy od dziewiątej do piątej drzemki są niemal przywilejem. Realne jest jednak nadal pytanie: czy to tylko zwyczaj, czy też takie zachowanie zapewnia jakieś korzyści - podkreśla dr Manolis Kallistratos, kardiolog z Asklepieion Voula General Hospital w Atenach. Greckie studium objęło 386 pacjentów (200 mężczyzn i 186 kobiet) z nadciśnieniem w średnim wieku nieco ponad 61 lat (61,4). U wszystkich brano pod uwagę wyrażoną w minutach długość snu w ciągu dnia, wyniki całodobowej rejestracji ciśnienia tętniczego, prędkość fali tętna (ang. pulse wave velocity, PWV), zwyczaje dot. stylu życia, wskaźnik masy ciała (BMI) oraz całościową ocenę echokardiograficzną, w tym pomiar lewego przedsionka. Po wzięciu poprawki na inne czynniki, które mogą oddziaływać na ciśnienie, a więc na wiek, płeć, BMI, palenie, picie alkoholu i kawy, zakres aktywności fizycznej i spożycie soli, Grecy ustalili, że osoby śpiące w ciągu dnia mają o 5% (6 mmHg) niższe średnie dobowe ciśnienie skurczowe. W porównaniu do niedrzemiących, ich średnie ciśnienie skurczowe było o 4% (5 mmHg) niższe w czasie czuwania i o 6% (7 mmHg) niższe w czasie snu nocą. Choć średnie spadki ciśnienia wydają się niskie, trzeba wspomnieć, że już nawet różnica rzędu zaledwie 2 mmHg w ciśnieniu skurczowym zmniejsza ryzyko zdarzeń sercowo-naczyniowych aż do 10%. Dodatkowo Grecy ustalili, że PWV i średnica lewego przedsionka były u drzemiących mniejsze o, odpowiednio, 11 i 5%. Oznacza to, że u śpiących w ciągu dnia nadciśnienie wyrządza mniejsze szkody naczyniom i sercu. Naukowcy wspominają o zależności między długością drzemki a stopniem obciążenia przez chorobę. Nasze studium nie tylko pokazuje, że drzemka jest związana z niższym ciśnieniem, demonstruje też, że dłuższy sen jest korzystniejszy. Im dłuższa drzemka, tym niższe ciśnienie skurczowe i zapewne mniejsza ilość leków do obniżenia ciśnienia. Drzemiący w ciągu dnia mają [też] większe spadki ciśnienia podczas snu nocą, co wiąże się z lepszymi wynikami zdrowotnymi. « powrót do artykułu
  22. Biały Dom ogłosił, że zmieni nazwę najwyższego szczytu Ameryki Północnej z McKinley na Denali. Zmiana będzie miała miejsce z okazji wizyty prezydenta Obamy na Alasce. Denali to atabaskańskie słowo oznaczające "wysoki". O nazwę góry od dziesięcioleci toczy się spór pomiędzy mieszkańcami Alaski i Ohio. Mieszkańcy Alaski, na której znajduje się góra, nazywają ją Denali. Jednak oficjalna uznana przez rząd federalny nazwa to "McKinley". Została ona nadana na cześć pochodzącego z Ohio prezydenta Williama McKinleya, który został w 1901 roku zamordowany przez amerykańskiego anarchistę polskiego pochodzenia Leona Czołgosza. Z szacunku dla tego miejsca oficjalnie zmieniamy nazwę na Denali, składając hołd rdzennym mieszkańcom Alaski i przy wsparciu mieszkańców tego stanu - oświadczyła Sally Jewell, sekretarz spraw wewnętrznych. Decyzja Białego Domu zdenerwowała polityków z Ohio. To polityczna decyzja będąca obrazą dla mieszkańców Ohio. Będziemy współpracowali z Komitetem Izby Reprezentantów ds. Zasobów Naturalnych i spróbujemy zablokować takie działania - zapowiada Bob Gibbs, reprezentujący Ohio w Izbie. Decyzję podjęta przed zaplanowaną 3-dniową wizytą Obamy na Alasce. Prezydent chce przekonywać mieszkańców stanu o konieczności podjęcia zdecydowanych działań na rzecz zatrzymania globalnego ocieplenia. Wizytę zaplanowano tak, by Barack Obama mógł pokazać mieszkańcom Alaski jak roztapiają się lodowce i jak globalne ocieplenie wpływa na najbardziej znane zabytki przyrodnicze stanu. Prezydent spotka się też z rdzennymi mieszkańcami Alaski, których tryb życia jest zagrożony przez zmiany klimatu i którzy skarżą się na niewystarczającą pomoc ze strony rządu federalnego. Barack Obama będzie pierwszym urzędującym prezydentem USA, który odwiedzi alaskańską Arktykę. Najwyższy szczyt Ameryki Północnej zyskał swą oficjalną nazwę w 1896 roku, gdy badający okoliczne góry eksplorator usłyszał o wyborze McKinleya na prezydenta. Nazwa została formalnie zaakceptowana i od tej pory trafiła na mapy. « powrót do artykułu
  23. Buzz Aldrin, astronauta, który brał udział w 1. lądowaniu na Księżycu, będzie patronował nowemu instytutowi badawczemu na Florydzie. Buzz Aldrin Space Institute będzie się znajdować na Florydzkim Instytucie Technologii (Florida Institute of Technology). W założeniu ma stworzyć podwaliny pod eksplorację i osadnictwo na Marsie. Długoterminowym celem 85-latka jest ustanowienie ok. 2040 r. stałego osadnictwa na Marsie. Na konferencji prasowej, która odbyła się w zeszłym tygodniu, Aldrin wyraził nadzieję, że uda mu się głębiej zaangażować w przedsięwzięcia programu kosmicznego, zwłaszcza NASA. Były astronauta zwrócił również uwagę na znaczenie międzynarodowej współpracy w tej dziedzinie. Plan Aldrina obejmuje wysyłanie ludzi na Księżyc (ostatnio astronauci byli tam w 1972 r.) oraz stworzenie forpoczty na jednym z księżyców Marsa. Osiemdziesięciopięciolatek ma być starszym doradcą instytutu. Ma też dołączyć do kadry Florida Institute of Technology jako profesor aeronautyki, jednak jak wyjaśnia rektor Anthony Catanese, nie będzie prowadzić zajęć dydaktycznych. « powrót do artykułu
  24. Opierając się na zasadach działania wirusów, naukowcy z Uniwersytetu w Strasburgu opracowali polimerowe wirusy chemiczne, które dostarczają do komórek leki. Wirus Szwajcarów pokonuje błonę komórkową i rozkłada się w cytoplazmie, uwalniając substancje aktywne. By się to udało, akademicy musieli opracować dwa polimery, które w zależności od warunków, potrafią się same składać i dezintegrować. Zespół z Laboratoire de Conception et Application de Molécules Bioactives stanął przed trudnym zadaniem uzyskania cząstek spełniających parę sprzecznych warunków. Musiały one bowiem pozostawać stabilne w płynie pozakomórkowym, wiązać się z komórkami, by ulec internalizacji i wreszcie rozpadać się w środku, aby uwolnić swój ładunek. Pierwszy wykorzystany w sztucznym wirusie polimer pGi-Ni2+ stanowi podłoże, z którym wiążą się białka. Niedawno opatentowany πPEI enkapsuluje ten układ; jego ładunki dodatnie są przyciągane przez ładunki ujemne pGi-Ni2+. Uzyskane cząstki mają 30-40 nanometrów średnicy i potrafią rozpoznać błonę komórkową i się z nią związać. Wiązanie aktywuje reakcję komórkową: nanocząstki są otaczane przez fragment błony i dostają się do endosomu. Cząstki są stabilne poza komórką, jednak nowe środowisko jest kwaśne. Dodatkowo spadek pH umożliwia πPEI rozsadzenie endosomu. W ten sposób dochodzi do uwolnienia zwartości sztucznego wirusa. Co ważne, Szwajcarom udało się zgromadzić w komórce taką ilość aktywnych białek, by wywrzeć skutek biologiczny: przetransportowana kaspaza 3 wywołała śmierć aż 80% komórek. By zmaksymalizować efekt, biolodzy planują połączyć z białkami siRNA (dwuniciowe cząsteczki RNA, które wyciszają ekspresję genów o homologicznej sekwencji). Wyniki badań in vitro są zachęcające, zwłaszcza że chemiczny wirus staje się toksyczny przy stężeniu 10 razy wyższym od zastosowanego w studium. Wstępne badania na myszach także nie ujawniły nadmiernej śmiertelności. Autorzy publikacji z pisma Angewandte Chemie International Edition podkreślają jednak, że na razie nie wiadomo, jak wygląda kwestia pozbywania się pGi-Ni2+ i πPEI z organizmu. Naukowcy chcą kontynuować pogłębione badania, m.in. na zwierzętach. W najbliższym czasie skupią się na kontroli dystrybucji substancji aktywnej - rekombinowanych i/lub chemiczne zmodyfikowanych białek - za pomocą łączenia jej z tzw. wektorem. « powrót do artykułu
  25. W Puszczy Piskiej, na terenie Nadleśnictwa Strzałowo, znaleziono - uważany za wymarły - groszek różnolistny (Lathyrus heterophyllus). To pierwszy od 50 lat przypadek trafienia na tę roślinę. Ostatnie oficjalne informacje o występowaniu w Polsce tej rośliny pochodzą z 1958 roku. Sądzono więc, że groszek wymarł. Teraz został znaleziony na 10 stanowiskach. W sumie odkryto 420 pędów groszku. Jak czytamy w serwisie gazeta.pl większość stanowisk występuje na obszarze, na którym odtwarzana jest świetlista dąbrowa. Najwięcej pędów groszku różnolistnego rosło tam, gdzie od dwóch lat wypasano stado koników polskich, które wyjadały składniki runa. Świetlista dąbrowa to ginący typ lasu, który był związany z serwitutami - wywodzącym się z czasów feudalnych prawem chłopów m.in. do wypasania zwierząt hodowlanych w pańskich lasach. Po II wojnie tego zwyczaju zakazano, żeby bydło i konie nie niszczyły upraw leśnych. Leśnicy ze Strzałowa jako pierwsi w kraju podjęli próbę rewitalizacji takich siedlisk. Obecnie odkryte stanowiska pokrywają się mniej więcej z tymi, które przed stu laty opisywali niemieccy botanicy. To oznacza, że groszek przetrwał cały wiek, mimo że prowadzona była na tym terenie normalna gospodarka leśna. « powrót do artykułu
×
×
  • Dodaj nową pozycję...