-
Liczba zawartości
37629 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
246
Zawartość dodana przez KopalniaWiedzy.pl
-
Mieszane stany depresyjne zwiększają ryzyko próby samobójczej
KopalniaWiedzy.pl dodał temat w dziale Psychologia
W przypadku osób z depresją, które przejawiają ryzykowne zachowania, są pobudzone oraz impulsywne, ryzyko podjęcia próby samobójczej jest o co najmniej 50% wyższe. Podczas międzynarodowego studium BRIDGE-II-MIX naukowcy oceniali 2811 osób cierpiących na depresję (628 podjęło próbę samobójczą). Z każdym z pacjentów był przeprowadzany wywiad psychiatryczny. Analizowano m.in. wcześniejsze próby samobójcze, historię rodziny, przeszłe i obecne leczenie czy wyniki uzyskiwane w Skali Ogólnego Funkcjonowania (Global Assessment of Functioning, GAF). Naukowcy przyglądali się cechom i zachowaniom ludzi, którzy targnęli się na życie i porównywali je z pacjentami z depresją, którzy nie próbowali popełnić samobójstwa. Odkryliśmy, że próbę samobójczą często poprzedzają mieszane stany depresyjne, gdzie pacjent ma z jednej strony depresję, a z drugiej przejawia pobudzenie czy manię. [...] Czterdzieści procent próbujących popełnić samobójstwo pacjentów miało raczej epizod mieszany, a nie [czystą] depresję. Za pomocą kryteriów DSM [klasyfikacji zaburzeń psychicznych Amerykańskiego Towarzystwa Psychiatrycznego] stany mieszane zidentyfikowano tylko u 12% pacjentów, zaś przy zastosowaniu naszych metod odsetek zagrożonych wzrósł aż do 40%. To oznacza, że standardowe metody nie wychwytują wielu pacjentów z grup ryzyka - podkreśla dr Dina Popović ze Szpitala Klinicznego w Barcelonie. Ryzyko popełnienia samobójstwa jest o przynajmniej 50% wyższe, gdy u osoby z depresją występują następujące objawy: 1) ryzykowne zachowania, np. lekkomyślna jazda samochodem czy utrzymywanie stosunków płciowych z wieloma partnerami, 2) pobudzenie psychoruchowe, np. krążenie po pomieszczeniu, wykręcanie dłoni, 3) impulsywność (uleganie zachciankom, działanie bez zastanowienia lub rozważenia konsekwencji). Ponieważ pacjent może spontanicznie nie mówić o tych problemach, wg Popović, klinicysta powinien każdorazowo przeprowadzić odpowiedni wywiad. Plusem tego studium jest to, że to nie testy kliniczne z udziałem idealnych pacjentów, ale duże badanie prowadzone w realnym świecie. Wyniki Popović zostaną zaprezentowane na konferencji Europejskiego College'u Neuropsychofarmakologii (European College of Neuropsychopharmacology, ECNP) w Amsterdamie. « powrót do artykułu -
Koncern Seagate pokonał barierę zapisu 1 terabajta danych na pojedynczym talerzu dysku twardego dla laptopów. Oznacza to, że firma jest w stanie produkować niezwykle pojemne 2,5-calowe dyski o grubości 7 milimetrów. Co więcej nowe dyski są o 25% lżejsze niż wcześniejsze modele. Na razie Seagate nie zdradza, kiedy do sprzedaży trafią nowe bardzo pojemne HDD. To już kolejne ważne osiągnięcie amerykańskiej firmy. W 2011 roku ogłosiła ona przełamanie bariery 1TB dla 3,5-calowych HDD, spotykanych w pecetach czy serwerach. Firma sprzedawała początkowo urządzenie o pojemności do 3 terabajtów i gęstości zapisu rzędu 625 gigabitów na cal kwadratowy. Teraz dzięki szybkiemu postępowi technicznemu przedsiębiorstwo będzie w stanie zaoferować pojemne dyski dla laptopow. Mark Re, prezes ds. technologicznych Seagate'a zaznacza, że nowe HDD będą oferowały 4-krotnie większą pojemność od 250-gigabajtowych SSD za znacznie niższą cenę. Firma rozważa obecnie wykorzystanie swojej nowej technologii w dyskach hybrydowych, będących połączeniem HDD i SSD. « powrót do artykułu
-
IBM i GENCI podpisały umowę, której celem jest stworzenie znacznie bardziej wydajnych superkomputerów niż obecnie. GENCI (Grand Équipement National de Calcul Intensif) to francuska spółka cywilna, której właścicielem są francuskie ministerstwa, agendy rządowe i uczelnie. Zadaniem GENCI jest koordynacja prac krajowych centrów obliczeniowych. IBM i GENCI będą wspólnie pracowały nad superkomputerami o wydajności liczonej w eksaskali, czyli trylion operacji zmiennoprzecinkowych na sekundę. Obecne komputery pracują w petaskali, zatem biliarda operacji na sekundę. Najpotężniejszy współczesny superkomputer, chiński Tianhe-2 osiągnął wydajność niemal 34 PFlops. Maszyny, nad którymi pracują IBM i GENCI mają pracować z prędkością co najmniej 1000 PFlops. Obie firmy uzgodniły, że ich wstępna współpraca potrwa 18 miesięcy. W tym czasie ma powstać komputer działający w eksaskali (EFlops). Rozwijane będą technologie powstające w ramach IBM-owskiej inicjatywy OpenPOWER. Główny cel współpracy to stworzenie wydajnej maszyny do zastosowań naukowych, zatem nie będzie się ona przekładała zbyt szybko na wydajność zwykłych komputerów. IBM chce m.in. łączyć procesory graficzne Nvidii z procesorami POWER za pomocą Nvidia NVLink. Osiągnięcie eksaskali w obliczeniach komputerowych może być niezwykle ważnym krokiem w kierunku przyszłości. Uważa się bowiem, że ludzki mózg przetwarza informacje właśnie z szybkością eksaflopsa. Powstanie równie potężnych komputerów pozwoli na symulowanie pracy mózgu człowieka. « powrót do artykułu
-
Naukowcy ujawnili, w jaki sposób toksyna MP1 z jadu należącej do osowatych Polybia paulista wybiórczo zabija komórki nowotworowe. Okazuje się, że MP1 wchodzi w interakcje z nieprawidłowo umiejscowionymi lipidami błony komórkowej. Tworzą się przez to otwory, przez które wyciekają cząsteczki kluczowe dla funkcjonowania komórek. Terapie antynowotworowe, które atakują lipidową składową błony komórkowej, byłyby zupełnie nową klasą leków. To mogłoby być użyteczne przy rozwijaniu nowych terapii łączonych [...] - przekonuje Paul Beales z Uniwersytetu w Leeds. MP1, peptyd antydrobnoustrojowy, może hamować wzrost komórek raka prostaty i pęcherza moczowego, a także wielolekoopornych komórek białaczkowych. Dotąd nie było jednak wiadomo, w jaki sposób MP1 wybiórczo zabija wyłącznie komórki nowotworowe. Beales i João Ruggiero Neto z Universidade Estadual Paulista "Júlio de Mesquita Filho" (UNESP) podejrzewali, że może to mieć związek z unikatowymi właściwościami błon komórek nowotworowych. W błonach zdrowych komórek fosfatydylseryna (PS) i fosfatydyloetanolamina (PE) znajdują się w wewnętrznej warstwie fosfolipidów i są zwrócone do wnętrza komórki. W komórkach nowotworowych występują jednak w warstwie zewnętrznej i są zwrócone do otoczenia komórki. Brytyjsko-brazylijski tandem testował swoją teorię, bazując na modelach błon (zawierały one 1) PE, 2) PS albo 3) PE i PS). Okazało się, że PS aż 7-8-krotnie zwiększała wiązanie MP1 z błoną. Obecność PE zwiększała zaś zdolność MP1 do szybkiego niszczenia błony, zwiększając rozmiar otworów aż 20-30-krotnie. Powstające w ciągu kilku sekund pory są na tyle duże, by wypuścić z komórki ważne cząsteczki, takie jak RNA czy białka. Niesamowite zwiększenie przepuszczalności, wywoływane przez peptyd w obecności PE, a także rozmiary porów w błonach były zaskakujące - opowiada Neto. W przyszłości naukowcy chcą zmienić sekwencję aminokwasów MP1 i w ten sposób ustalić, jak budowa peptydu ma się do jego funkcji. Zależy im także na poprawie wybiórczości i mocy MP1. Zrozumienie mechanizmu działania przyda się w przyszłych badaniach translacyjnych. « powrót do artykułu
-
Powstanie najpotężniejsza kamera w dziejach
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Amerykański Departament Energii (DoE) zatwierdził budowę kamery o rozdzielczości 3,2 gigapiksela. To najpotężniejsze tego typu urządzenie będzie 'okiem' Large Synoptic Survey Telescope (LSST). LSST rozpocznie pracę w 2022 roku na szczycie góry Cerro Pachón w Chile. Kamera będzie co kilka nocy wykonywała zdjęcia całego południowego nieboskłonu. Ma to służyć przeprowadzaniu szeroko zakrojonego szybkiego spisu obiektów. Specjaliści szacują, że w ciągu 10-letniej pracy dzięki LSST odkryją i skatalogują dziesiątki miliardów obiektów. Po raz pierwszy w historii pojedynczy teleskop ma zaobserwować więcej galaktyk niż jest ludzi na Ziemi. Kamera dla LSST będzie miała rozmiary małego samochodu, a jej waga przekroczy trzy tony. Urządzenie zostanie sfinansowane przez DoE, natomiast koszty budowy LSST poniesie głównie Narodowa Fundacja Nauki (NSF). Budowę kamery zlecono SLAC National Accelerator Laboratory, natomiast poszczególne podzespoły do kamery to efekt szeroko zakrojonej międzynarodowej współpracy. W ich tworzeniu biorą udział m.in. Brookhaven National Laboratory czy Lawrence Livermore National Laboratory. Zbudowanie i przetestowanie kamery zajmie około 5 lat. LSST będzie niezwykle wydajnym urządzeniem. Do publicznej bazy danych trafi dzięki niemu około 6 petabajtów danych. To tak, jakbyśmy codziennie wykonywali 800 000 zdjęć aparatem o rozdzielczości 8 MP. « powrót do artykułu -
Shaun Bridges, były członek Secret Service, przyznał się do prania brudnych pieniędzy po tym, jak uczynił to drugi oskarżony w sprawie. Bridges i agent DEA Carlo Force byli przydzieleni do śledztwa w sprawie czarnorynkowej giełdy Silk Road. Przed kilkoma miesiącami sami jednak zasiedli na ławie oskarżonych. Bridges pojawił się ostatnio w sądzie federalnym w San Francisco, gdzie przyznał się do kradzieży bitcoinów wartych ponad 800 000 dolarów oraz do obstrukcji wymiaru sprawiedliwości. Agent przyznał, że kradzież, której dokonał, spowodowała, iż Ross Ulbricht, założyciel Silk Road, sądził, że jest okradany przez inną osobę. Ulbricht, mając Bridgesa za jednego z klientów Silk Road, zwrócił się do niego z prośbą o pomoc w wynajęciu zabójcy, który zgładzi domniemanego złodzieja. Ross Ulbricht został niedawno skazany na dożywotnie więzienie. Jego adwokat, po przyznaniu się Bridgesa, stwierdził, że to "usuwa wszelkie wątpliwości co do korupcji, która ciążyła na śledztwie". Wyrok w sprawie Bridgesa zapadnie w grudniu. « powrót do artykułu
-
W porównaniu do spędzających w objęciach Morfeusza 7 i więcej godzin, stykając się z wirusem, osoby, które śpią 6 lub mniej godzin, 4-krotnie częściej zapadają na przeziębienie. Dr Aric Prather z Uniwersytetu Kalifornijskiego w San Francisco podkreśla, że to pierwsze badanie, w którym, by ocenić związek między zwyczajami dot. snu a ryzykiem zachorowania, uwzględniono obiektywne miary snu. Przy przewidywaniu prawdopodobieństwa złapania przeziębienia krótki sen był ważniejszy od wszystkich innych [uwzględnionych] czynników. Nie liczyły wiek, poziom stresu, rasa, wykształcenie czy przychód. Nie miało [też] znaczenia, czy ktoś był palaczem. Po wzięciu poprawki na te wszystkie rzeczy statystycznie długość snu nadal była najważniejsza. Naukowcy od dawna wiedzą, że sen jest ważny dla naszego zdrowia; sen złej jakości wiąże się [bowiem] z przewlekłymi chorobami, podatnością na choroby, a nawet przedwczesną śmiercią. Wcześniejsze badania Prathera wykazały, że po zaszczepieniu ludzie, którzy mniej śpią, są słabiej chronieni przed zachorowaniem. Inne studia potwierdziły, że sen należy do czynników regulujących poziom limfocytów T. By sprawdzić, jak sen wpływa na reakcję organizmu na prawdziwe zakażenie, Prather nawiązał współpracę z dr. Sheldonem Cohenem, psychologiem z Carnegie Mellon. Aby bezpiecznie ocenić, jak różne czynniki oddziałują na zdolność zwalczenia choroby, grupa Cohena podaje ochotnikom wirusy przeziębienia. W studium, którego wyniki ukazały się na łamach pisma SLEEP, wykorzystano zebrane nieco wcześniej dane. Między 2007 a 2011 r. zebrano grupę 164 mieszkańców okolic Pittsburgha. Przez 2 miesiące przechodzili oni badania przesiewowe i wypełniali kwestionariusze. Dodatkowo przeprowadzano z nimi wywiady. W ten sposób ustalono wyjściowe wartości kilku parametrów: stresu, temperamentu, a także spożycia alkoholu i palenia. Tydzień przed podaniem wirusa Amerykanie badali zwyczaje senne: czujnik przypominający zegarek zbierał dane dot. jakości snu. Później ochotników zakwaterowywano w hotelu i za pośrednictwem kropli do nosa aplikowano wirusy przeziębienia. Przez tydzień monitorowano ich stan, codziennie pobierając próbki śluzu. Okazało się, że osoby, które tydzień przed podaniem wirusa spały mniej niż 6 godzin, przeziębiały się 4,2 razy częściej niż ludzie śpiący 7 i więcej godzin. Wolontariusze śpiący mniej niż 5 godzin dziennie zapadali na chorobę aż 4,5 razy częściej od śpiących dużo. Skutki wykraczają poza oszołomienie i podenerwowanie. Niewyspanie istotnie wpływa na zdrowie fizycznie - twierdzi Prather, dodając, że tak zaprojektowane studium lepiej pokazuje ryzyko związane z niedospaniem, bo naukowcy nie pozbawiają badanych sztucznie snu, ale bazują na ich naturalnych zwyczajach. To może być czyjś typowy tydzień w sezonie przeziębień. « powrót do artykułu
-
Plamka ślepa to obszar siatkówki niewrażliwy na bodźce świetlne, w którym nerw wzrokowy opuszcza gałkę oczną. Okazuje się, że za pomocą treningu plamkę ślepą można "obkurczyć". Naukowcy mają nadzieję, że po ulepszeniu protokołu podobny trening sprawdzi się w przypadku związanego z wiekiem zwyrodnienia plamki żółtej. Nie spodziewaliśmy się dużego zmniejszenia ślepoty czynnościowej, ponieważ nie ma szans, by w obrębie samej plamki ślepej pojawiły się fotoreceptory. Da się tylko poprawić wrażliwość na jej obrzeżach, a to okazało się wystarczające, by o ok. 10% zmniejszyć ślepotę czynnościową - opowiada Paul Miller z Uniwersytetu Queensland. Naukowcy trenowali 10 osób przez 20 kolejnych dni. Miały one określić kierunek przemieszczania się sinusoidalnej fali w okręgu umiejscowionym tuż obok plamki ślepej jednego oka. Wielkość okręgu dostosowywano w taki sposób, by badani udzielali prawidłowej odpowiedzi w circa 70% przypadków. Okazało się, że pod koniec treningu ludzie lepiej sobie radzili zarówno z określaniem kierunku ruchu, jak i koloru sinusoidy. Wyniki uzyskane w odniesieniu do jednego oka nie ulegały transferowi na plamkę ślepą drugiego oka. Autorzy publikacji z pisma Current Biology uważają, że nie chodzi więc o sam trening, ale o zwiększenie wrażliwości neuronów, których pola recepcyjne częściowo nakładają się lub stykają z plamką ślepą. W ten sposób oko staje się bardziej wyczulone na słabe sygnały, wywodzące się z pierwotnie ślepych rejonów. Australijczycy podejrzewają, że ich protokół może się sprawdzić przy innych przyczynach ślepoty. Wspominają np. o wspomaganiu za jego pomocą odzyskania wzroku przy wdrażaniu bionicznego oka czy terapii komórkami macierzystymi siatkówki. « powrót do artykułu
-
Efekt kwantowy powoduje, że możliwe jest stworzenie komputera kwantowego, który wykonuje obliczenia, mimo że nie pracuje. Dotychczas efektywność takiego procesu, zwanego CFC (counterfactual computation), była ograniczona do 50%, co znacznie utrudniało jego zastosowanie w praktyce. Teraz naukowcy pracujący pod kierunkiem profesora Jiangfenga Du z Uniwersytetu Nauki i Technologii Chiny oraz profesora Liang Jianga z Yale University opublikowali na łamach Physical Review Letters artykuł opisujący prace, w czasie których metoda CFC osiągnęła 85% wydajności i potencjalnie może osiągnąć 100%. Główne składniki, które pozwoliły na stworzenie wysoko wydajnego CFC to m.in. wykorzystanie egzotycznych stanów kwantowych - jak superpozycja, pomiar kwantowy i kwantowy efekt Zenona - oraz wykorzystanie zgeneralizowanego protokołu CFC - mówi profesor Du. Najpierw jednak warto wyjaśnić sobie, co oznacza, że wspomniany komputer kwantowy "nie pracuje". Dla naukowców oznacza to, że komputer, który może operować na podzbiorze 'on' lub 'off' przez cały proces obliczeniowy pozostaje w 'off'. Kontrolowanie maszyny w tym stanie wymaga kontrolowanie własności spinu w systemie utworzonym z diamentu. System ten działa jak kwantowy przełącznik. Aby kontrolować pozycję spinu, naukowcy wykorzystali efekt Zenona, który powoduje, że pod wpływem częstych pomiarów kwantowy system pozostaje zamrożony w aktualnym stanie. Procedura zakłada wykorzystanie kwantowego przełącznika i kwantowego rejestru. Dla każdego powtórzenia przygotowujemy kwantowy przełącznik w stanie superpozycji. Następnie 'algorytm', w naszym przypadku bramka NOT, jest przełączana w stan 'on'. Pozornie komputer wykonał ten krok, jednak następujący po tym pomiar usuwa wszystkie zmiany związane z przejściem w stan 'on', zatem prawdopodobieństwo całego systemu wraca do stanu 'off' i zbliża się ono do 100% przy wielkiej liczbie pomiarów (liczba pomiarów zdąża w kierunku nieskończoności i korzystamy przy tym z kwantowego efektu Zenona), wyjaśnia Jiang. To podobna sytuacja, z jaką mamy do czynienia np. w interferometrach. Gdy foton pojawi się przy danym detektorze, możemy wnioskować, że przebył jakąś drogę, a nie inną. Podobnie jest tutaj, gdy cały system znajduje się w stanie 'off'. można wnioskować, że komputer nie działa. Po każdym przebiegu stan zmienia się nieznacznie i w końcu po N powtórzeniach przechodzi on do jakiejś wartości odmiennej od wartości początkowej. Wykrywając ten stan, otrzymujemy wynik, momo że komputer nie działał, dodaje. Dotychczas limit obliczeń CFC wynosił 50%, co jest definiowane jako średnie prawdopodobieństwo poznania stanu obliczeń bez uruchamiania komputera. Generalizowane CFC nie ma jednak takiego limitu, a zespół Du i Jianga wykazał, że po 17 powtórzeniach wydajność wynosi 85%. Wyższa wydajność obliczeń CFC oznacza, że możliwe staje się opracowanie wysoce efektywnej technologii obrazowania z użyciem minimalnej ilości światła. Technologia taka może być szczególnie przydatna przy obrazowaniu próbek biologicznych, które mogą zostać zniszczone przez światło. Dotyczy to zarówno obrazowania protein w zielonym świetle fluorescencyjnym, obrazowania za pomocą ultrafioletu czy za pomocą promieniowania rentgenowskiego. W niektórych przypadkach obraz mógłby powstać za pomocą pojedynczego fotonu. Wykorzystanie pojedynczego fotonu ma sens w takich specjalnych przypadkach, gdy obiekt, który chcemy zobrazować, ma jeden piksel przezroczysty, a inne są nieprzezroczyste. Przy tradycyjnym obrazowaniu foton zostanie pochłonięty przez nieprzezroczysty piksel, tak, jakby komputer wszedł w stan 'on'. W naszej technice taka sytuacja nie ma miejsca. Foton znajdzie przezroczysty piksel i przejdzie przez niego do znajdujące się z tyłu czujnika. W takim przypadku liczba fotonów potrzebnych do zobrazowania obiektu jest równa liczbie takich przezroczystych miejsc w obiekcie. W tradycyjnym obrazowaniu liczba ta jest wielokrotnie większa", mówi współautor badań Fei Kong. Uczeni nie wykluczają też użycie swojej metody w kryptografii kwantowej. Od pewnego już czasu różne grupy specjalistów pracują wykorzystaniem zgeneralizowanej CFC w bezpiecznym przesyłaniu kwantowych danych. « powrót do artykułu
-
Niemal wszystkie ptaki morskie zjadają plastik
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Biolodzy szacują, że aż 90% ptaków morskich na świecie jadło jakiś plastik. Jak ujawnia dr Chris Wilcox z CSIRO Marine and Atmospheric Research, w menu blisko 60 gatunków znajdują się torby, szczoteczki do zębów, zapalniczki, zakrętki od butelek, włókna z syntetycznych tkanin, a nawet kończyny lalek, które zostały wymyte do oceanu z rzek, kanałów ściekowych i wysypisk. Naukowcy z CSIRO oraz Imperial College London (ICL) analizowali publikowane badania, poczynając od wczesnych lat 60. XX w. Stwierdzili, że polimery coraz częściej występują w ptasich żołądkach. W 1960 r. plastik był znajdowany u mniej niż 5% ptaków, zaś do 2010 r. odsetek ten wzrósł aż do 80%. Opierając się na aktualnych trendach, autorzy publikacji z pisma PNAS przewidują, że do 2050 r. spożycie polimerów będzie dotyczyć 99% gatunków ptaków morskich. Ptaki mylą kolorowe obiekty z pokarmem albo połykają je przez przypadek. Prowadzi to do zatkania jelita, utraty wagi, a nawet śmierci. Wykorzystując historyczne obserwacje, przewidujemy, że aż 90% ptaków morskich na świecie jadło kiedyś plastik. To duża liczba, która wskazuje na wszędobylskość skażenia plastikiem - podkreśla dr Wilcox. Denise Hardesty z CSIRO Oceans and Atmosphere dodaje, że ptaki morskie to świetny wskaźnik stanu zdrowia ekosystemu. [...] Oszacowania odnośnie do tak dużego obciążenia ptaków morskich plastikiem potwierdzają niektóre nasze badania terenowe, podczas których u pojedynczego ptaka znalazłam niemal 200 fragmentów plastiku. Największy wpływ na dziką przyrodę będą mieć odpady gromadzące się w Oceanie Południowym, w pasie wokół południowych wybrzeży Australii, południowej Afryki i Ameryki Południowej. Dr Erik van Sebille z Instytutu Granthamów na ICL zaznacza, że plastik będzie miał najgorszy wpływ na regiony z największą bioróżnorodnością. Bardzo boimy się o żyjące na takich obszarach pingwiny czy albatrosy. Mimo że w niesławnych ławicach odpadów na środku oceanów występuje bardzo duże zagęszczenie plastiku, żyje tam bardzo mało zwierząt. Hardesty uważa, że poprawa zarządzania odpadami może zmniejszyć zagrożenie morskiej fauny plastikami i dodaje, że nawet proste zabiegi wiele zmieniają. Wystarczyło uszczelnić gospodarkę odpadami polimerowymi w Europie, by w mniej niż 10 lat wystąpiły mierzalne zmiany dot. plastiku w ptasich żołądkach. « powrót do artykułu -
Większości badań psychologicznych nie udaje się powtórzyć
KopalniaWiedzy.pl dodał temat w dziale Psychologia
Psycholog społeczny Brian Nosek, dyrektor Center for Open Science w Virginii oraz 269 innych naukowców postanowili zweryfikować dane z 98 artykułów opublikowanych w 3 różnych pismach specjalistycznych. Uczeni chcieli sprawdzić, czy na podstawie opisanych eksperymentów dojdą do takich samych wniosków jak autorzy oryginalnych badań. Próby powtórzenia badań i uzyskania podobnych wyników generalnie spaliły na panewce. Na 100 prób - dwa badania były niezależnie testowane przez dwa różne zespoły - odtworzono jedynie 39 badań. Wynik 39% to subiektywna ocena badaczy co do tego, czy udało się eksperyment powtórzyć. Uczeni wykorzystali też metody statystyczne do oceny, czy badania przyniosły istotne rezultaty. O ile w autorzy oryginalnych eksperymentów aż w 97% twierdzili, że uzyskali znaczące wyniki, to autorzy obecnych studiów uzyskali takie wyniki zaledwie w 36% przypadków. Nosek mówi, że nie ma sposobu, by na podstawie samego artykułu ocenić, czy uzyskane wyniki są prawdziwe czy nie. Błędy mogą istnieć zarówno w pracy oryginalnej, jak i w jej powtórzeniu. Mogą też istnieć ważne czynniki, które zaburzają jedną lub drugą pracę. Jednak projekt przeprowadzony przez Noska i jego kolegów dowodzi, że w psychologicznych pismach naukowych publikowane są badania, które nie przechodzą pozytywnie testu sprawdzającego ich wiarygodność. Zdaniem Noska istnieje potrzeba badań sprawdzających inne badania. Obecnie niemal nikt nie przeznacza funduszy na tego typu działania. Badania Noska to część Reproducibility Project, który rozpoczęto w 2011 roku w związku z ujawnionym skandalem dotyczącym fałszowania statystyk podczas badań psychologicznych. John Ioannidis, epidemiolog ze Stanford University mówi, że prawdziwy odsetek błędnych prac może przekraczać 80%. Dzieje się tak, gdyż twórcy Reproducibility Project skupiają się wyłącznie na pracach publikowanych w poważanych pismach, autorzy oryginalnych badań ściśle z nimi współpracują, a badacze próbujący odtworzyć prace innych skupiają się głównie na tych eksperymentach, w których wykorzystano stosunkowo proste metody. Powinniśmy wykorzystać ten projekt to poprawy sytuacji, a nie do lamentowania nad nią. Sam fakt, że naukowcy współpracują na tak szeroką skalę wskazuje, iż naprawdę dążą do poprawienia sytuacji, stwierdza Ioannidis. Z kolei Andrew Gelman, statystyk z Columbia University podkreśla, że testy Noska są wyjątkowo cenne. Po raz pierwszy bowiem wzięto pod uwagę tak dużą liczbę eksperymentów. Dotychczas podobne sprawdzenia były wykonywane na małych próbkach lub też posługiwano się symulacjami statystycznymi. Sam Nosek podkreśla, że jego celem nie jest potępianie autorów poszczególnych prac, ale wskazanie, jak wiele błędów i niedociągnięć pojawia się w publikacjach psychologicznych. Istnieje na przykład ryzyko, że eksperymenty nudne, ale prawdziwe, nie zostaną opublikowane czy też, że do publikacji trafią interesujące prace, z których wnioski wyciągnięto nie na podstawie eksperymentów, a analiz statystycznych, często próbując różnych metod, by właśnie takie sensacyjne wyniki uzyskać. « powrót do artykułu -
Grupa sześciorga studentów z Willem de Kooning Academie wpadła na pomysł, jak wykorzystać psujące się owoce - młodzi Holendrzy produkują z nich skóropodobny materiał. Projekt Fruitleather Rotterdam rozpoczął się od zadania zleconego przez wykładowców - studenci dizajnu mieli zaprojektować krótkie wydarzenie sprzedażowe. Nasz 6-osobowy zespół zdecydował się dodatkowo zająć problemem marnowania jedzenia. Z okien Akademii roztacza się widok na plac Binnenrotte, gdzie w każdy wtorek i sobotę odbywa się targ. Widzieliśmy, że pod koniec dnia teren może być dosłownie zasłany odpadami spożywczymi [zepsutymi lub nienadającymi się do sprzedaży owocami i warzywami], zdecydowaliśmy więc, że to problem, który chcemy rozwiązać od strony projektowej - wyjaśnia Hugo de Boon. Studenci dowiedzieli się, że dziennie marnuje się aż 3,5 t owoców/warzyw, a ponieważ pozbycie się odpadów kosztuje właściciela 12 eurocentów od kilograma, wiele osób robi to nielegalnie. Młodych ludzi zainspirowały techniki stosowane przez szefów kuchni. Jedna z nich polega na miksowaniu owoców, gotowaniu i wreszcie suszeniu pulpy (w ten sposób powstaje coś przypominającego cukierki, tzw. fruitleather). Mango, nektaryny, jabłka czy pomarańcze są odbierane od sprzedawców. Choć nikt nie chce zdradzić szczegółów metody produkowania, de Boon uchyla rąbka tajemnicy. Najpierw owoce są drylowane/pestkowane i zgniatane na pureé. By pozbyć się bakterii i zapobiec psuciu, masę należy wygotować. Po wystudzeniu rozprowadza się ją na specjalnej powierzchni, co jest kluczowe dla procesu suszenia. By zademonstrować właściwości materiału, grupa wyprodukowała torbę. De Boon twierdzi, że nadaje się on również do wytwarzania ubrań, a nawet mebli. Materiał wzbudził zainteresowanie przemysłu. Ze studentami skontaktował się już np. producent tapicerki samochodowej, pomysłowa szóstka pracuje jednak na razie nad usprawnieniem procesu i poprawą jakości "owocowej skóry". Za pomocą naszego projektu chcieliśmy zwiększyć świadomość problemu marnowania jedzenia i pokazać, że istnieje rozwiązanie. « powrót do artykułu
-
Poniżej 600 metrów tylko szkody i strata czasu
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Od wielu lat europejscy politycy, ekolodzy i rybacy spierają się o trałowanie na dużych głębokościach. Krytycy tej techniki połowu argumentują, że jest ona niezwykle szkodliwa dla środowiska.Najnowsze badania ponownie rozgrzały debatę. W Current Biology ukazał się artykuł opisujący badania, których autorzy opisali, jak wraz z głębokością zmienia się w sieciach odsetek ryb pożądanych ekonomicznie do tych niepożądanych. To porządnie przeprowadzone badania. Wynika z nich wprost, że trałowanie poniżej 600 metrów to strata czasu - mówi Les Watling, biolog z University of Hawaii, specjalizujący się w głębokich obszarach morskich. To pierwszy naprawdę dobry zestaw danych naukowych, który wspiera hipotezę, że wprowadzenie limitu głębokości dla trawlerów jest korzystne ekonomicznie i ekologicznie, dodaje. Od dawna wiadomo, że trałowanie blisko dna niszczy ekosystem, to dobrze udokumentowane zjawisko. Brakowało jednak badań, które jednoznacznie pozwalałyby na wyznaczenie limitu głębokości, poniżej którego łowienie staje się nieopłacalne i nieekologiczne. Podczas ostatnich badań analizowano zawartość sieci, które podczas połowów na Atlantyku były zanurzane na głębokość 240-1500 metrów. Badania wykazały, że wraz z głębokością wzrasta liczba niepożądanych ryb, a najbardziej dramatyczny wzrost ma miejsce pomiędzy 600 a 800 metrem. Łapie się wówczas szczególnie dużo rekinów i płaszczek, w tym przedstawicieli zagrożonych gatunków. Analiza ekonomiczna wykazała również, że w wymienionych granicach spada wartość połowu. Przed rozpoczęciem badań nie byliśmy pewni, czy zauważymy jakikolwiek trend. Byliśmy zdumieni, gdy okazało się, że zmiana jest tak wyraźna. Myślę, że to interesujące dodatkowe argumenty w toczącej się dyskusji - mówi Jo Clarke, biolog morski z University of Glasgow. Clarke ma nadzieję, że podobne badania zostaną przeprowadzone na innych wodach i uda się sprawdzić, czy takie zjawisko występuje też w innych obszarach globu. Myślę, że taki trend będzie najbardziej widoczny w okolicach Nowej Zelandii - mówi Watling. W 2013 roku Parlament Europejski przyjął uchwałę zakazującą trałowania poniżej 800 metrów. Wciąż nie została ona ratyfikowana przez ministrów krajów członkowskich. Naukowcy mają nadzieję, że z czasem zostanie wprowadzony zakaz trałowania na głębokości poniżej 600 metrów. Ważne jest każde działanie, które przyczynia się do ochrony bioróżnorodności - mówi Watling. « powrót do artykułu -
Psychoza zmienia reakcję na 'Alicję w Krainie Czarów'
KopalniaWiedzy.pl dodał temat w dziale Psychologia
Już przy pierwszym epizodzie psychozy ludzie przetwarzają informacje inaczej od zdrowej grupy kontrolnej. Projektując eksperyment, fińscy naukowcy wzięli pod uwagę trzy rodzaje problemów. Po pierwsze, w badaniach funkcjonalnym rezonansem magnetycznym (fMRI) często biorą udział osoby przewlekle chore, a w przypadku wczesnej psychozy, gdzie wzorce działania mózgu nie zostały jeszcze wbudowane, różnice z grupą kontrolną mogą być słabiej wyrażone. Po drugie, należało się upewnić, że wszystkim - chorym i grupie kontrolnej - prezentuje się te same bodźce. Idealnie stymulacja powinna zawierać dużo informacji, tak jak sytuacje w realnym życiu. Rozwiązaniem okazało się wyświetlanie w skanerze "Alicji w Krainie Czarów" Tima Burtona. W badaniach Finów wzięło udział 46 pacjentów z pierwszym epizodem psychozy i 32 osoby zdrowe. Odkryto znaczące różnice w aktywności przedklinka (praecuneus), regionu związanego z pamięcią, świadomością wzrokowo-przestrzenną czy samoświadomością. W ramach studium, opierając się na aktywności utrwalonej w czasie oglądania filmu, próbowaliśmy stwierdzić, czy dana osoba jest pacjentem z pierwszym epizodem psychozy, czy zdrową osobą z grupy kontrolnej. Ustaliliśmy, że szczególnie dobrze udaje się to dzięki monitorowaniu aktywności przedklinka, [...] centralnego ośrodka integracji informacji odnoszących się do ja i pamięci epizodycznej [...] - wyjaśnia Eva Rikandi z Aalto University. Działając w ten sposób, Finowie uzyskali 80-proc. trafność klasyfikacji. Komentując odkrycia kolegów po fachu i odnosząc się do wyzwalania przez "Alicję w Krainie Czarów" innych wzorców aktywności mózgu, hiszpański psychiatra prof. Celso Arango podkreśla, że powinniśmy wiedzieć, czy pacjent z psychozą postrzega film jako bardziej, czy mniej odnoszący się do jego życia niż zdrowy człowiek i jak by to wyglądało przy filmach z gatunków innych niż fantasy. « powrót do artykułu -
Ministerstwo Transportu i Infrastruktury Badenii-Wirtembergii wydało firmie Daimler zezwolenie na użytkowanie autonomicznych 18-kołowych ciężarówek na drogach wspomnianego kraju związkowego. Po raz pierwszy ciężarówki Future Truck 2025 zostały zaprezentowane podczas ubiegłorocznego salonu samochodowego. Pojazdy zostały wyposażone w czujniki, kamery i technologie, których celem jest utrzymanie pojazdu na środku pasa. Wykorzystują też trójwymiarowe mapy, dzięki czemu pokładowy komputer zna topografię terenu. Potrafi też łączyć się z innymi pojazdami i wymieniać z nimi informacje. Firma pracuje też nad technologią "Blind Spot Assist", która za pomocą radarów monitoruje otoczenie pojazdu i informuje o niewidocznych w lusterkach uczestnikach ruchu. Będziemy pierwsi, który wprowadzą tę technologię na rynek. Naszym celem jest stworzenie ciężarówki, która nie będzie powodowała wypadków - mówi Wolfgang Bernhard z Daimlera. Przedstawiciele koncernu zapewniają, że ich autonomiczne ciężarówki będą kontrolowane przez człowieka. W kabinie będzie siedział kierowca, gotów w każdej chwili do przejęcia kontroli nad pojazdem. Jednak dzięki temu, że pojazd będzie autonomiczny, kierowca będzie mógł zajmować się innymi rzeczami np. planując na tablecie drogę i przestanki, dzięki czemu jego znużenie będzie o 25% mniejsze niż znużenie kierowcy zajmującego się wyłącznie prowadzeniem samochodu. Także niemiecki rząd federalny jest zainteresowany rozwojem technologii autonomicznych pojazdów. Krajowe Ministerstwo Transportu podjęło już decyzję o rozbudowie infrastruktury elektronicznej na fragmentach autostrady A9 w Bawarii. Ma to pomóc producentom samochodów w testowaniu pojazdów autonomicznych w warunkach prawdziwego ruchu. Daimler wydaje się najbardziej zaawansowaną firmą w dziedzinie autonomicznych samochodów ciężarowych. Firma w ubiegłym roku testowała swoje pojazdy na zamkniętym odcinku autostrady A14 pod Magdeburgiem. W maju bieżącego roku prowadziła testy na drogach Nevady i ma zgodę na ich wykorzystywanie na drogach publicznych tego stanu. Warto tutaj przypomnieć o firmie Royal Truck and Equipment, która jeszcze w bieżącym roku rozpocznie testy specjalnych ciężarówek na Florydzie. Pojazdy te, w przeciwieństwie do samochodów Daimlera, będą jednak pozbawione kierowcy. « powrót do artykułu
-
Drzemki w środku dnia wiążą się z niższym ciśnieniem i przepisywaniem mniejszych ilości leków na nadciśnienie. W obecnych czasach wskutek kultury pracy od dziewiątej do piątej drzemki są niemal przywilejem. Realne jest jednak nadal pytanie: czy to tylko zwyczaj, czy też takie zachowanie zapewnia jakieś korzyści - podkreśla dr Manolis Kallistratos, kardiolog z Asklepieion Voula General Hospital w Atenach. Greckie studium objęło 386 pacjentów (200 mężczyzn i 186 kobiet) z nadciśnieniem w średnim wieku nieco ponad 61 lat (61,4). U wszystkich brano pod uwagę wyrażoną w minutach długość snu w ciągu dnia, wyniki całodobowej rejestracji ciśnienia tętniczego, prędkość fali tętna (ang. pulse wave velocity, PWV), zwyczaje dot. stylu życia, wskaźnik masy ciała (BMI) oraz całościową ocenę echokardiograficzną, w tym pomiar lewego przedsionka. Po wzięciu poprawki na inne czynniki, które mogą oddziaływać na ciśnienie, a więc na wiek, płeć, BMI, palenie, picie alkoholu i kawy, zakres aktywności fizycznej i spożycie soli, Grecy ustalili, że osoby śpiące w ciągu dnia mają o 5% (6 mmHg) niższe średnie dobowe ciśnienie skurczowe. W porównaniu do niedrzemiących, ich średnie ciśnienie skurczowe było o 4% (5 mmHg) niższe w czasie czuwania i o 6% (7 mmHg) niższe w czasie snu nocą. Choć średnie spadki ciśnienia wydają się niskie, trzeba wspomnieć, że już nawet różnica rzędu zaledwie 2 mmHg w ciśnieniu skurczowym zmniejsza ryzyko zdarzeń sercowo-naczyniowych aż do 10%. Dodatkowo Grecy ustalili, że PWV i średnica lewego przedsionka były u drzemiących mniejsze o, odpowiednio, 11 i 5%. Oznacza to, że u śpiących w ciągu dnia nadciśnienie wyrządza mniejsze szkody naczyniom i sercu. Naukowcy wspominają o zależności między długością drzemki a stopniem obciążenia przez chorobę. Nasze studium nie tylko pokazuje, że drzemka jest związana z niższym ciśnieniem, demonstruje też, że dłuższy sen jest korzystniejszy. Im dłuższa drzemka, tym niższe ciśnienie skurczowe i zapewne mniejsza ilość leków do obniżenia ciśnienia. Drzemiący w ciągu dnia mają [też] większe spadki ciśnienia podczas snu nocą, co wiąże się z lepszymi wynikami zdrowotnymi. « powrót do artykułu
-
Zmienią nazwę najwyższego szczytu Ameryki Północnej
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Biały Dom ogłosił, że zmieni nazwę najwyższego szczytu Ameryki Północnej z McKinley na Denali. Zmiana będzie miała miejsce z okazji wizyty prezydenta Obamy na Alasce. Denali to atabaskańskie słowo oznaczające "wysoki". O nazwę góry od dziesięcioleci toczy się spór pomiędzy mieszkańcami Alaski i Ohio. Mieszkańcy Alaski, na której znajduje się góra, nazywają ją Denali. Jednak oficjalna uznana przez rząd federalny nazwa to "McKinley". Została ona nadana na cześć pochodzącego z Ohio prezydenta Williama McKinleya, który został w 1901 roku zamordowany przez amerykańskiego anarchistę polskiego pochodzenia Leona Czołgosza. Z szacunku dla tego miejsca oficjalnie zmieniamy nazwę na Denali, składając hołd rdzennym mieszkańcom Alaski i przy wsparciu mieszkańców tego stanu - oświadczyła Sally Jewell, sekretarz spraw wewnętrznych. Decyzja Białego Domu zdenerwowała polityków z Ohio. To polityczna decyzja będąca obrazą dla mieszkańców Ohio. Będziemy współpracowali z Komitetem Izby Reprezentantów ds. Zasobów Naturalnych i spróbujemy zablokować takie działania - zapowiada Bob Gibbs, reprezentujący Ohio w Izbie. Decyzję podjęta przed zaplanowaną 3-dniową wizytą Obamy na Alasce. Prezydent chce przekonywać mieszkańców stanu o konieczności podjęcia zdecydowanych działań na rzecz zatrzymania globalnego ocieplenia. Wizytę zaplanowano tak, by Barack Obama mógł pokazać mieszkańcom Alaski jak roztapiają się lodowce i jak globalne ocieplenie wpływa na najbardziej znane zabytki przyrodnicze stanu. Prezydent spotka się też z rdzennymi mieszkańcami Alaski, których tryb życia jest zagrożony przez zmiany klimatu i którzy skarżą się na niewystarczającą pomoc ze strony rządu federalnego. Barack Obama będzie pierwszym urzędującym prezydentem USA, który odwiedzi alaskańską Arktykę. Najwyższy szczyt Ameryki Północnej zyskał swą oficjalną nazwę w 1896 roku, gdy badający okoliczne góry eksplorator usłyszał o wyborze McKinleya na prezydenta. Nazwa została formalnie zaakceptowana i od tej pory trafiła na mapy. « powrót do artykułu -
Buzz Aldrin, astronauta, który brał udział w 1. lądowaniu na Księżycu, będzie patronował nowemu instytutowi badawczemu na Florydzie. Buzz Aldrin Space Institute będzie się znajdować na Florydzkim Instytucie Technologii (Florida Institute of Technology). W założeniu ma stworzyć podwaliny pod eksplorację i osadnictwo na Marsie. Długoterminowym celem 85-latka jest ustanowienie ok. 2040 r. stałego osadnictwa na Marsie. Na konferencji prasowej, która odbyła się w zeszłym tygodniu, Aldrin wyraził nadzieję, że uda mu się głębiej zaangażować w przedsięwzięcia programu kosmicznego, zwłaszcza NASA. Były astronauta zwrócił również uwagę na znaczenie międzynarodowej współpracy w tej dziedzinie. Plan Aldrina obejmuje wysyłanie ludzi na Księżyc (ostatnio astronauci byli tam w 1972 r.) oraz stworzenie forpoczty na jednym z księżyców Marsa. Osiemdziesięciopięciolatek ma być starszym doradcą instytutu. Ma też dołączyć do kadry Florida Institute of Technology jako profesor aeronautyki, jednak jak wyjaśnia rektor Anthony Catanese, nie będzie prowadzić zajęć dydaktycznych. « powrót do artykułu
-
Opierając się na zasadach działania wirusów, naukowcy z Uniwersytetu w Strasburgu opracowali polimerowe wirusy chemiczne, które dostarczają do komórek leki. Wirus Szwajcarów pokonuje błonę komórkową i rozkłada się w cytoplazmie, uwalniając substancje aktywne. By się to udało, akademicy musieli opracować dwa polimery, które w zależności od warunków, potrafią się same składać i dezintegrować. Zespół z Laboratoire de Conception et Application de Molécules Bioactives stanął przed trudnym zadaniem uzyskania cząstek spełniających parę sprzecznych warunków. Musiały one bowiem pozostawać stabilne w płynie pozakomórkowym, wiązać się z komórkami, by ulec internalizacji i wreszcie rozpadać się w środku, aby uwolnić swój ładunek. Pierwszy wykorzystany w sztucznym wirusie polimer pGi-Ni2+ stanowi podłoże, z którym wiążą się białka. Niedawno opatentowany πPEI enkapsuluje ten układ; jego ładunki dodatnie są przyciągane przez ładunki ujemne pGi-Ni2+. Uzyskane cząstki mają 30-40 nanometrów średnicy i potrafią rozpoznać błonę komórkową i się z nią związać. Wiązanie aktywuje reakcję komórkową: nanocząstki są otaczane przez fragment błony i dostają się do endosomu. Cząstki są stabilne poza komórką, jednak nowe środowisko jest kwaśne. Dodatkowo spadek pH umożliwia πPEI rozsadzenie endosomu. W ten sposób dochodzi do uwolnienia zwartości sztucznego wirusa. Co ważne, Szwajcarom udało się zgromadzić w komórce taką ilość aktywnych białek, by wywrzeć skutek biologiczny: przetransportowana kaspaza 3 wywołała śmierć aż 80% komórek. By zmaksymalizować efekt, biolodzy planują połączyć z białkami siRNA (dwuniciowe cząsteczki RNA, które wyciszają ekspresję genów o homologicznej sekwencji). Wyniki badań in vitro są zachęcające, zwłaszcza że chemiczny wirus staje się toksyczny przy stężeniu 10 razy wyższym od zastosowanego w studium. Wstępne badania na myszach także nie ujawniły nadmiernej śmiertelności. Autorzy publikacji z pisma Angewandte Chemie International Edition podkreślają jednak, że na razie nie wiadomo, jak wygląda kwestia pozbywania się pGi-Ni2+ i πPEI z organizmu. Naukowcy chcą kontynuować pogłębione badania, m.in. na zwierzętach. W najbliższym czasie skupią się na kontroli dystrybucji substancji aktywnej - rekombinowanych i/lub chemiczne zmodyfikowanych białek - za pomocą łączenia jej z tzw. wektorem. « powrót do artykułu
-
W Puszczy Piskiej, na terenie Nadleśnictwa Strzałowo, znaleziono - uważany za wymarły - groszek różnolistny (Lathyrus heterophyllus). To pierwszy od 50 lat przypadek trafienia na tę roślinę. Ostatnie oficjalne informacje o występowaniu w Polsce tej rośliny pochodzą z 1958 roku. Sądzono więc, że groszek wymarł. Teraz został znaleziony na 10 stanowiskach. W sumie odkryto 420 pędów groszku. Jak czytamy w serwisie gazeta.pl większość stanowisk występuje na obszarze, na którym odtwarzana jest świetlista dąbrowa. Najwięcej pędów groszku różnolistnego rosło tam, gdzie od dwóch lat wypasano stado koników polskich, które wyjadały składniki runa. Świetlista dąbrowa to ginący typ lasu, który był związany z serwitutami - wywodzącym się z czasów feudalnych prawem chłopów m.in. do wypasania zwierząt hodowlanych w pańskich lasach. Po II wojnie tego zwyczaju zakazano, żeby bydło i konie nie niszczyły upraw leśnych. Leśnicy ze Strzałowa jako pierwsi w kraju podjęli próbę rewitalizacji takich siedlisk. Obecnie odkryte stanowiska pokrywają się mniej więcej z tymi, które przed stu laty opisywali niemieccy botanicy. To oznacza, że groszek przetrwał cały wiek, mimo że prowadzona była na tym terenie normalna gospodarka leśna. « powrót do artykułu
-
Windows 10 pozwala rodzicom na znacznie lepszą niż dotychczas kontrolę poczynań ich dzieci. Po utworzeniu rodzinnego konta możemy otrzymać co tydzień e-mail z informacjami o odwiedzonych witrynach, uruchamianych aplikacjach oraz czasie spędzonym przed komputerem. Rodzice mogą utworzyć dla dziecka konto, które znajduje się pod nadzorem nadrzędnego konta rodzica. Całość jest zarządzania przez Windows Family, które składa szczegółowe raporty na temat używania konta podrzędnego. Windows Family jest uruchomiona domyślnie. Zapisuje nawet frazy, jakie z konta podrzędnego są wpisywane w wyszukiwarkach Google, Yahoo i Bing. Co więcej, rodzic, przeglądając listę aplikacji i witryn uruchamianych przez dziecko, może jednym kliknięciem myszy zablokować daną aplikację czy witrynę. Rodzice, którzy nie chcą nadzorować swoich dzieci, mogą zrezygnować z takiej możliwości po otrzymaniu pierwszego maila podsumowującego. « powrót do artykułu
-
Ludzie z chorobą Alzheimera (ChA) mają złogi tłuszczu w mózgu. Naukowcy z Centrum Badawczego Szpitala Uniwersytetu w Montrealu odkryli skupiska kropel tłuszczu w mózgach zmarłych z alzheimerem. Złogi kwasów tłuszczowych odkryliśmy zarówno w mózgach zmarłych na tę chorobę, jak i u myszy zmodyfikowanych genetycznie w ten sposób, by rozwinęła się u nich ChA. Nasze eksperymenty sugerują, że nieprawidłowe złogi tłuszczu mogą wyzwalać proces chorobowy - wyjaśnia Karl Fernandes. Na początku akademicy próbowali zrozumieć, czemu komórki mózgu, które zwykle pomagają w naprawie uszkodzeń, przy ChA w ogóle nie reagują. Ku swojemu zdumieniu doktorantka Laura Hamilton odkryła w pobliżu komórek macierzystych myszy kropelki tłuszczu. Zdaliśmy sobie sprawę, że obecność nagromadzeń tłuszczu w mózgach pacjentów odnotował sam dr Alois Alzheimer, kiedy opisał chorobę w 1906 r. Przez złożoność biochemii lipidów spostrzeżenie to [jednak] odrzucano i w dużej mierze zapomniano. Kanadyjczycy badali mózgi 9 zmarłych na ChA. Znaleźli w nich znacząco więcej kropli tłuszczu niż w mózgach 5 zdrowych osób. Gdy zespół chemików pod kierownictwem Pierre'a Chauranda przeprowadził zaawansowaną spektrometrię mas, okazało się, że składają się one z trójglicerydów wzbogaconych specyficznymi kwasami tłuszczowymi, występującymi również w tłuszczach zwierzęcych i olejach roślinnych. Odkryliśmy, że te kwasy tłuszczowe są produkowane w mózgu i akumulują się wolno w procesie normalnego starzenia. Proces ulega jednak znacznemu przyspieszeniu w obecności genów predysponujących do choroby Alzheimera. U myszy predysponowanych do rozwoju choroby wykazaliśmy, że kwasy tłuszczowe kumulują się bardzo wcześnie, bo już w wieku 2 miesięcy, co u ludzi odpowiada okresowi tuż po dwudziestce. Z tego powodu sądzimy, że gromadzenie złogów tłuszczu nie jest wynikiem, ale raczej przyczyną albo czynnikiem przyspieszającym chorobę - opowiada Fernandes. Na szczęście istnieją farmakologiczne inhibitory enzymu, który wytwarza te kwasy tłuszczowe. Oznacza to, że cząsteczki, obecnie testowane pod kątem chorób metabolicznych, np. otyłości, mogą być skuteczne także w leczeniu ChA. Udało nam się zapobiec tworzeniu kropli tłuszczu w mózgach myszy predysponowanych do choroby Alzheimera. Wpływ takiego leczenia na wszystkie aspekty choroby nie jest jeszcze znany, ale zabieg znacząco zwiększył aktywność komórek macierzystych. To bardzo obiecujące, gdyż komórki macierzyste odgrywają ważną rolę w uczeniu, pamięci i regeneracji - zaznacza Fernandes. Odkrycie Kanadyjczyków stanowi poparcie dla hipotezy, że ChA to metaboliczna choroba mózgu. « powrót do artykułu
-
Na Uniwersytecie w Delft przeprowadzono najbardziej rygorystyczny test splątania kwantowego. Może być on ostatecznym gwoździem do trumny modeli alternatywnych wobec standardowej mechaniki kwantowej, złą wiadomością dla hakerów przyszłości oraz dowodem, że Einstein się mylił. To historyczny moment - stwierdził Nicolas Gisin, fizyk kwantowy z Uniwersytetu w Genewie, który nie brał udziału w badaniach swoich holenderskich kolegów. Jak pamiętamy, zgodnie z zasadami mechaniki kwantowej obiekt może znajdować się jednocześnie w różnych stanach. Może być np. jednocześnie w dwóch miejscach czy przyjmować jednocześnie różne wartości spinu. Co więcej, obiekty mogą być ze sobą powiązane - splątane - w ten sposób, że zmiana stanu jednego z nich skutkuje natychmiastową zmianą wszystkich z nim powiązanych. Ta właściwość niezwykle niepokoiła Einsteina. Nazwał on splątanie kwantowe upiornym działaniem na odległość. Tym, co tak bardzo nie podobało się Einsteinowi była szybkość zmian zachodzących pomiędzy splątanymi obiektami. Zachodzą one bowiem natychmiast, a to oznacza, że naruszona zostaje zasada, iż nic nie może poruszać się szybciej niż prędkość światła. Tymczasem to, co powoduje tak szybką zmianę może poruszać się szybciej od światła. Einstein, by poradzić sobie ze splątaniem kwantowym, zaproponował teorię zmiennych ukrytych. Zakłada ona, że istnieją przyczyny powstawania zjawisk fizycznych, których nie można opisać za pomocą mechaniki kwantowej. W latach 60. ubiegłego wieku irlandzki fizyk John Bell zaproponował eksperyment, który pozwoli na rozstrzygnięcie sporu pomiędzy teorią zmiennych ukrytych a splątaniem. Pierwszy eksperyment Bella przeprowadził w 1981 roku zespół Alaina Aspecta z francuskiego Instytutu Optyki w Palaiseau. Od tamtej pory przeprowadzono wiele podobnych eksperymentów, których wyniki zawsze wspierały istnienie splątania kwantowego. Wszystkie te eksperymenty posiadały jednak poważne niedociągnięcia, pozostawiając pole do interpretacji, których nie można było całkowicie odrzucić. W eksperymentach z użyciem splątanych fotonów istniał błąd detekcji. Polegał on na tym, że nie wszystkie fotony użyte w eksperymencie udało się wykrywać. Część z nich była tracona, więc eksperymentatorzy mogli tylko zakładać, że uzyskane wyniki są reprezentatywne dla całego zestawu. Z błędem detekcji próbowano sobie poradzić zastępując fotony łatwiejszymi do śledzenia atomami. Problem jednak w tym, że jest bardzo trudno odsunąć od siebie splątane atomy bez niszczenia stanu splątanego. W ten sposób powstaje błąd komunikacji, gdyż jeśli splątane atomy znajdują się zbyt blisko, można argumentować, że czynnik, który zmienił stan jednego z nich wpłynął bezpośrednio na zmianę atomów z nim splątanych. Nie ma tu zatem mowy o przekroczeniu prędkości światła. Przed dwoma dniami w arXiv pojawił się artykuł opublikowany przez grupę pracującą pod kierunkiem Ronalda Hansona z Uniwersytetu w Delft. Artykuł nie został jeszcze poddany krytycznej ocenie innych naukowców, ale już wywołał spore poruszenie. Holendrzy informują bowiem o przeprowadzeniu pierwszego eksperymentu Bella, w którym poradzono sobie zarówno z błędem detekcji jak i komunikacji. Uczeni z Delft wykorzystali technikę wymiany splątania, dzięki której mogli użyć zarówno światła, jak i materii. Swoją pracę rozpoczęli od dwóch niesplątanych elektronów w atomach diamentów znajdujących się w różnych laboratoriach na uniwersyteckim kampusie. Laboratoria dzieli 1300 metrów. Każdy z elektronów został splątany z fotonem, następnie fotony wysłano do trzeciej, wspólnej lokalizacji. Tam zostały splątane, co splątało również odpowiadające im elektrony. W ciągu 9 dni udało się splątać w ten sposób 245 par elektronów. W ten sposób przekroczono określony przez Bella limit, poza którym istnienie splątania uznaje się za udowodnione. Jako, że badano łatwe do wykrycia elektrony, wyeliminowano błąd detekcji, a ponieważ były one oddalone od siebie na znaczną odległość, nie ma też mowy o błędzie komunikacji. To genialny, piękny eksperyment - chwali kolegów Anton Zeilinger, fizyk kwantowy z Uniwersytetu Wiedeńskiego. Nie zdziwię się, gdy za kilka lat któryś z autorów eksperymentu otrzyma Nagrodę Nobla. To niezwykle ekscytujące - mówi Matthew Laifer, fizyk z kanadyjskiego Perimeter Institute. Laifer dodaje, że test Bella pozbawiony zwyczajowych błędów to niezwykle ważna informacja dla kwantowej kryptografii. Tylko bowiem w teorii podsłuchanie kwantowej komunikacji nie jest możliwe. Istnienie błędów, przede wszystkim błędu detekcji, powoduje, że wysoko zaawansowane techniki pozwalają na podsłuchanie takich danych. Teraz spełniony zostaje postulat Artura Ekerta, który w 1981 roku stwierdził, że zintegrowanie testu Bella z kwantową kryptografią daje pewność, iż komunikacja nie zostanie podsłuchana. Pod warunkiem jednak, że będzie to test pozbawiony błędów. W praktyce jednak wykorzystanie wymiany splątania będzie bardzo trudne. Przypomnijmy, że w ciągu 9 dni uzyskano 245 par elektronów. Tymczasem do praktycznej kwantowej komunikacji konieczne jest przetwarzanie kluczy szyfrujących z prędkością tysięcy kubitów na minutę. Istnieje jeszcze jedna, właściwie filozoficzna, dziura w teście Bella. Otóż sam Bell stwierdził, że ukryte zmienne mogą tak manipulować osobami prowadzącymi eksperyment, że wybiorą one do pomiarów te, a nie inne cechy, przez co dojdą do fałszywego wniosku, iż teoria kwantowa jest prawdziwa. Być może istnieje jakiś rodzaj superdeterminizmu, zgodnie z którym już podczas Wielkiego Wybuchu został wybrany sposób przeprowadzenia eksperymentu. Takiego założenia nigdy nie będziemy mogli obalić, więc sądzę, że nie powinniśmy zbytnio się tym przejmować - mówi Leifer. « powrót do artykułu
-
Poza Pakistanem i Afganistanem wirus polio został wyeliminowany, jednak tacy ludzie, jak opisany w ostatnim numerze PLoS Pathogens Brytyjczyk z chorobą immunologiczną, który przez 28 lat wydalał duże jego ilości z kałem, wydają się potencjalnym źródłem nowych epidemii. Istnieją dwa rodzaje szczepionek przeciwko polio. 1) OPV (od ang. oral polio vaccine), w której znajdują się żywe, atenuowane trzy serotypy wirusa oraz 2) IPV (od ang. inactivated polio vaccine), zawierająca nieaktywne cząsteczki wirusa typu 1., 2. i 3. IPV chroni przed porażenną postacią choroby, ale przez to, że zapewnia słabą odporność miejscową na poziomie jelit, może dojść do namnażania się wirusa w przewodzie pokarmowym osób zaszczepionych i jego krążenia w środowisku. Dla odmiany OPV, która wywołuje podobną odpowiedź immunologiczną jak dziki wirus polio, może prowadzić do wystąpienia porażennej postaci poliomyeltis (ang. Vaccine-Associated Paralytic Poliomyelitis, VAPP) i to zarówno u biorców szczepionki, jak i u osób z otoczenia. OPV stymuluje odporność lokalną nie tylko na poziomie jamy ustnej, ale i całego przewodu pokarmowego. Niestety, skutkiem OPV może również być pojawienie się zmutowanych szczepów wirusa polio ze szczepionki (ang. circulating vaccine-derived polioviruses, cVDPV). Ponieważ ponad 90% cVDPV ma związek z wirusem typu 2. szczepionki i wywołuje on do 38% poszczepionkowej porażennej postaci poliomyeltis, a dzikiego serotypu nie widziano od 1999 r., Światowa Organizacja Zdrowia chce w niedalekiej przyszłości zastąpić szczepionki 3-składnikowe 2-składnikowymi (zawierającymi tylko szczepy 1. i 3.). Po wyeliminowaniu wirusa szczepienia OPV mają być zaniechane, a IPV kontynuowane jeszcze przez jakiś czas. W ramach najnowszego studium zespół Javiera Martina z National Institute for Biological Standards and Control analizował ponad 100 próbek kału, zebranych w latach 1995-2015 od pewnego białego pacjenta. Mężczyzna przeszedł pełen cykl szczepień OPV w 5., 7. i 12. miesiącu życia, przyjął też dawkę przypominającą w wieku 7 lat. Później zdiagnozowano u niego niedobór odporności, co może wpływać na zdolność układu odpornościowego do zabijania wirusa w przewodzie pokarmowym. Naukowcy wykryli w kale duże ilości wirusa polio typu 2. Analiza RNA szczepów iVDPV (szczepów wirusa polio ze szczepionki pochodzących od osób z niedoborem odporności) wykazała, że różniły się one od atenuowanych wirusów ze szczepionki i że zaczęły się od nich oddzielać ok. 28 lat temu, czyli mniej więcej wtedy, gdy mężczyzna przyjął ostatnią dawkę OPV. We wszystkich szczepach iVDPV zaszła mutacja odwracająca odzjadliwianie, ponadto z czasem pojawiły się mutacje, które m.in. wpływały na antygenową budowę wirusów. Wszystkie badane próbki iVDPV były w stanie wywołać paraliż u transgenicznych myszy, u których występowały ludzkie receptory wirusa polio (CD155). Mimo zmian wykrytych w iVDPV, ludzka surowica szybko neutralizowała nawet najbardziej zmodyfikowany szczep, co wg autorów publikacji, sugeruje, że zaszczepieni ludzie są dobrze chronieni przed iVDPV. Dodają oni jednak, że testowana surowica pochodziła od zdrowych osób w wieku 28-65 lat, które przeszły pełny cykl 4 dawek OPV i co najmniej jedną dawkę IPV, a Wielka Brytania zarzuciła w 2004 r. OPV na rzecz IPV. Martin i inni postulują więc, że warto by zbadać surowicę i tej grupy osób. Uczeni podkreślają, że z 73 przypadków iVDPV, jakie opisano w latach 1962-2014 r., tylko 7 zakażeń utrzymywało się ponad 5 lat. Przypadek mężczyzny opisanego na łamach PLoS Pathogens to zatem rekord pod względem długości czasu wydalania wirusa przez takiego pacjenta. Mężczyzna to jedyny zidentyfikowany człowiek, który obecnie wydala wysoce wyewoluowane cVDPV. Przy tej okazji naukowcy przypominają jednak o kilku bardzo zmutowanych szczepach VDPF z typowymi cechami molekularnymi iVDPV, wykrytych w ściekach ze Słowacji, Finlandii, Estonii i Izraela. Akademicy podkreślają, że trzeba badać próbki ścieków i kału pod kątem obecności iVDPV. Należy też pracować nad terapią antywirusową hamującą namnażanie wirusa u osób z niedoborami odporności. « powrót do artykułu
-
Ekspedycja zwiadowcza do Wielkiej Pacyficznej Plamy Śmieci, zwana Mega Expedition by Ocean Clean, zakończyła się sukcesem. Ustalono, że w 2020 roku rozpocznie się sprzątanie Plamy. Wielka Pacyficzna Plama Śmieci to olbrzymie składowisko śmieci utworzone przez prądy oceaniczne i dryfujące między Kalifornią a Hawajami. Kolosalna plama o trudnej do ustalenie wielkości zawiera miliony ton plastiku. Trafia on do sieci troficznej i masowo zabija zwierzęta. Szacuje się, że plastik, blokując przewód pokarmowy, zabija rocznie ponad milion ptaków i 100 000 ssaków. Zadaniem Mega Expedition było zbadanie ile plastiku znajduje się w Plamie. Dokładne analizy nie zostały jeszcze przeprowadzone, ale wstępne dane pokazują, że śmieci jest więcej, niż się spodziewano. Badałam plastik w oceanach na całym świecie, ale nigdy nie spotkałam tak zanieczyszczonego obszaru jak Wielka Pacyficzna Plama Śmieci - mówi doktor Julia Reisser, główny oceanograf organizacji The Ocean Cleanup. Organizacji, na czele której stoi 19-letni Boyan Slat, autor taniej i prostej techniki oczyszczania oceanu ze śmieci. W ubiegłym roku, o czym informowaliśmy niedawno, grupa 100 naukowców i inżynierów poddała pomysł Slata krytycznej ocenie. Eksperci twierdzą, że technologia działa. Mega Expedition została sfinansowana ze środków prywatnych. Wspomógł ją m.in. założyciel Salesforce Marc Benioff. Dzięki inicjatywie Ocean Cleanup i wsparciu sponsorów pojawiła się szansa na oczyszczenie oceanów. Wielka Pacyficzna Plama Śmieci nie jest bowiem jedynym tego typu tworem. « powrót do artykułu