Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Efekt kwantowy powoduje, że możliwe jest stworzenie komputera kwantowego, który wykonuje obliczenia, mimo że nie pracuje. Dotychczas efektywność takiego procesu, zwanego CFC (counterfactual computation), była ograniczona do 50%, co znacznie utrudniało jego zastosowanie w praktyce. Teraz naukowcy pracujący pod kierunkiem profesora Jiangfenga Du z Uniwersytetu Nauki i Technologii Chiny oraz profesora Liang Jianga z Yale University opublikowali na łamach Physical Review Letters artykuł opisujący prace, w czasie których metoda CFC osiągnęła 85% wydajności i potencjalnie może osiągnąć 100%. Główne składniki, które pozwoliły na stworzenie wysoko wydajnego CFC to m.in. wykorzystanie egzotycznych stanów kwantowych - jak superpozycja, pomiar kwantowy i kwantowy efekt Zenona - oraz wykorzystanie zgeneralizowanego protokołu CFC - mówi profesor Du. Najpierw jednak warto wyjaśnić sobie, co oznacza, że wspomniany komputer kwantowy "nie pracuje". Dla naukowców oznacza to, że komputer, który może operować na podzbiorze 'on' lub 'off' przez cały proces obliczeniowy pozostaje w 'off'. Kontrolowanie maszyny w tym stanie wymaga kontrolowanie własności spinu w systemie utworzonym z diamentu. System ten działa jak kwantowy przełącznik. Aby kontrolować pozycję spinu, naukowcy wykorzystali efekt Zenona, który powoduje, że pod wpływem częstych pomiarów kwantowy system pozostaje zamrożony w aktualnym stanie. Procedura zakłada wykorzystanie kwantowego przełącznika i kwantowego rejestru. Dla każdego powtórzenia przygotowujemy kwantowy przełącznik w stanie superpozycji. Następnie 'algorytm', w naszym przypadku bramka NOT, jest przełączana w stan 'on'. Pozornie komputer wykonał ten krok, jednak następujący po tym pomiar usuwa wszystkie zmiany związane z przejściem w stan 'on', zatem prawdopodobieństwo całego systemu wraca do stanu 'off' i zbliża się ono do 100% przy wielkiej liczbie pomiarów (liczba pomiarów zdąża w kierunku nieskończoności i korzystamy przy tym z kwantowego efektu Zenona), wyjaśnia Jiang. To podobna sytuacja, z jaką mamy do czynienia np. w interferometrach. Gdy foton pojawi się przy danym detektorze, możemy wnioskować, że przebył jakąś drogę, a nie inną. Podobnie jest tutaj, gdy cały system znajduje się w stanie 'off'. można wnioskować, że komputer nie działa. Po każdym przebiegu stan zmienia się nieznacznie i w końcu po N powtórzeniach przechodzi on do jakiejś wartości odmiennej od wartości początkowej. Wykrywając ten stan, otrzymujemy wynik, momo że komputer nie działał, dodaje. Dotychczas limit obliczeń CFC wynosił 50%, co jest definiowane jako średnie prawdopodobieństwo poznania stanu obliczeń bez uruchamiania komputera. Generalizowane CFC nie ma jednak takiego limitu, a zespół Du i Jianga wykazał, że po 17 powtórzeniach wydajność wynosi 85%. Wyższa wydajność obliczeń CFC oznacza, że możliwe staje się opracowanie wysoce efektywnej technologii obrazowania z użyciem minimalnej ilości światła. Technologia taka może być szczególnie przydatna przy obrazowaniu próbek biologicznych, które mogą zostać zniszczone przez światło. Dotyczy to zarówno obrazowania protein w zielonym świetle fluorescencyjnym, obrazowania za pomocą ultrafioletu czy za pomocą promieniowania rentgenowskiego. W niektórych przypadkach obraz mógłby powstać za pomocą pojedynczego fotonu. Wykorzystanie pojedynczego fotonu ma sens w takich specjalnych przypadkach, gdy obiekt, który chcemy zobrazować, ma jeden piksel przezroczysty, a inne są nieprzezroczyste. Przy tradycyjnym obrazowaniu foton zostanie pochłonięty przez nieprzezroczysty piksel, tak, jakby komputer wszedł w stan 'on'. W naszej technice taka sytuacja nie ma miejsca. Foton znajdzie przezroczysty piksel i przejdzie przez niego do znajdujące się z tyłu czujnika. W takim przypadku liczba fotonów potrzebnych do zobrazowania obiektu jest równa liczbie takich przezroczystych miejsc w obiekcie. W tradycyjnym obrazowaniu liczba ta jest wielokrotnie większa", mówi współautor badań Fei Kong. Uczeni nie wykluczają też użycie swojej metody w kryptografii kwantowej. Od pewnego już czasu różne grupy specjalistów pracują wykorzystaniem zgeneralizowanej CFC w bezpiecznym przesyłaniu kwantowych danych. « powrót do artykułu
  2. Biolodzy szacują, że aż 90% ptaków morskich na świecie jadło jakiś plastik. Jak ujawnia dr Chris Wilcox z CSIRO Marine and Atmospheric Research, w menu blisko 60 gatunków znajdują się torby, szczoteczki do zębów, zapalniczki, zakrętki od butelek, włókna z syntetycznych tkanin, a nawet kończyny lalek, które zostały wymyte do oceanu z rzek, kanałów ściekowych i wysypisk. Naukowcy z CSIRO oraz Imperial College London (ICL) analizowali publikowane badania, poczynając od wczesnych lat 60. XX w. Stwierdzili, że polimery coraz częściej występują w ptasich żołądkach. W 1960 r. plastik był znajdowany u mniej niż 5% ptaków, zaś do 2010 r. odsetek ten wzrósł aż do 80%. Opierając się na aktualnych trendach, autorzy publikacji z pisma PNAS przewidują, że do 2050 r. spożycie polimerów będzie dotyczyć 99% gatunków ptaków morskich. Ptaki mylą kolorowe obiekty z pokarmem albo połykają je przez przypadek. Prowadzi to do zatkania jelita, utraty wagi, a nawet śmierci. Wykorzystując historyczne obserwacje, przewidujemy, że aż 90% ptaków morskich na świecie jadło kiedyś plastik. To duża liczba, która wskazuje na wszędobylskość skażenia plastikiem - podkreśla dr Wilcox. Denise Hardesty z CSIRO Oceans and Atmosphere dodaje, że ptaki morskie to świetny wskaźnik stanu zdrowia ekosystemu. [...] Oszacowania odnośnie do tak dużego obciążenia ptaków morskich plastikiem potwierdzają niektóre nasze badania terenowe, podczas których u pojedynczego ptaka znalazłam niemal 200 fragmentów plastiku. Największy wpływ na dziką przyrodę będą mieć odpady gromadzące się w Oceanie Południowym, w pasie wokół południowych wybrzeży Australii, południowej Afryki i Ameryki Południowej. Dr Erik van Sebille z Instytutu Granthamów na ICL zaznacza, że plastik będzie miał najgorszy wpływ na regiony z największą bioróżnorodnością. Bardzo boimy się o żyjące na takich obszarach pingwiny czy albatrosy. Mimo że w niesławnych ławicach odpadów na środku oceanów występuje bardzo duże zagęszczenie plastiku, żyje tam bardzo mało zwierząt. Hardesty uważa, że poprawa zarządzania odpadami może zmniejszyć zagrożenie morskiej fauny plastikami i dodaje, że nawet proste zabiegi wiele zmieniają. Wystarczyło uszczelnić gospodarkę odpadami polimerowymi w Europie, by w mniej niż 10 lat wystąpiły mierzalne zmiany dot. plastiku w ptasich żołądkach. « powrót do artykułu
  3. Psycholog społeczny Brian Nosek, dyrektor Center for Open Science w Virginii oraz 269 innych naukowców postanowili zweryfikować dane z 98 artykułów opublikowanych w 3 różnych pismach specjalistycznych. Uczeni chcieli sprawdzić, czy na podstawie opisanych eksperymentów dojdą do takich samych wniosków jak autorzy oryginalnych badań. Próby powtórzenia badań i uzyskania podobnych wyników generalnie spaliły na panewce. Na 100 prób - dwa badania były niezależnie testowane przez dwa różne zespoły - odtworzono jedynie 39 badań. Wynik 39% to subiektywna ocena badaczy co do tego, czy udało się eksperyment powtórzyć. Uczeni wykorzystali też metody statystyczne do oceny, czy badania przyniosły istotne rezultaty. O ile w autorzy oryginalnych eksperymentów aż w 97% twierdzili, że uzyskali znaczące wyniki, to autorzy obecnych studiów uzyskali takie wyniki zaledwie w 36% przypadków. Nosek mówi, że nie ma sposobu, by na podstawie samego artykułu ocenić, czy uzyskane wyniki są prawdziwe czy nie. Błędy mogą istnieć zarówno w pracy oryginalnej, jak i w jej powtórzeniu. Mogą też istnieć ważne czynniki, które zaburzają jedną lub drugą pracę. Jednak projekt przeprowadzony przez Noska i jego kolegów dowodzi, że w psychologicznych pismach naukowych publikowane są badania, które nie przechodzą pozytywnie testu sprawdzającego ich wiarygodność. Zdaniem Noska istnieje potrzeba badań sprawdzających inne badania. Obecnie niemal nikt nie przeznacza funduszy na tego typu działania. Badania Noska to część Reproducibility Project, który rozpoczęto w 2011 roku w związku z ujawnionym skandalem dotyczącym fałszowania statystyk podczas badań psychologicznych. John Ioannidis, epidemiolog ze Stanford University mówi, że prawdziwy odsetek błędnych prac może przekraczać 80%. Dzieje się tak, gdyż twórcy Reproducibility Project skupiają się wyłącznie na pracach publikowanych w poważanych pismach, autorzy oryginalnych badań ściśle z nimi współpracują, a badacze próbujący odtworzyć prace innych skupiają się głównie na tych eksperymentach, w których wykorzystano stosunkowo proste metody. Powinniśmy wykorzystać ten projekt to poprawy sytuacji, a nie do lamentowania nad nią. Sam fakt, że naukowcy współpracują na tak szeroką skalę wskazuje, iż naprawdę dążą do poprawienia sytuacji, stwierdza Ioannidis. Z kolei Andrew Gelman, statystyk z Columbia University podkreśla, że testy Noska są wyjątkowo cenne. Po raz pierwszy bowiem wzięto pod uwagę tak dużą liczbę eksperymentów. Dotychczas podobne sprawdzenia były wykonywane na małych próbkach lub też posługiwano się symulacjami statystycznymi. Sam Nosek podkreśla, że jego celem nie jest potępianie autorów poszczególnych prac, ale wskazanie, jak wiele błędów i niedociągnięć pojawia się w publikacjach psychologicznych. Istnieje na przykład ryzyko, że eksperymenty nudne, ale prawdziwe, nie zostaną opublikowane czy też, że do publikacji trafią interesujące prace, z których wnioski wyciągnięto nie na podstawie eksperymentów, a analiz statystycznych, często próbując różnych metod, by właśnie takie sensacyjne wyniki uzyskać. « powrót do artykułu
  4. Grupa sześciorga studentów z Willem de Kooning Academie wpadła na pomysł, jak wykorzystać psujące się owoce - młodzi Holendrzy produkują z nich skóropodobny materiał. Projekt Fruitleather Rotterdam rozpoczął się od zadania zleconego przez wykładowców - studenci dizajnu mieli zaprojektować krótkie wydarzenie sprzedażowe. Nasz 6-osobowy zespół zdecydował się dodatkowo zająć problemem marnowania jedzenia. Z okien Akademii roztacza się widok na plac Binnenrotte, gdzie w każdy wtorek i sobotę odbywa się targ. Widzieliśmy, że pod koniec dnia teren może być dosłownie zasłany odpadami spożywczymi [zepsutymi lub nienadającymi się do sprzedaży owocami i warzywami], zdecydowaliśmy więc, że to problem, który chcemy rozwiązać od strony projektowej - wyjaśnia Hugo de Boon. Studenci dowiedzieli się, że dziennie marnuje się aż 3,5 t owoców/warzyw, a ponieważ pozbycie się odpadów kosztuje właściciela 12 eurocentów od kilograma, wiele osób robi to nielegalnie. Młodych ludzi zainspirowały techniki stosowane przez szefów kuchni. Jedna z nich polega na miksowaniu owoców, gotowaniu i wreszcie suszeniu pulpy (w ten sposób powstaje coś przypominającego cukierki, tzw. fruitleather). Mango, nektaryny, jabłka czy pomarańcze są odbierane od sprzedawców. Choć nikt nie chce zdradzić szczegółów metody produkowania, de Boon uchyla rąbka tajemnicy. Najpierw owoce są drylowane/pestkowane i zgniatane na pureé. By pozbyć się bakterii i zapobiec psuciu, masę należy wygotować. Po wystudzeniu rozprowadza się ją na specjalnej powierzchni, co jest kluczowe dla procesu suszenia. By zademonstrować właściwości materiału, grupa wyprodukowała torbę. De Boon twierdzi, że nadaje się on również do wytwarzania ubrań, a nawet mebli. Materiał wzbudził zainteresowanie przemysłu. Ze studentami skontaktował się już np. producent tapicerki samochodowej, pomysłowa szóstka pracuje jednak na razie nad usprawnieniem procesu i poprawą jakości "owocowej skóry". Za pomocą naszego projektu chcieliśmy zwiększyć świadomość problemu marnowania jedzenia i pokazać, że istnieje rozwiązanie. « powrót do artykułu
  5. Od wielu lat europejscy politycy, ekolodzy i rybacy spierają się o trałowanie na dużych głębokościach. Krytycy tej techniki połowu argumentują, że jest ona niezwykle szkodliwa dla środowiska.Najnowsze badania ponownie rozgrzały debatę. W Current Biology ukazał się artykuł opisujący badania, których autorzy opisali, jak wraz z głębokością zmienia się w sieciach odsetek ryb pożądanych ekonomicznie do tych niepożądanych. To porządnie przeprowadzone badania. Wynika z nich wprost, że trałowanie poniżej 600 metrów to strata czasu - mówi Les Watling, biolog z University of Hawaii, specjalizujący się w głębokich obszarach morskich. To pierwszy naprawdę dobry zestaw danych naukowych, który wspiera hipotezę, że wprowadzenie limitu głębokości dla trawlerów jest korzystne ekonomicznie i ekologicznie, dodaje. Od dawna wiadomo, że trałowanie blisko dna niszczy ekosystem, to dobrze udokumentowane zjawisko. Brakowało jednak badań, które jednoznacznie pozwalałyby na wyznaczenie limitu głębokości, poniżej którego łowienie staje się nieopłacalne i nieekologiczne. Podczas ostatnich badań analizowano zawartość sieci, które podczas połowów na Atlantyku były zanurzane na głębokość 240-1500 metrów. Badania wykazały, że wraz z głębokością wzrasta liczba niepożądanych ryb, a najbardziej dramatyczny wzrost ma miejsce pomiędzy 600 a 800 metrem. Łapie się wówczas szczególnie dużo rekinów i płaszczek, w tym przedstawicieli zagrożonych gatunków. Analiza ekonomiczna wykazała również, że w wymienionych granicach spada wartość połowu. Przed rozpoczęciem badań nie byliśmy pewni, czy zauważymy jakikolwiek trend. Byliśmy zdumieni, gdy okazało się, że zmiana jest tak wyraźna. Myślę, że to interesujące dodatkowe argumenty w toczącej się dyskusji - mówi Jo Clarke, biolog morski z University of Glasgow. Clarke ma nadzieję, że podobne badania zostaną przeprowadzone na innych wodach i uda się sprawdzić, czy takie zjawisko występuje też w innych obszarach globu. Myślę, że taki trend będzie najbardziej widoczny w okolicach Nowej Zelandii - mówi Watling. W 2013 roku Parlament Europejski przyjął uchwałę zakazującą trałowania poniżej 800 metrów. Wciąż nie została ona ratyfikowana przez ministrów krajów członkowskich. Naukowcy mają nadzieję, że z czasem zostanie wprowadzony zakaz trałowania na głębokości poniżej 600 metrów. Ważne jest każde działanie, które przyczynia się do ochrony bioróżnorodności - mówi Watling. « powrót do artykułu
  6. Już przy pierwszym epizodzie psychozy ludzie przetwarzają informacje inaczej od zdrowej grupy kontrolnej. Projektując eksperyment, fińscy naukowcy wzięli pod uwagę trzy rodzaje problemów. Po pierwsze, w badaniach funkcjonalnym rezonansem magnetycznym (fMRI) często biorą udział osoby przewlekle chore, a w przypadku wczesnej psychozy, gdzie wzorce działania mózgu nie zostały jeszcze wbudowane, różnice z grupą kontrolną mogą być słabiej wyrażone. Po drugie, należało się upewnić, że wszystkim - chorym i grupie kontrolnej - prezentuje się te same bodźce. Idealnie stymulacja powinna zawierać dużo informacji, tak jak sytuacje w realnym życiu. Rozwiązaniem okazało się wyświetlanie w skanerze "Alicji w Krainie Czarów" Tima Burtona. W badaniach Finów wzięło udział 46 pacjentów z pierwszym epizodem psychozy i 32 osoby zdrowe. Odkryto znaczące różnice w aktywności przedklinka (praecuneus), regionu związanego z pamięcią, świadomością wzrokowo-przestrzenną czy samoświadomością. W ramach studium, opierając się na aktywności utrwalonej w czasie oglądania filmu, próbowaliśmy stwierdzić, czy dana osoba jest pacjentem z pierwszym epizodem psychozy, czy zdrową osobą z grupy kontrolnej. Ustaliliśmy, że szczególnie dobrze udaje się to dzięki monitorowaniu aktywności przedklinka, [...] centralnego ośrodka integracji informacji odnoszących się do ja i pamięci epizodycznej [...] - wyjaśnia Eva Rikandi z Aalto University. Działając w ten sposób, Finowie uzyskali 80-proc. trafność klasyfikacji. Komentując odkrycia kolegów po fachu i odnosząc się do wyzwalania przez "Alicję w Krainie Czarów" innych wzorców aktywności mózgu, hiszpański psychiatra prof. Celso Arango podkreśla, że powinniśmy wiedzieć, czy pacjent z psychozą postrzega film jako bardziej, czy mniej odnoszący się do jego życia niż zdrowy człowiek i jak by to wyglądało przy filmach z gatunków innych niż fantasy. « powrót do artykułu
  7. Ministerstwo Transportu i Infrastruktury Badenii-Wirtembergii wydało firmie Daimler zezwolenie na użytkowanie autonomicznych 18-kołowych ciężarówek na drogach wspomnianego kraju związkowego. Po raz pierwszy ciężarówki Future Truck 2025 zostały zaprezentowane podczas ubiegłorocznego salonu samochodowego. Pojazdy zostały wyposażone w czujniki, kamery i technologie, których celem jest utrzymanie pojazdu na środku pasa. Wykorzystują też trójwymiarowe mapy, dzięki czemu pokładowy komputer zna topografię terenu. Potrafi też łączyć się z innymi pojazdami i wymieniać z nimi informacje. Firma pracuje też nad technologią "Blind Spot Assist", która za pomocą radarów monitoruje otoczenie pojazdu i informuje o niewidocznych w lusterkach uczestnikach ruchu. Będziemy pierwsi, który wprowadzą tę technologię na rynek. Naszym celem jest stworzenie ciężarówki, która nie będzie powodowała wypadków - mówi Wolfgang Bernhard z Daimlera. Przedstawiciele koncernu zapewniają, że ich autonomiczne ciężarówki będą kontrolowane przez człowieka. W kabinie będzie siedział kierowca, gotów w każdej chwili do przejęcia kontroli nad pojazdem. Jednak dzięki temu, że pojazd będzie autonomiczny, kierowca będzie mógł zajmować się innymi rzeczami np. planując na tablecie drogę i przestanki, dzięki czemu jego znużenie będzie o 25% mniejsze niż znużenie kierowcy zajmującego się wyłącznie prowadzeniem samochodu. Także niemiecki rząd federalny jest zainteresowany rozwojem technologii autonomicznych pojazdów. Krajowe Ministerstwo Transportu podjęło już decyzję o rozbudowie infrastruktury elektronicznej na fragmentach autostrady A9 w Bawarii. Ma to pomóc producentom samochodów w testowaniu pojazdów autonomicznych w warunkach prawdziwego ruchu. Daimler wydaje się najbardziej zaawansowaną firmą w dziedzinie autonomicznych samochodów ciężarowych. Firma w ubiegłym roku testowała swoje pojazdy na zamkniętym odcinku autostrady A14 pod Magdeburgiem. W maju bieżącego roku prowadziła testy na drogach Nevady i ma zgodę na ich wykorzystywanie na drogach publicznych tego stanu. Warto tutaj przypomnieć o firmie Royal Truck and Equipment, która jeszcze w bieżącym roku rozpocznie testy specjalnych ciężarówek na Florydzie. Pojazdy te, w przeciwieństwie do samochodów Daimlera, będą jednak pozbawione kierowcy. « powrót do artykułu
  8. Drzemki w środku dnia wiążą się z niższym ciśnieniem i przepisywaniem mniejszych ilości leków na nadciśnienie. W obecnych czasach wskutek kultury pracy od dziewiątej do piątej drzemki są niemal przywilejem. Realne jest jednak nadal pytanie: czy to tylko zwyczaj, czy też takie zachowanie zapewnia jakieś korzyści - podkreśla dr Manolis Kallistratos, kardiolog z Asklepieion Voula General Hospital w Atenach. Greckie studium objęło 386 pacjentów (200 mężczyzn i 186 kobiet) z nadciśnieniem w średnim wieku nieco ponad 61 lat (61,4). U wszystkich brano pod uwagę wyrażoną w minutach długość snu w ciągu dnia, wyniki całodobowej rejestracji ciśnienia tętniczego, prędkość fali tętna (ang. pulse wave velocity, PWV), zwyczaje dot. stylu życia, wskaźnik masy ciała (BMI) oraz całościową ocenę echokardiograficzną, w tym pomiar lewego przedsionka. Po wzięciu poprawki na inne czynniki, które mogą oddziaływać na ciśnienie, a więc na wiek, płeć, BMI, palenie, picie alkoholu i kawy, zakres aktywności fizycznej i spożycie soli, Grecy ustalili, że osoby śpiące w ciągu dnia mają o 5% (6 mmHg) niższe średnie dobowe ciśnienie skurczowe. W porównaniu do niedrzemiących, ich średnie ciśnienie skurczowe było o 4% (5 mmHg) niższe w czasie czuwania i o 6% (7 mmHg) niższe w czasie snu nocą. Choć średnie spadki ciśnienia wydają się niskie, trzeba wspomnieć, że już nawet różnica rzędu zaledwie 2 mmHg w ciśnieniu skurczowym zmniejsza ryzyko zdarzeń sercowo-naczyniowych aż do 10%. Dodatkowo Grecy ustalili, że PWV i średnica lewego przedsionka były u drzemiących mniejsze o, odpowiednio, 11 i 5%. Oznacza to, że u śpiących w ciągu dnia nadciśnienie wyrządza mniejsze szkody naczyniom i sercu. Naukowcy wspominają o zależności między długością drzemki a stopniem obciążenia przez chorobę. Nasze studium nie tylko pokazuje, że drzemka jest związana z niższym ciśnieniem, demonstruje też, że dłuższy sen jest korzystniejszy. Im dłuższa drzemka, tym niższe ciśnienie skurczowe i zapewne mniejsza ilość leków do obniżenia ciśnienia. Drzemiący w ciągu dnia mają [też] większe spadki ciśnienia podczas snu nocą, co wiąże się z lepszymi wynikami zdrowotnymi. « powrót do artykułu
  9. Biały Dom ogłosił, że zmieni nazwę najwyższego szczytu Ameryki Północnej z McKinley na Denali. Zmiana będzie miała miejsce z okazji wizyty prezydenta Obamy na Alasce. Denali to atabaskańskie słowo oznaczające "wysoki". O nazwę góry od dziesięcioleci toczy się spór pomiędzy mieszkańcami Alaski i Ohio. Mieszkańcy Alaski, na której znajduje się góra, nazywają ją Denali. Jednak oficjalna uznana przez rząd federalny nazwa to "McKinley". Została ona nadana na cześć pochodzącego z Ohio prezydenta Williama McKinleya, który został w 1901 roku zamordowany przez amerykańskiego anarchistę polskiego pochodzenia Leona Czołgosza. Z szacunku dla tego miejsca oficjalnie zmieniamy nazwę na Denali, składając hołd rdzennym mieszkańcom Alaski i przy wsparciu mieszkańców tego stanu - oświadczyła Sally Jewell, sekretarz spraw wewnętrznych. Decyzja Białego Domu zdenerwowała polityków z Ohio. To polityczna decyzja będąca obrazą dla mieszkańców Ohio. Będziemy współpracowali z Komitetem Izby Reprezentantów ds. Zasobów Naturalnych i spróbujemy zablokować takie działania - zapowiada Bob Gibbs, reprezentujący Ohio w Izbie. Decyzję podjęta przed zaplanowaną 3-dniową wizytą Obamy na Alasce. Prezydent chce przekonywać mieszkańców stanu o konieczności podjęcia zdecydowanych działań na rzecz zatrzymania globalnego ocieplenia. Wizytę zaplanowano tak, by Barack Obama mógł pokazać mieszkańcom Alaski jak roztapiają się lodowce i jak globalne ocieplenie wpływa na najbardziej znane zabytki przyrodnicze stanu. Prezydent spotka się też z rdzennymi mieszkańcami Alaski, których tryb życia jest zagrożony przez zmiany klimatu i którzy skarżą się na niewystarczającą pomoc ze strony rządu federalnego. Barack Obama będzie pierwszym urzędującym prezydentem USA, który odwiedzi alaskańską Arktykę. Najwyższy szczyt Ameryki Północnej zyskał swą oficjalną nazwę w 1896 roku, gdy badający okoliczne góry eksplorator usłyszał o wyborze McKinleya na prezydenta. Nazwa została formalnie zaakceptowana i od tej pory trafiła na mapy. « powrót do artykułu
  10. Buzz Aldrin, astronauta, który brał udział w 1. lądowaniu na Księżycu, będzie patronował nowemu instytutowi badawczemu na Florydzie. Buzz Aldrin Space Institute będzie się znajdować na Florydzkim Instytucie Technologii (Florida Institute of Technology). W założeniu ma stworzyć podwaliny pod eksplorację i osadnictwo na Marsie. Długoterminowym celem 85-latka jest ustanowienie ok. 2040 r. stałego osadnictwa na Marsie. Na konferencji prasowej, która odbyła się w zeszłym tygodniu, Aldrin wyraził nadzieję, że uda mu się głębiej zaangażować w przedsięwzięcia programu kosmicznego, zwłaszcza NASA. Były astronauta zwrócił również uwagę na znaczenie międzynarodowej współpracy w tej dziedzinie. Plan Aldrina obejmuje wysyłanie ludzi na Księżyc (ostatnio astronauci byli tam w 1972 r.) oraz stworzenie forpoczty na jednym z księżyców Marsa. Osiemdziesięciopięciolatek ma być starszym doradcą instytutu. Ma też dołączyć do kadry Florida Institute of Technology jako profesor aeronautyki, jednak jak wyjaśnia rektor Anthony Catanese, nie będzie prowadzić zajęć dydaktycznych. « powrót do artykułu
  11. Opierając się na zasadach działania wirusów, naukowcy z Uniwersytetu w Strasburgu opracowali polimerowe wirusy chemiczne, które dostarczają do komórek leki. Wirus Szwajcarów pokonuje błonę komórkową i rozkłada się w cytoplazmie, uwalniając substancje aktywne. By się to udało, akademicy musieli opracować dwa polimery, które w zależności od warunków, potrafią się same składać i dezintegrować. Zespół z Laboratoire de Conception et Application de Molécules Bioactives stanął przed trudnym zadaniem uzyskania cząstek spełniających parę sprzecznych warunków. Musiały one bowiem pozostawać stabilne w płynie pozakomórkowym, wiązać się z komórkami, by ulec internalizacji i wreszcie rozpadać się w środku, aby uwolnić swój ładunek. Pierwszy wykorzystany w sztucznym wirusie polimer pGi-Ni2+ stanowi podłoże, z którym wiążą się białka. Niedawno opatentowany πPEI enkapsuluje ten układ; jego ładunki dodatnie są przyciągane przez ładunki ujemne pGi-Ni2+. Uzyskane cząstki mają 30-40 nanometrów średnicy i potrafią rozpoznać błonę komórkową i się z nią związać. Wiązanie aktywuje reakcję komórkową: nanocząstki są otaczane przez fragment błony i dostają się do endosomu. Cząstki są stabilne poza komórką, jednak nowe środowisko jest kwaśne. Dodatkowo spadek pH umożliwia πPEI rozsadzenie endosomu. W ten sposób dochodzi do uwolnienia zwartości sztucznego wirusa. Co ważne, Szwajcarom udało się zgromadzić w komórce taką ilość aktywnych białek, by wywrzeć skutek biologiczny: przetransportowana kaspaza 3 wywołała śmierć aż 80% komórek. By zmaksymalizować efekt, biolodzy planują połączyć z białkami siRNA (dwuniciowe cząsteczki RNA, które wyciszają ekspresję genów o homologicznej sekwencji). Wyniki badań in vitro są zachęcające, zwłaszcza że chemiczny wirus staje się toksyczny przy stężeniu 10 razy wyższym od zastosowanego w studium. Wstępne badania na myszach także nie ujawniły nadmiernej śmiertelności. Autorzy publikacji z pisma Angewandte Chemie International Edition podkreślają jednak, że na razie nie wiadomo, jak wygląda kwestia pozbywania się pGi-Ni2+ i πPEI z organizmu. Naukowcy chcą kontynuować pogłębione badania, m.in. na zwierzętach. W najbliższym czasie skupią się na kontroli dystrybucji substancji aktywnej - rekombinowanych i/lub chemiczne zmodyfikowanych białek - za pomocą łączenia jej z tzw. wektorem. « powrót do artykułu
  12. W Puszczy Piskiej, na terenie Nadleśnictwa Strzałowo, znaleziono - uważany za wymarły - groszek różnolistny (Lathyrus heterophyllus). To pierwszy od 50 lat przypadek trafienia na tę roślinę. Ostatnie oficjalne informacje o występowaniu w Polsce tej rośliny pochodzą z 1958 roku. Sądzono więc, że groszek wymarł. Teraz został znaleziony na 10 stanowiskach. W sumie odkryto 420 pędów groszku. Jak czytamy w serwisie gazeta.pl większość stanowisk występuje na obszarze, na którym odtwarzana jest świetlista dąbrowa. Najwięcej pędów groszku różnolistnego rosło tam, gdzie od dwóch lat wypasano stado koników polskich, które wyjadały składniki runa. Świetlista dąbrowa to ginący typ lasu, który był związany z serwitutami - wywodzącym się z czasów feudalnych prawem chłopów m.in. do wypasania zwierząt hodowlanych w pańskich lasach. Po II wojnie tego zwyczaju zakazano, żeby bydło i konie nie niszczyły upraw leśnych. Leśnicy ze Strzałowa jako pierwsi w kraju podjęli próbę rewitalizacji takich siedlisk. Obecnie odkryte stanowiska pokrywają się mniej więcej z tymi, które przed stu laty opisywali niemieccy botanicy. To oznacza, że groszek przetrwał cały wiek, mimo że prowadzona była na tym terenie normalna gospodarka leśna. « powrót do artykułu
  13. Windows 10 pozwala rodzicom na znacznie lepszą niż dotychczas kontrolę poczynań ich dzieci. Po utworzeniu rodzinnego konta możemy otrzymać co tydzień e-mail z informacjami o odwiedzonych witrynach, uruchamianych aplikacjach oraz czasie spędzonym przed komputerem. Rodzice mogą utworzyć dla dziecka konto, które znajduje się pod nadzorem nadrzędnego konta rodzica. Całość jest zarządzania przez Windows Family, które składa szczegółowe raporty na temat używania konta podrzędnego. Windows Family jest uruchomiona domyślnie. Zapisuje nawet frazy, jakie z konta podrzędnego są wpisywane w wyszukiwarkach Google, Yahoo i Bing. Co więcej, rodzic, przeglądając listę aplikacji i witryn uruchamianych przez dziecko, może jednym kliknięciem myszy zablokować daną aplikację czy witrynę. Rodzice, którzy nie chcą nadzorować swoich dzieci, mogą zrezygnować z takiej możliwości po otrzymaniu pierwszego maila podsumowującego. « powrót do artykułu
  14. Ludzie z chorobą Alzheimera (ChA) mają złogi tłuszczu w mózgu. Naukowcy z Centrum Badawczego Szpitala Uniwersytetu w Montrealu odkryli skupiska kropel tłuszczu w mózgach zmarłych z alzheimerem. Złogi kwasów tłuszczowych odkryliśmy zarówno w mózgach zmarłych na tę chorobę, jak i u myszy zmodyfikowanych genetycznie w ten sposób, by rozwinęła się u nich ChA. Nasze eksperymenty sugerują, że nieprawidłowe złogi tłuszczu mogą wyzwalać proces chorobowy - wyjaśnia Karl Fernandes. Na początku akademicy próbowali zrozumieć, czemu komórki mózgu, które zwykle pomagają w naprawie uszkodzeń, przy ChA w ogóle nie reagują. Ku swojemu zdumieniu doktorantka Laura Hamilton odkryła w pobliżu komórek macierzystych myszy kropelki tłuszczu. Zdaliśmy sobie sprawę, że obecność nagromadzeń tłuszczu w mózgach pacjentów odnotował sam dr Alois Alzheimer, kiedy opisał chorobę w 1906 r. Przez złożoność biochemii lipidów spostrzeżenie to [jednak] odrzucano i w dużej mierze zapomniano. Kanadyjczycy badali mózgi 9 zmarłych na ChA. Znaleźli w nich znacząco więcej kropli tłuszczu niż w mózgach 5 zdrowych osób. Gdy zespół chemików pod kierownictwem Pierre'a Chauranda przeprowadził zaawansowaną spektrometrię mas, okazało się, że składają się one z trójglicerydów wzbogaconych specyficznymi kwasami tłuszczowymi, występującymi również w tłuszczach zwierzęcych i olejach roślinnych. Odkryliśmy, że te kwasy tłuszczowe są produkowane w mózgu i akumulują się wolno w procesie normalnego starzenia. Proces ulega jednak znacznemu przyspieszeniu w obecności genów predysponujących do choroby Alzheimera. U myszy predysponowanych do rozwoju choroby wykazaliśmy, że kwasy tłuszczowe kumulują się bardzo wcześnie, bo już w wieku 2 miesięcy, co u ludzi odpowiada okresowi tuż po dwudziestce. Z tego powodu sądzimy, że gromadzenie złogów tłuszczu nie jest wynikiem, ale raczej przyczyną albo czynnikiem przyspieszającym chorobę - opowiada Fernandes. Na szczęście istnieją farmakologiczne inhibitory enzymu, który wytwarza te kwasy tłuszczowe. Oznacza to, że cząsteczki, obecnie testowane pod kątem chorób metabolicznych, np. otyłości, mogą być skuteczne także w leczeniu ChA. Udało nam się zapobiec tworzeniu kropli tłuszczu w mózgach myszy predysponowanych do choroby Alzheimera. Wpływ takiego leczenia na wszystkie aspekty choroby nie jest jeszcze znany, ale zabieg znacząco zwiększył aktywność komórek macierzystych. To bardzo obiecujące, gdyż komórki macierzyste odgrywają ważną rolę w uczeniu, pamięci i regeneracji - zaznacza Fernandes. Odkrycie Kanadyjczyków stanowi poparcie dla hipotezy, że ChA to metaboliczna choroba mózgu. « powrót do artykułu
  15. Na Uniwersytecie w Delft przeprowadzono najbardziej rygorystyczny test splątania kwantowego. Może być on ostatecznym gwoździem do trumny modeli alternatywnych wobec standardowej mechaniki kwantowej, złą wiadomością dla hakerów przyszłości oraz dowodem, że Einstein się mylił. To historyczny moment - stwierdził Nicolas Gisin, fizyk kwantowy z Uniwersytetu w Genewie, który nie brał udziału w badaniach swoich holenderskich kolegów. Jak pamiętamy, zgodnie z zasadami mechaniki kwantowej obiekt może znajdować się jednocześnie w różnych stanach. Może być np. jednocześnie w dwóch miejscach czy przyjmować jednocześnie różne wartości spinu. Co więcej, obiekty mogą być ze sobą powiązane - splątane - w ten sposób, że zmiana stanu jednego z nich skutkuje natychmiastową zmianą wszystkich z nim powiązanych. Ta właściwość niezwykle niepokoiła Einsteina. Nazwał on splątanie kwantowe upiornym działaniem na odległość. Tym, co tak bardzo nie podobało się Einsteinowi była szybkość zmian zachodzących pomiędzy splątanymi obiektami. Zachodzą one bowiem natychmiast, a to oznacza, że naruszona zostaje zasada, iż nic nie może poruszać się szybciej niż prędkość światła. Tymczasem to, co powoduje tak szybką zmianę może poruszać się szybciej od światła. Einstein, by poradzić sobie ze splątaniem kwantowym, zaproponował teorię zmiennych ukrytych. Zakłada ona, że istnieją przyczyny powstawania zjawisk fizycznych, których nie można opisać za pomocą mechaniki kwantowej. W latach 60. ubiegłego wieku irlandzki fizyk John Bell zaproponował eksperyment, który pozwoli na rozstrzygnięcie sporu pomiędzy teorią zmiennych ukrytych a splątaniem. Pierwszy eksperyment Bella przeprowadził w 1981 roku zespół Alaina Aspecta z francuskiego Instytutu Optyki w Palaiseau. Od tamtej pory przeprowadzono wiele podobnych eksperymentów, których wyniki zawsze wspierały istnienie splątania kwantowego. Wszystkie te eksperymenty posiadały jednak poważne niedociągnięcia, pozostawiając pole do interpretacji, których nie można było całkowicie odrzucić. W eksperymentach z użyciem splątanych fotonów istniał błąd detekcji. Polegał on na tym, że nie wszystkie fotony użyte w eksperymencie udało się wykrywać. Część z nich była tracona, więc eksperymentatorzy mogli tylko zakładać, że uzyskane wyniki są reprezentatywne dla całego zestawu. Z błędem detekcji próbowano sobie poradzić zastępując fotony łatwiejszymi do śledzenia atomami. Problem jednak w tym, że jest bardzo trudno odsunąć od siebie splątane atomy bez niszczenia stanu splątanego. W ten sposób powstaje błąd komunikacji, gdyż jeśli splątane atomy znajdują się zbyt blisko, można argumentować, że czynnik, który zmienił stan jednego z nich wpłynął bezpośrednio na zmianę atomów z nim splątanych. Nie ma tu zatem mowy o przekroczeniu prędkości światła. Przed dwoma dniami w arXiv pojawił się artykuł opublikowany przez grupę pracującą pod kierunkiem Ronalda Hansona z Uniwersytetu w Delft. Artykuł nie został jeszcze poddany krytycznej ocenie innych naukowców, ale już wywołał spore poruszenie. Holendrzy informują bowiem o przeprowadzeniu pierwszego eksperymentu Bella, w którym poradzono sobie zarówno z błędem detekcji jak i komunikacji. Uczeni z Delft wykorzystali technikę wymiany splątania, dzięki której mogli użyć zarówno światła, jak i materii. Swoją pracę rozpoczęli od dwóch niesplątanych elektronów w atomach diamentów znajdujących się w różnych laboratoriach na uniwersyteckim kampusie. Laboratoria dzieli 1300 metrów. Każdy z elektronów został splątany z fotonem, następnie fotony wysłano do trzeciej, wspólnej lokalizacji. Tam zostały splątane, co splątało również odpowiadające im elektrony. W ciągu 9 dni udało się splątać w ten sposób 245 par elektronów. W ten sposób przekroczono określony przez Bella limit, poza którym istnienie splątania uznaje się za udowodnione. Jako, że badano łatwe do wykrycia elektrony, wyeliminowano błąd detekcji, a ponieważ były one oddalone od siebie na znaczną odległość, nie ma też mowy o błędzie komunikacji. To genialny, piękny eksperyment - chwali kolegów Anton Zeilinger, fizyk kwantowy z Uniwersytetu Wiedeńskiego. Nie zdziwię się, gdy za kilka lat któryś z autorów eksperymentu otrzyma Nagrodę Nobla. To niezwykle ekscytujące - mówi Matthew Laifer, fizyk z kanadyjskiego Perimeter Institute. Laifer dodaje, że test Bella pozbawiony zwyczajowych błędów to niezwykle ważna informacja dla kwantowej kryptografii. Tylko bowiem w teorii podsłuchanie kwantowej komunikacji nie jest możliwe. Istnienie błędów, przede wszystkim błędu detekcji, powoduje, że wysoko zaawansowane techniki pozwalają na podsłuchanie takich danych. Teraz spełniony zostaje postulat Artura Ekerta, który w 1981 roku stwierdził, że zintegrowanie testu Bella z kwantową kryptografią daje pewność, iż komunikacja nie zostanie podsłuchana. Pod warunkiem jednak, że będzie to test pozbawiony błędów. W praktyce jednak wykorzystanie wymiany splątania będzie bardzo trudne. Przypomnijmy, że w ciągu 9 dni uzyskano 245 par elektronów. Tymczasem do praktycznej kwantowej komunikacji konieczne jest przetwarzanie kluczy szyfrujących z prędkością tysięcy kubitów na minutę. Istnieje jeszcze jedna, właściwie filozoficzna, dziura w teście Bella. Otóż sam Bell stwierdził, że ukryte zmienne mogą tak manipulować osobami prowadzącymi eksperyment, że wybiorą one do pomiarów te, a nie inne cechy, przez co dojdą do fałszywego wniosku, iż teoria kwantowa jest prawdziwa. Być może istnieje jakiś rodzaj superdeterminizmu, zgodnie z którym już podczas Wielkiego Wybuchu został wybrany sposób przeprowadzenia eksperymentu. Takiego założenia nigdy nie będziemy mogli obalić, więc sądzę, że nie powinniśmy zbytnio się tym przejmować - mówi Leifer. « powrót do artykułu
  16. Poza Pakistanem i Afganistanem wirus polio został wyeliminowany, jednak tacy ludzie, jak opisany w ostatnim numerze PLoS Pathogens Brytyjczyk z chorobą immunologiczną, który przez 28 lat wydalał duże jego ilości z kałem, wydają się potencjalnym źródłem nowych epidemii. Istnieją dwa rodzaje szczepionek przeciwko polio. 1) OPV (od ang. oral polio vaccine), w której znajdują się żywe, atenuowane trzy serotypy wirusa oraz 2) IPV (od ang. inactivated polio vaccine), zawierająca nieaktywne cząsteczki wirusa typu 1., 2. i 3. IPV chroni przed porażenną postacią choroby, ale przez to, że zapewnia słabą odporność miejscową na poziomie jelit, może dojść do namnażania się wirusa w przewodzie pokarmowym osób zaszczepionych i jego krążenia w środowisku. Dla odmiany OPV, która wywołuje podobną odpowiedź immunologiczną jak dziki wirus polio, może prowadzić do wystąpienia porażennej postaci poliomyeltis (ang. Vaccine-Associated Paralytic Poliomyelitis, VAPP) i to zarówno u biorców szczepionki, jak i u osób z otoczenia. OPV stymuluje odporność lokalną nie tylko na poziomie jamy ustnej, ale i całego przewodu pokarmowego. Niestety, skutkiem OPV może również być pojawienie się zmutowanych szczepów wirusa polio ze szczepionki (ang. circulating vaccine-derived polioviruses, cVDPV). Ponieważ ponad 90% cVDPV ma związek z wirusem typu 2. szczepionki i wywołuje on do 38% poszczepionkowej porażennej postaci poliomyeltis, a dzikiego serotypu nie widziano od 1999 r., Światowa Organizacja Zdrowia chce w niedalekiej przyszłości zastąpić szczepionki 3-składnikowe 2-składnikowymi (zawierającymi tylko szczepy 1. i 3.). Po wyeliminowaniu wirusa szczepienia OPV mają być zaniechane, a IPV kontynuowane jeszcze przez jakiś czas. W ramach najnowszego studium zespół Javiera Martina z National Institute for Biological Standards and Control analizował ponad 100 próbek kału, zebranych w latach 1995-2015 od pewnego białego pacjenta. Mężczyzna przeszedł pełen cykl szczepień OPV w 5., 7. i 12. miesiącu życia, przyjął też dawkę przypominającą w wieku 7 lat. Później zdiagnozowano u niego niedobór odporności, co może wpływać na zdolność układu odpornościowego do zabijania wirusa w przewodzie pokarmowym. Naukowcy wykryli w kale duże ilości wirusa polio typu 2. Analiza RNA szczepów iVDPV (szczepów wirusa polio ze szczepionki pochodzących od osób z niedoborem odporności) wykazała, że różniły się one od atenuowanych wirusów ze szczepionki i że zaczęły się od nich oddzielać ok. 28 lat temu, czyli mniej więcej wtedy, gdy mężczyzna przyjął ostatnią dawkę OPV. We wszystkich szczepach iVDPV zaszła mutacja odwracająca odzjadliwianie, ponadto z czasem pojawiły się mutacje, które m.in. wpływały na antygenową budowę wirusów. Wszystkie badane próbki iVDPV były w stanie wywołać paraliż u transgenicznych myszy, u których występowały ludzkie receptory wirusa polio (CD155). Mimo zmian wykrytych w iVDPV, ludzka surowica szybko neutralizowała nawet najbardziej zmodyfikowany szczep, co wg autorów publikacji, sugeruje, że zaszczepieni ludzie są dobrze chronieni przed iVDPV. Dodają oni jednak, że testowana surowica pochodziła od zdrowych osób w wieku 28-65 lat, które przeszły pełny cykl 4 dawek OPV i co najmniej jedną dawkę IPV, a Wielka Brytania zarzuciła w 2004 r. OPV na rzecz IPV. Martin i inni postulują więc, że warto by zbadać surowicę i tej grupy osób. Uczeni podkreślają, że z 73 przypadków iVDPV, jakie opisano w latach 1962-2014 r., tylko 7 zakażeń utrzymywało się ponad 5 lat. Przypadek mężczyzny opisanego na łamach PLoS Pathogens to zatem rekord pod względem długości czasu wydalania wirusa przez takiego pacjenta. Mężczyzna to jedyny zidentyfikowany człowiek, który obecnie wydala wysoce wyewoluowane cVDPV. Przy tej okazji naukowcy przypominają jednak o kilku bardzo zmutowanych szczepach VDPF z typowymi cechami molekularnymi iVDPV, wykrytych w ściekach ze Słowacji, Finlandii, Estonii i Izraela. Akademicy podkreślają, że trzeba badać próbki ścieków i kału pod kątem obecności iVDPV. Należy też pracować nad terapią antywirusową hamującą namnażanie wirusa u osób z niedoborami odporności. « powrót do artykułu
  17. Ekspedycja zwiadowcza do Wielkiej Pacyficznej Plamy Śmieci, zwana Mega Expedition by Ocean Clean, zakończyła się sukcesem. Ustalono, że w 2020 roku rozpocznie się sprzątanie Plamy. Wielka Pacyficzna Plama Śmieci to olbrzymie składowisko śmieci utworzone przez prądy oceaniczne i dryfujące między Kalifornią a Hawajami. Kolosalna plama o trudnej do ustalenie wielkości zawiera miliony ton plastiku. Trafia on do sieci troficznej i masowo zabija zwierzęta. Szacuje się, że plastik, blokując przewód pokarmowy, zabija rocznie ponad milion ptaków i 100 000 ssaków. Zadaniem Mega Expedition było zbadanie ile plastiku znajduje się w Plamie. Dokładne analizy nie zostały jeszcze przeprowadzone, ale wstępne dane pokazują, że śmieci jest więcej, niż się spodziewano. Badałam plastik w oceanach na całym świecie, ale nigdy nie spotkałam tak zanieczyszczonego obszaru jak Wielka Pacyficzna Plama Śmieci - mówi doktor Julia Reisser, główny oceanograf organizacji The Ocean Cleanup. Organizacji, na czele której stoi 19-letni Boyan Slat, autor taniej i prostej techniki oczyszczania oceanu ze śmieci. W ubiegłym roku, o czym informowaliśmy niedawno, grupa 100 naukowców i inżynierów poddała pomysł Slata krytycznej ocenie. Eksperci twierdzą, że technologia działa. Mega Expedition została sfinansowana ze środków prywatnych. Wspomógł ją m.in. założyciel Salesforce Marc Benioff. Dzięki inicjatywie Ocean Cleanup i wsparciu sponsorów pojawiła się szansa na oczyszczenie oceanów. Wielka Pacyficzna Plama Śmieci nie jest bowiem jedynym tego typu tworem. « powrót do artykułu
  18. Gdy w lipcu bieżącego roku Facebook informował o swoich wynikach finansowych za II kwartał bieżącego roku, przedstawiciele firmy zdradzili, że średnio każdego dnia do serwisu loguje się 968 milionów osób. Wczoraj Mark Zuckerberg poinformował, że w ostatni poniedziałek Facebook osiągnął kolejny kamień milowy - po raz pierwszy w ciągu jednego dnia do serwisu zalogowało się miliard osób. Założyciel Facebooka nie zdradził dalszych szczegółów, nie powiedział też, dlaczego tyle osób zdecydowało się na skorzystanie z serwisu właśnie w ostatni poniedziałek. Niewykluczone, że do sukcesu przyczyniła się z jednej strony rosnąca liczba mobilnych użytkowników Facebooka, a z drugiej projekt Internet.org. To rozpoczęta przez Facebooka inicjatywa, której zadaniem jest zapewnienie dostępu do pewnych serwisów na rynkach, na których infrastruktura jest słabo rozwinięta. Obecnie jest on dostępny m.in. w Indiach, Kenii czy Kolumbii. « powrót do artykułu
  19. Samice myszy, które w łonie matki wystawiono na oddziaływanie niskich dawek arsenu z wody pitnej, wcześnie dojrzewają i jako dorosłe osobniki stają się otyłe. Naukowcy z amerykańskiego Narodowego Instytutu Zdrowia Publicznego (NIEHS) podkreślają, że wyniki są bardzo istotne, bo wykorzystane w studium stężenie 10 części na miliard (ppb) to, wg norm Agencji Ochrony Środowiska, najwyższy dopuszczalny poziom arsenu w wodzie pitnej. Amerykanie podzielili ciężarne myszy na 3 grupy. W wodzie grupy kontrolnej nie było w ogóle arsenu. Myszy z grup eksperymentalnych stykały się zaś ze stężeniami rzędu 10 ppb i 42,5 ppm (części na milion); o ostatnim ze stężeń wiadomo, że jest szkodliwe dla myszy. Ekspozycję zastosowano między 10. dniem po zapłodnieniu a porodem, co odpowiada okresowi między środkiem pierwszego trymestru i narodzinami u ludzi. Nieoczekiwanie stwierdziliśmy, że wystawienie na oddziaływanie arsenu przed narodzinami ma głęboki wpływ na początek pokwitania i otyłość na późniejszych etapach życia. Choć ekspozycja miała miejsce w okresie prenatalnym, skutki utrzymywały się też w dorosłości - podkreśla dr Humphrey Yao. Choć w ramach studium nie sprawdzano, czy samce również przechodziły wcześniejsze dojrzewanie, naukowcy potwierdzają, że samce stykające się z arsenem in utero także tyły, gdy stawały się coraz starsze. Przyrostem wagi skutkowały zarówno niskie, jak i wysokie stężenie arsenu. Jak dodaje dr Karina Rodriguez, eksperyment z 3 grupami (kontrolną i 2 eksperymentalnymi) powtarzano na 3 próbach myszy i za każdym razem uzyskiwano te same rezultaty. Na razie naukowcy nie wiedzą, jaki proces odpowiada za zaobserwowane zjawiska. Dr Linda Bornbaum, dyrektor Narodowego Programu Toksykologicznego, uważa, że powinno się kontynuować badania z obiema dawkami. « powrót do artykułu
  20. Naukowcy z Los Alamos National Laboratory (LANL) i Uniwersytetu Milano-Biocca przez 16 miesięcy udoskonalali technologię, która pozwoliła im w końcu zmienić okna w ogniwa fotowoltaiczne. Wykorzystano przy tym kropki kwantowe, które wykonano z nietoksycznych materiałów, a okno pozostało przezroczyste tak, jak powinno być okno. W naszym urządzenie niewielka część światła docierającego do okna jest absorbowana przez nanocząstki umieszczone w szkle, następnie energia ta jest emitowana w postaci podczerwieni i, wykorzystując szkło w roli falowodu, wędruje do ogniw fotowoltaicznych umieszczonych na krawędziach - powiedział Victor Klimov, główny badacz z LANL. Efektywność konwersji energii nowego rozwiązania wynosi około 3,2%. To dobry wynik zważywszy na fakt, że najbardziej wydajne ogniwa słoneczne bazujące na kwantowych kropkach charakteryzuje efektywność rzędu 9%. Co ważne, nowe kwantowe kropki są bezpieczne. Nasze urządzenia korzystają z kwantowych kropek złożonych głównie z miedzi, indu, selenu i siarki. Nie zawierają one żadnych toksycznych metali, które są obecne w podobnych systemach - mów Klimov. Uczony zapewnia też, że, jako iż kropki pochłaniają światło z całego zakresu długości fali, oświetlenie pomieszczenia za oknem nie jest w żaden sposób zaburzone nienaturalną kolorystyką. Wynalazcy przyznają, że w najbliższym czasie ich system z pewnością nie trafi na rynek, gdyż jest bardzo kosztowny. Wierzą jednak, że przetarli szlak, dzięki któremu w przyszłości będziemy pozyskiwali energię słoneczną z okien. « powrót do artykułu
  21. Mauna Kea wyrasta na 4205 metrów nad poziom morza, jest najwyższą górą na Hawajach, a licząc od jej znajdującej się pod powierzchnią oceanu podstawy, to również najwyższy szczyt na Ziemi liczących sobie ponad 10 000 metrów. Jest również świętym miejscem dla rdzennych mieszkańców Hawajów. Wierzą oni, że Mauna Kea został stworzony przez bogów, by dusze zmarłych miały którędy podróżować do nieba. Dla astronomów Mauna Kea to najlepsze na świecie miejsce do prowadzenia obserwacji wszechświata. Szczyt Muna Kea to prawdopodobnie najbardziej ciemne miejsce na świecie, co oznacza, że można z niego zajrzeć głębiej w kosmos" - mówi Doug Simons, dyrektor Canada France-Hawaii Telescope (CFHT), jednego z 13 teleskopów znajdujących się na górze. W kwietniu 2013 roku wydano zgodę na budowę kolejnego teleskopu na świętej górze. Tym razem ma to być największy na świecie Thirty Meter Telescope o średnicy lustra wynoszącej 30 metrów. Obecnie największymi są 10-metrowe bliźniacze Teleskopy Kecka. Budowa kolejnego teleskopu nie podoba się jednak rdzennym mieszkańcom. Gdy w kwietniu bieżącego roku rozpoczęto prace, Hawajczycy postanowili je zablokować. Doszło do protestów, przerywania pracy, wiele osób zostało aresztowanych. Tu nie chodzi o teleskop. To desakralizacja świętej góry, desakralizacja miejsc kultury i miejsc pochówku - mówi jeden z protestujących Kaho'okahi Kanuha. Rodzimi Hawajczycy sprzeciwiają się budowie kolejnych teleskopów od lat 60. ubiegłego wieku, kiedy to lokalny uniwersytet postanowił zamienić Mauna Kea w najważniejszy na świecie punkt obserwacji astronomicznych. Walka o TMT trwała przez 7 lat. W końcu wydano zgodę na budowę urządzenia, jednak jego przeciwnicy się nie poddają. Skoro rząd stanowy zezwolił na budowę, mieszkańcy wnieśli sprawę do sądu. Jeszcze w bieżącym miesiącu rozpocznie się rozprawa przez Sądem Najwyższym Hawajów. Na budowę TMT zgodzono się, pod warunkiem, że nie będzie miała ona "znaczącego i negatywnego" wpływu na naturalne i kulturowe dziedzictwo Hawajów. Protestujący uważają, że kolejny teleskop negatywnie wpłynie na środowisko naturalne oraz na ich praktyki religijne. Jesteśmy za postępem naukowym. Ale to, co dzieje się tutaj oznacza zniszczenie naszego świętego miejsca oraz wyjątkowego ekosystemu, jaki nie występuje nigdzie indziej - mówi Kealoha Pisciotta. Z kolei zwolennicy budowy na Mauna Kea stwierdzają, że prawa dotyczące ochrony przyrody nie zabraniają każdego rodzaju inwestycji, służą upewnieniu się, że teren będzie używany "właściwie" i tak się właśnie dzieje. Gubernator Hawajów David Ige, chcąc połączyć sprzeczne interesy, poprosił w maju University of Hawaii, który formalnie zarządza szczytem, by do czasu uruchomienia TMT 25% istniejących teleskopów zaprzestało pracy. Gubernator proponuje też, by na Mauna Kea nie budowano już więcej teleskopów. Operatorzy TMT będą również płacili stanowi milion dolarów rocznie. Obecnie używane teleskopy nie wnoszą opłat. Jednak przeciwników to nie zadowala. Zauważają, że TMT powstaje na nowym miejscu, a nie w miejsce któregoś z dotychczasowych urządzeń. Protestujący mają też pretensje do gubernatora, który w lipcu wydał zakaz obozowania na wulkanie. Polityk twierdzi, że uczynił to ze względów bezpieczeństwa. Zdaniem protestujących jest to pretekst, by ich uciszyć. « powrót do artykułu
  22. Kosmetyki zawierają duże ilości mikrodrobin tworzyw sztucznych. Mają one tak małą średnicę, że nie są najprawdopodobniej wychwytywane przez oczyszczalnie ścieków i trafiają do rzek, mórz i oceanów. Martwi to biologów, którzy zwracają uwagę na szkodliwość tego zjawiska dla mieszkańców wód. Jak wyjaśnia zespół Imogen Napper, doktorantki z Uniwersytetu w Plymouth, mikrocząstki pełnią funkcję czynników ścierających i substancji wypełniających. Autorzy raportu z pisma Marine Pollution Bulletin szacują, że sama tylko Wielka Brytania wprowadza rocznie z kosmetyków do morza aż 80 ton mikroplastiku. W miarę postępów studium byłam zszokowana, widząc, jaka ilość mikrogranulek tworzyw sztucznych występuje w kosmetykach codziennego użytku. Obecnie na rynku brytyjskim mamy 80 peelingów do twarzy z polimerami, jednak pewne firmy wyraziły wolę stopniowego wycofania ich ze swoich produktów. W międzyczasie konsument może niewiele zrobić, by zapobiec tego typu skażeniu. Mikrocząstki polimerów (najczęściej polietylenu) zastąpiły naturalne odpowiedniki, np. mielone łupiny orzechów i kryształki soli, w kosmetykach do złuszczania martwego naskórka. Znajdują się też w mydłach, paście do zębów, piance do golenia czy szamponach. Naukowcy biją na alarm, że ilość plastikowych odpadów w wodach morskich rośnie. Ok. 700 gatunków organizmów morskich styka się w środowisku naturalnym z odpadami, przy czym śmiecie polimerowe odpowiadają za ponad 90% takich spotkań. Do eksperymentu Brytyjczycy wybrali marki peelingów do twarzy, w których składzie wymieniano polimery. Preparaty poddawano filtracji próżniowej, uzyskując w ten sposób mikrogranulki. Badanie pod mikroskopem elektronowym wykazało, że w 150 ml produktu znajduje się od 137 tys. do 2,8 mln mikrodrobinek. Oznacza to, że podczas jednej aplikacji kosmetyku może się uwolnić niemal 100 tys. mikrogranulek. Istnieją uzasadnione obawy co do kumulowania mikroplastiku w środowisku. Nasze wcześniejsze badania wykazały, że mikroplastik może być zjadany przez ryby i skorupiaki. Dysponujemy też dowodami ze studiów laboratoryjnych, świadczącymi o jego negatywnym wpływie na organizmy morskie - podsumowuje prof. Richard Thompson. « powrót do artykułu
  23. Erozja kojarzy się z dość powolnym procesem, jednak nie zawsze tak musi być. We wrześniu 2013 roku nad łańcuchem górskim Front Range w Kolorado przeszła burza, która spowodowała wielkie powodzie. Teraz naukowcy z University of Colorado w Boulder zauważyli, że powodzie te błyskawicznie doprowadziły do erozji materiału, który gromadził się nawet przez ostatnie 1000 lat. Naukowcy stwierdzili na łamach pisma Geology, iż tzw. burze stulecia mogą gwałtownie przyspieszać erozję. W Kanionie Boulder podobnych obszarach większość materiału osadowego przemieszcza się w dół właśnie podczas takich rzadkich, ograniczonych terytorialnie wydarzeń. Burza z 2013 roku dała nam wyjątkową okazję do obserwowania przemieszczania się osadów - powiedziała Susanne Anderson z Institute for Alpine and Arctic Research. Długoterminowa erozja na tych obszarach wynosi około 0,2 cala na sto lat, czyli rocznie mniej niż grubość ludzkiego włosa. Wielka burza poruszyła tyle osadów, że mogliśmy dokonać bezpośrednich pomiarów, mówi Anderson. Podczas burzy w ciągu 5 dni spadło 178-452 milimetrów deszczu. Takie opady zwykle notuje się w ciągu całego roku. Gwałtowny przybór wody spowodował ponad 1100 osunięć ziemi i powódź na każdej okolicznej rzece. Naukowcy przeanalizowali 120 osunięć różniej wielkości, od małych, gdy przemieściło się zaledwie 10 metrów sześciennych materiału, po duże z przemieszczeniem 21 000 metrów sześciennych. Prędkość przemieszczania dochodziła do 10 metrów na sekundę. To bardzo destrukcyjne zjawisko, gdyż zdarza się nagle i nie można go przewidzieć, stwierdzają naukowcy. Z pomiarów berylu-10, izotopu powstającego wskutek interakcji promieniowania kosmicznego z kwarcem, wiemy, jakie jest normalne tempo erozji. Teraz też wiemy, że tak gwałtowne zjawiska, jak opisywane powyżej, zdarzają się bardzo rzadko, dodaje Anderson. « powrót do artykułu
  24. Jeśli pewne grupy bakterii mikrobiomu jelit zaczynają się nagle namnażać, uszkadzają tkankę przewodu pokarmowego i powodują stan zapalny. Naukowcy z Uniwersytetu w Zurychu odkryli, że w przypadku pałeczek okrężnicy (Escherichia coli) przyczyną jest zwiększenie dostępności cukru - kwasu sialowego. W normalnym stanie E. coli stanowią ok. 0,1% mikroflory jelit. Gdy jest ich dużo, wywołują biegunkę i poważny stan zapalny. Szwajcarzy ustalili, że "nadprodukcja" pałeczek okrężnicy jest wynikiem pojawienia się większych ilości kwasu sialowego. Cukier ten wchodzi w skład glikoprotein komórek nabłonka. By zyskać do niego dostęp, E. coli muszą jednak korzystać z pomocy innych bakterii. Prof. Thierry Hennet z Instytutu Fizjologii wyjaśnia, że do stanu zapalnego wywoływanego przez E. coli prowadzi cały ciąg zdarzeń. Najpierw uszkodzenie błony śluzowej jelit powoduje zwiększone namnażanie nieszkodliwych bakterii, które wytwarzają sialidazę (enzym niewytwarzany przez E. coli, który jest potrzebny do rozłożenia kwasu sialowego). W takich warunkach pałeczki świetnie się namnażają. Uczeni stwierdzili, że przyjmowanie inhibotorów sialidazy zapobiega namnażaniu pałeczek okrężnicy i usuwa objawy choroby. Co ciekawe, inhibitory sialidazy wykorzystano już do walki z wirusami grypy. Pochodne znanych leków przeciwgrypowych, takich jak Tamiflu [oseltamiwir] czy Relenza [zanamiwir], można zatem zastosować w przypadku zapalnych chorób jelitowych [...]. « powrót do artykułu
  25. Pierwszymi autonomicznymi pojazdami, jakie trafią na amerykańskie autostrady nie będą pojazdy Google'a czy Delphi, a samochody ciężarowe. Pod koniec bieżącego roku na drogach Florydy pojawią się specjalnie przystosowane ciężarówki. Pojazdy zostaną wyposązone w specjalne pochłaniacze energii przodu i z tyłu, światła i systemy GPS. Pojazdy będą w stanie podążać za pierwszym samochodem kierowanym przez człowieka, naśladując jego manewry i prędkość. Pojazdy będą wykorzystywane podczas robót drogowych, a ich specjalne oznakowanie będzie ostrzegało innych kierowców o prowadzonych pracach. Robotnicy pracujący przy drogach są narażeni na szczególne niebezpieczeństwo. Dlatego też w USA zabezpieczają ich samochody ciężarowe z pochłaniaczami energii. Nieuważny kierowca wpadnie na taki samochód, a nie na robotników. System się sprawdził i wiadomo, że ratuje życie pracujących. Jednak na duże ryzyko są narażeni kierowcy takich ciężarówek. "Jeśli będziemy mogli pozbyć się kierowcy, będzie to olbrzymi sukces" - mówi Robert Roy z firmy Royal Truck & Equipment, która produkuje autonomiczne ciężarówki. W USA ciężarówki zabezpieczające roboty drogowe są stosowane od 30 lat. Najnowsze badania opublikowane w Journal of the Transportation Research Board wykazały, że dzięki nim liczba ofiar śmiertelnych spowodowanych najechaniem pojazdu od tyłu spadła o niemal 50%. "Autonomiczne samochody są postrzegane jako przyszłość transportu, a ta technologia może być pierwszą skomercjalizowaną" - stwierdził Gerald Ullman z Texas A&M University. Wspomniane ciężarówki, z których 2 zadebiutują wkrótce na autostradach Florydy, są rozwijane we współpracy z firmą Micro Systems, która produkuje bezzałogowe pojazdy na potrzeby wojska. « powrót do artykułu
×
×
  • Dodaj nową pozycję...