Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37605
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    246

Zawartość dodana przez KopalniaWiedzy.pl

  1. Najnowsze badania przeprowadzone przez NASA oraz ponowne zbadanie próbek z misji Apollo dowodzą, że woda na Ziemi i na Księżycu pochodzi z tego samego źródła. To z kolei oznacza, że satelita naszej planety nie rozpoczął swej historii jako ciało zupełnie pozbawione wody. Według obecnie obowiązujących teorii Księżyc powstał około 4,5 miliarda lat temu. Uformował się ze szczątków, jakie pojaiwły się po uderzeniu w Ziemię olbrzymiego obiektu. Naukowcy od dawna sądzili, że uderzenie wygenerowało tyle ciepła, że wszelkie lżejsze pierwiastki, takie jak wodór, odparowały, a to oznacza, iż Księżyc rozpoczął swoje istnienie jako całkowicie suche miejsce. Teoria ta, jak się okazuje, jest błędna. Woda na Księżycu istniała od zawsze. Najprostsze wyjaśnienie naszego odkrycia jest takie, że na proto-Ziemi woda istniała już w momencie potężnego uderzenia. Część z tej wody przetrwała uderzenie i odkryliśmy ją na Księżycu - mówi Alberto Saal, profesor geologii z Brown University. Naukowcy zbadali inkluzje obecne w próbkach zebranych podczas misji Apollo. Okazało się, że w tych niewielkich kropelkach wulkanicznego szkła uwięzionego w oliwinie znajduje się olbrzymia ilość wody. Postanowiono więc odkryć jej pochodzenie. W tym celu Saal i jego zespół zbadali skład izotopowy wodoru. Chcieli dowiedzieć się jaki jest stosunek deuteru do zwykłego wodoru. Molekuły wody pochodzące z różnych części Układu Słonecznego różnią się ilością deuteru. Ogólnie rzecz biorąc, im bliżej Słońca tym mniej deuteru w molekułach. Badania wykazały, że stosunek deuteru do wodoru w księżycowej wodzie jest niski i odpowiada wartościom z chondrytów węglistych z pasa asteroidów w pobliżu Jowisza. Źródłem wody na Księzycu są zatem prymitywne meteoryty, a nie, jak dotychczas sądzono, komety. Te bowiem pochodzą z odległej od Słońca Chmury Oorta. Tego typu pomiary są bardzo trudne, ale nowe dane to najlepszy dowód na to, że chondryty węgliste to źródło ulotnej materii obecnej na Ziemi, Księżycu i prawdopodobnie na innych ciałach wewnętrzej części Układu Słonecznego - mówią uczeni. Ostatnie badania wskazują, że 98% ziemskiej wody również pochodzi z prymitywnych meteorytów. Źródło wody na Ziemi i na Księżycu jest zatem to samo. A najprostszym wyjaśnieniem istnienia wody na Księżycu jest stwierdzenie, że pochodzi ona z Ziemi i istniała już w czasie formowania się satelity naszej planety. Jeśli naukowcy mają rację, to należy teraz odpowiedzieć na pytanie, jak woda mogła przetrwać potężną kolizję, która doprowadziła do powstania Księżyca.
  2. Choć odtwarzacze DVD zostały wyparte przez media strumieniowe i pamięci USB, nadal można spożytkować ich tanie napędy optyczne. Aman Russom ze Szkoły Biotechnologii Królewskiego Instytutu Technologii w Sztokholmie wykazał bowiem, że przydają się podczas wykrywania zakażenia wirusem HIV czy badania DNA. Pochodzący z Erytrei Russom zademonstrował, że gdy wykorzysta się półprzezroczystą płytę, a komercyjny czytnik dostosuje do wykrywania światła przechodzącego przez nośnik, uzyskuje się laserowy mikroskop skaningowy (DVD LSM, od ang. DVD Laser Scanning Microscope). Za jego pomocą da się zbadać wprowadzoną do rowków krew i zobrazować komórki z rozdzielczością 1 mikrometra. Dysponując zwykłym odtwarzaczem DVD, stworzyliśmy tanie narzędzie analityczne do badania DNA, RNA, białek, a nawet całych komórek. Dzięki technologii Lab-on-DVD wyniki testu na obecność wirusa HIV są dostępne już po kilku minutach. Dowodząc, że jego prototyp działa, Russom zobrazował limfocyty CD4 dodatnie (CD4+). Standardowo w ramach testów na HIV zlicza się je za pomocą cytometrii przepływowej, ale koszt takiego aparatu (bez uwzględnienia kosztów eksploatacyjnych) to ok. 30 tys. USD, podczas gdy odtwarzacz można kupić za mniej niż 200 dol. Dodatkowo cytometry są masywne i skomplikowane, a by obsłużyć lekkie Lab-on-DVD, nie trzeba przechodzić intensywnego szkolenia. Ponieważ pacjent od razu dostaje wyniki, nie musi odbywać kolejnych podróży do ośrodka zdrowia. Wg Russoma, dla mieszkańców krajów rozwijających się to prawdziwa rewolucja. W pierwszym roku chcemy popracować nad wydajnością technologii, a w drugim przetestować ją na próbce klinicznej. Ważnym etapem będzie walidacja oraz porównanie z istniejącymi badaniami laboratoryjnymi.
  3. Pentagon poinformował o dopuszczeniu trzech telefonów i tabletu do łączenia się ze swoją siecią zewnętrzną. Wymogi bezpieczeństwa spełniły Enterprise Service 10 na urządzeniach BlackBerry Z10 i Q10 oraz tablety PlayBook. Dopuszczono też platformę Knox uruchomioną na Galaxy S4. Knox bazuje na Androidzie. Dotychczas Pentagon, ze względów bezpieczeństwa, nie zezwalał na podłączanie urządzeń z Androidem do swojego intranetu. Obwieszczenie Defense Information Systems Agency oznacza, że producenci wymienionych urządzeń będą mogli sprzedawać je Departamentowi Obrony. Obecnie pracownicy Pentagonu używają 470 000 urządzeń BlackBerry, 41 000 Apple'a i 8700 urządzeń na Androidzie. Jeszcze w bieżącym miesiącu spodziewane jest ogłoszenie, czy do sieci Pentagonu będzie można podłączać urządzenia z iOS-em 6.
  4. Dokładne pomiary wykazały, że meksykański monolit Peña de Bernal mierzy 433 m (dla porównania: Głowa Cukru ma 396, a Skała Gibraltarska 426 m). Zespół z Narodowego Uniwersytetu Meksykańskiego podkreśla, że wcześniej przypuszczano, że wysokość supergłazu z okolic miasteczka San Sebastián Bernal mieści się w przedziale od 288 do 360 m. Błędy w oszacowaniach można wyjaśniać utrudnionym dostępem do szczytu. Na łamach pisma Geosphere Meksykanie wyjaśniają, że podczas narodzin Peña de Bernal jasny wulkaniczny dacyt utworzył kopułę (SiO2 stanowi 67% jej masy). Gdy materiał okrzepł, zaczęło się mozolne intrudowanie, polegające na rozpychaniu mezozoicznych morskich skał osadowych. Biorąc pod uwagę skład chemiczny skały, naukowcy stwierdzili, że powstała ona w strefie subdukcji. Choć wcześniej sądzono, że Peña de Bernal ma ponad 34 mln lat (jest skałą plutoniczną z eocenu), Meksykanie stwierdzili, że w rzeczywistości monolit powstał dużo później, bo ok. 8,7 mln lat temu.
  5. Wkrótce na amerykańskich drogach można będzie oglądać transport niezwykłego ładunku. Wielki elektromagnes o średnicy ponad 15 metrów będzie podróżował z Brookhaven National Laboratory w Nowym Jorku do Fermi National Accelerator Laboratory w Batavii w stanie Illinois. Obie miejscowości dzieli około 1450 kilometrów, jednak trasa jaką pokona urządzenie będzie miała długość około 5200 kilometrów. Magnes zostanie załadowany na specjalną barkę, która popłynie na południe, opłynie Florydę, dotrze do ujścia Mississippi i pożegluje na północ do Illinois.. Elektromagnes ze stali i aluminium, wewnątrz których znajdują się nadprzewodzące kable, będzie wykorzystywany podczas międzynarodowego eksperymentu Muon g-2. Będzie on sercem urządzenia do badania mionów. Elektromagnes został zbudowany w Brookhaven w latach 90. ubiegłego wieku. Przetransportowanie magnesu z Brookhaven do Illinois będzie kosztowało 10-krotnie mniej niż budowa nowego magnesu. Dlatego zdecydowaliśmy się na transport. Będzie to wymagało niezwykłego wysiłku, ale warto go podjąć - mówi Lee Roberts z Boston University, rzecznik prasowy Muon g-2. Większość potrzebnych urządzeń można rozmontować i przewieźć do Fermilab ciężarówkami, ale magnes musi być transportowany w całości. Co więcej, podczas transportu może odchylać się jedynie o kilka stopni od swojego położenia. Większe wahania grożą nieusuwalnymi uszkodzeniami nadprzewodzących kabli. Magnes opuści Nowy Jork na początku czerwca i dotrze do Illinois pod koniec lipca. Później zostanie załadowany na specjalnie zbudowaną ciężarówkę i pojedzie do Fermilab. Podróż lądowa, zarówno ta w Nowym Jorku jak i w Illinois będzie odbywała się nocą, by jak najmniej zakłócać ruch. Ciężarowka będzie poruszała się z prędkością nie większą niż 16 km/h. Na terenie Nowego Jorku transport potrwa jedną noc. W Illinois będą to dwie kolejne noce. W latach 90. w Brookhaven prowadzono eksperymenty z mionami. Uzyskano wówczas przybliżone wyniki dotyczące ich właściwości. Zdecydowano zatem o przeniesieniu urządzeń do Fermilab, gdyż można tam uzyskać bardziej intensywną i czystszą wiązkę mionów. Uczeni mają nadzieję, że dzięki temu zdobędą dokładne informacje na interesujący ich temat. Eksperyment Muon g-2 to ważna część przyszłych badań nad fizyką cząstek w USA - powiedział James Siegrist, odpowiedzialny w Departamencie Energii za fizykę wysokich energii. Muon g-2 ma rozpocząć pracę w 2016 roku.
  6. Komórki tłuszczowe z kolana wydzielają białko stanowiące ważny element procesu prowadzącego do zwyrodnienia stawów. Odkryliśmy, że tłuszcz ze stawu kolanowego wydziela białko zwane proczynnikiem D, które daje początek czynnikowi D, enzymowi biorącemu udział w alternatywnej drodze aktywacji dopełniacza - wyjaśnia dr Nirmal Banda z Uniwersytetu Kolorado w Denver. Bez czynnika D, myszy nie mogą zapaść na reumatoidalne zapalenie stawów. Banda, który od 14 lat zajmuje się zgłębianiem tajemnic reumatoidalnego zapalenia stawów, rozpoczął właśnie prace nad terapią genową, która wyeliminowałaby białko w określonych obszarach. Szukamy szczepionek, leków lub inhibitorów, które zahamowałyby u myszy lokalną sekrecję proczynnika D. Naszym celem będzie zastopowanie choroby na wczesnych etapach, tak by nie doszło do uszkodzenia stawów. Wcześniej Banda zauważył, że alternatywna droga aktywacji dopełniacza (systemu białek odpornościowych surowicy) zwiększa podatność myszy na reumatoidalne zapalenie stawów, a jak wcześniej wspominaliśmy, czynnik D jest jej częścią. Podczas ostatniego studium Amerykanin stwierdził, że wyeliminowanie czynnika D daje ten sam rezultat, co usunięcie całego systemu. To duże osiągnięcie, bo ocalona reszta może nadal zwalczać infekcje. Wiemy, że tłuszcz występuje wokół wszystkich narządów. Nie mieliśmy jednak pojęcia, że wydziela on białko, które de facto uruchamia zapalenie stawu. Banda podkreśla, że komórki tłuszczowe wykonują krecią robotę nie tylko w kolanie, ale i we wszystkich innych stawach. Oznacza to, że gdy uda się opracować nową metodę terapii, wyleczy ona stan zapalny w stawach całego ciała.
  7. Spożywanie od jednej do trzech lampek szampana tygodniowo chroni przed związaną ze starzeniem się utratą pamięci oraz spowalnia rozwój wielu chorób neurodegeneracyjnych, takich jak np. demencja. Naukowcy z University of Reading dowiedli, że obecne w szampanie związki fenolu poprawiają pamięć przestrzenną. Ten rodzaj pamięci odpowiedzialny jest za rozpoznawanie otoczenia i przechowywanie danych potrzebnych do poruszania się w nim. Wspomniane związki wpływają na przepływ sygnałów w hipokampie i korze, częściach mózgu odpowiedzialnych za pamięć i uczenie się. Okazało się, że zmieniają one w mózgu wiele protein związanych z przechowywaniem wspomnieć. Wiele z tych protein tracimy z wiekiem, co wiąże się z utratą pamięci. Szampan spowalnia utratę białek, zapobiegając zarówno typowym, jak i nietypowym rodzajom utraty pamięci powiązanym z wiekiem. Szampan zawiera sporo związków fenolu, które pochodzą ze szczepów Pinot Noir, Pinot Meunier oraz Chardonnay. To te związki chronią nasze mózgi. Uzyskane przez nas wyniki po raz pierwszy dowodzą, że umiarkowane spożywanie szampana wpływa na funcje poznawcze, takie jak pamięć. Wcześniej tego typu efekty obserwowano podczas spożywania czerwonego wina i zawartych w nim flawonoidów. Nasze badania wykazały, że również i szampan, który nie zawiera flawonoidów, ma podobne działanie dzięki związkom fenolu, o których dotychczas sądzono, że są biologicznie nieaktywne - mówi profesor Jeremy Spencer. Doktor David Vauzour zapowiada, że w najbliższym czasie zostaną przeprowadzone badania na ochotnikach. Pozytywne wyniki uzyskano już w przypadku innych pokarmów bogatych w polifenole, takich jak kakao czy jagody,. Spodziewamy się, że otrzymamy je też podczas eksperymentów z umiarkowanymi dawkami szampana. Wcześniej zespół z Reading wykazał, że dwa kieliszki szampana dziennie mogą poprawiać funkcjonowanie serca i układu krążenia.
  8. Wydaje się, że przez obecność nikotyny, jedzenie owoców roślin z rodziny psiankowatych (Solanaceae), np. pomidorów, bakłażanów czy papryki, może zmniejszyć ryzyko zapadnięcia na chorobę Parkinsona. Wcześniejsze badania sugerowały, że palenie papierosów oraz innych postaci tytoniu, który także należy do rodziny Solanaceae, zmniejsza ryzyko zachorowania na parkinsonizm. Naukowcy nie rozstrzygnęli jednak, czy zabezpieczający efekt jest skutkiem działania nikotyny, czy innego związku. Nie potrafili również stwierdzić, czy parkinsonicy są mniej skłonni korzystać z tytoniu wskutek zmian w mózgu, pojawiających na wczesnych etapach patogenezy. Zespół dr Susan Searles Nielsen z Uniwersytetu Waszyngtońskiego w Seattle dotarł 490 ludzi, u których niedawno zdiagnozowano chorobę Parkinsona. Z 644 niespokrewnionych zdrowych osób utworzono grupę kontrolną. Amerykanie posłużyli się kwestionariuszami do oceny diety z całego życia badanych oraz wykorzystania tytoniu (definiowano je jako wypalenie ponad 100 papierosów albo regularne sięganie po cygara, fajkę lub tytoń bezdymny). Okazało się, że spożycie warzyw jako takie nie oddziaływało na ryzyko parkinsonizmu, ale konsumpcja psiankowatych już tak (im więcej Solanaceae w diecie, tym mniejsze prawdopodobieństwo zachorowania; w przypadku papryki związek był najsilniejszy). Ochronny efekt występował głównie u kobiet i mężczyzn, którzy wcześniej prawie lub w ogóle nie stosowali tytoniu.
  9. Przed kilkoma miesiącami z zapartym tchem mogliśmy śledzić animację przedstawiającą lądowanie łazika Curiosity na Marsie. Jednak ten niezwykły wyczyn to dziecinna igraszka w porównaniu z tym, czego trzeba dokonać jeśli pewnego dnia człowiek ma chodzić po Marsie - stwierdził Robert Braun, były inżynier NASA, a obecnie pracownik Georgia Institute of Technology. Braun i inni eksperci brali udział w trzydniowej konferencji, na której omawiano perspektywy eksploracji Czerwonej Planety. Curiosity waży około tony. Porównywano go do małego samochodu. Teraz rozmawiamy o lądowaniu dwupiętrowego domu, a niewykluczone, że o lądowaniu dwupiętrowego domu obok innego dwupiętrowego domu - mówi Braun. Specjaliści oceniają, że najpierw na Marsie będzie musiała wylądować kapsuła z zaopatrzeniem. Jej wagę oszacowano na około 40 ton. Dopiero później na planetę trafi kapsuła z astronautami. Do wykonania takiej misji potrzebny będzie pojazd na tyle potężny, że nie tylko bezpiecznie posadowi obie kapsuły, ale jedną z nich zabierze z powrotem na Ziemię. Pojazd, który zawiezie astronautów na Marsa prawdopodobnie nie będzie lądował, pozostanie na orbicie planety. Pierwsze urządzenia, które NASA wysłała na Marsa były na tyle lekkie, iż wylądowały dzięki spadochronom i balonom. Curiosity był znacznie cięższy, dlatego do jego lądowania wykorzystano skomplikowane urządzenia, takie jak dźwig. Jednak żadna z tych metod nie sprawdzi się w tym przypadku. Konieczne są bardzo złożone badania nad bezpiecznym posadowieniem ciężkiego ładunku na powierzchni planety. Trzeba pamiętać, że ciśnienie atmosferyczne na Marsie jest znacznie niższe niż na Ziemi. Na wysokości 10 000 metrów nad Marsem panuje takie ciśnienie jak na wysokości 40 000 metrów nad Ziemią. To oznacza, że olbrzymim wyzwaniem jest już samo spowolnienie szybko poruszającego się pojazdu. To wyzwanie, z jakim jeszcze nie mieliśmy do czynienia i nie wiemy, jak sobie z nim poradzić - przyznaje Braun. Większym optymistą jest Adam Stelzner, jeden z konstruktorów dźwigu, który posadowił Curiosity na Czerwonej Planecie. Przypomina on, że opracowanie dźwigu nie wymagało wynalezienia nowych urządzeń czy technologii. Trzeba było nieco więcej kreatywnego myślenia o sposobie wykorzystania materiałów, jakimi dysponujemy. Stelzner przypomina też, że jeszcze na osiem lat przed wystrzeleniem Curiosity NASA nie miała pomysłu na to, jak łazik będzie lądował. Jego zdaniem podróż na Marsa będzie wymagała międzynarodowej współpracy, opracowania pojazdu wielkości podobnej do wahadłowców, a misja będzie o rząd wielkości bardziej skomplikowana od tego, co obecnie jest robione podczas eksploracji kosmosu.
  10. Europejczycy są ze sobą bliżej spokrewnieni niż dotychczas sądzono. Badania przeprowadzone na 2257 osobach z 40 różnych populacji wykazały, że dwóch dowolnych Europejczyków ma z dużym prawdopodobieństwem wielu wspólnych przodków, którzy żyli około 1000 lat temu. Peter Ralph z University of Southern California i Graham Coop z University of California, Davis zsekwencjonowali całe genomy badanych, by w ten sposób przyjrzeć się ich przodkom. Z ich badań wynika, że większość osób należących do tej samej populacji ma wspólnych przodków, którzy żyli około 500 lat temu. Jednak im bardziej cofniemy się w czasie, tym więcej znajdziemy wspólnych przodków pomiędzy przedstawicielami odległych populacji. Naukowcy znaleźli też genetyczne ślady ważnych wydarzeń historycznych, takich jak np. migracja Hunów do Europy Wschodniej. Wielu mieszkańców tej części Starego Kontynentu ma wspólnych przodków, którzy żyli 1500 lat temu. Natomiast np. wspólni przodkowie współczesnych Włochów i innych mieszkańców Europy pojawiają się głównie 2000 lat temu. Prawdopodobnie ma to związek z geograficzną izolacją Półwyspu Apenińskiego. Genetyczne poszukiwania przodków mogą odpowiedzieć na wiele pytań. Dzięki nim naukowcy mogą np. dowiedzieć się, jak wyglądały migracje ludności, a co za tym idzie, jak rodziły się i rozprzestrzeniały języki, jak dochodziło do wymiany kulturowej. Nie będziemy musieli polegać tylko na świadectwach pisanych czy pracach archeologów.
  11. Wg inżynierów z firmy Contactually, w porównaniu do bardziej zadowolonych respondentów, nieszczęśliwi ludzie szybciej odpisują na maile. Amerykanie przeanalizowali 100 mln rozmów emailowych. Sporządziwszy listy sugerujących nastawienie słów-kluczy, przystąpiono do określania proporcji wyrazów o pozytywnym i negatywnym znaczeniu. Okazało się, że w ciągu 24 godz. na maile odpowiadało 64% nieszczęśliwych badanych i zaledwie 47% nastawionych pozytywnie. Jeff Carbonella, dyrektor ds. technologii w Contactually, podkreśla, że nie wiadomo, czemu optymiści wolniej wywiązują się ze swoich emailowych obowiązków. Niewykluczone, że osoby z negatywnym nastawieniem są generalnie bardziej aktywne internetowo. To w pewnym sensie wyjaśniałoby trolling. Zaobserwowanego zjawiska nie da się wyjaśnić lakonicznością, a zatem łatwością udzielania negatywnych odpowiedzi, bo tytuły maili nieszczęśliwców składały się średnio z 23, a zadowolonych jednostek z 25 znaków. Wszystko wskazuje więc na to, że wyrażając emocje o znaku ujemnym, ludzie się raczej nie ograniczali.
  12. W toku ewolucyjnego wyścigu z nietoperzami ćmy posiadły niezwykle czuły słuch, który pozwala im wykryć polującego drapieżnika. Nietoperze nie pozostały jednak w tyle. Wiele z nich wydaje dźwięki wykraczające poza zakres tego, co mogą usłyszeć ich potencjalne ofiary. Uczeni odkryli jednak, że istnieje ćma, której nie pokona żaden nietoperz. Barciak większy (Galleria mellonella) odbiera dźwięki o częstotliwości do 300 kHz. To więcej niż jakiekolwiek inne zwierzę. Żaden nietoperz nie potrafi wydać pisku o wyższej częstotliwości. Niezwykły słuch barciaka odkrył inżynier akustyki James Windmill z University of Strathclyde we współpracy z Hannah Moir, bioakustykiem z University of Leeds. Narząd słuchu barciaka jest niezwykle prosty. Składa się z błon, które połączone są z czterema komórkami receptorowymi. Windmill i Moir odtwarzali dźwięki unieruchomionej ćmie. Za pomocą lasera badali drgania błon słuchowych, a elektrody mierzyły aktywność nerwów słuchowych zwierzęcia. Okazało się, że słuch ćmy najlepiej działa przy częstotliwości 80 kHz. Takiej częstotliwości są dźwięki godowe zwierzęcia. Jednak nawet przy 300 kHz, a była to najwyższa częstotliwość jaką testowano, błony drżały, a nerwy słuchowe przesyłały sygnały. Dotychczasowy rekord czułości słuchu należał do północnoamerykańskiej brudnicy nieparki, która słyszy do 150 kHz. Jednak niektóre nietoperze potrafią wydawać dzwięki o częstotliwości 212 kHz. Barciak większy radzi sobie i z takim wyzwaniem. Naukowcy zauważają, że odkrycie zdolności barciaka oznacza, iż jeszcze raz trzeba powtórzyć badania nad wieloma owadami. Wiadomo, że mają one doskonały słuch, ale zwykle testuje się go do częstotliwości 150 kHz. Niewielu naukowców dysponuje sprzętem pozwalającym na emitowanie dźwięków o wyższej częstotliwości.
  13. Grupa studentów z Królewskiego College'u Sztuki w Londynie opracowała maski Eidos, które wzmacniają słuch bądź wzrok. Eidos Vision usprawnia postrzeganie ruchu, a Eidos Audio umożliwia wybiórcze słyszenie mowy. Odkryliśmy, że choć zwykle odbieramy świat w postaci wielu nakładających się sygnałów, możemy wykorzystać technologię, by wyizolować i wzmocnić wybrane bodźce - tłumaczą Tim Bouckley, Millie Clive-Smith, Mi Eun Kim i Yuta Sugawara. Eido Audio przykrywa obszar ust i uszu. Mikrofon kierunkowy wyłapuje dźwięki, które są następnie komputerowo oczyszczane i przekazywane odbiorcy za pomocą słuchawek i trzymanej przy podniebieniu płytki. Dzięki wibracjom kości ustnik transmituje sygnał bezpośrednio do ucha wewnętrznego. To jedyne w swoim rodzaju wrażenie, jakby ktoś mówił do nas z wnętrza głowy. W drugiej z masek oprogramowanie przetwarza dane z wbudowanej kamery. "Zinterpretowany" obraz jest wyświetlany niemal w czasie rzeczywistym i przypomina fotografie z długim czasem ekspozycji. Z takim sprzętem użytkownik dostrzega nowe (dla siebie) wzorce ruchu. Brytyjczycy mają nadzieję, że Eidos Vision przyda się sportowcom pracującym nad ulepszeniem techniki, a Eidos Audio sprawdzi się jako "proteza" zmysłów przytępionych przez starzenie lub procesy chorobowe. Będąc artystami, studenci pomyśleli też o wzbogaceniu doświadczeń podczas oglądania przedstawień baletowych, pokazów mody czy koncertów.
  14. Ostatniej zimy w USA zginęła co trzecia komercyjna kolonia pszczół. Zbliżamy się do punktu, w którym nie będzie wystarczająco dużo pszczół, by zaspokoić potrzeby dotyczące zapylania - mówi Dennis van Engelstorp, entomolog z University of Maryland. Raport na temat dramatycznego spadku liczby pszczół przygotowało konsorcjum złożone z naukowców akademickich, naukowców z Departamentu Rolnictwa oraz hodowców. Pomiędzy końcem 2012 a początkiem 2013 roku hodowcy utracili 31% rodzin. Akceptowalny, naturalny odsetek ginących kolonii wynosi 15%. Wspomniane konsorcjum prowadzi od 2006 roku ogólnokrajowy monitoring pszczelich kolonii. Gdy zaczęto prowadzić badania liczba traconych rodzin wynosiła 31%, by w latach 2007-2008 wzrosnąć do 36%. Później spadła i w latach 2009-2010 ponownie wzrosła do 34%. Przez ostatnie dwa sezony notowano spadek liczby utraconych pszczół. W latach 2011-2012 stracono 22% kolonii. Niestety, nadzieje szybko się rozwiały i w ostatnim czasie doszło znowu do dramatycznego wzrostu. Sytuacja jest tak zła, że w Kalifornii ledwo wystarczyło pszczół do zapylenia upraw migdałów. Gdyby nie idealna pogoda utraconoby znaczną część zbiorów, gdyż owady nie zdołałyby ich zapylić. Van Engelstorp zauważa, że aż 30% żywności w USA pochodzi z upraw zapylanych przez pszczoły. Na zanikanie pszczelich rodzin składa się wiele przyczyn. Zidentyfikowano m.in. zjawisko zwane zaburzeniem upadku kolonii (CCD). Polegało ono na tym, że pszczoły masowo opuszczały ule i znikały. Zjawisko było powszechne w USA, nie udokumentowano go jednak na tak masową skalę w Europie, mimo że i na Starym Kontynencie doszło do znacznych strat w populacji pszczół. Najnowsze dane z USA wskazują jednak, że ostatni spadek populacji ma niewiele wspólnego z CCD. Teraz pszczoły po prostu umierają. Określenie przyczyn tego zjawiska jest trudne, gdyż przeprowadzenie szeroko zakrojonych eksperymentów w środowisku naturalnym jest niemal niemożliwe. Naukowcy w dużej mierze zgadzają się co do tego, że jedną z głównych przyczyn może być stosowanie pestycydów w rolnictwie. Szczególnie podejrzane są neonikotynoidy. To nowa klasa środków chemicznych, opracowanych w latach 90. ubiegłego wieku. Dopuszczono je do użytku mimo braku szeroko zakrojonych badań. Szybko stały się najchętniej wykorzystywanymi pestycydami na świecie. W ciągu kilku ostatnich lat pojawiło się coraz więcej dowodów na to, że neonikotynoidy są niezwykle toksyczne dla pszczół. Nawet w niewielkich dawkach powodują, że owady są bardziej podatne na choroby. W związku z tym Unia Europejska ograniczyła ostatnio ich użycie, a amerykańska Agencja Ochrony Środowiska ponownie rozważa, czy powinny być dozwolone. Wiele badań wykazało, że ta klasa pestycydów jest raczej szkodliwa dla pszczół. Jednak nie powinniśmy naiwnie uważać, że ich zakazanie rozwiąze problem - mówi pszczeli patolog Cedric Alaux, z Francuskiego Narodowego Instytutu Badań Rolniczych. Drugim równie ważnym zabójcą pszczół jest Varroa destructor. To pasożytujący na pszczołach pajęczak, zidentyfikowany w USA w 1987 roku. Wysysa on hemolimfę owadów, roznosząc przy tym wirusy oraz inne pasożyty. Pszczoły osłabione działaniem neonikotynoidów są znacznie bardziej podatne na różne infekcje. Bardzo prawdopodobne, że neonikotynoidy, używane w dawkach poniżej śmiertelnych, nie zabijają pszczół bezpośrednio. Jednak układ odpornościowy owadów, które miały styczność z tymi środkami, jest tak zmieniony, że nie radzi sobie z pasożytami i wirusami, które dotychczas nie stanowiły dlań więĸszego problemu. Takie połączenie niekorzystnych czynników jest dla pszczół zabójcze. Entomolog Christian Krupke z Purdue University porównuje warunki, w jakich żyją takie pszczoły do życia na obszarze, na którym występuje ekstremalnie duże natężenie smogu, przez co nasze ciało i system odpornościowy są tak nadwyrężone, iż zwykłe przeziębienie łatwo przeradza się w zapalenie płuc. Neonikotynoidy nie są jedynym niebezpiecznym pestycydem. Diana Cox-Foster z Pennsylvannia State University i van Engelstorp przeprowadzili badania, podczas których znaleźli w ulach 121 różnych pestycydów. Średnio w każdym z nich znajdowało się 6 pestycydów. Połączenie różnych środków chemicznych może wyrządzić więcej krzywd niż każdy z pestycydów z osobna. Obawiam się, że skupienie się na neonikotynoidach odwraca naszą uwagę od innych pestycydów, które mają znany niekorzystny wpływ, a wpływ ten może być nawet silniejszy. Na przykład środki grzybobójcze w ogóle nie są regulowane pod kątem ich wpływu na pszczoły. Sądzę, że konieczne są szerzej zakrojone badania - mówi van Engelstorp. Naukowcy zwracają też uwagę, że problemy, które dotykają pszczoły, mogą dotyczyć też innych zwierząt zapylających, takich jak bombusy czy motyle. O nich wiemy jednak jeszcze mniej.
  15. Cukrzyca typu 1. zwiększa ryzyko chorób serca, stymulując produkcję kalprotektyny. Peptyd ten wpływa na stężenie komórek układu odpornościowego, co skutkuje nasileniem procesu tworzenia blaszek miażdżycowych. Jak tłumaczy dr Ira J. Goldberg z Centrum Medycznego Columbia University, dotąd naukowcy wiedzieli o podwyższonym poziomie leukocytów u diabetyków, nie mieli jednak pojęcia, w jaki dokładnie sposób cukrzyca prowadzi do namnażania białych krwinek i choroby serca. Podczas badań na myszach z cukrzycą typu 1. wykazano, że wysoki poziom cukru stymuluje neutrofile do uwalniania kalprotektyny. Peptyd dociera do szpiku i łączy się z wieloligandowymi receptorami produktów zaawansowanej glikacji (RAGE) na powierzchni mieloidalnych komórek progenitorowych. Prowadzi to do namnażania komórek ukierunkowanych granulocytów i makrofagów. Skutkiem tego procesu jest pojawienie się kolejnych neutrofili oraz monocytów. Wszystkie te leukocyty trafiają do krwi, a później do blaszek miażdżycowych, napędzając ich rozwój. Amerykanie zauważyli, że normując poziom cukru we krwi gryzoni, można było osłabić wpływ szlaku i ograniczyć nasilenie procesu zapalnego. By potwierdzić, że odkrycia z badań na myszach mają jakieś odniesienie do ludzi, zespół przeanalizował dane 290 pacjentów z Pittsburskiego Studium Powikłań Cukrzycy (Epidemiology of Diabetes Complications Study, EDC). Okazało się, że liczebności leukocytów ogółem oraz subpopulacji neutrofili i monocytów miały wpływ na rozwój choroby wieńcowej (związek był istotny statystycznie). Ekipa Goldberga przyjrzała się też próbkom krwi podgrupy uczestników EDC. Dzięki temu stwierdzono, że w porównaniu do ochotników, u których nie rozwinęła się choroba wieńcowa, pacjenci z "wieńcówką" mieli wyższy poziom kalprotektyny.
  16. <p>Szef Nokii, Stephen Elop, potwierdził, że <strong>firma pozostanie przy systemie Windows Phone</strong>. <em>Na bieżąco dokonujemy korekt. Ale jest dla nas jasne, że w sytuacji dzisiejszej wojny ekosystemów dokonaliśmy jasnego wyboru i skupiliśmy się na Windows Phone oraz produktach z linii Lumia. Tym właśnie chcemy konkurować z takimi rywalami jak Samsung i Android</em> - powiedział Elop przed spotkaniem z udziałowcami.</p><p>Prezes jest krytykowany przez niektórych posiadaczy akcji Nokii. Sprzedaż Lumii jest minimalna w porównaniu ze sprzedażą urządzeń z Androidem. Na razie jednak nie słychać silniejszych głosów domagających się odejścia Elopa i zmiany strategii.</p><p>W najbliższym czasie Nokia rozpocznie sprzedaż nowych telefonów z linii Asha. Na rynek trafi też Lumia 928. To ulepszona wersja obecnego flagowego modelu - Lumii 920. O nowym telefonie niewiele wiadomo. Wydaje się, że Nokia położy szczególny nacisk na zastosowaną w nim technologię PureView, która umożliwa wykonywanie dobrej jakości zdjęć przy słabym oświetleniu. Telefon został wyposażony w soczewki Carla Zeissa oraz 8,7-megapikselową kamerę, a z nieoficjalnych pogłosek wynika, że ma mieć metalową obudowę i 4,5-calowy wyświetlacz.<p>
  17. Naukowcy z Uniwersytetu w Edynburgu odkryli, że wystawienie na oddziaływanie ultrafioletu obniża ciśnienie krwi. Zespół wyjaśnia, że promieniowanie UV wpływa na wydzielanie tlenku azotu, który wywołuje rozkurcz mięśniówki gładkiej naczyń. W eksperymencie wzięło udział 24 ochotników. Poproszono ich o spędzenie 20 min pod lampami do opalania. Podczas 1. sesji oddziaływały na nich zarówno promienie UV, jak i ciepło. W czasie 2. zablokowano ultrafiolet, dlatego skórę jedynie rozgrzewano. Okazało się, że po ekspozycji na promieniowanie UV ciśnienie spadło, a jego niższe wartości utrzymywały się nawet przez godzinę. Przy drugim scenariuszu ciśnienie także spadło, lecz później szybko wróciło do pierwotnej wartości. Testy laboratoryjne zademonstrowały, że komórki wystawione na oddziaływanie UV uwalniały NO. Szef zespołu dr Richard Weller podkreśla, że zanim zmienimy zalecenia dotyczące czasu przebywania na słońcu i zaczniemy zalecać nadciśnieniowcom opalanie, trzeba przeprowadzić dalsze badania. Obecnie planujemy przyjrzeć się relatywnym ryzykom chorób serca i nowotworów skóry przy różnych czasach ekspozycji słonecznej.
  18. Amerykański Departament Obrony otwarcie oskarżył Chiny o przeprowadzanie cyberataków na amerykańskie sieci. Zwykle oficjele unikają oskarżeń wprost, dotychczas ogólnie mówiono o chińskim zaangażowaniu w tego typu przedsięwzięcia. Teraz w 92-stronicowym raporcie [PDF] Pentagon stwierdził, że szybka modernizacja chińskiego przemysłu obronnego oraz przemysłu wysokich technologii jest napędzana dzięki atakom na sieci w USA i kradzieżom technologii. Zdaniem autorów raportu, największym zagrożeniem dla Stanów Zjednoczonych jest fakt, że dzięki kradzionym technologiom Chiny mogą tworzyć zaawansowane systemy bojowe, które znacząco zredukują amerykańską militarną przewagę technologiczną. Oskarżenia pod adresem Chin nie są niczym nowym. Prywatne firmy i specjaliści ds. bezpieczeństwa od dawna mówią, że Państwo Środka na szeroką skalę atakuje i szpieguje Amerykanów. W niedawno opublikowanym raporcie firma Mandiant stwierdza, że chińska armia od lat prowadzi kampanię cyberszpiegowską przeciwko USA i innym krajom. Zdaniem specjalistów z Mandianta od 2006 roku chińscy szpiedzy włamali się do ponad 140 wielkich firm działających w 20 strategicznych działach gospodarki. Z kolei w kwietniu bieżącego roku wysoki rangą przedstawiciel microsoftowego Institute of Advanced Technologies poinformował, że w ramach operacji Aurora Chińczycy próbowali spenetrować sieć Microsoftu, by zdobyć dane potrzebne do infiltrowania systemów używanych przez FBI. Chcieli się najprawdopodobniej dowiedzieć, czy FBI prowadzi śledztwo przeciwko któremuś z ich agentów przebywających w Stanach Zjednoczoncyh. O chińskich atakach niejednokrotnie wspominali też członkowie Kongresu. Jednak rząd USA unikał dotychczas oskarżeń wprost. Sytuacja uległa zmianie prawdopodobnie po publikacji wspomnianego już raportu Mandianta. Odbił się on szerokim echem w USA, a płynące z niego wnioski potwierdzili inni eksperci, przedstawiciele Pentagonu, oficerowie agencji wywiadowczych i parlamentarzyści. Administracja Obamy została postawiona pod ścianą. Znalazła się pod coraz silniejszym naciskiem. Oczekuje się, że rząd nie tylko oficjalnie uzna, że problem istnieje, ale również zadeklaruje, iż będzie bronił kraju przed cyberatakami. Uznanie problemu przez Pentagon to pierwszy krok w kierunku publicznego przyznania, iż problem istnieje. Administracja musi jeszcze wyjaśnić, jakie podejmie kroki zarówno w celu obrony przed zagrożeniem jak i w celu zniechęcenia do podejmowania kolejnych ataków - mówi Anup Ghosh z firmy Invincea. John Pescatore, dyrektor ds. nowych zagrożeń w SANS Institute, który w przeszłości pracował w NSA mówi, że obecna sytuacja przypomina działania ZSRR z okresu zimnej wojny. Wówczas Rosjanie starali się zasypać przepaść technologiczną dzielącą ich od USA, kradnąc amerykańskie technologie. Teraz robią to Chiny. USA też, oczywiście, angażują się w cyberataki czy cyberszpiegostwo. Jednak działania takie niezwykle rzadko są prowadzone w celu kradzieży technologii, gdyż Stany Zjednoczone wciąż mają dużą przewagę technologiczną nad takimi krajami jak Chiny.
  19. Seagate ogłosił powstanie nowej linii dysków SSD, w skład której wchodzą pierwsze tego typu urządzenia przeznaczone na rynek konsumencki. Model Seagate 600 SSD korzysta z 6-gigabitowego kontrolera Link A Media LM87800 oraz układów MLC NAND Toshiby. Dwuipółcalowy dysk o grubości 5 i 7 milimetrów będzie oferował możliwość przechowywania 120, 240 i 480 gigabajtów danych. Amerykańska firma przygotowała też urządzenie Seagate 1200 SSD korzystające z 12-gigabitowego interfejsu SAS. To oferta na rynek zastosowań profesjonalnych. Urządzenie sprzedawane jest w rozmiarach 1,8 oraz 2,5 cala i pozwala na przechowywania do 800 GB.
  20. Microsoft potwierdził istnienie systemu Windows 8.1 i zapowiedział jego premierę na jesień. Koncern ma nadzieję, że nowa wersja Windows 8 zwiększy zainteresowanie systemem m.in. dzięki przywróceniu przycisku "Start" i możliwości uruchamiania go do tradycyjnego pulpitu Windows. Pomimo słabnącego rynku pecetów zainteresowanie Windows 8 jest spore. Koncern sprzedał już 100 milionów licencji. Nie oznacza to jednak, że tylu jest użytkowników końcowych. Znaczna część kopii systemu znajduje się u producentów OEM, którzy dopiero muszą sprzedać je swoim klientom. Można również zauważyć, że tempo sprzedaży nowego OS-u spada. Bardzo szybko, bo do stycznia bieżącego roku, Microsoft sprzedał 60 milionów licencji. Początkowo system sprzedawał się zatem lepiej niż Windows 7. Teraz widać wyraźne spowolnienie. W przypadku Windows 7 byliśmy świadkami innego trendu - najpierw powolnej, a potem szybkiej sprzedaży. Wydaje się zatem, że klienci oczekiwali początkowo, że Windows 8 będzie tak dużym krokiem naprzód, jakim w stosunku do Windows Visty i Windows XP był Windows 7. Szybko jednak zostali zniechęceni zbyt radykalnymi zmianami wprowadzonymi w najnowszym systemie z Redmond. Ponadto, mimo sporych zmian w interfejsie, Microsoft nie dostarczył nawet podstawowego samouczka ułatwiającego pierwsze kroki z Windows 8. Sam Microsoft musiał przyznać, że zmiany były zbyt radykalne, stąd powrót w Windows 8.1 do menu Start i pulpitu.
  21. Ludzie, którzy przytyli, łatwiej ulegają pokusom, a z drugiej strony zwracają baczniejszą uwagę na swoje poczynania. Aby zrozumieć, czy i jak zmiany wagi wpływają na osobowość, Angelina Sutin z College'u Medycyny Uniwersytetu Stanowego Florydy przeanalizowała dane z 2 badań podłużnych mieszkańców Baltimore. Dużo wiemy o tym, jak cechy osobowości przyczyniają się do tycia. Nie mamy natomiast pojęcia, czy znaczące zmiany masy ciała są związane ze zmianą głównych czynników osobowości. Waga to bardzo [drażliwa i] budząca emocje kwestia, dlatego sądziliśmy, że wzrost masy ciała prowadzi do długoterminowych zmian funkcjonowania psychologicznego. Baltimore Longitudinal Study of Aging (BLSA) i Baltimore Epidemiologic Catchment Area (ECA) objęły 1919 osób z różnych grup wiekowych i socjoekonomicznych. Dane nt. osobowości i wagi zbierano dwukrotnie w odstępie ok. 10 lat. W jednym studium ważeniem zajmował się lekarz, w drugim na początku polegano na wskazaniach ochotnika i dopiero kolejne ważenie odbywało się w laboratorium. Zespół Sutin zauważył, że w porównaniu do osób utrzymujących stałą wagę, u ochotników, u których nastąpił co najmniej 10-proc. skok masy ciała, wrosła impulsywność (stąd uleganie pokusom). Co ciekawe, ludzie, którzy przytyli, stawali się również bardziej rozważni. Rozwaga wzrasta w dorosłości u wszystkich, ale zwyżka zaobserwowana u tyjących była niemal 2-krotnie wyższa niż u badanych ważących tyle samo, co wcześniej. Amerykanie podejrzewają, że nasilona rozwaga może być skutkiem negatywnych informacji zwrotnych od osób z otoczenia. Sutin wyjaśnia, że gdy wszyscy patrzą z dezaprobatą, ludzie zastanowią 2 razy, nim sięgną po kolejną porcję tuczącego smakołyku. Niestety, niezdolność kontrolowania zachcianek zacieśnia błędne koło, osłabiając samokontrolę w jeszcze większym stopniu. Uleganie pokusie dzisiaj może zmniejszać siłę woli nazajutrz. Przez zmianę osobowości ludzie, którzy przytyli, znajdują się niejednokrotnie w grupie podwyższonego ryzyka dalszego wzrostu wagi.
  22. Bazując na napływie krwi, jęzornik ryjówkowaty (Glossophaga soricina) zmienia podczas żerowania topografię czubka języka. Naukowcy z Brown University mają nadzieję, że ich odkrycie doprowadzi do opracowania zmiennokształtnych narzędzi medycznych. Amerykanki tłumaczą, że napływ prostuje włosopodobne struktury, dzięki którym nietoperz uzyskuje z kwiatów większą ilość nektaru. "Zazwyczaj naturalne struktury hydrauliczne są wolne [...], ale dzięki zakotwiczeniu układu naczyniowego w mięśniowym hydrostacie język G. soricina, [hemodynamiczny nektarowy mop], działa błyskawicznie - podkreśla Cally Harper, dodając, że termin hydrostat idealnie pasuje do mięśniowych struktur o stałej objętości, np. języków, słoniowych trąb czy ramion kałamarnic. Podczas żerowania skurcz tego samego mięśnia prowadzi zarówno do wydłużenia oraz pocienienia języka (w ten sposób nietoperz może sięgnąć głębiej do wnętrza kwiatu), jak i do wepchnięcia krwi do włoskopodobnych brodawek. Wypełnione krwią wypustki ustawiają się prostopadle do osi języka, zwiększając pole powierzchni oraz grubość "mopa". Ponieważ zawisanie jest kosztownym energetycznie manewrem, ssak musi szybko uzyskać z nektarem jak najwięcej kalorii. Nic zatem dziwnego, że wyciągnięcie i schowanie języka zachodzi podczas 1/8 s. Naukowcy już wcześniej wiedzieli o istnieniu nitkowatych brodawek, ale dotąd sądzono, że są one bierne jak frędzle mopów. Ostatnie odkrycia odnośnie do mechaniki języków kolibrów zasugerowały Harper, że warto byłoby się przyjrzeć działaniu czubka języka G. soricina. Podczas analiz anatomicznych okazało się, że główne naczynia tętnicze i żylne języka są połączone z brodawkami. Podczas eksperymentów studentce udawało się wyprostować wypustki po wpompowaniu soli fizjologicznej. Żerowanie nietoperzy nagrano za pomocą szybkiej kolorowej kamery. Nie było to łatwe, bo tego typu sprzęt wymaga dobrego oświetlenia, a nietoperze nie przepadają za takimi warunkami. Dzięki pomocy pań profesor Beth Brainerd i Sharon Swartz Harper udało się skupić wiązkę światła na czubku języka, unikając świecenia ssakom w oczy. Stwierdzono, że po wypełnieniu krwią barwa brodawek zmieniała się z jasnoróżowej na jaskrawoczerwoną. Autorki artykułu z PNAS nie wykluczają, że podobne brodawki występują na językach pozostałych nektarożernych nietoperzy czy ostronogów. Kolibry i pszczoły posługują się innymi metodami szybkiej zmiany kształtu języka. Łącznie te 3 systemy mogłyby stanowić wzór dla miniaturowych giętkich robotów chirurgicznych, które zmieniałyby swoją długość i dysponowały dynamicznymi właściwościami powierzchniowymi.
  23. Badanie ryzyka związanego z oddziaływaniem pola magnetycznego wykazało, że same doniesienia mediów mogą prowadzić do wystąpienia objawów u sugestywnych osób. U osób z nadwrażliwością elektromagnetyczną w kontakcie z polem pojawiają się reakcje fizyczne, w tym bóle i zawroty głowy, a także palenie lub mrowienie skóry. Skany z rezonansu zademonstrowały, że uaktywniają się u nich obszary odpowiedzialne za przetwarzanie danych bólowych. Mimo to zebrano sporo dowodów, że nadwrażliwość elektromagnetyczna [in. przypisana polu elektromagnetycznemu idiopatyczna nietolerancja środowiskowa - ang. idiopathic environmental intolerance attributed to electromagnetic fields, IEI-EMF] jest wynikiem efektu nocebo. Zwykłe spodziewanie się urazu może wyzwalać ból lub różne zaburzenia. To przeciwieństwo przeciwbólowego wpływu obserwowanego przy ekspozycji na placebo - wyjaśnia dr Michael Witthöft z Uniwersytetu Johanna Gutenberga w Moguncji. W raportach medialnych często mówi się o potencjalnych zagrożeniach zdrowotnych, stwarzanych przez telefony komórkowe, maszty telekomunikacyjne, linie wysokiego napięcia oraz urządzenia Wi-Fi. Pewni ludzie wycofują się z życia zawodowego i towarzyskiego, tłumacząc to właśnie nadwrażliwością elektromagnetyczną. W skrajnych przypadkach przeprowadzają się, licząc, że w dzikiej głuszy, z dala od cywilizacji, uda im się uwolnić od nieprzyjemnych doznań. Tymczasem testy pokazały, że "chorzy" nie potrafią stwierdzić, czy naprawdę wystawiono ich na oddziaływanie fal elektromagnetycznych. W rzeczywistości symptomy pojawiały się zarówno po zadziałaniu prawdziwym, jak i symulowanym polem. Witthöft przeprowadził studium z G. Jamesem Rubinem z King's College London. Stu czterdziestu siedmiu ochotnikom wyświetlono telewizyjny reportaż. Jedna grupa zapoznawała się z dokumentem BBC One, w którym poruszano kwestię zagrożeń zdrowotnych związanych z komórkami i Wi-Fi. Druga grupa oglądała raport dotyczący bezpieczeństwa danych w Internecie i telefonii komórkowej. Później wszystkim powiedziano, że w kolejnym etapie naukowcy zadziałają na nich falami z częstotliwości Wi-Fi. Choć w rzeczywistości nic takiego nie miało miejsca, u niektórych wolontariuszy wystąpiły charakterystyczne objawy: 54% osób wspominało o niepokoju i ekscytacji, problemach z koncentracją uwagi oraz mrowieniu w palcach, ramionach, nogach i stopach. Dwóch ochotników wycofało się z udziału w eksperymencie, tłumacząc się dotkliwością objawów. Szybko stało się jasne, że symptomy były najbardziej nasilone w grupie uwrażliwionej przez autora reportażu. Psycholodzy uważają, że wpływ alarmistycznych doniesień medialnych nie ogranicza się do krótkiej perspektywy czasowej (nie chodzi wyłącznie o samospełniające się proroctwo). Spekulacje dot. zagrożeń zdrowotnych prowadzą do tego, że część populacji zaczyna wierzyć w swoją podatność na IEI-EMF, przez co każdorazowo w kontakcie z tzw. elektrosmogiem występuje specyficzna reakcja. Witthöft podkreśla, że naukowcy i dziennikarze powinni ze sobą ściśle współpracować, tak by nowe technologie były w mediach prezentowane zgodnie z aktualnym stanem wiedzy, a przede wszystkim rzetelnie.
  24. W bieżącym roku może ostatecznie rozstrzygnąć się los triclosanu, organicznego związku bakterio- i grzybobójczego, który jest powszechnie dodawany do środków higieny osobistej. Naukowcy od dawna zadają sobie pytania o jego bezpieczeństwo, a organizacje ekologiczne od lat starają się o wyeliminowanie go z naszego otoczenia. Triclosan może szkodzić nie tylko ludziom. Wraz z wykorzystywanymi przez nas produktami trafia do środowiska naturalnego. Co jakiś czas ukazują się wyniki badań wskazujących na niebezpieczeństwa związane z powszechną obecnością triclosanu. Środek ten może być odpowiedzialny za niepłodność, pojawianie się opornych szczepów bakterii, upośledzenie czynności mięśni, nader często spotyka się go w wodzie pitnej. Pomimo tych wszystkich zagrożeń jest on dopuszczony do użycia w mydłach, pastach do zębów, olejkach do opalania, bieliźnie czy elementach wyposażenia mieszkania w USA i Europie. Triclosan po raz pierwszy znalazł się na celowniku urzędów już w... 1972 roku. Wtedy to Kongres USA zobowiązał FDA (Agencję Żywności i Leków) do wydania zaleceń dotyczących używania środków antybakteryjnych. W 1978 roku FDA opublikowała zalecenia dotyczące mydeł w płynie i stwierdziła w nich, że triclosan nie może zostać uznany za bezpieczny i efektywny, gdyż brak badań tego dowodzących. W ciągu ostatnich 30 lat Agencja opublikowała wiele podobnych dokumentów, jednak wszystkie one miały status propozycji, a nie ostatecznych rozporządzeń. A to oznaczało, że triclosan nie został usunięty z produktów konsumenckich. W końcu w ubiegłym roku FDA zapowiedziała, że do końca roku 2012 wyda ostateczną opinię na temat triclosanu. Termin ten przesunięto na luty 2013. Nadszedł maj, a zapowiadany dokument ciągle się nie ukazał. W marcu organizacja Natural Resources Defense Council zagroziła, że pozwie FDA do sądu. Niewykluczone, że groźba podziała i w bieżącym roku Agencja wyda ostateczne zalecenia. Obecnie na jej witrynie możemy przeczytać, że Agencja nie posiada dowodów, które wskazywałyby na to, że zawierające triclosan antybakteryjne mydła i preparaty do mycia ciała zapewniają jakiekolwiek korzyści w porównaniu z myciem zwykłym mydłem i wodą.
  25. Dyrektor amerykańskich Narodowych Instutów Zdrowia Psychicznego wydał oświadczenie, które odbiło się szerokim echem w świecie psychiatrów i psychologów. Thomas Insel stwierdził, że NIMH - rządowa agenda która m.in. przyznaje granty na badania nad zaburzeniami umysłowymi - reorientuje swoje działania tak, by odejść od kryteriów DSM. Oświadczenie takie ukazało się na kilkanaście dni przed publikacją piątej edycji DSM. Wydawany przez Amerykańskie Towarzystwo Psychiatryczne "Diagnostic and Statistical Manual of Mental Disorders" jest od 60 lat uznawany za "biblię" psychologii i psychiatrii. Chociaż DSM jest uważany za 'biblię', to w najlepszym przypadku jest to słownik, w którym znajdziemy spis etykietek i definicji. Wartość każdej z edycji DSM opiera się na 'solidności', na upewnieniu się, że specjaliści na całym świecie używają tych samych terminów w ten sam sposób. Jej słabością jest natomiast brak sprawdzalności. W przeciwieństwie do definicji np. AIDS, białaczki czy choroby niedokrwiennej serca, kryteria diagnostyczne w DSM opierają się nie na obiektywnych testach klinicznych, ale na zgodzie co do grup objawów klinicznych. W całej reszcie nauk medyczncyh byłoby to odpowiednikiem tworzenia kryteriów diagnostyczncyh na podstawie natury bólu w klatce piersiowej czy rodzaju gorączki. Jednak diagnozy bazujące na symptomach, niegdyś powszechne w medycynie, zostały w ciągu ostatniego półwiecza zastąpione innymi metodami, gdyż zrozumieliśmy, że same symptomy rzadko pozwalają na wybór najlepszego leczenia. Pacjenci psychiatryczni zasługują na takie samo podejście - stwierdził Insel. Dyrektor stwierdził, że NIMH w miejsce DSM wykorzysta Research Domain Criteria (RDoC), która definiuje schorzenia psychiczne w oparciu nie o symptomy, a o dane genetyczne, neurologiczne oraz wynikające z badań poznawczych. Po chwili dodał jednak zaskakującą wypowiedź oświadczając, że nie możemy stworzyć systemu bazującego na biomarkerach czy badaniach poznawczych, gdyż nie posiadamy wystarczająco dużo danych. Niewykluczone, że decyzja Insela ma więcej wspólnego nie z niedoskonałościami DSM, co z ogłoszoną przez prezydenta Obamę Brain Initiative, w którą budżet federalny zainwestuje 100 milionów dolarów. Prawdopodobnie NIMH chce połączyć swe siły z naukami neurologicznymi, które są bardziej wspierane przez polityków niż psychiatria. Problem jednak w tym, że neurologia również nie daje odpowiedzi na podstawowe pytania dotyczące ludzkiej psychiki. Jej obecny etap rozwoju można porównać do genetyki sprzed odkrycia podwójnej helisy.
×
×
  • Dodaj nową pozycję...