Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37663
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    249

Zawartość dodana przez KopalniaWiedzy.pl

  1. Uczeni z University of California, Riverside donoszą, że palenie "elektronicznych papierosów" wymaga mocniejszego ssania niż w przypadku zwykłych papierosów. Na razie nie wiadomo, jakie może to mieć skutki dla zdrowia palącego. Naukowcy wykorzystali specjalne urządzenie do zbadania właściwości zwykłych papierosów i porównania ich z papierosami elektronicznymi. Urządzenie samo "pali" papierosy i bada skład dymu czy siłę ssania. Okazało się, że wytworzenie odpowiedniej ilości aerozolu w papierosach elektronicznych wymaga silniejszego ssania niż pozyskanie dymu z tradycyjnych papierosów. Co więcej, po 10 pociągnięciach gęstość aerozolu spada, co wymaga zwiększenia siły ssącej. Na razie jest zbyt wcześnie by stwierdzić, jaki wpływ na zdrowie ma silniejsze ssanie i zmniejszająca się gęstość areaozolu, ale czynniki te mogą prowadzić do palenia kompensacyjnego, jakie widzieliśmy w przypadku osób używających papierosów "light" - mówi profesor Prue Talbot. Nasze prace wykazały, że w miarę używania e-papierosów gęstość areozolu spada, co wymaga silniejszego ssania, by ją podtrzymać. Producenci zwykle twierdzą, że zawartość kartridży odpowiada pewnej określonej liczbie tradycyjnych papierosów. Nie wydaje się to prawdą - dodaje Talbot. Z przeprowadzonych przez niego badań wynika, że tylko 10 pierwszych zaciągnięć się e-papierosem daje efekt podobny do palenia prawdziwego tytoniu. Pojedynczy kartridż wystarcza na około 200 zaciągnięć się, jednak nie odpowiadają one 200 zaciągnięciom się prawdziwym papierosem. Badania dowodzą, że papierosy elektroniczne palą się inaczej niż konwencjonalne - dodaje naukowiec. Kamlesh Asotra zarządzający badaniami w ramach University of California Tobacco-Related Disease Research Program (Program badawczy Uniwersytetu Kalifornijskiego nad chorobami związanymi z tytoniem) zauważa, że konieczność silniejszego ssania oznacza, że substancje zawarte w aerozolu dostają się głębiej do płuc niż w przypadku substancji z tradycyjnych papierosów. Ponadto zmniejszająca się gęstość areozolu może powodować, że palacze, by zrekompensować sobie spadek poziomu nikotyny, będą palili więcej, tak jak jest to w przypadku użytkowników papierosów "light".
  2. Badania ogłoszone przez Amerykańską Akademię Neurologii (American Academy of Neurology, AAN) dają nadzieję na wyjątkowo wczesne wykrywanie ryzyka zachorowania na chorobę Parkinsona, demencję z ciałami Lewy'ego oraz zanik wieloukładowy - chorobę zbliżoną objawami do choroby Alzheimera. Dzięki wykorzystaniu danych gromaczonych przez niekomercyjną organizację Mayo Clinic udało się powiązać choroby neurodegeneracyjne z wcześniejszym występowaniem zaburzeń snu. W bazie osób Mayo Clinic zidentyfikowano 27 osób, u których na wiele lat przed rozwojem jednej z tych chorób wystąpiły zaburzenia snu w fazie REM, połączone z gwałtownymi zachowaniami ruchowymi podczas marzeń sennych (taki jak nieświadome uderzanie pięścią, które nieraz skutkuje zranieniem siebie lub śpiących obok osób). 13 z tych osób cierpi na demencję, 13 na Parkinsona, jedna na zanik wieloukładowy. U osób tych problemy senne występowały już co najmniej 15 lat przed rozpoznaniem choroby, w niektórych przypadkach poprzedzały je nawet o 50 lat. Średnie wyprzedzenie wynosi 25 lat. Odkrycie, jak uważa autor, Bradley F. Boeve z Mayo Clinic w Rochester (Minnesota), sugeruje że wymienione choroby neurodegeneracyjne mają długi okres, w którym nie występują jeszcze widoczne objawy. Tak wczesne wykrywanie może jednak pozwolić na opracowanie skutecznych terapii spowalniających rozwój choroby jeszcze zanim pojawią się pierwsy symptomy. Odkrycie może też dać nowy impuls do badań nad przyczynami tych chorób - nie wiadomo, dlaczego i w jaki sposób zaburzenia akurat w fazie marzeń sennych łączą się z neurodegeneracją. Nie wszystkie rodzaje zaburzeń snu skutkują późniejszymi chorobami neurodegeneracyjnymi - dla przykładu w przypadku narkolepsji nie stwierdzono takiej korelacji.
  3. Podczas konferencji Black Hat zaprezentowano gotowy zestaw narzędzi do podsłuchiwania telefonów komórkowych. Jego pojawienie się może oznaczać początek epoki ataków na komórki dokonywanych przez script kiddies. Mianem takim określane są osoby, które korzystają z gotowych narzędzi hakerskich bez znajomości programowania czy zasad ich działania. Obecnie dostępne narzędzia są na tyle proste, że ich uruchomienie i przeprowadzenie ataku nie wymaga dużych umiejętności. Dotychczas jednak narzędzia takie pozwalały przede wszystkim na atakowanie pecetów czy sieci bezprzewodowych. Przed kilkoma laty mieliśmy do czynienia z prawdziwą plagą script kiddies, którzy zaczęli używać gotowych narzędzi do włamywania się do Wi-Fi prywatnych osób. Po zmianie domyślnego szyfrowania z WEP na WPA liczba ataków znacząco spadła, gdyż script kiddies nie potrafią złamać nowego algorytmu szyfrowania. Obecnie jednak groźba podobnych ataków zawisła nad GSM. Pokazane podczas Black Hat narzędzie jest bowiem w stanie w ciągu 30 sekund złamać klucze zabezpieczające SMS-y. Oprogramowanie wykorzystuje tęczowe tablice i z łatwością łamie liczący sobie dziesięć lat algorytm A5/1. Jest on używany przez około 80% światowych operatorów telefonii komórkowej. Na razie największym problemem, z którym muszą zmierzyć się potencjalni chętni do podsłuchiwania GSM jest dystrybucja danych z tęczowych tablic. Zajmują one bowiem aż 1,7 terabajta. Niewykluczone jednak, że twórcy nowego narzędzia udostępnią je w sieciach BitTorrent. GSM Alliance, która skupia 800 operatorów twierdzi, że możliwość ataku jest jedynie teoretyczna, gdyż istnieją też inne metody zabezpieczeń SMS-ów. Istnieje jednak oprogramowanie AirProbe, które jest w stanie przechwytywać w czasie rzeczywistym komunikację pomiędzy stacją bazową a telefonem GSM. Warto przypomnieć, że główną słabością GSM jest właśnie algorytm A5/1. Już kilka lat temu zaproponowano wdrożenie znacznie bezpieczniejszego algorytmu A5/3. Nie został on jednak przyjęty, gdyż jego wprowadzenie wiąże się z olbrzymimi kosztami i nie działa on na starszych telefonach. W wielu krajach używany jest algorytm A5/0, który w ogóle nie ma żadnych mechanizmów szyfrujących. Podczas Black Hat zaprezentowano też inne typy ataków na GSM, w tym takie, które pozwalają na wyłączenie pobliskiej stacji bazowej za pomocą telefonu komórkowego.
  4. W okresach migracji, a więc jesienią i wiosną, ptaki stają się bardziej impulsywne i trudniej im się oprzeć pokusom. Ornitolodzy z University of Wisconsin-Madison badali pasówki białobrewe (Zonotrichia leucophrys) i uważają, że zjawiska tego nie da się w pełni wyjaśnić jedynie niedoborem snu. Amerykanie przyglądali się zdolności pasówek do opanowania chęci dziobania guzika zapewniającego pożywienie. Na wolności, pomimo znacznego ograniczenia [długości i liczby] okazji do spania, w czasie migracji ptaki z powodzeniem kontynuują długi lot, poza tym zajmują się nawigowaniem i unikaniem drapieżników. W laboratorium odkryliśmy wcześniej, że w stanie migracyjnym ptaki mogą się nauczyć dziobać w przełącznik, by uzyskać pokarm. W najnowszym eksperymencie zademonstrowaliśmy, że w porównaniu do zwierząt niemigrujących, trudno im się nauczyć, by nie dziobać – wyjaśnia szefowa projektu Ruth Benca. Oczywista nadaktywność okresu podróży może być powiązana z oddzieleniem snu od cykli światła-ciemności, którym podporządkowane są działania ptaków latem i zimą. Osobne eksperymenty pokazały, że samo pozbawienie snu nie wywołuje utraty kontroli, a krótki sen latem nie wiąże się ze wzrostem impulsywności. Niewykluczone, że przyczynę specyficznego dla migracji rozhamowania zachowania stanowi podzielenie snu na odcinki (rozczłonkowanie w czasie). Nie jest jasne, czy niezdolność do powstrzymania się od dziobania ma związek z ogólnym upośledzeniem hamowania, zaburzonym poczuciem czasu, nieuwagą dotyczącą istotnych wskazówek czy czymś zupełnie innym.
  5. Nowotwory gruczołu krokowego (prostaty) to jedna z najczęstszych i najgroźniejszych chorób dotykających mężczyzn w starszym wieku. Postacie złośliwe odpowiadają za 9% zgonów mężczyzn po osiemdziesiątce, ale postać utajona, nie dająca objawów może występować nawet u 90% osób. Rak prostaty często daje przerzuty do kości. Dlatego doktor Stacy Loeb z Wydziału Urologii w Szkole Medycznej Uniwersytetu Johna Hopkinsa postanowiła sprawdzić, czy istnieje jakiś związek pomiędzy występowaniem raka gruczołu krokowego z przerzutami a strukturą kości. Taki związek udało się znaleźć. Do badań porównawczych zespół dr Loeb wykorzystał gotową bazę danych medycznych programu badań nad procesem starzenia, jaki prowadzono od 1858 roku w Baltimore (NIA's Baltimore Longitudinal Study of Aging). Z bazy wybrano dane o gęstości kostnej u 519 mężczyzn, mierzonej w latach 1973-1984 a następnie z tej samej bazy danych pobrano informacje o przypadkach zdiagnozowanego raka prostaty wśród tych osób. Z wiekiem gęstość kośćca znacząco maleje u wszystkich kobiet i mężczyzn, jednak istnieją tu znaczne indywidualne różnice. Studium przeprowadzone przez zespół Stacy Loeb wykazało, że 76 mężczyzn z badanej grupy u których wystąpił rak gruczołu, miało gęstość kości znacznie wyższą od przeciętnej w tym wieku. Korelacja pozostała nawet po uwzględnieniu innych czynników mogących mieć wpływ na gęstość kośćca: palenia tytoniu, indeks masy ciała (BMI), dietę (w tym suplementy z wapniem i witaminą D). W badanej grupie 18 mężczyzn, którzy chorowali na szczególnie złośliwą postać raka prostaty z przerzutami, miało najwyższą gęstość kośćca. Mimo interesujących wyników autorzy badań przestrzegają, że próba, jaką dysponowali, jest zbyt mała, aby wyprowadzać jakiekolwiek ostateczne wnioski. W szczególności nie sądzą oni, żeby między tymi faktami istniał związek przyczynowo-skutkowy. Bardziej prawdopodobne jest, ich zdaniem, że zarówno za gęstość kośćca, jak i ryzyko zachorowania na nowotwór prostaty, odpowiada ten sam czynnik lub zespół czynników. Mogą to być na przykład męskie hormony płciowe - wiadomo, że wysoki poziom testosteronu sprzyja szybkiemu rozwojowi raka. W przyszłych badaniach zespół zamierza kontynuować poszukiwanie czynników wiążących strukturę kości z ryzykiem i przebiegiem raka gruczołu krokowego.
  6. Aleksiej Jabłokow, członek Rosyjskiej Akademii Nauk, a zarazem ekolog i lider tamtejszej partii Zielonych, twierdzi, że zawierający dużo CO2smog powstały wskutek pożarów spopielających lasy i torfowiska wokół Moskwy zabije setki osób. Ogień płonie na południe i wschód od stolicy Rosji. Woń spalenizny czuć już nawet w centrum metropolii, a na niektórych ulicach widoczność spadła do 300-500 m. Pożary szaleją od kilku dni, a temperatura powietrza w regionie już od 1,5 miesiąca nie spada poniżej 30 stopni. W tym czasie odnotujemy co najmniej 100 dodatkowych zgonów dziennie – prorokuje Jabłokow, który w swych obliczeniach opiera się na statystykach dotyczących smogu sprzed 8 lat, kiedy to tygodniowo umierało 600 osób. Rządowa agencja ds. zanieczyszczenia powietrza ujawniła, że we wtorek (26 lipca) stężenie dwutlenku węgla wzrosło o 20-30% powyżej normalnego poziomu. Główny lekarz sanitarny Rosji Gienadij Oniszczenko zaapelował do pracodawców, by ze względu na spiętrzenie upałów i gęstego dymu zwolnili personel do domu. Borys Gromow, gubernator obwodu moskiewskiego, poprosił premiera Władimira Putina o przydzielenie na gaszenie ognia 25 mld rubli. Ukryty głęboko pod powierzchnią ziemi torf pali się zimą i latem. By sobie z tym poradzić, trzeba by rozlewać wodę nad złożami.
  7. Badając ciężarne Dunki, międzynarodowy zespół naukowców odkrył, że codzienne spożycie dietetycznych napojów, które zawierają sztuczne słodziki, zwiększa ryzyko przedwczesnego porodu (The American Journal of Clinical Nutrition). Thorhallur I. Halldorsson, Sjurdur F. Olsen, Sesilje B. Petersen i Marin Strom przeanalizowali przypadki ok. 60 tys. kobiet w ciąży, biorących w latach 1996-2002 udział w badaniu podłużnym Danish National Birth Cohort (DNBC). Przyglądano się konsumpcji napojów gazowanych oraz niegazowanych z cukrem i słodzikami, by sprawdzić, czy istnieje związek między zamiłowaniem do któregoś ich rodzaju a porodem przed 37. tygodniem ciąży. Ponieważ napoje z cukrem są kojarzone z różnymi problemami zdrowotnymi, m.in. tyciem, dlatego często jako zastępniki poleca się napoje ze słodzikami. Dotąd nie stwierdzono jednak, czy spożycie słodzików w ciąży jest bezpieczne, wiele wskazuje zaś na to, że raczej nie... Akademicy oceniali spożycie różnych napojów w połowie ciąży – ok. 25. tygodnia. Panie wypełniały kwestionariusz dotyczący szeroko pojętej diety. Przeprowadzano też z nimi wywiad telefoniczny. Wyniki pokazały związek między spożyciem jednego lub więcej napojów ze słodzikiem dziennie (zarówno gazowanych, jak i niegazowanych) a wyższym ryzykiem przedwczesnego porodu. Ryzyko rosło wraz z liczbą wypijanych napojów, a związek pozostawał taki sam u pań z przeciętną masą ciała i nadwagą. Podobnej korelacji nie wykryto w przypadku napojów słodzonych cukrem. Dr Thorhallur I. Halldorsson zauważa, że słodzone cukrem bądź słodzikami napoje bezalkoholowe powiązano ostatnio z wysokim ciśnieniem krwi, które zwiększa ryzyko przedterminowego rozwiązania. Nie wiadomo dokładnie, jaki jest dokładny mechanizm działania słodzików, ale już podczas studiów na modelu zwierzęcym odnotowano, że aspartam ma coś wspólnego z przyspieszonym porodem. Autorzy raportu z Islandii, USA i Danii podkreślają, że dla pewności badania należy powtórzyć.
  8. Panasonic jest producentem pierwszej kamery 3D skierowanej na rynek użytkownika indywidualnego. Firma zapewnia, że urządzenie HDC-SDT750 wykonuje trójwymiarowe filmy dzięki specjalnym soczewkom 3D, a po ich odłączeniu rejestruje tradycyjny obraz o rozdzielczości 1080p z prędkością 60 klatek na sekundę. Kamera korzysta z systemu 3MOC, soczewek Leica Dicomar oraz 12-krotnego zoomu optycznego. Do wykonania nagrania 3D konieczne jest użycie specjalnych soczewek, rejestrujących obraz o rozdzielczości 960x1080 osobno dla każdego oka. Urządzenie wyposażono też w technologię Time Lapse Recording, która umożliwia nagrywania i szybkie odtwarzanie długotrwałych wydarzeń. Użytkownik może poinstruować kamerę, by wykonywała ujęcia w odstępach co 1, 10, 30, 60 lub 120 sekund. W ten sposób możliwe jest rejestrowanie np. rozwijania się kwiatów. Time Lapse Recording jest również dostępny podczas używania soczewek 3D. Kamerę wyposażono też w pięć mikrofonów, rejestrujących pięciokanałowy dźwięk, a dzięki Focus Microphone możliwe jest rejestrowanie tylko dźwięku rozlegającego się przed kamerą,niezależnie od tego, jaki obraz rejestrujemy. Za jakość obrazu odpowiada system 3MOS, który wykorzystuje 7,59 miliona pikseli (3x2,53 megapikseli). Czujnik rozbija obraz na trzy podstawowe kolory, które są przetwarzane niezależnie co ma zapewniać świetnej jakości obraz. W jego uzyskaniu pomagają też wysokiej jakości soczewki o jasności f1.5 (po podłączeniu soczewek 3D wartość f spada do 3.2) oraz procesor Crystal Engine PRO. HDC-SDT750 trafi do sklepów w październiku bieżącego roku. Sugerowana cena detaliczna kamery wyniesie 1400 dolarów.
  9. Czy woda może zamarznąć w temperaturze pokojowej? Osoby obeznane z fizyką powiedzą, że tak: przy odpowiednim ciśnieniu. A przy ciśnieniu atmosferycznym? Dotychczas dopuszczano taką możliwość jedynie teoretycznie, ale teraz teoria może zmienić się w praktykę. Kurt Vonnegut w powieści „Kocia kołyska" opisał wynalazek zwany „lodem-9" - wodę zamarzniętą w temperaturze pokojowej dzięki specyficznemu układowi cząsteczek. Drobina lodu-9 powodowała natychmiastowe zamarzanie ciekłej wody, z którą miała kontakt. Ale to oczywiście jedynie fantastyka naukowa. Od dawna nauka przewidywała, że kryształki pewnych substancji, mające strukturę zbliżoną do kryształków lodu, mogą wyzwalać proces zamarzania wody w temperaturze wyższej niż 0º Celsjusza. Nie znaleziono takich substancji, ale to nie znaczy, że takie katalizatory nie mogą istnieć. Właśnie znaleziono minerał, który powoduje zamarzanie wody w dodatnich temperaturach, mimo że działa odrobinę inaczej, niż zakładano. Dokładniej mówiąc, minerał znany jest od dawna i powszechnie spotykany, to fluorek baru (BaF2, sól kwasu fluorowodorowego i baru). Nowe są dla nas jego właściwości, odkryte przez doktora Alberta Verdaguera z hiszpańskiego Centrum Badań Nanotechnologicznych (Centre d'Investigació en Nanocičncia i Nanotecnologia). Zespół dra Verdaguera badał pod mikroskopem właściwości fluorku baru do adsorpcji wody, ponieważ posiada on właśnie taką heksagonalną strukturę, jakiej poszukiwano. Niestety, mimo obiecującego ułożenia ścianek kryształu okazał się on słabym wyzwalaczem zamarzania wody. Przypadkiem jednak okazało się, że jego zdolności katalityczne w tym względzie ulegają drastycznemu powiększeniu, kiedy struktura kryształków zawiera defekty. Szczegółowe badania z wykorzystanie mikroskopu optycznego oraz mikroskopu sił atomowych pozwoliły poznać zachowanie atomów substancji w takich szczególnych warunkach. W normalnych warunkach (pokojowej temperaturze, ciśnieniu atmosferycznym) fluorek baru kondensuje wodę dzięki dwuwymiarowym, lodopodobnym strukturom na powierzchni „zdefektowanych" kryształków. Badania te pozwalają na lepsze zrozumienie powstawania i zachowania się błon wody na powierzchni materiałów, ich znaczenie dla stabilności różnych stanów i faz skupienia wody. Będą miały także jak najbardziej praktyczne zastosowania. Albert Verdaguer już zapowiedział rychłe powstanie materiałów pozwalających kontrolować proces kondensacji i zamarzania wody, zapewne nie będzie to sam fluorek baru, ponieważ minerał ten jest toksyczny. Substancje o takich właściwościach pozwolą na skuteczne wywoływanie opadów deszczu lub śniegu. Można się też spodziewać zastosowania ich w zimowych sportach i rekreacji - do utrzymywania warstwy lodu lub śniegu przy dodatnich temperaturach. Możliwość stworzenia prawdziwego śniegu na trasie lub skoczni narciarskiej pozwoli na organizowanie zawodów mimo niesprzyjającej pogody. Inne możliwe wykorzystanie to „inteligentne" powierzchnie, reagujące według naszej woli na kontakt z wodą lub lodem, systemy ogrzewania lub chłodzenia, itp. Wiedza teoretyczna pozwoli też lepiej zrozumieć wpływ różnego rodzaju zanieczyszczeń na pogodę i klimat. W atmosferze znajduje się wiele emitowanych przez człowieka związków chemicznych, pyłów, które również wpływają na procesy kondensacji i zamarzania wody. Lód-9 z powieści Kurta Vonneguta okazał się zgubą dla ludzkości - upuszczony niechcący fragment spowodował zamarznięcie oceanów i całej wody na naszej planecie. Miejmy nadzieję, że żadna z wynalezionych przez Alberta Verdaguera substancji nie będzie tak niebezpieczna.
  10. Wielki Zderzacz Hadronów (LHC) jeszcze nie osiągnął pełni mocy, a uczeni już planują budowę nowego - jeszcze droższego - akceleratora cząstek. Międzynarodowy Zderzacz Liniowy (International Linear Collider - ILC) miałby kosztować 12 miliardów USD, czyli o 3 miliardy więcej niż LHC. Długość jego tunelu ma wynieść 31 kilometrów (LHC - 27 km) i ma w nim dochodzić do 14 000 zderzeń elektronów i pozytronów w ciągu sekundy. Energia cząstek to 500 GeV (z możliwością rozbudowy do 1 TeV), czyli ma być 14-krotnie niższa niż maksymalna energia LHC. ILC, o ile powstanie, będzie najpotężniejszym akceleratorem liniowym. Obecnie tytuł ten należy do Stanford Linear Accelerator, który rozpędza cząstki do energii 50 GeV w tunelu o długości ponad 3 kilometrów. Nowy akcelerator będzie uzupełniał LHC. Ma korzystać z elektronów i pozytronów, które są znacznie lżejsze od używanych w LHC protonów. Akceleratory liniowe mają tę przewagę nad akceleratorami kołowymi, że pozwalają na bardziej precyzyjne pomiary, a więc można w nich używać mniejszych cząstek. W akceleratorach kołowych cząstki nie są tracone - te, które nie ulegną zderzeniu, krążą w tunelu. Jednak promieniowane synchrotronu powoduje, że pomiary są mniej precyzyjne. Z kolei w akceleratorach liniowych cząstki można wystrzelić precyzyjnie, z dużą energią i wykonać dokładne pomiary. Jednak te, które nie ulegną zderzeniu - przepadają. ILC nie jest jedynym planowanym akceleratorem liniowym. CERN proponuje budowę Kompaktowego Akceleratora Liniowego (Compact Linear Collider - CLIC). Ma on być znacznie krótszy od ILC, ale rozpędzać cząstki do 3 TeV z możliwością rozbudowy do 5 TeV. W chwili obecnej nie potrafimy jednak wytworzyć i bezpiecznie używać pól magnetycznych na tyle potężnych, by na krótkim odcinku zapewniły takie przyspieszenie. Na razie nie wiadomo, który z projektów - ILC czy CLIC - zostanie wybrany i zrealizowany. CERN ma jednak nadzieję, że uda się uniknąć takich problemów, jakich doświadczył LHC, na którego przestoje wydano dotychczas 40 milionów USD. Budowa nowych akceleratorów oznacza olbrzymie wydatki, ale może przynieść też spore korzyści. Niewykluczone, że przy okazji prac nad tego typu urządzeniem zostanie opracowana kolejna generacja maszyn do tomografii pozytronowej czy technologia umożliwiająca wykorzystanie promieni X lub promieniowania kosmicznego do sprawdzania zawartości kontenerów towarowych. Wiadomo, że USA sfinansują 10 do 20 procent przyszłego akceleratora. Resztę kosztów poniosą Japonia, Chiny, Rosja, Indie i kraje Unii Europejskiej. Nie wiadomo też, gdzie powstanie wybrany akcelerator. ILC chętnie widziałoby u siebie Fermilab (USA), ale zainteresowane są też Japonia, Niemcy, Rosja i Szwajcaria. Do końca 2012 roku ma być gotowy projekt ILC. Jeśli zapadnie decyzja o jego budowie, akcelerator mógłby zostać ukończony do roku 2020.
  11. Amerykańscy naukowcy odkryli, że kręgowce dysponujące czerwoną krwią wyewoluowały dwukrotnie niezależnie od siebie (Proceedings of the National Academy of Sciences). Ewolucja konwergencyjna to proces powstawania analogicznych cech w grupach odlegle spokrewnionych organizmów, np. skrzydeł u nietoperzy i ptaków. Ostatnio biolodzy z University of Nebraska-Lincoln stwierdzili, że konwergencja doprowadziła do wykształcenia dwóch mechanizmów transportowania tlenu przez krew, by podtrzymać metabolizm tlenowy. Zespół prof. Jaya Storza analizował genom wielu kręgowców i doszedł do wniosku, że bezżuchwowce (Agnatha) - minogokształtne i śluzicokształtne oraz wymarłe rzędy Osteostraci, Heterostraci, Coelolepida - i szczękowce (Gnathostomata) inaczej rozwiązały ten sam problem fizjologiczny. Analiza porównawcza wykazała, że wybrały różne białka prekursorowe, które miały spełniać funkcję przenoszących tlen hemoglobin, nadających krwi charakterystyczny czerwony kolor. Linie bezżuchwowców i szczękowców oddzieliły się od siebie ok. 500 mln lat temu w kambrze (miało to miejsce mniej więcej 30 mln lat po pojawieniu się pierwszego strunowca). Pojawienie się białek transportujących tlen ma związek z wielkością organizmu. Owady radzą sobie bez podobnego rozwiązania, ponieważ są na tyle małe, by w całości polegać na pasywnej dyfuzji tlenu w układzie tchawek. Ma to swoje plusy i minusy, jako że między innymi dlatego insekty tylko nieznacznie przekraczają magiczną granicę długości 3 cali (7,62 cm). Wytworzenie 500 mln lat temu hemoglobin jako białek transportujących tlen otworzyło drogę ewolucji metabolizmu tlenowego (co ważne, natura wzięła się na więcej niż jeden sposób). To z kolei ułatwiło zwiększenie złożoności budowy wewnętrznej i rozmiarów ciała. Hemoglobiny bezżuchwowców i szczękowców powstały niezależnie, ale funkcjonują podobnie. [...] Białka te wyewoluowały swe dotyczące przenoszenia tlenu właściwości z różnych właściwości przodków [z innego materiału wyjściowego].
  12. W International Journal of Communication ukazały się wyniki badań przeprowadzonych przez uczonych z Northwestern University, z których wynika, iż studenci i uczniowie bardziej ufają wyszukiwarkom niż witrynom, które znajdują za ich pośrednictwem. Badacze obserwowali 102 osoby poszukujące konkretnych informacji. Wykorzystywany był przy tym przede wszystkim Google, ale również Wikipedia, Bing, Facebook, Yahoo, AOL i inne serwisy. Okazało się, że większość z badanych klikała na pierwszy wynik w wyszukiwarce, niezależnie od tego, co się znajdowało pod danym odnośnikiem. Ponad 25% z nich później stwierdziło wprost, że kliknęli, gdyż link był na pierwszym miejscu. Naukowcy Eszter Hargittai, Lindsay Fullerton, Ericka Menchen-Trevino i Kristin Yates Thomas dowiedzieli się również, że w niektórych przypadkach wiarygodność znalezionej informacji oceniano nie ze względu na witrynę, na której się znajdowała, czy jej autora. Najważniejszym kryterium okazał się fakt, że informacja została pokazana przez wyszukiwarkę. Tylko 10% badanych zwróciło uwagę na autora, a żaden z nich nie pofatygował się, by sprawdzić jego kwalifikacje i wiarygodność. Uczniowie przyznawali, że witryny w domenach .edu i .gov są bardziej wiarygodne od innych, gdyż "nie może ich edytować każdy". Byli jednak i tacy, którzy za równie wiarygodne uznawali witryny .org czy .com, nie zdając sobie sprawy z faktu, że są one sprzedawane każdemu chętnemu. Podsumowując badania naukowcy stwierdzili, że dla uczniów i studentów bardziej wiarygodne są wyszukiwarki niż znalezione witryny. Osoby te bardzo ufają wyszukiwarce, z której korzystają. We wspomnianym artykule zamieszczono ich słowa mówiące o fascynacji Google'em czy deklaracje, iż informacje znaleziono za pomocą Binga są bardziej wiarygodne, gdyż Microsoft jest "bardziej profesjonalną" firmą. Sam fakt, że młodzi ludzie dorastali wraz z internetem nie oznacza jeszcze, że potrafią się nim posługiwać - konkludują badacze.
  13. Amerykański Federalny Sąd Apelacyjny dla Piątego Okręgu stwierdził, że złamanie cyfrowego systemu zabezpieczeń celem uzyskania dostępu do oprogramowania nie stanowi naruszenia ustawy Digital Milennium Copyright Act o ile zostało dokonane w celu skorzystania z zasady "fair use". Wyrok taki oznacza, że amerykańscy posiadacze iPhone'ów czy płyt DVD z filmami mogą legalnie łamać zabezpieczenia i np. kopiować płyty, o ile jest to robione na własny użytek. Wspomniany wyrok zapadł w sprawie MGE UPS Inc. przeciwko PMI. Pierwsza z tych firm to producent dodatkowych zasilaczy bezprzerwowych (UPS) dla systemów medycznych. Zasilacze takie kalibrują się automatycznie, jednak aby tego dokonać muszą zostać przez firmowego technika podłączone do laptopa z kluczem zabezpieczającym. Bez tego klucza nie można dokonać kalibracji. Osoba zatrudniona w firmie PMI, współpracującej z MGE UPS, złamała system zabezpieczeń. Wówczas MGE pozwało PMI do sądu, zarzucając jej naruszenie praw autorskich, sekretów handlowych, nieuczciwą konkurencję oraz naruszenie ustawy DMCA. Sąd okręgowy przyznał MCE odszkodowanie w wysokości ponad 4,6 miliona dolarów, ale odrzucił oskarżenia o złamanie DMCA. Dlatego też MGE wniosło sprawę do sądu okręgowego. Sąd okręgowy zauważył jednak, że DMCA zabrania obchodzenia zabezpieczeń, które chronią prace opisywane przez prawo autorskie. To oznacza, że samo złamanie zabezpieczeń nie stanowi naruszenia DMCA o ile nie zostają przy tym naruszone prawa autorskie. Tymczasem przepisy o prawach autorskich uznają zasadę "fair use". A zatem tak jeśli złamanie zabezpieczeń posłużyło do korzystania z prawa 'fair use' nie można mówić, że została naruszona ustawa DMCA. Niewykluczone, że najnowszych wyrok oznacza, de facto, legalizację oprogramowania RealDVD, które pozwalało na łamanie zabezpieczeń płyt DVD. Przypomnijmy, że MPAA pozwała do sądu producenta tego oprogramowania, firmę RealNetworks. W ubiegłym roku Sąd Okręgowy dla Północnej Kalifornii przyznał rację MPAA. Wówczas stwierdzono, że zasada fair use nie może być podstawą do uzyskania nieautoryzowanego dostępu. RealNetworks nie odwołało się od wyroku. W najnowszym wyroku przepisy zinterpretowano inaczej, co daje podstawę do przypuszczeń, że w pewnych okolicznościach łamanie zabezpieczeń jest całkowicie legalne. Przypuszczenia takie są tym bardziej uprawomocnione, że łamanie zabezpieczeń urządzeń elektronicznych zaakceptowało też US Copyright Office, stanowiące część Biblioteki Kongresu USA.
  14. W nowych modelach Nissana będzie montowana klimatyzacja podająca wdychaną postać witaminy C, prędkościomierz przypominający kierowcy o ważnych datach, np. rocznicy ślubu lub urodzinach, oraz fotele zainspirowane technologią NASA. Chcemy, by kierowcy czuli, że są zdrowsi, zostając w samochodzie niż przebywając poza nim – podkreślił podczas jazdy testowej koło Tokio Kenichi Tanaka, jeden z inżynierów japońskiej grupy motoryzacyjnej. Coraz ważniejsze staje się emocjonalny aspekt samochodu, ponieważ potrzeby klientów się różnicują. Klimatyzacja ma rozpylać witaminę C, by nawilżyć skórę. Wśród nowinek znajdą się też filtry powietrza opracowane przez Sharpa. Relaksujące fotele mają poprawiać krążenie krwi oraz zmniejszać ryzyko wystąpienia bólu pleców na długich trasach. Japończycy pomyśleli nie tylko o wygodzie prowadzącego auto i pasażerów, ale także o bezpieczeństwie. W ciągu 2-3 lat w samochodach pojawi się m.in. nowa technologia antykolizyjna. Przypomina ona systemy radarowe samolotów czy statków i monitoruje odległość do pojazdu z przodu. Może zapobiec zderzeniu przy prędkości do 60 km na godzinę. Kierowca dowiaduje się, że powinien zwolnić, gdy z głośników rozlegnie się pikający dźwięk. Dodatkowo samochód automatycznie zwalnia przez lekkie uniesienie pedału gazu i delikatne zahamowanie. Unowocześnienie wyglądu i technologii Nissana wiąże się z przygotowaniami do zaplanowanej na koniec roku premiery na rynku japońskim i amerykańskim elektrycznego samochodu Leaf.
  15. Dotąd wykrycie pojedynczej komórki nowotworowej odrywającej się od guza wydawało się graniczyć z cudem, lecz dzięki wielofunkcyjnym nanocząstkom, które usuwają z tła szum, obrazowanie może się stać naprawdę bardzo czułe. Nanocząstki stanowią bardzo obiecujący środek kontrastowy, ale we wszystkich technikach niewykorzystujących radioaktywnych znaczników otaczające tkanki przytłaczają słaby sygnał, przez co naukowcom nie udaje się wykryć pojedynczej komórki bądź niewielkiej ich liczby. Eksperymenty na syntetycznej tkance zademonstrowały, że technika może niemal całkowicie wyeliminować silny sygnał tła. Podczas przyszłych badań akademicy spróbują powtórzyć wyniki w badaniach na zwierzętach. Trzydziestonanometrowa cząstka składa się z jądra z tlenku żelaza oraz cienkiej złotej skorupki, która otacza jądro, ale się z nim nie styka. Otoczka absorbuje promieniowanie podczerwone, ale można ją także wykorzystać w termoterapii czy do mocowania biocząstki, która powinna się związać z konkretnymi komórkami. W ramach wcześniejszych badań zespół Gao połączył różne funkcje w jednej nanocząstce, co nie jest łatwe ze względu na jej miniaturowe rozmiary. Jak tłumaczy współautor najnowszego studium prof. Matthew O'Donnell, przyszłe metody obrazowania będą służyć nie tyle do wykrywania guzów, monitorowania funkcji czy zużycia tlenu, lecz do badania poziomu molekularnego. Oznacza to, że oceny medycznej i zliczania komórek będzie można dokonać wewnątrz organizmu. Biopsję lub badanie pod mikroskopem zastąpi zdjęcie wskazujące konkretne białka albo nieprawidłową aktywność u źródła. Dzisiaj używamy biomarkerów, by zobaczyć duży zbiór chorych komórek, nowa technika może nas jednak sprowadzić na bardzo precyzyjny poziom, potencjalnie pojedynczej komórki. Amerykanie przetestowali swoją metodę w obrazowaniu fotoakustycznym. To tania technika, w dodatku czuła na niewielkie zmiany we właściwościach tkanki i zdolna do penetrowania na kilka centymetrów w głąb. Działa na zasadzie lekkiego podgrzania komórek za pomocą lasera. Te zaczynają wibrować i wytwarzają fale ultradźwiękowe, które przemieszczają się przez tkanki ku powierzchni ciała. Zespół twierdzi, że metodę z nanocząstkami z magnetycznym jądrem da się zastosować także w innych rodzajach obrazowania.
  16. Chcąc zmotywować kogoś do przebadania się pod kątem określonych nowotworów, nie warto powoływać się na niewielki odsetek ludzi, którzy sami zgłosili się do lekarza lub zostali objęci programem społecznego monitoringu. Przy takiej okazji większość osób myśli: "Skoro mało kto się temu poddał, to czemu ja miałbym/miałabym?". W ramach wcześniejszego studium zespół Moniki Sieverding z Uniwersytetu w Heidelbergu odkrył, że mężczyźni, którzy nigdy nie podlegali badaniom przesiewowym (skryningowi onkologicznemu), uważali, że większość innych mężczyzn również nie brała w nich udziału. Niemcy chcieli jednak sprawdzić, jak przekonania panów na temat zakresu badań (odsetka osób "sprawdzonych") wpływają na chęć poddania się testom. Psycholodzy podchodzili do pieszych w dwóch dużych niemieckich miastach. Wybierali panów powyżej 45. roku życia, którzy nigdy nie zostali uwzględnieni w badaniach przesiewowych. U naszych zachodnich sąsiadów podstawowy skryning dotyczy raka prostaty i dość często obejmuje badanie krwi na raka jelita grubego. Mężczyźni czytali jedno z dwóch stwierdzeń: 1) w jednym podkreślano, że w zeszłym roku tylko 18% Niemców przeszło skryning onkologiczny (grupa niskiego rozpowszechnienia), 2) z drugiego wynikało, że przebadano już 65% mężczyzn (grupa wysokiego rozpowszechnienia). Oba zdania były prawdziwe, ponieważ pierwsze dotyczyło okresu rocznego, a drugie proc. panów, którzy byli kiedykolwiek badani w czasie swojego życia. Po odczytaniu stwierdzenia ochotników pytano, czy w ciągu najbliższych 12 miesięcy zamierzają się poddać badaniu. Okazało się, że panowie z 2. grupy o wiele częściej deklarowali taką chęć, natomiast przedstawiciele grupy przekonanej o niewielkim zakresie badań przesiewowych rzadziej ujawniali dane osobowe i adres, by otrzymać pocztą informacje dotyczące skryningu onkologicznego. Oznacza to, że rzeczywiście niskie liczby działają demotywująco. Sieverding wspomina o barierach związanych z onkologicznymi badaniami przesiewowymi. Wg niej, trudno zmienić postawy lub obraz przeciętnego pacjenta poddającego się skryningowi, ale łatwo odpowiednio zaprojektować kampanię społeczną. Komunikat trzeba sformułować w taki sposób, by ludzie myśleli, że większość coś robi, więc i ja powinienem/powinnam – bez względu na to, czy chodzi o nowotwory, szczepienia czy mycie rąk.
  17. Decyzje podejmowane w obawie przed wzrostem poziomu CO2 oparte są o błędne i absurdalne przewidywania jego produkcji - uważa Tad Patzek. Jego zdaniem dwutlenku węgla nie będzie wcale tak szybko przybywać, bo... nie będzie z czego go emitować. Taką oto zaskakującą tezę ogłosił ten naukowiec w czasopiśmie Energy, The International Journal. Patzek jest szefem Wydziału Inżynierii Ropy Naftowej i Geosystemów na Uniwersytecie Teksasu w Austin, więc jego słowa mają sporą wagę. Polityczne i gospodarcze decyzje, związane z obawami przed efektem cieplarnianym podejmowane są na podstawie przewidywań ilości produkowanego dwutlenku węgla, a te na podstawie oczekiwanego rozwoju przemysłu, zapotrzebowania na energię, itd. Tymczasem ten szacowany na najbliższe sto lat poziom emisji CO2, jak uważa Tad Patzek, jest kompletnie nierealistyczny i pozbawiony podstaw. Zarzuca on tym przewidywaniom jeden, podstawowy, poważny błąd. Z czterdziestu scenariuszy przedstawionych na Międzyrządowym Panelu d/s Zmian Klimatycznych (Intergovernmental Panel on Climate Change, IPCC) aż 36 zakłada wzrost emisji CO2 zakładając utrzymanie dzisiejszego poziomu wydobycia paliw kopalnych. Tymczasem utrzymanie produkcji węgla i ropy naftowej na dzisiejszym poziomie jest wręcz niemożliwe, uważa naukowiec. Prezentowane na IPCC scenariusze opierają się na założeniu, że złoża paliw kopalnych nie wyczerpią się przez 200-400 lat. Tymczasem jest to, zdaniem Patzeka powszechny i szkodliwy mit. Nie da się, jak utrzymuje, zachować obecnego poziomu wydobycia nawet mimo teoretycznie wystarczającej zasobności złóż. Powody są czysto ekonomiczne: znaczna część łatwo dostępnych zasobów jest na wyczerpaniu, wydobycie ropy i węgla będzie się szybko stawać coraz droższe i coraz mniej opłacalne. Już w tej chwili przemysł sięga po drogie technologie, będące na granicy opłacalności, jak piaski bitumiczne, czy gaz łupkowy. Rosnące ceny paliw kopalny nieuchronnie wymuszą oszczędniejsze ich wykorzystanie i zwiększą udział innych technologii. Powszechnie akceptowane scenariusze to szczyt produkcji paliw kopalnych w roku 2011 a następnie nieuchronny spadek nawet o 50% w ciągu następnych 50 lat. Gdzie tu utrzymanie emisji dwutlenku węgla na dzisiejszym poziomie przez następne sto lat, skoro nie będzie z czego, pyta retorycznie Tad Patzek i postuluje szybkie przekalkulowanie scenariuszy i planowanych posunięć. Podejmowane obecnie decyzje, oparte na nierealistycznych założeniach, są kosztowne ekonomicznie i szkodliwe, alarmuje. Szczególnie atakuje on plany sekwestracji (wychwytywania) dwutlenku węgla celem składowania go lub neutralizacji. Sekwestracja spowoduje spadek efektywności elektrowni węglowych o 50%, uważa Patzek. Mądrzejsze zaangażowanie takich samych środków przyniosłoby tymczasem analogiczny wzrost efektywności produkcji elektryczności, która wynosi obecnie jedynie 32%. Trzeba podkreślić, że Tad Patzek nie neguje samego istnienia efektu cieplarnianego czy skutków emisji dwutlenku węgla. Ale jego zarzuty są poważnym argumentem przemyślenia sytuacji i zmiany obecnego podejścia, które nazywa histerycznym.
  18. Intel poinformował o dokonaniu niezwykle ważnego kroku na drodze do zastąpienia podzespołów elektronicznych układami fotonicznymi. Koncern pokazał prototyp pierwszego w historii bazującego na krzemie łącza optycznego ze zintegrowanym laserem. Już w tej chwili jest ono w stanie przesyłać dane na duże odległości z prędkością 50 gigabitów na sekundę. Obecnie do przesyłania danych w urządzeniach elektronicznych wykorzystywana jest miedź. Sygnał elektryczny ulega w niej degradacji, dlatego też podzespoły muszą być umieszczone blisko siebie. Tylko dzięki temu jesteśmy w stanie osiągnąć odpowiednią jakość sygnału i duże prędkości jego przepływu. Wykorzystanie wynalazku Intela oznacza, że dane można będzie przesyłać szybciej i na większe odległości. To z kolei wpłynie w przyszłości na sposób projektowania komputerów i całkowicie zmieni architekturę centrów bazodanowych. Dzięki krzemowej fotonice poszczególne elementy superkomputerów czy części bazy danych nie będą musiały znajdować się blisko siebie. Będzie można rozsiać je wygodnie po całym budynku lub nawet zespole budynków. Z kolei w domu, za pomocą cienkiego kabla optycznego będziemy mogli połączyć odtwarzacz wideo z olbrzymim ekranem znajdującym się w innym pomieszczeniu i mieć pewność, że uzyskany obraz będzie niezwykle wysokiej jakości. Zastąpienie łączy miedzianych optycznymi umożliwi zbudowanie jeszcze potężniejszych superkomputerów niż obecnie. Justin Rattner, prezes ds. technologicznych Intela, powiedział, że 50-gigabitowe optyczne łącze posłuży inżynierom koncernu do testowania i rozwijania nowych pomysłów. Celem firmy jest opracowanie technologii, która pozwoli na tanie przesyłanie olbrzymich ilości danych za pomocą szybkich łączy bez konieczności używania egzotycznych materiałów, takich jak np. arsenek galu. Najnowsze osiągnięcie Intela było możliwe dzięki wcześniejszym badaniom, podczas których wynaleziono m.in. pierwszy krzemowy laser czy wysoko wydajne optyczne modulatory i fotodetektory. O osiągnięciach tych informowaliśmy w przeszłości. Teraz Intel wykorzystał cztery lasery, w których świetle dane są kodowane z prędkością 12,5 Gb/s. Promienie są następnie łączone, dzięki czemu uzyskujemy przepływ danych rzędu 50 gigabitów na sekundę. Na drugim końcu łącza znajduje się układ, który ponownie rozdziela promienie i kieruje je do czterech fotodetektorów, zamieniających dane w sygnały elektryczne. Całość została wykonana przy użyciu technik i materiałów używanych obecnie w przemyśle półprzewodnikowym. Opisanej powyżej technologii nie zobaczymy jednak w najbliższym czasie w naszych komputerach. Intel chce ją skomercjalizować dopiero wówczas, gdy uda się osiągnąć transfer danych rzędu 1 Tb/s. Inżynierowie koncernu pracują zatem nad umieszczeniem w układzie większej liczby laserów oraz nad zwiększeniem prędkości pracy modulatora. Jednak co nieco z prac Intela trafi w nasze ręce w nieodległym czasie. Firma pracuje bowiem jednocześnie nad technologią Light Peak, której celem jest opracowanie technologii optycznej, która będzie w stanie przesyłać na firmowej platformie dane z prędkością 10 Gb/s bez względu na rodzaj wykorzystanego protokołu.
  19. Android szybko zdobywa serca Brytyjczyków. W ostatnim kwartale liczba jego użytkowników wzrosła o 350% w porównaniu z pierwszym kwartałem bieżącego roku. Obecnie do Androida należy już 10,2% brytyjskiego rynku smartfonów. Co więcej urządzenia HTC Desire i HTC Legend, które korzystają właśnie z Androida, są najbardziej popularnymi smartfonami na Wyspach. Tak gwałtowny wzrost oznacza, zdaniem analityk Megan Baldock, jedno - system operacyjny przestał być jedynie dodatkiem do smartfonu, klienci najwyraźniej szukają urządzeń z konkretnym oprogramowaniem.
  20. Ciemna materia, która według szacunków odpowiada za 80% masy naszego Wszechświata, wciąż wymyka się naukowcom. Nie daje się ani zaobserwować, ani znaleźć w laboratorium. Astronomowie z koledżu Royal Holloway na Uniwersytecie Londyńskim chcą jej szukać... na Słońcu. Ciemna materia miałaby wypełniać przestrzeń kosmiczną, nie świeci, więc nie potrafimy jej zaobserwować. Na jej istnienie wskazuje jedynie fakt, że oddziałuje grawitacyjnie ze zwykłą, naszą materią. Jej istnienie wypełniło by również lukę w teoretycznych obliczeniach masy, jaką powinien zawierać Wszechświat oraz wyjaśniało wiele grawitacyjnych anomalii w obserwowanym kosmosie. Nie wiadomo tak naprawdę, czym miałaby być, nie udało się dotychczas zaobserwować jej interakcji (zderzeń) ze zwykłą materią ani w kosmosie, ani w laboratorium. Uczeni liczą na przełom dzięki Wielkiemu Zderzaczowi Hadronów, ale uruchomienie go z pełną mocą nastąpi nieprędko. Doktor Stephen West z Wydziału Fizyki koledżu Royal Holloway na Uniwersytecie Londyńskim zajął się w swoim ostatnim studium możliwym wpływem ciemnej materii na właściwości naszego Słońca. Jego zdaniem, wobec fiaska dotychczasowych metod, właśnie nasza gwiazda mogłaby stanowić naturalne laboratorium do poszukiwań tego fenomenu. Ciemna materia tworzy halo, obłok wokół naszej Galaktyki. Jej ruch obrotowy sprawia, że każde ciało niebieskie poruszając się doświadcza swego rodzaju „wiatru" ciemnej materii, która przez nie przenika. Ponieważ oddziałuje ona grawitacyjnie ze zwykłą materią, obiekty o dużej masie są szczególnie predestynowane do wykrycia takich oddziaływań. Skoro ciemna materia wpływa na ruch ciał niebieskich, to zależność musi być obustronna. Jak spodziewa się dr West, cząsteczki przelatującej ciemnej materii zderzają się z materią Słońca i zostają schwytane przez jego grawitację, gromadząc się w jego wnętrzu. Narastająca masa ciemnej materii w rdzeniu gwiazdy musi wywoływać jakieś efekty, które dadzą się przewidzieć i zaobserwować. Jeśli teoretyczne kalkulacje pokryją się z obserwacjami, będzie to oznaczało, że wykorzystany model ciemnej materii jest prawidłowy. Jeśli nie, to albo ma ona właściwości inne, niż się spodziewamy, albo... wcale jej nie ma, bo niektórzy naukowcy są takiego właśnie zdania. Komputerowe symulacje, wykonane w zespole Stephena Westa wskazują, że nagromadzona we wnętrzu gwiazdy ciemna materia powinna doprowadzić do spadku temperatury jego rdzenia. Działałaby ona według założonego modelu jak radiator, nagrzewając się i odprowadzając temperaturę ze środka na powierzchnię. Porównanie temperatury powierzchni Słońca i jego rdzenia z tymi wynikającymi z obliczeń powinno dostarczyć bezcennych informacji na temat masy nagromadzonych ciemnych cząstek oraz ich oddziaływania z materią słoneczną. Temperaturę wnętrza Słońca można poznać mierząc emisję neutrin, które są produktem ubocznym reakcji zachodzących w gwieździe. To będzie następny etap planowanych przez doktora Westa badań: poszukiwanie zmian w ilości powstających w Słońcu neutrin, uwzględnienie czułości istniejących detektorów neutrin, które są aparaturą względnie nową technologicznie. Po uruchomieniu całej mocy Wielkiego Zderzacza Hadronów planowane są eksperymenty mające na celu wykrycie i zbadanie właściwości ciemnej materii. Wówczas dane obserwacyjne, zgromadzone według pomysłu Stephena Westa, dostarczą bezcennego materiału porównawczego i weryfikującego.
  21. Google podpisało umowę, na podstawie której firmowa technologia będzie wykorzystywana do dostarczania wyników wyszukiwania w serwisie... Yahoo! Japan. Dzięki temu koncern zapewnił sobie niezwykle silną pozycję w Kraju Kwitnącej Wiśni. Obecnie z Google'a i wyszukiwarki Yahoo! korzysta 90% Japończyków. W ubiegły roku Yahoo! i Microsoft zawarły porozumienie, na mocy którego amerykańska wersja Yahoo! oraz wiele wersji narodowych korzysta z wyszukiwarki Bing. Umowa ta nie dotyczy jednak japońskiej odmiany Yahoo!, gdyż samo Yahoo! ma w niej mniej niż 34% udziałów. Władze Yahoo! Japan oświadczyły, że umowa z Google'em nie wpłynie na relacje z Yahoo!. Porozumienie jest niezwykle ważne dla firmy Page'a i Brina, gdyż wspomniany serwis to najpopularniejsza witryna WWW w Japonii.
  22. Gdy jesienią liście zaczynają żółknąć, szrotówek białaczek (Phyllonorycter blancardella) wykonuje swego rodzaju reanimację. Dzięki bakteriom z rodzaju Wolbachia larwy motyla mają się świetnie na zielonych, czyli prowadzących fotosyntezę połaciach, podczas gdy reszta drzewa przeszła już ogałacającą metamorfozę zmian pór roku. Szrotówki należą do owadów minujących, które drążą korytarze w liściach lub młodych pędach. Podobnie jak ssaki, wchodzą w symbiozę z bakteriami, pomagającymi im w trawieniu rozmaitych substancji. Często mikroby są przekazywane z pokolenia na pokolenie. Udowodniono także, że u owadów endosymbionty "opracowują" nowe metody obrony dla swoich łaskawych gospodarzy. Ekolog David Giron z Université François Rabelais w Tours z podziwem przygląda się tym organizmom. Wg Francuza, Wolbachia mogą wpływać na metabolizm roślin. Niektóre bakterie, w tym one, mają bowiem gen występujący także u przedstawicieli flory, który pobudza komórki roślinne do produkcji hormonów zwanych cytokininami. To niezwykle istotne, ponieważ związki te opóźniają śmierć komórkową. By sprawdzić, czy Wolbachia mają coś wspólnego z powstawaniem wysepek zieleni pośród morza żółtych liści, zespół Girona podał "doustnie" niektórym samicom antybiotyki. W ten sposób uśmiercono bakteryjnych współpracowników motyli. Samice złożyły później jaja na liściach jabłoni. Okazało się, że larwy samic z grupy kontrolnej (niepotraktowanej lekami) były w stanie doprowadzić do zachowania fotosyntetyzujących liści, lecz reszcie się ta sztuczka nie udawała. Bez bakterii nie masz zielonej wysepki, a jeśli jej nie masz, giniesz – podsumowuje Giron. Na razie biolodzy nie wiedzą, czy Wolbachia same wytwarzają cytokininy, czy też w grę wchodzi inny mechanizm. Tak czy siak daje to motylom dodatkowy miesiąc na rozmnożenie i wzrost.
  23. Priony mogą się nagle pojawiać w zdrowej tkance mózgu. Katalizatorem reakcji obserwowanej przez autorów studium z The Scripps Research Institute oraz Uniwersyteckiego College'u Londyńskiego była powierzchnia stalowych przewodów. Wcześniejsze badania pokazały, że priony z łatwością wiążą się z tego typu powierzchniami i niezwykle skutecznie inicjują zakażenie. W najnowszym eksperymencie przewody pokryte niezarażonym homogenatem mózgu także zapoczątkowywały chorobę prionową w hodowli komórkowej, w dodatku myszy mogły się tą drogą zarazić. Choroby prionowe, takie jak sporadyczna postać choroby Creutzfeldta-Jakoba (ang. sporadic Creutzfeldt-Jakob disease, sCJD) u ludzi czy atypowa encefalopatia gąbczasta bydła, występują rzadko i losowo. Proponowano, by uznać, że przypadki te stanowią odzwierciedlenie rzadkich spontanicznych aktów powstawania prionów w mózgu. Nasze studium oferuje eksperymentalny dowód na potwierdzenie, że priony rzeczywiście tworzą się spontanicznie, i pokazuje, że zdarzeniom tym sprzyja kontakt ze stalowymi powierzchniami – twierdzi dr Charles Weissmann. Priony odkryto w 1982 r. Są to patologicznie uformowane białka, będące jedynymi znanymi czynnikami zakaźnymi niezawierającymi DNA ani RNA. W komórkach ssaków powstaje niegroźne fizjologiczne białko PRPc (od ang. Cellular Prion-Related Protein – komórkowa forma białka związanego z prionami), lecz po zakażeniu prionami następuje jego zmiana w patologiczną postać PRPsc (od ang. Prion-Related Protein - Scrappie form - PRP związane z chorobą scrappie). W końcowych stadiach choroby występują duże agregaty białka o nieprawidłowej konformacji. Towarzyszy temu masywne uszkodzenie komórek i tkanek. W amerykańsko-brytyjskim studium wykorzystano test Scrapie Cell Assay autorstwa Weissmanna. Za jego pomocą mierzono możliwości infekcyjne przewodów pokrytych prionami. Ku swojemu zaskoczeniu zespół stwierdził, że zakażenia wystąpiły także w grupie kontrolnej, stykającej się wyłącznie z drutami pokrytymi prawidłowymi mysimi komórkami. Było to tym dziwniejsze, że podczas eksperymentu bardzo rygorystycznie przestrzegano wszelkich wytycznych, by uniknąć skażenia prionami. Weissmann i John Collinge z UCL zauważyli, że kiedy PRPc nałoży się na stalowe przewody i zetknie z hodowlami komórkowymi, niewielka, ale istotna statystycznie część drutów wywoła zakażenie komórek prionami. Po przeniesieniu ich na myszy choroba nadal postępuje. Weissmann podkreśla, że istnieje alternatywne wyjaśnienie zaobserwowanego zjawiska. Infekcyjne priony mogą być zawsze obecne w mózgu w stężeniach niewykrywalnych dla konwencjonalnych metod (normalnie są one rozkładane w takim samym tempie, jak powstają). Metalowa powierzchnia koncentrowałaby zaś patologiczne białka, zwiększając skuteczność detekcji.
  24. Eksperci pracujący pod kierunkiem uczonych z UCLA Henry Samueli School of Engineering and Applied Science udowodnili, że za pomocą metod mechaniki kwantowej można stworzyć mechanizm kryptograficzny bazujący tylko i wyłącznie na fizycznej lokalizacji odbiorcy i nadawcy wiadomości. To ogromny postęp, gdyż eliminuje jedno z najpoważniejszych wyzwań kryptografii - bezpieczną dystrybucję kluczy kryptograficznych koniecznych do zapisania i odczytania informacji. Kryptografia opierająca się na lokalizacji zakłada wykorzystanie precyzyjnych danych o położeniu odbiorcy i nadawcy do stworzenia klucza kryptograficznego. Rozwiązanie takie ma tę olbrzymią zaletę, że daje pewność, iż wiadomość zostanie odebrana i odczytana tylko przez osobę, która znajduje się w określonym miejscu. Szef grupy badaczy Rafail Ostrovsky, profesor z UCLA mówi, że najważniejszym elementem nowej metody jest bezpieczna weryfikacja położenia geograficznego urządzeń nadawczo-odbiorczych. Dzięki niej mamy pewność, że np. informacja wysyłana do odległej bazy wojskowej zostanie odebrana tylko przez kogoś, kto się w tej bazie znajduje. Niezwykle ważne jest tutaj bezpieczne określenia położenia i to w taki sposób, żeby nie można było się pod to położenie podszyć oraz bezpieczna komunikacja z urządzeniem znajdującym się w tej konkretnej lokalizacji. Urządzenie jest uwiarygadniane przez swoje położenie. Stworzyliśmy metodę bezpiecznej komunikacji z urządzeniem w danej lokalizacji. Połączenie można nawiązać bez potrzeby wcześniejszego komunikowania się z tym urządzeniem - mówi Ostrovsky. Dotychczas sądzono, że wykorzystywana w łączności bezprzewodowej triangulacja oferuje odpowiedni poziom bezpieczeństwa. Jednak w ubiegłym roku badania prowadzone pod kierunkiem Ostrovsky'ego pokazały, że grupa osób jest w stanie oszukać wszelkie dotychczasowe systemy określania położenia. Najnowsze badania pokazały jednak, że wykorzystanie mechaniki kwantowej gwarantuje bezpieczne jednoznaczne określenie położenia, nawet wówczas, gdy mamy do czynienia z grupą próbującą oszukać systemy lokalizacji. Ostrovsky i jego zespół pokazali, że używając kwantowych bitów w miejsce bitów tradycyjnych, jesteśmy w stanie precyzyjnie określić lokalizację i zrobimy to w sposób bezpieczny. Jeśli nawet przeciwnik będzie próbował podszyć się pod naszą lokalizację, to mu się to nie uda. Jego urządzenia będą bowiem w stanie albo przechowywać przechwycony stan kwantowy, albo go wysłać. Nie mogą robić obu tych rzeczy jednocześnie. Wysyłając zatem kwantową wiadomość szyfrujemy ją na podstawie naszej lokalizacji, a odszyfrować może ją jedynie urządzenie znajdujące się w lokalizacji docelowej. W pracach Ostrovsky'ego brali udział jego studenci Nishanth Chandran i Ran Gelles oraz Serge Fehr z holenderskiego Centrum Wiskunde & Informatica (CWI) i Vipul Goyal z Microsoft Research.
  25. Profesor Noam Sobel oraz współpracujący z nim Anton Plotkin, Aharon Weissbrod i Lee Sela z Instytutu Weizmanna opracowali technologię, która pozwala sterować urządzeniami za pomocą... powietrza wydmuchiwanego i wciąganego nosem. Izraelski system wykrywa zmiany ciśnienia w nozdrzach i przekłada te dane na sygnały elektryczne. Głównym celem naukowców jest umożliwienie osobom z niewładnymi kończynami sterowania wózkiem czy komunikowania się z innymi. Technologia została przetestowana zarówno przez osoby zdrowe, jak i całkowicie sparaliżowane. Okazało się, że pozwala ona pokonać wózkiem inwalidzkim skomplikowany tor przeszkód. Umożliwia też na korzystanie z gier komputerowych z niemal taką samą prędkością jak za pomocą klawiatury czy myszy. Wdychanie i wydychanie powietrza nosem to bardzo precyzyjny i łatwy do kontrolowania mechanizm. Odbywa się on dzięki pomocy podniebienie miękkiego. Ono jest z kolei sterowana za pomocą nerwów połączonych bezpośrednio z mózgiem. To skłoniło Sobela i jego zespół do stwierdzenia, że nawet u osób najciężej sparaliżowanych kontrola podniebienia miękkiego została zachowana. Badania przeprowadzone za pomocą funkcjonalnego rezonansu magnetycznego pokazały, że uczeni mają rację, a w kontroli podniebienia miękkiego bierze udział kilka obszarów mózgu. Zauważono też, że obszary te w dużej mierze pokrywają się z obszarami odpowiedzialnymi za naukę mówienia, co sugerowało, iż kontrola przepływu powietrza nosem jest intuicyjna. Izraelczycy stworzyli więc urządzenie z czujnikiem montowanym przy ujściu nozdrzy. Zbudowano też odpowiednią wersję dla osób korzystających z respiratora. Testy na zdrowych wypadły pomyślnie, urządzenie wypróbowano więc na chorych. Jedna z pacjentek, która przeszła udar przed 7 miesiącami, po kilku dniach nauki napisała list do swojej rodziny. Z kolei pacjent, który jest sparaliżowany od 18 lat stwierdził, że nowe urządzenie jest znacznie łatwiejsze w użyciu niż systemy wykorzystujące ruchy powiek. Chorzy byli w stanie pisać listy i grać w gry komputerowe. Nauczenie się sterowania wózkiem inwalidzkim zajmowało im 15 minut. Dwa wciągnięcia powietrza informują urządzenie, że wózek ma jechać do przodu. Dwa wydmuchnięcia powodują jazdę w tył. Wydmuchnięcie i wciągnięcie to skręt w lewo, wciągnięcie i wydmuchnięcie - w prawo. Testy pokazały, że osoba sparaliżowana od szyi w dół radzi sobie z wózkiem równie dobrze, jak osoba zdrowa. Jako że przepływ powietrza jesteśmy w stanie precyzyjnie kontrolować, powietrze wciągamy i wydmuchujemy, podmuch może być słaby i mocny, długi i krótki, programiści będą w stanie stworzyć skomplikowany "język" umożliwiający precyzyjne sterowanie różnymi przedmiotami. Izraelska technologia ma sporo zalet. Jest tania, prosta i łatwo się z niej korzysta. Przyda się ona nie tylko niepełnosprawnym. Może posłużyć przecież jako "trzecia ręka" pilotom czy chirurgom.
×
×
  • Dodaj nową pozycję...