Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Nie od dzisiaj wiadomo, że im więcej dwutlenku węgla w atmosferze, tym lepiej rosną rośliny, które z kolei wchłaniają dwutlenek węgla. Uczeni zaczęli więc się zastanawiać, czy rośliny nie mogłyby nas uratować przed efektem cieplarnianym, wchłaniając nadmiar dwutlenku węgla i składując go w glebie w swoich systemach korzeniowych. Chcąc sprawdzić tę hipotezę zespół mikrobiologów i fizjologów roślin ze Smithsonian Environmental Research Center w Edgewater przeprowadził eksperyment na grupie dębów rosnących na Florydzie. Rośliny przez 6 lat były poddawane oddziaływaniu dwukrotnie większej zawartości dwutlenku węgla, niż znajduje się w atmosferze. Wyniki były zaskakujące. Wzrost roślin był szybszy niż normalnie, ale z gleby do atmosfery przedostawało się o 50% więcej dwutlenku węgla, niż asymilowały go szybko rosnące drzewa. Winowajcami okazały się grzyby. Gdy porównano ich ilość w glebie pochodzącej z okolic dębów, które były wystawione na zwiększone ilości CO2, z ilością grzybów rosnących w normalnej atmosferze, okazało się, że jest ich więcej tam, gdzie było więcej dwutlenku węgla. Grzyby rozkładają materię organiczną, uwalniając przy tym do atmosfery węgiel. Im jest ich więcej, tym więcej jej rozkładają i tym więcej węgla przedostaje się do atmosfery. To nie jest dobra wiadomość – powiedział Richard Gill z Washington State University. Większość modeli klimatycznych zakłada bowiem, że roślinność będzie absorbowała co najmniej tyle węgla z atmosfery, co obecnie. Niektórzy co prawda zwracali uwagę, że to może nie być prawdą, ale po raz pierwszy przypuszczenia te udowodniono i opisano proces, który prowadzi do większej emisji węgla. Ekolog Chris Field z Carnegie Institution na Uniwersytecie Stanforda zauważa: Oznacza to, że mechanizm oczyszczania atmosfery, na który liczyliśmy, nie zadziała w przyszłości [przy większym zanieczyszczeniu atmosfery dwutlenkiem węgla – red.].
  2. Dla niektórych osób wściekłość odmalowująca się na twarzy innych jest tak zachęcająca i nagradzająca, że dążą do powtarzania sytuacji wywołujących negatywne emocje — odkrył Olivier Schultheiss, profesor nadzwyczajny psychologii na University of Michigan. To niezwykle uderzające, zwłaszcza że grymas złości jest przez większość ludzi niezmiennie oceniany jako sygnał negatywny. Dla niektórych jednak stanowi on łakomy kąsek, oczywiście na poziomie nieświadomym, dlatego usilnie na niego pracują. Badanie amerykańskich naukowców rzuca nieco światła na zagadnienie, dlaczego pewne osoby uwielbiają denerwować innych. Najprawdopodobniej "żartownisie" są wzmacniani [zachęcani — przyp. red.] przez przelotny wyraz rozdrażnienia odmalowujący się na czyjejś twarzy i dlatego kontynuują swoje działania, by go zobaczyć znowu i jeszcze raz. Dopóki grymas nie utrzyma się dłużej, jest traktowany nie jak groźba, lecz jak nagroda. Schultheiss i Michelle Wirth pobrali od uczestników eksperymentu próbki śliny. Następnie wykonywali oni na komputerze serię zadań, po których, w zależności od wyniku, pojawiała się twarz wyrażająca emocje pozytywne, negatywne lub neutralna. Okazało się, że wolontariusze z najwyższym poziomem testosteronu (który wiąże się z tendencją do dominowania) wyuczyli się zachowań prowadzących do wyświetlania gniewnych buziek (Physiology and Behavior).
  3. Podczas targów CeBIT Samsung zaprezentował niezwykle interesujący monitor. SyncMaster 940 UX łączy się z komputerem za pomocą... łącza USB. Dzięki takiemu rozwiązaniu możliwe jest nie tylko odłączanie monitora w czasie pracy komputera, ale również jednoczesne połączenie do 8 monitorów o rozdzielczości 1600x1200. Otrzymamy w ten sposób obraz o rozdzielczości 12800x1200. SyncMaster 940 UX powstał przede wszystkim z myślą o zastosowaniach biznesowych, w których przydatne czasami jest skorzystanie z więcej niż jednego monitora. Urządzenie Samsunga korzysta z technologii UbiSync firmy Display Link. Koreańska firma ma ją na wyłączność na okres 12 miesięcy, więc konkurencyjne produkty korzystające z UbiSync pojawią się na rynku nie wcześniej niż za rok. W interesujący sposób rozwiązano ograniczenia pojemności łącza USB. Aby transmisja danych przebiegała bezproblemowo, przekazywane są tylko informacje dotyczące tego, co zmieniło się w wyświetlanym obrazie (bądź obrazach, w przypadku konfiguracji wielomonitorowej). Jako że monitory podłączane są do USB, za obróbkę obrazu nie odpowiada procesor graficzny, który w tej sytuacji nie jest potrzebny, ale procesor centralny komputera. Te dwa czynniki: ograniczenie pojemności łącza USB oraz korzystanie z mocy CPU oznaczają, że rozwiązanie Samsunga sprawdzi się w mniej wymagających zastosowaniach. Przydatne więc będzie przy pracy z dokumentami tekstowymi czy do tworzenia prostszych prezentacji, natomiast zaawansowane aplikacje graficzne mogą zbytnio obciążać port USB i procesor, by praca z nimi była komfortowa. Ami Randhawa, menedżer ds. marketingu firmy UK Displays uważa, że monitor Samsunga sprawdzi się przede wszystkim w centrach finansowych i centrach kontroli. Oczywiście SyncMaster 940 UX został wyposażony też w wejścia D-Sub i DVI, więc można go podłączyć do karty graficznej. Samsung nie ujawnił jeszcze ceny swojego produktu. Wiadomo jednak, że dzięki UbiSync może być on nawet o 50 euro tańszy od standardowego 19-calowego monitora.
  4. Opinie na temat bezpieczeństwa systemu Windows Vista wciąż są zróżnicowane, natomiast wszyscy eksperci zgadzali się co do jednego – Vista jest bezpieczniejsza niż Windows XP. Teraz, po niespodziewanym oświadczeniu partnera Microsoftu – firmy Kaspersky – sytuacja ta może się zmienić. Zdaniem szefowej firmy, pani Natalii Kaspersky, system kontroli kont (User Account Control – UAC) Visty jest tak uciążliwy, że użytkownicy będą go wyłączali. A bez niego Vista jest, w jej opinii, mniej bezpieczna niż Windows XP z Service Packiem 2. Powstaje więc pytanie, czy bezpieczeństwo Visty polepszyło się, czy też pogorszyło – mówi Kaspersky. Arno Edelmann, menedżer odpowiedzialny w Microsofcie za bezpieczeństwo produktów dla biznesu, jest zaskoczony słowami pani Kaspersky. Mamy olbrzymią liczbę partnerów, a Kaspersky jest wśród najlepszych. Dziwią mnie jej słowa, gdyż Kaspersky ma bardzo dobry wgląd w produkty zabezpieczające Microsoftu. Koncern z Redmond ogłosił, że Vista jest najbezpieczniejszym w historii systemem operacyjnym spod znaku Microsoftu. Kaspersky jednak twierdzi, ze znalazł pięć różnych sposobów na ominięcie zabezpieczeń UAC, a cyberprzestępcy z pewnością znajdą kolejne. Kaspersky odniósł się też do skarg firm Symantec i McAfee, które mówią, że PatchGuard – technologia ochrony jądra systemu Vista – przeszkadza w pracy firmom produkującym oprogramowanie zabezpieczejące. PatchGuard nie pozwala twórcom programów zabezpieczających na robienie tego, do czego się przyzwyczaili – mówi Kaspersky. Deweloperzy muszą działać w ramach prawa, natomiast cyberprzestępcy się nim nie przejmują i gdy złamią zabezpieczenia PatchGuarda będą mieli dostęp do jądra, którego pozbawieni są twórcy oprogramowania zabezpieczającego.
  5. Specjaliści informują, że google’owski serwis blogowy Blogger jest wykorzystywany przez cyberprzestępców do rozpowszechniania szkodliwego kodu. Według firmy Fortinet, przestępcy założyli na Bloggerze setki blogów, na które wejście kończy się zarażeniem komputera szkodliwym oprogramowaniem. Odróżnienie ich od blogów tworzonych przez uczciwe osoby jest dla przeciętnego internauty niemożliwe. Jeden z takich fałszywych blogów został rzekomo założony przez miłośnika motocykla Honda CR450 i próbuje zarazić komputer wizytującego koniem trojańskim Wonka. Inny rzekomy blog przekierowuje swoje ofiary na stronę Pharmacy Express, która z jednej strony wyłudza dane osobowe, a z drugiej zaraża rozsyłającym spam koniem trojańskim Stration. To nie są prawdziwe blogi, które padły ofiarą cyberprzestępcą. To fałszywe blogi zajmujące się phishingiem – mówi przedstawiciel Google’a. Zapowiada śledztwo i usunięcie rzekomych blogów. Ataki na Bloggera to kolejny przykład, w jaki sposób sieci społecznościowe są wykorzystywane przez cyberprzestępców. Warto tu przypomnieć, że przed kilkoma miesiącami poinformowano o podobnych atakach na YouTube czy MySpace.
  6. Naukowcy z Jülich w Niemczech odkryli nową metodę przełączania stanów magnetycznych. Ten najszybszy znany nam sposób przełączania uzyskiwany jest za pomocą zewnętrznego pola magnetycznego. Może on posłużyć do budowy nowych urządzeń pamięci masowej. W miniaturowych magnesach, wielkości mikrometrów, pole magnetyczne w naturalny sposób tworzy wiry. Taki wir magnetyczny posiada swoje centrum, którego średnica wynosi około 10 nanometrów. Kierunek namagnesowania centrum ustawiony jest pionowo do powierzchni, może więc wskazywać dwie wartości: góra lub dół. Jako że raz nadany kierunek jest bardzo stabilny, właściwość tę można wykorzystać do przechowywania danych binarnych, gdyż za jego pomocą można zapisać wartości 0 i 1. Stabilność kierunku namagnesowania utrzymywana jest dzięki siłom działającym w magnesie. Wpływając na te siły można zmieniać kierunek namagnesowania centrum wiru magnetycznego. Uczeni z Instytutu Badań nad Ciałami Stałymi w Jülich we współpracy z akademikami z Instytutu Maxa Plancka pokazali symulację komputerową, która wyjaśnia, w jaki sposób za pomocą krótkich, słabych impulsów, można przełączać kierunek namagnesowania centrum. Doktor Ricardo Hertel, szef zespołu badawczego, poinformował, że przełączanie pomiędzy kierunkami odbywa się błyskawicznie, trwa około pięciu pikosekund (pikosekunda to 10-12 sekundy, czyli jej bilionowa część). W ciągu pięciu pikosekund impuls zaburza strukturę magnetyczną tak, że obok istniejącego wiru magnetycznego powstaje antywir. Mamy więc parę wir-antywir, która ulega anihilacji. W jej wyniku powstaje nowy wir, którego kierunek namagnesowania jest przeciwny do wiru oryginalnego – mówi Hertel. I dodaje, że przełączanie odbywa się kilkaset razy szybciej, niż pracują tranzystory w najszybszych obecnie procesorach. Oprócz niezwykłej szybkości całego procesu bardzo ważną jego cechą jest odzyskiwanie stabilności przez cały układ. Po impulsie i zmianie kierunku namagnesowania nowy wir jest tak samo stabilny jak oryginalny. Odkrycie niemieckich uczonych daje nadzieję na wyprodukowanie w przyszłości mniejszych i szybszych niż obecnie magnetycznych nośników pamięci masowej.
  7. Badania naskalnych rysunków ujawniły, że przed tysiącami lat mieszkańcy francuskich Pirenejów handlowali minerałami. Uczeni ze Stanford University badali skład farb, za pomocą których namalowano Wielkiego Byka z Lascaux. To jedno z najstarszych znanych nam malowideł. Akademicy ze Stanford Linear Accelerator Center (SLAC) otrzymali mikroskopijne próbki, pobrane przez archeologów z uszu i pyska zwierzęcia. Do ich zbadania wykorzystali metodę absorpcji promieni X, za pomocą której przeanalizowali znajdujący się w farbie tlenek manganu. Okazało się, że w badanych próbkach występuje bardzo szeroka gama minerałów zawierających ten związek, a wśród nich jest też rzadki hausmannit (Mn3O4), którego nigdy wcześniej nie znaleziono w prehistorycznych pigmentach. Obecnie nic nie wiadomo, by minerał ten występował na okolicznych terenach. Jego pojawienie się w pigmencie może świadczyć albo o tym, że ludzie zapomnieli o miejscu jego występowania (co jest jednak mało prawdopodobne), albo, ku czemu skłaniają się naukowcy, że już 17 000 lat temu, gdy powstawały rysunki w Lascaux, ludzie zajmowali się handlem.
  8. Jak twierdzą Japończycy, u osób cierpiących na zespół obturacyjnego bezdechu sennego (OBS) zwiększa się ryzyko wystąpienia minimalnych uszkodzeń mózgu. Naukowcy z Showa University School of Medicine w Tokio zbadali 65 wolontariuszy. Posługując się skanami mózgu, wykazali, że pacjenci ze średnio nasiloną i ciężką postacią OBS mają więcej uszkodzonych obszarów niż ludzie z lekką formą choroby. W dodatku u mężczyzn z najpoważniejszymi zaburzeniami snu znacznie wzrastały wskaźniki stanów zapalnych oraz nasilonej aktywności płytek krwi (zachodziło niebezpieczeństwo powstawania skrzepów). Podwyższone markery, mocno powiązane z niedoborem tlenu, wyjaśniają obecność uszkodzonych obszarów mózgu. U osoby z zespołem bezdechu sennego w ciągu nocy występuje przynajmniej 30 trwających ponad 10 sekund bezdechów. Chorobę diagnozuje się także, gdy w ciągu godziny odnotowuje się co najmniej 10 takich bezdechów. Jak do tego dochodzi? Przy bezdechu obturacyjnym mamy do czynienia z zablokowaniem przepływu powietrza na poziomie górnej części układu oddechowego. Nadal poruszają się natomiast klatka piersiowa oraz przepona. Nie dochodzi do zrównoważenia ciśnienia wdychanego powietrza w wyniku napięcia mięśni gardła. Uważa się, że przyczyną OBS są zmiany anatomiczne w obrębie górnych dróg oddechowych. Chorzy chrapią, pocą się, bardzo "rzucają się" w czasie snu, a rano często boli ich głowa. Ponieważ ciągle się budzą, są niewyspani, senni i rozkojarzeni. Wcześniejsze badania wykazały zwiększone ryzyko wystąpienia wysokiego ciśnienia tętniczego oraz udarów. Niedające objawów mikrouszkodzenia mózgu odkryte przez Japończyków można m.in. uznać za stan sprzyjający udarom (American Journal of Respiratory and Critical Care Medicine). Zespół naukowców wykazał, że zastosowanie aparatu CPAP (ang. continous positive airway pressure) zmniejsza stan zapalny oraz krzepnięcie krwi. Dwudziestu czterech badanych przez 3 miesiące korzystało z CPAP. Wskutek tego odnotowano spadek stężenia białek C-reaktywnych (markera zapalenia układowego) oraz dwóch białek wskazujących na nasilenie aktywności płytek. CPAP to sprężarka wytwarzająca stały strumień powietrza. Za pośrednictwem maski jest on wprowadzany do dróg oddechowych pacjenta pod ciśnieniem od 5 do 20 mm H2O. Istnieją także aparaty auto-CPAP, które na bieżąco dostosowują ciśnienie powietrza do zmian oddechu chorego. Szef akademików, Kenji Minoguchi, uważa, że CPAP to najlepsza metoda zapobiegania udarom u osób z OBS, które można by zaliczyć do grupy ryzyka.
  9. Najnowsze badania sugerują, że osoby, które doznały nagłego ataku serca nie powinny być ratowane metodą usta-usta. Wydaje się, że sam ucisk na klatkę piersiową daje większe szanse na uratowanie takiej osoby i zapobieżenie uszkodzeniom mózgu wskutek niedotlenienia. Naukowcy ze Szpitala Uniwersyteckiego Surugadai Nihon z Tokio zebrali dane dotyczące ponad 4000 osób, które doznały ataku serca poza placówkami medycznymi. U 18% z tych osób przechodnie zastosowali standardową resuscytację krążeniowo-oddechową (RK-O), czyli uciski klatki piersiowej połączone z metodą usta-usta. Natomiast u 11% świadkowie ograniczyli się tylko do ucisku klatki piersiowej. W pozostałych przypadkach przechodnie nie stosowali żadnej z tych metod. U 19% osób, u których zastosowano jedynie ucisk klatki piersiowej, a które, w momencie przybycie profesjonalnej pomocy, nadal wykazywały nieprawidłowy rytm serca, nie wystąpiło uszkodzenie mózgu. Wśród osób, u których zastosowano pełne RK-O bez szwanku dla mózgu wyszło 11% poszkodowanych. Odsetek ten spadł do 8% u osób, którym przechodnie nie udzielili pomocy. Specjalizujący się w badaniach nad resuscytacją Gordon Ewy z University of Arizona przypomina, że większość osób, które doznały urazu mózgu w wyniku nagłego ataku serca, umiera. Wyjaśnia on, że u ofiar ataku serca stosowanie metody usta-usta nie jest konieczne, gdyż znajdujący się w ich krwi zapas tlenu wystarcza na kilka minut. Ewy uważa, że dobroczynne działanie samego ucisku polega na tym, iż wymusza on ruch krwi w organizmie. Jeśli przerywamy ucisk, by wdmuchnąć powietrze do płuc ratowanej osoby, zatrzymuje się krążenie krwi, a to jest niebezpieczne dla mózgu, który doznaje uszkodzeń w wyniku braku tlenu. Eksperci podkreślają jednak, że metoda usta-usta może wciąż być skuteczna w przypadkach utonięć czy przedawkowania leków lub gdy serce ratowanej ofiary nie bije już przez dłuższy czas. W takich sytuacjach wtłoczenie powietrza pomaga zwiększyć poziom tlenu we krwi. Zdaniem Ewy’ego rozpowszechnienie wiedzy o wynikach badań Japończyków może uratować wiele osób. Okazuje się bowiem, że atak serca stanowi 99% przypadków, w których należy wykonać czynności związane z RK-O, a osoby postronne chętniej udzielają pomocy, jeśli ma ona polegać jedynie na uciskaniu klatki piersiowej. Tradycyjne zasady RK-O przewidują, że klatkę piersiową należy uciskać około 100 razy na minutę, a po każdych 30 naciśnięciach trzeba czynność przerwać i wtłoczyć powietrze do płuc poszkodowanego. Obecne badania wskazują, że, przynajmniej przez pierwszych kilka minut, znacznie skuteczniejszą metodą są same uciski.
  10. Badania przeprowadzone przez Pew Research Center ujawniły, że mieszkający w USA Latynosi mniej chętnie korzystają z Internetu niż biali i czarni obywatele Stanów Zjednoczonych. Okazuje się, że jedynie 56% dorosłych Latynosów używa Sieci. Odsetek ten dla czarnych wynosi 60%, a dla białych – 71%. Wydaje się, że taki stan rzeczy związany jest z wykształceniem. Osoby, które ukończyły szkoły wyższe chętniej korzystają z Sieci. Internetu używa 89% Latynosów, którzy ukończyli college, 70% absolwentów szkół średnich i jedynie 31% Latynosów, którzy nie mają średniego wykształcenia – napisano w raporcie. Odsetek korzystających z Sieci wśród osób niemających średniego wykształcenia jest podobny dla białych (32%), Latynosów (31%) i czarnych (25%) – czytamy. Jednak, podczas gdy wśród ludności hiszpańskojęzycznej średniego wykształcenia nie posiada aż 41% osób, to wśród białych 10%, a wśród czarnych 20%. Latynosi stanowią około 14% populacji dorosłych Amerykanów. Wykształcenie jest tutaj czynnikiem decydującym. Gorszy jego poziom związany jest z niższymi dochodami i mniejszymi umiejętnościami czytania, a większość internetowych treści bazuje na tekście – mówi Susannah Fox z Pew Research Center. Ważna jest też znajomość języków. Wśród Latynosów znających jedynie hiszpański Sieci używa 32% osób, podczas gdy wśród mówiących także po angielsku – 76%.
  11. Wraz ze wzrostem jakości montowanych na płytach głównych układów dźwiękowych, spadł popyt na karty muzyczne. Kupują je przede wszystkim melomani i najwięksi fascynaci gier komputerowych. Rynek kart muzycznych został niemal całkowicie zdominowany przez rodzinę SoundBlaster firmy Creative. Rękawicę postanowił rzucić jej ASUS i na odbywających się właśnie targach CeBIT 2007 pokazał kartę Xonar D2. Karta korzysta z interfejsu PCI oraz układu ADI, którego odstęp sygnału od szumu wynosi 118 dB podczas odtwarzania i 115 dB podczas nagrywania. Karta odtwarza dźwięk o częstotliwości 192 kHz z 24-bitowym próbkowaniem. Obsługuje ona standardy DTS i Dolby Digital. ASUS pokazał też wersję tej samej karty z interfejsem PCI Express x1. Te urządzenia będą produkowane w mniejszej liczbie niż Xonar D2 z PCI. Firma nie ujawniła ceny nowej karty.
  12. Z informacji zdobytych od partnerów Nvidii wynika, że procesor graficzny GeForce 8800 Ultra zadebiutuje razem z innymi procesorami z rodziny GeForce 8xxx. Plany powstania układu Ultra zostały ujawnione przed kilkoma dniami przed uważnych obserwatorów polityki Nvidii, którzy odkryli, że firma przygotowuje zestaw sterowników ForceWare dla kości oznaczonej jako Ultra. Tak więc 17 kwietnia, w odpowiedzi na debiut procesora ATI R600 zadebiutuje nowy członek rodziny GeForce 8800. Prawdopodobnie będzie to podkręcona wersja 8800 GTX. W tym samym dniu Nvidia pokaże układy GeForce 8300 GS, 8400 GS, 8500 GT, 8600 GT i 8600 GTS. Producent nie ujawnia specyfikacji swoich produktów.
  13. Amerykańska Narodowa Służba Oceaniczna i Meteorologiczna (NOAA) informuje, że mijająca właśnie zima była najcieplejszą od kiedy tylko zaczęto przechowywać dane klimatyczne. Temperatury na powierzchni Ziemi i oceanów pomiędzy grudniem a lutym były najwyższe od 1880 roku. Szczególnie ciepły był styczeń, który podniósł średnią temperaturę pomiarów. Poparzednio rekordowo ciepłą zimą była zima 2004 roku, a wcześniej 1998 r. Z kolei od 1995 r. notowana jest najgorętsza dekada. Jay Lawrimore z Narodowego Centrum Danych Klimatycznych NOAA stwierdza: Nie mówimy, że tak ciepła zima to efekt wpływu gazów cieplarnianych. I dodaje, że klimat się ociepla, w czym prawdopodobnie ma swój udział działalność człowieka. Średnia temperatura pomiędzy grudniem a lutym była o 1,3 stopnia Celsjusza wyższa, niż średnia z całego XX wieku. Wyższe niż normalnie średnie zanotowano w Europie, Azji, zachodniej Afryce, południowo-wschodniej Brazylii i północno-wschodnich terenach USA. Z kolei zimniej niż przeciętnie było w części Arabii Saudyjskiej i centrum USA. W ubiegłym wieku średnia temperatura w każdej dekadzie była o 0,06 stopnia Celsjusza wyższa, niż w dekadzie ją poprzedzającej. Od 1976 roku obserwuje się trzykrotny wzrost i średnia temperatura następnych dekach jest o 0,18 stopnia wyższa, niż poprzednich.
  14. NASA znalazła dowody, że na południowym biegunie Marsa istnieją olbrzymie zapasy wody. Pokrywa lodowa jest tak gruba, że gdyby się roztopiła, pokryłaby całą planetę warstwą wody o grubości 11 metrów. Powierzchnia lodu jest większa, niż powierzchnia stanu Teksas, informuje Jeffrey Plaut, z Jet Propulsion Laboratory. Już wcześniej można było oszacować grubość pokrywy lodowej, ale nie było to możliwe z tak wielką dokładnością jak obecnie. Naukowcy poznali grubość pokrywy dzięki urządzeniu o nazwie Mars Advanced Radar for Subsurface and Ionospheric Sounding (MARSIS), zamontowanemu na pokładzie Mars Expressa. MARSIS bada obecnie pokrywy lodowe na północnym biegunie Czerwonej Planety. Badania nad występowaniem wody na Marsie mogą dać odpowiedź na pytanie, czy kiedykolwiek istniało tam życie.
  15. Zespół doktora Para Stattina z Centrum Medycznego Uniwersytetu w Umea zbadał ok. 65 tys. osób. Zaobserwowano związek między wysokim stężeniem cukru we krwi a ryzykiem zachorowania na nowotwory. Cukrzyca typu 2. to zwiększone prawdopodobieństwo wystąpienia m.in. raka wątroby, trzustki czy okrężnicy (Diabetes Care). Nieco mniej wiadomo na temat związków średnio zwiększonego stężenia glukozy we krwi zdrowych osób i nowotworów. Zmiana stylu życia i diety, a więc unikanie zbyt dużych ilości tłuszczu oraz codzienne gimnastykowanie się, zmniejszają szanse na zapadnięcie na choroby sercowo-naczyniowe, cukrzycę, a także... raka. Aby rozstrzygnąć sporne czy niejasne kwestie, wzięto pod uwagę wyniki 31.304 mężczyzn i 33.293 kobiet (dysponowano danymi na temat ich krzywej cukrowej). W grupie tej zdiagnozowano 2.478 przypadków nowotworów. W odróżnieniu od mężczyzn, u kobiet ogólne ryzyko zachorowania na raka wzrastało wraz ze zwiększeniem stężenia glukozy we krwi. U pań z najwyższym poziomem cukru na czczo było o 26% wyższe niż u przedstawicielek płci pięknej z najniższymi wskazaniami glukometru na czczo. Po uwzględnieniu błędów pomiaru różnica stawała się jeszcze wyraźniejsza. Bez względu na masę ciała i u kobiet, i u mężczyzn wysoki cukier na czczo wiązał się ze zwiększonym prawdopodobieństwem zachorowania na raka trzustki, endometrium (błony śluzowej macicy), układu moczowego i czerniaka złośliwego.
  16. Microsoft, zawiedziony najwyraźniej niewielką w porównaniu z Google’m popularnością swojej wyszukiwarki, postanowił zachęcić firmy, do korzystania z jej usług. Koncern ogłosił, że będzie płacił dużym firmom, których pracownicy korzystają z wyszukiwarki Live Search. W tej chwili odbywają się testy z udziałem wybranych przedsiębiorstw. Firmy, w zamian za zachęcenie pracowników do korzystania z usługi Microsoftu będą otrzymywały punkty, dające prawo do bezpłatnych szkoleń czy usług serwisowych. Greg Sterling, analityk z firmy Sterling Market Intelligence uważa, że taka strategia jest ryzykowna. Pracownicy będą wykorzystywali Live Search, bo takie otrzymają polecenie. Jednak tam, gdzie nie będą musieli, skorzystają z innych produktów. Zdaniem Sterlinga strategia ta na dłuższą metę nie przyniesie oczekiwanych rezultatów.
  17. Isabel Aguilera, szefowa hiszpańskiego i portugalskiego oddziału Google’a potwierdziła, że koncern pracuje nad telefonem komórkowym. Pogłoski, iż Google ma zamiar wejść na rynek telefonii komórkowej pojawiły się po tym, jak koncern rozpoczął poszukiwania inżynierów i analityków specjalizujących się w rynku telekomunikacyjnym. Wejście na ten rynek to logiczna konsekwencja dotychczasowych działań firmy. Zarówno wyszukiwarka Google, jak i serwis pocztowy Gmail mają swoje wersje dla urządzeń przenośnych. Ponadto Google uruchomiło serwis społecznościowy Dodgeball, który został przygotowany właśnie z myślą o posiadaczach telefonów komórkowych. Telefon ze znakiem firmowym Google’a będzie trzecim produktem hardware’owym tej firmy. Dwa pierwsze to serwery Google Search Appliance i Google Mini.
  18. Naukowcy z Sandia National Laboratories posłużyli się swoją maszyną Z (akceleratorem symulującym wybuchy jądrowe), by w ciągu nanosekund otrzymać z wody lód i to w dodatku gorętszy od gotującej się wody. Aparatura badaczy generuje temperatury wyższe od panujących na Słońcu. Dzięki niej zbadano różne stany skupienia wody, a jest ich podobno dużo więcej niż dobrze nam znane ciało stałe, ciecz i gaz. Trzy stany skupienia wody, które znamy, zimny lód, ciecz temperatury pokojowej oraz gorąca para, w rzeczywistości są niewielkim ułamkiem opisanych postaci występowania tego związku — opowiada Daniel Dolan. Woda pod ciśnieniem ogrzewa się. Pod bardzo dużym ciśnieniem "gęstej" H2O łatwiej przejść w stały stan skupienia (lód) niż wkładać energię w podtrzymywanie stanu ciekłego (pozostawanie wodą). Normalnie lód ma większą objętość od wody, z której powstał (dlatego np. rozsadza butelki). W eksperymencie naukowców z Sandii objętość wody zmniejszyła się nagle, czyli w sposób nieciągły; w dodatku pojawiły się niemal wszystkie znane odmiany lodu, z wyjątkiem jego najbardziej pospolitej odmiany. Istnieje co najmniej 11 odmian lodu. Klasyfikuje się je w zależności od tego, jak zachowują się w określonych temperaturach i ciśnieniu. Naukowcy nie znają jednak nadal wszystkich ich specyfikacji. Jedną z odmian jest tzw. woda przechłodzona. Jest to woda ochłodzona do temperatury niższej niż punkt krzepnięcia, w której mimo to nie zachodzi krystalizacja. Zespół Dolana chciał sprawdzić, co dzieje się z różnymi materiałami w ekstremalnych warunkach. Zaskoczyło go m.in., jak szybko woda zamarza. Podczas błyskawicznej kompresji (ciśnienie ponad 70 tys. atmosfer generowano w ciągu ułamków sekundy) woda natychmiast zamarzała. Gdy ciśnienie zmniejszano, lód zaczynał się topić.
  19. Wyraz "wiki” spopularyzowany przez Wikipedię, oficjalnie wszedł do języka angielskiego. Edytorzy Oxford English Dictionary dodali do najnowszego wydania słownika 287 nowych wyrazów, wśród nich właśnie "wiki”. Słowo to pojawiło się w języku angielskim już wiele lat temu. Zostało do niego zapożyczone z mowy rdzennych mieszkańców Hawajów, dla których "wiki, wiki” oznacza "szybko, szybko”. Ostatnimi laty zaczęło zyskiwać popularność wśród osób anglojęzycznych. Rozpowszechniło się i nadano mu nowe znacznie. W języku angielskim "wiki” oznacza typ witryny internetowej, która może być edytowana przez każdego, kto ma do niej dostęp.
  20. Bliższe badania nad rzadką panterą żyjącą na Borneo i Sumatrze wykazały, że mamy do czynienia z nowym gatunkiem tego ssaka. Dotychczas sądzono, że kot z wysp to pantera mglista (Neofelis nebulosa), żyjąca w innych częściach Azji. Badania genetyczne pokazały jednak, że od kuzynów z kontynentu różni się on niemal tak bardzo jak lwy od tygrysów. Zaliczono ją więc do gatunku pantera z Borneo (Neofelis diardi). Przez ponad 100 lat ludzie obserwowali to zwierzę i nie zdawali sobie sprawy, że to osobny gatunek – mówi Stuart Chapman z World Wildlife Fund. Specjaliści oceniają, że na Borneo żyje od 5 do 11 tysięcy Neofelis diardi, a na Sumatrze kolejne 3 do 7 tysięcy.
  21. Commodore, firma-legenda, która niedawno ogłosiła swój powrót na rynek komputerów osobistych, ujawniła specyfikację maszyn do gier, które ma zamiar sprzedawać. Obecnie wiadomo, że najmocniejsza wersja maszyny, C=XX, zostanie zbudowana w oparciu o czterordzeniowy procesor Core 2 Extreme, dwie karty graficzne GeForce 8800 GTX wyposażone w 768 megabajtów pamięci RAM oraz kartę muzyczną X-Fi firmy Creative. Komputer będzie korzystał z płyty głównej Asus P5N32-E z chipsetem nForce 680i SLI. Producent wyposaży go również w 4 gigabajty pamięci w układach Corsair Dominator oraz dwa 150-gigabajtowe dyski twarde pracujące z szybkością 10 000 obrotów na minutę i skonfigurowane w macierz RAID lub jeden 500-gigabajtowy, którego talerze obracają się z prędkością 7200 rpm. Całość będzie podłączona do zasilacza ICE Cube o mocy 1000 watów. Użytkownik będzie miał też do dyspozycji szeroką gamę interesujących obudów. Oprócz CXX w ofercie Commodore’a znajdą się urządzenia C=GX, C=GS i C=G. We wszystkich zestawach zainstalowano emulator legendarnego C64 wraz z 50 klasycznymi grami.
  22. Wyciąg z kory drzewa Tabebuia avellanedae (Pau D'Arco, Ipê-roxo lub La Pacho) z Ameryki Południowej znajdzie prawdopodobnie zastosowanie w leczeniu glejaka siatkówki (siatkówczaka). Jest to rzadki nowotwór, występujący u niemowląt oraz małych dzieci.Źródła podają, że w Polsce odnotowuje się 20-30 przypadków siatkówczakarocznie (stanowi on 2-4% wszystkich chorób onkologicznych wiekudziecięcego). W 30% nowotwór występuje dwustronnie, w 70% tylko po jednej stronie. W ok. 40% przypadków ma on charakter dziedziczny. Podczas leczenia należy wyeliminować wszystkie zmienione chorobowo komórki, w krańcowych przypadkach konieczne staje się usunięcie gałki ocznej. Jeden z czynników ryzyka to starszy wiek rodziców. Jeśli dana osoba miała dwustronnego siatkówczaka, raczej nie powinna mieć dzieci. Guz rozwija się z komórek siatkówki, stąd jego nazwa. Rzadko rozpoznaje się go po urodzeniu, najczęściej chorobę diagnozuje się w wieku 18 miesięcy. Do objawów należą: zez, zaburzenia widzenia, tzw. kocie oko, wypchnięcie gałki ocznej, a także, gdy nowotwór bardzo się rozrósł i wypełnia gałkę oczną, jaskra, oczopląs i wylewy. Bardzo dużo przypadków glejaka siatkówki diagnozuje się w krajach rozwijających się. Jeśli choroba nie jest leczona, dziecko umiera w ciągu 2-4 lat. Odpowiednio wcześnie wykryty siatkówczak jest w 85-90% uleczalny. Terapia polega na chirurgicznym usunięciu tkanki nowotworowej, radio- i chemioterapii. Te ostatnie dają jednak sporo efektów ubocznych. Wskutek chemioterapii dziecko może utracić słuch, doznać uszkodzenia nerek czy zachorować na białaczkę. Coraz rzadziej stosowana obecnie radioterapia wywołuje z kolei zniekształcenia ciała. Dlatego też zespół dr Joan O'Brien z Uniwersytetu Kalifornijskiego w San Francisco postanowił wypróbować nietoksyczny środek roślinny, który wykazał już swoją skuteczność m.in. w walce z nowotworami piersi i prostaty. Na cel obrano ekstrakt z kory drzewa, który zawiera beta-lapachon. W niewielkich dawkach związek ten uruchamia śmierć komórek wskutek apoptozy, ponadto hamuje szybki wzrost komórek guza (Eye). Co ważne, wydaje się, że działa wybiórczo tylko na komórki zmienione chorobowo.
  23. Badacze z japońskiego RIKEN Institute z sukcesem przeszczepili myszy sztuczny węzeł chłonny, który zaczął następnie produkować komórki układu odpornościowego. Takeshi Watanabe podkreśla, że w przyszłości uda się pewnie przeprowadzić transplantację całego układu immunologicznego osób umierających na AIDS czy nowotwór. Szef naukowców obrazowo porównuje stworzoną w laboratorium tkankę do biorusztowania z kolagenu, który zaimpregnowano komórkami dendrytycznymi i stromalnymi. Wyekstrahowano je z grasicy młodych zwierząt. Przekątna sztucznego węzła chłonnego wynosiła ok. 3-4 mm. Zaimplantowano go gryzoniom ze zdrowym układem odpornościowym, zaszczepionym uprzednio przeciwko szkodliwemu oddziaływaniu antygenów. W "prawdziwych" węzłach chłonnych komórki stromalne (zrębu) są swego rodzaju organizatorami innych komórek, ponieważ mówią im, co robić. To samo udało się uzyskać w sztucznych tworach Japończyków. Wszczepione komórki stromalne "zbierały" krążące w organizmie limfocyty T i B, a następnie segregowały je, oddzielając jedne od drugich. Gdy węzły wypełniły się już limfocytami, przeszczepiono je myszom z uszkodzonym układem odpornościowym. Bardzo szybko komórki te przemieściły się do pozostałych węzłów chłonnych, które do tej pory świeciły pustkami ze względu na brak aktywności immunologicznej. Kiedy Watanabe wprowadził do organizmów chorujących jeszcze niedawno myszy wspomniane antygeny, układ odpornościowy zareagował zdecydowanie, wytwarzając sporą liczbę limfocytów. Po miesiącu nadal pamiętały one wroga i potrafiły z nim walczyć. W kolejnych etapach badań Japończycy chcą wykorzystać komórki ludzkie i w ciągu 4-5 lat opracować pierwszy prototyp węzła dla naszego gatunku.
  24. W Internet Explorerze 7 znaleziono lukę, która może zostać wykorzystana do przeprowadzenie ataków phishingowych. Problem leży w sposobie, w jakim IE7 przechowuje informację o błędzie, która jest pokazywana, gdy użytkownik przerwie ładowanie strony WWW. Komunikat głosi, że ładowanie strony zostało przerwane przez użytkownika i proponuje jej odświeżenie. Błąd polega na tym, że atakujący może w miejsce odnośnika, który umożliwia odświeżenie, podstawić inny adres i skierować użytkownika na fałszywą stronę. Aviv Raff, odkrywca luki, informuje, że w ten sposób można skierować użytkownika na stronę, która wygląda identycznie, jak witryna np. banku czy serwisu aukcyjnego. Błąd pozwala na zarażenie komputera skryptem, który, po naciśnięciu przycisku "odśwież”, będzie wyświetlał użytkownikowi takie strony, jakich zażyczy sobie atakujący. Metoda taka zwana jest XSS (cross-site scripting). Błąd występuje w IE7 dla Windows XP i Visty.
  25. Firma Super Talent Technology, jeden liderów na rynku pamięci DRAM i flash poinformowała o przygotowaniu całej gamy dysków SSD (solid-state disk). Urządzenia wyposażono w interfejs SATA. Dyski SSD, w przeciwieństwie do tradycyjnych dysków twardych, nie wykorzystują obracających się talerzy, ale korzystają z układów pamięci flash. Takie rozwiązanie powoduje, że pracują bezgłośnie, zużywają do 85% mniej energii i charakteryzują się znacznie większą niezawodnością. Ponadto ich zaletą jest znacznie szybszy dostęp do danych. W ofercie Super Talent znalazły się 1,8-calowe SSD o pojemności do 32 gigabajtów, 2,5-calowe, na których można przechować do 64 GB danych oraz 3,5-calowe zdolne pomieścić 128 gigabajtów informacji. Detaliczna sprzedaż nowych urządzeń rozpocznie się w kwietniu. Ich cen, niestety, nie podano. Warto przypomnieć, że przed kilkoma dniami na rynku SSD zadebiutował Intel.
×
×
  • Dodaj nową pozycję...