Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37631
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Inżynierom IBM-a udało się pokonać jedną z najpoważniejszych przeszkód stojących na drodze wykorzystaniu grafitu do produkcji obwodów elektrycznych. Odkryli oni w jaki sposób zapobiec interferencji, do której dochodzi, gdy podzespoły wykonane z grafenu - dwuwymiarowej struktury grafitu o grubości zaledwie jednego atomu - zaczynamy coraz bardziej pomniejszać. Grafen jest uważany w elektronice za materiał przyszłości. Problem jednak w tym, że im bardziej pomniejszamy urządzenia (nie tylko grafenowe), tym większe pojawiają się w nich zakłócenia. W skali nano te zakłócenia mogą być tak wielkie, że miniaturowe urządzenia stają się bezużyteczne - "szum" jest bowiem tak silny jak przydatny sygnał. Pracujący dla IBM-a naukowcy najpierw zbudowali tranzystor z pojedynczej warstwy grafenu. Przekonali się, że im bardziej go pomniejszali, tym silniejsze w stosunku do sygnału były szumy. Inżynierowie stworzyli więc analogiczny tranzystor, ale z dwóch warstw grafenu ułożonych jedna na drugiej. Okazało się, że zakłócenia uległy tak daleko idącemu wyciszeniu, iż dwuwarstwowa urządzenia grafenowe będą nadawały się do produkcji elektroniki. Szumy zostały zniesione przez silne sprzężenie elektryczne pomiędzy obiema warstwami grafenu. Zadziałało ono jak izolacja. IBM podkreśla, że konieczne są dalsze badania, ale inżynierowie Błękitnego Giganta udowodnili, iż grafen nadaje się do produkcji elektroniki przyszłości.
  2. Firma Qualcomm jest autorem elektronicznego papieru, który może wyświetlić klip wideo wysokiej jakości. Do produkcji papieru wykorzystano przełączniki mikroelektromechaniczne (MEMS), które pracują na tyle szybko, iż możliwe jest przedstawienie ruchomych obrazów. Pierwsza wersja wyświetlacza będzie monochromatyczna. Został on już zastosowany w urządzeniu przenośnym firmy Audiovox, które zadebiutowało przed kilkoma dniami. W przyszłym roku chińska firma Hisense wykorzysta w swoim telefonie komórkowym dwukolorowy e-papier. Qualcomm pracuje też nad pełnokolorowymi wersjami swojego wynalazku. E-papier, podobnie jak zwykły papier, umożliwia odczytanie druku czy obejrzenie grafiki dzięki odbiciu światła z otoczenia. To pozwala na korzystanie z niego w bardzo różnych warunkach oświetleniowych. Z kolei wyświetlacze LCD posiadają własne źródła światła, co z kolei utrudnia korzystanie z nich gdy otoczenie jest zbyt jasno oświetlone lub jest zbyt ciemno. Kolejną zaletą e-papieru jest fakt, że potrzebuje on napięcia elektrycznego tylko w momencie zmiany wyświetlanych treści. Gdy już np. „odwrócimy” stronę w elektronicznej książce, e-papier wyświetla ją nie pobierając prądu. Dzięki temu urządzenia korzystające z elektronicznego papieru charakteryzują się niskim poborem energii. Dotychczas jednak elektroniczny papier włączał i wyłączał poszczególne piksele zbyt wolno, by można było zaprezentować na nim klipy wideo. Przełączanie takie trwało bowiem ponad pół sekundy. Qualcomm opracował technologię, dzięki której piksele w elektronicznym papierze są przełączane w ciągu dziesiątych części mikrosekundy. To wystarczy, by zaprezentować wyraźny obraz wideo. Dzięki temu e-papier powinien szybko wyjść ze swojej niszy i stać się technologią szeroko stosowaną np. w telefonach komórkowych. Andre Arsenault, chemik z University of Toronto i założyciel firmy Opalux, która pracuje nad e-papierem, informuje, że nowatorska technologia reprodukcji kolorów, wykorzystywana przez Qualcomm, przypomina sposób odwzorowywania kolorów przez światło padające na rozlaną na wodzie ropę. Gdy światło trafia na taką warstwę ropy, zostaje częściowo odbite, a częściowo przechodzi przez ropę i odbija się od wody. Promienie odbite od ropy są nieco przesunięte w fazie w porównaniu z tymi odbitymi od wody. W rezultacie, dochodzi do interferencji pomiędzy tymi promieniami. Część długości fali zostaje pochłonięta, a część wzmocniona. O tym, które długości ulegają pochłonięciu, a które wzmocnieniu decyzuje odległość powierzchni wody od powierzchni ropy. Na przykład przy określonych grubościach warstwy ropy, wzmocnieniu ulega światło zielone, a czerwone i niebieskie są pochłanianie. Powierzchnia ropy wydaje się wówczas zielona. W przypadku e-papieru, każdy z pikseli składa się z kilku kolorowych komórek, a każda z nich z dwóch warstw odbijających światło i ułożonych jedna na drugiej. Warstwa górna jest półprzepuszczalna, więc część światła przenika przez nią i odbija się od dolnej warsty. Piksel składa się z trzech takich komórek, a w każdej z nich odległość pomiędzy warstwami ustawiona jest tak, by interferencja pomiędzy falami światła powodowała wyświetlanie określonego koloru: czerwonego, zielonego lub niebieskiego. Każdą z takich komórek można wyłączyć za pomocą przełącznika MEMS, zbliżając do siebie warstwy. Gdy są one bardzo blisko, żadna z długości fal światła nie jest wzmacniana i komórka wydaje się czarna. Przełącznik zmienia swoje położenie pomiędzy dwoma stanami tylko pod wpływem impulsu elektrycznego. Dopóki nie zostanie on poddany jego działaniu, pozostaje w dotychczasowym staniem. Dzięki takiemu rozwiązaniu każdy piksel, poprzez kombinacje kolorów z subpikseli, może przybierać dowolny kolor. Przełączniki MEMS są w stanie przetrwać ponad 12 miliardów cykli włączania-wyłączania. E-papier Qualcommu nie ma, niestety, samych zalet. Wykorzystanie przełączników MEMS powoduje, że, przynajmniej na razie, będzie można tworzyć jedynie niewielkie wyświetlacze z e-papieru. Ponadto zastosowanie go do pokazywania klipów wideo powoduje, że e-papier przestaje być energooszczędny. Gdy będziemy oglądali za jego pomocą film, przełączniki MEMS będą ciągle w użyciu.
  3. Padnie czy nie padnie, a może wziąć ze sobą ładowarkę, w końcu zawsze gdzieś znajdzie się kontakt. A może skorzystać z chwil spędzanych w samochodzie w godzinach szczytu? Wychodząc na basen czy na plażę, współczesna kobieta już nie musi drżeć na myśl o wyczerpującej się baterii telefonu komórkowego. A wszystko dzięki owocom współpracy dwóch firm: Triumph International (światowej sławy producenta bielizny i strojów kąpielowych) i Conergy (producenta ogniw fotowoltanicznych). Strój kąpielowy Solar Swimsuit, bo o nim mowa, wytwarza dostatecznie dużo energii, by można było zasilić telefon komórkowy, odtwarzacz MP3 czy inne urządzenia przenośne. Pod warunkiem jednak, że korzystają ze złącza USB, bo taką właśnie wtyczkę przymocowano do tkaniny. Pokazy mody bieliźnianej Triumph Fashion Cup są inspirowane różnymi wydarzeniami w świecie sportu. W zeszłym roku były to piłkarskie Mistrzostwa Świata, w tym zaś regaty Americas Cup, rozpoczynające się 25 kwietnia w Walencji. Solar Swimsuit zaprezentowała Gemma Mengual, hiszpańska mistrzyni pływacka. Nie podano ceny stroju, ale chodzą pogłoski, że znajdzie się on w tegorocznej ofercie katalogowej Triumpha. To doskonały moment na rozpoczęcie promocji, ponieważ sezon wakacyjny zbliża się wielkimi krokami. Sam kostium wygląda skromnie, lecz elegancko. Ułożone pasmami malutkie ogniwa słoneczne przypominają większe cekiny. Prototypy strojów bazujących na podobnym pomyśle tworzono już wcześniej, jednak Solar Swimsuit jako pierwszy trafi na sklepowe półki, a nie do archiwów designerów.
  4. Naukowcy z Georgia Institute of Technology stworzyli miniaturowe generatory, które tworzą energię elektryczną wykorzystując ruch. Generatory można będzie wszyć w ubranie, dzięki czemu na spacerze skorzystamy z przenośnych urządzeń dla których sami wyprodukujemy energię. W piśmie Nature uczeni opisali, w jaki sposób tekstylne włókna pokryte nanowłóknami z tlenku cynku mogą wytwarzać energię elektryczną dzięki zjawisku piezoelektrycznemu. Nanogenerator bazujący na włóknach może być prostym i ekonomicznym sposobem wytwarzania energii z ruchu fizycznego – mówi profesor Zhong Lin Wang z GaTech. Jeśli wykorzystamy wiele takich włókien do stworzenia warstw wewnątrz ubrania, uzyskamy elastyczne, giętkie i ubieralne źródło energii, które może zostać wykorzystane do jej tworzenia podczas spaceru – dodaje. Generator korzysta z faktu, że nanostruktury z tlenku cynku produkują niewielkie wyładowania gdy są zginane. Urządzenie o powierzchni 6 milimetrów kwadratowych potrafi wyprodukować prąd o natężeniu 800 nanoamperów i napięciu 20 miliwoltów. Teoretycznie z metra kwadratowego można by uzyskać 80 miliwatów mocy. Tworzenie generatorów rozpoczyna się od pokrycia kewlaru tlenkiem cynku za pomocą techniki napylania magnetronowego. Tworzą się w ten sposób nanowłókna, a całość jest zanurzana na około 12 godzin w specjalnym roztworze. W temperaturze 80 stopni Celsjusza następuje wzrost cynkowych nanowókien. Osiągają one długość około 3,5 mikrona, a odległości pomiędzy nimi wynoszą kilkaset nanometrów. Cynkowe nanowłókna są przymocowane za pomocą tetraetoksysilanu (TEOS), którym na początku całego procesu produkcyjnego pokrywa się kewlar. Później, po zakończeniu wzrostu włókien dodawana jest kolejna warstwa TEOS. Ma ona zapobiegać odrywaniu się nanowłókien gdy będą o siebie pocierały. Na koniec część kewlarowych powłok z nanowłóknami powlekanych jest złotem. Powłoki łączone są w pary – ze złotem i bez złota – tak, by stykały się ze sobą i tylko ze sobą. Złoto wraz z tlenkiem cynku tworzą barierę Shottky’ego, dzięki czemu taka struktura zastąpiła platynową elektrodę użytą w pierwotnym projekcie. Naukowcy planują teraz połączenie wielu opisanych powyżej par, by zwiększyć natężenie i napięcie całego układu. Chcą też poprawić przewodnictwo samych włókien. Przed akademikami jest jeszcze pokonanie jednej poważnej bariery. Tlenek cynku jest wrażliwy na wilgoć, więc w chwili obecnej nie można by prać ubrań z wszytym generatorem. Uczeni zastanawiają się, jak chronić nanowłóka przed zgubnym działaniem pralki.
  5. Profesor Steve Cole z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) informuje, że samotność jest powiązana z gorzej funkcjonującym układem odpornościowym. Dlatego też osoby samotne są bardziej narażone na choroby i śmierć w młodszym wieku. Naukowiec badał DNA ludzi określających się jako „chronicznie samotni” i odkrył, że aktywność ich kodu genetycznego różni się od tej, która występuje u ludzi niebędących samotnymi. Niemal zawsze różnica ta dotyczy tych części, które są odpowiedzialne za układ immunologiczny. Badania pokazują, że samotność ma wpływ na najbardziej podstawowe procesy naszego organizmu: na aktywność genów – mówi Cole. Od lat wiadomo, że istnieje korelacja pomiędzy liczebnością rodziny i przyjaciół a zdrowiem fizycznym. Wiele już badań wykazało, że osoby opisujące się jako samotne są bardziej narażone na przedwczesny zgon, choroby, nadciśnienie, bezsenność i nowotwory. Istnieją dwie teorie, wyjaśniające to zjawisko. Jedna twierdzi, że gdy człowiek zachoruje, ale ma wokół siebie rodzinę czy przyjaciół, prędzej wyzdrowieje, gdyż zadbają oni, by udał się do lekarza, brał lekarstwa, pomogą podczas choroby. Według drugiej z teorii w samotności jest coś, co bezpośrednio wpływa na nasze ciało. Zespół Cole’a postanowił zweryfikować tę drugą teorię. Wykorzystał wcześniejsze badania profesora psychologii Johna Cacioppo z University of Chicago. Cacioppo przez wiele lat badał relacje społeczne i zdrowie grupy ochodników. Cole i Cacioppo połączyli siły i wybrali do dalszych badań 14 ochotników. Sześciu z nich to osoby, które znajdowały się w górnych 15% skali samotności. To ludzie, którzy co najmniej od czterech lat nie byli z nikim blisko związani – mówi Cole. Pozostała ósemka to osoby najmniej samotne z grupy badanej przez Cacioppo. Uczeni przyjrzeli się 22 000 genów, sprawdzili jak wpływają one na pracę układu odpornościowego i okryli, że 209 genów u ludzi najbardziej samotnych zachowuje się dziwnie. Te 200 genów nie wykazywało przypadkowych zmian. Wyglądało to jakby zawiązały spisek. Duża część z nich wydawała się zaangażowana w podstawowe działanie systemu immunologicznego – wyjaśnia Cole. Wydaje się, że geny „celowo” działały źle. Wygląda więc na to, że w organizmach ludzi samotnych, w związku z upośledzeniem systemu odpornościowego, istnieje niebezpiecznie dużo ognisk zapalnych, które mogą powodować m.in. choroby serca, artretyzm czy chorobę Alzheimera. Uczeni mają nadzieję, że skoro znaleźli biologiczny ślad samotności, to uda się opracować odpowiednie lekarstwo, tak by samotni nie chorowali. Nie wiadomo jedynie, co pojawia się pierwsze: samotność czy „konspiracja” genów.
  6. Osoby, które od kilku dni stały w kolejkach przed amerykańskim sklepami, w końcu się doczekały – w USA rozpoczęto sprzedaż najnowszej konsoli Sony PlayStation 3. Czekających nie zniechęcał fakt, iż do Stanów Zjednoczonych miało trafić w dniu premiery jedynie 400 000 urządzeń (chociaż pojawiły się głosy, że będzie ich nie więcej niż 200 000). Osoby nie stojące na początku miały więc niewielkie szanse, by nabyć konsolę. W Nowym Jorku pierwszym, który kupił PS3 był 31-ledni Angel Paredes. Kosztowała go ona 599 dolarów oraz 3 noce koczowania przed sklepem. Podobne obrazki można było zobaczyć w całych USA – długie kolejki, namioty i ludzie koczujący całymi dniami tylko po to, by już w dniu premiery stać się posiadaczami długo oczekiwanej konsoli. W kolejkach oczekiwali nie tylko fanatycy gier. Byli tam też ludzie, którzy na konsoli chcieli dobrze zarobić. Część osób deklarowało, że natychmiast sprzedadzą swoją konsolę na aukcji internetowej. Biorąc pod uwagę fakt, że konsoli jest tak niewiele, a w USA rozpoczyna się sezon świąteczny, można liczyć na spore zyski. Oczywiście, pod warunkiem, że znajdą się chętni zapłacić więcej niż wynosi i tak już wysoka cena konsoli.
  7. Microsoft złożył wniosek patentowy na technologię zabezpieczania oprogramowania, którą określił mianem „znaku wodnego”. Jej zadaniem jest zwiększenie bezpieczeństwa programów umieszczanych w Sieci i sprzedawanych za jej pośrednictwem. Dołączenie znaku wodnego do każdej kopii programu spersonalizuje ją i przyczyni się do tego, że łatwiej będzie zidentyfikować ewentualne miejsce kradzieży programu. Gdy program jest sprzedawany za pośrednictwem Internetu w bazie danych przechowywane są informacje o nabywcy: jego nazwisko, adres, numer telefonu, numer karty kredytowej itp. Na ich podstawie specjalne algorytmy tworzyłyby serię unikatowych numerów identyfikacyjnych, które w formie binarnej dodawane byłyby do sprzedawanego programu. Dodatkowo informacje te można szyfrować tak, by wykrycie i sfałszowanie dodanego kodu było jeszcze trudniejsze. Producenci oprogramowania mogliby z łatwością sprawdzić, komu została sprzedana dana kopia programu. Wystarczy, by porównali kod programu przejętego np. podczas akcji antypirackiej, z przechowywanym u siebie kodem oryginalnym. To pozwoliłoby na odnalezienie fragmentów znaku wodnego, a ich odczytanie umożliwiłoby zidentyfikowanie nabywcy programu.
  8. Kalifornijska firma Nanochip Inc. ogłosiła, że dokonała przełomu w rozwijanej przez siebie od 12 lat technologii "pamięci macierzowej". To technologia, która nie jest zależna od Prawa Moore\'a - mówi Gordon Knight, dyrektor Nanochipa. Powinna ona wystarczyć na co najmniej 10 generacji - dodaje. Knight odniósł się w ten sposób do Prawa Moore\'a, które mówi o tym, że co dwa lata liczba podzespołów w układzie scalonym ulega podwojeniu. Obecnie układy produkuje się dzięki technikom litograficznym. Oznacza to, że co dwa lata trzeba kupować kolejne maszyny do litografii, które poradzą sobie z nadrukowywaniem coraz mniejszych ścieżek. Uważa się, że możliwości współczesnych technologii produkcji pamięci flash skończą się przy wielkościach rzędu 32-45 nanometrów. Technika Nanochipa zakłada wykorzystanie matrycy mikroskopijnych próbników, które będą odczytywały i zapisywały dane. Już w tej chwili firma informuje, że przygotowała próbniki o średnicy 25 nanometrów i w przyszłym roku dostarczy swoim klientom pierwsze działające próbki układów pamięci. Na rynek mogłyby one trafić w 2010 roku. Teoretycznie już wówczas mogą być dostępne pojedyncze kości, których pojemność wyniesie 100 gigabajtów. Bardziej jednak realne jest, że pomieszczą one kilkadziesiąt gigabajtów danych. Czyli tyle, ile obecne pamięci flash. A musimy pamiętać, że to dopiero pierwsza generacja "pamięci macierzowych". Knight mówi, że w ciągu 10-12 lat średnica próbnika spadnie do 2-3 nanometrów, a pojemność pojedynczej kości pamięci będzie większa niż 1 terabajt. Nowa technologia ma tym większe szanse na przyjęcie się, że nie wymaga olbrzymich inwestycji. Oni wykorzystują używane w tej chwili narzędzia i przystosowują je do swoich celów. Te same maszyny, to samo wyposażenie, te same materiały, te same podstawy. Po prostu zamiast dwuwymiarowych oni tworzą trójwymiarowe obiekty - mówi Marlene Bourne, szefowa firmy analitycznej The Bourne Report. Nowe układy mogą zostać w przyszłości wykorzystane tam, gdzie i obecnie wykorzystywana jest pamięć flash - w klipsach USB czy dyskach SSD. Co więcej, przedstawiciele Nanochipa wierzą, że można je będzie nawet stosować w serwerach zamiast tradycyjnych dysków twardych. Knight mówi, że "pamięć macierzowa" bez problemu radzi sobie z problemem jednoczesnego dostępu wielu użytkowników do zasobów. Jeśli masz całą matrycę z tych układów, to masz jednocześnie wiele punktów dostępu do danych - twierdzi. Kontroler pamięci działa podobnie jak obecne kontrolery, jednak dane są rozproszone w wielu układach, więc jednoczesny dostęp do nich stanowi mniejszy problem. Pomysł Nanochipa nie jest nowy. Widać tu wyraźnie podobieństwa do IBM-owskiego projektu Millipede, który spotkał się z olbrzymim zainteresowaniem na przełomie ubiegłego i obecnego wieku. Jednak Błękitny Gigant zarzucił prace nad nim. Knight zauważa, że o ile Millipede korzystało z polimeru jako materiału przechowującego dane, to jego firma wykorzystuje lepszy materiał. Nie chciał jednak zdradzić, czym on jest. Powiedział tylko, że półtora roku temu jego przedsiębiorstwo dokonało przełomowego odkrycia opracowując materiał, który w ogóle się nie zużywa podczas zapisu i odczytu danych. Być może ma on coś wspólnego z materiałem zawierającym szkło chalkogenkowe, nad którym pracowała firma Ovonyx. W radzie technicznej Nanochipa pracuje bowiem Stefan Lai, menedżer w Ovonyx, który był też wiceprezesem wydziału Intela odpowiedzialnego za rozwój pamięci flash. Knight mówi też, że jego firma poradziła sobie z problemem zużywania się próbników odczytująco/zapisujących. Trzeba pamiętać bowiem, że mają one już obecnie średnicę zaledwie 25 nanometrów, więc mogą się błyskawicznie zużyć. A jeśli nowe układy pamięci mają trafić do serwerów, to wszystkie ich podzespoły muszą być na tyle wytrzymałe, by pracować nieprzerwanie przez co najmniej 6-7 lat. Jeśli Nanochipowi rzeczywiście uda się przygotować działające tanie prototypy, możemy być świadkami małej rewolucji. "Pamięć macierzowa" może zastąpić dyski twarde w notebookach, umożliwi powstanie tanich kilkusetgigabajtowych klipsów USB, zmniejszy zużycie energii przez farmy serwerowe. Analitykom nie przeszkadza nawet fakt, że IBM nie pracuje już nad Millipede. Część inżynierów, którzy tworzyli ten projekt, doradza obecnie Nanochipowi, a sam Błękitny Gigant nadal rozwija technologie coraz gęstszego upakowania danych, chociaż nie ma zamiaru tworzenia żadnego konkretnego produktu. Bardzo chętnie udzieli jednak licencji. Firma Nanochip Inc. powstała w 1996 roku i ma trzech inwestorów - wśród nich Intel Capital - którzy przekazali jej 14 milionów dolarów.
  9. DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych) ujawniła szczegóły projektu National Cyber Range. Wynika z niego że DARPA pracuje nad stworzeniem... Matriksa. NCR ma być rodzajem wirtualnego poligonu, w którym będą symulowane m.in. cyfrowe wojny przyszłości. Ma on pozwolić na testowanie bezpieczeństwa sieci, przepływu informacji czy odporności sieci na ataki. DARPA chce, by w NCR można było symulować obecnie istniejące oraz przyszłe rodzaje broni i operacji wojskowych. "Wirtualny poligon" umożliwi też symulowanie światowych systemów komunikacyjnych. W opublikowanym dokumencie czytamy: NCR musi być w stanie symulować dowolny fizyczny komputer oraz tworzyć jego repliki w wirtualnym świecie. Nie tylko repliki jego oprogramowania, ale sprzętu, aż do poziomu przerwań, repliki chipsetu, kart rozszerzeń i urządzeń zewnętrznych. Oczywiście taki wirtualny poligon będzie niekompletny bez wirtualnych ludzi. DARPA nazywa ich "replikantami": Replikanci muszą być w stanie podejmować różne role użytkownika. Zachowanie replikantów będzie zmieniało się w odpowiedzi na zmiany w sieci [będzie więc inne w zależności od tego, co akurat będzie symulowane, np. zabezpieczenia systemu informatycznego czy opracowywanie planów wojny - red.], ma też zmieniać się w zależności od aktywności w sieci [a więc replikanci będą inaczej działali gdy będzie prowadzony atak, a inaczej zachowają się, jeśli symulowana będzie np. awaria komputerów - red.]. Replikanci będą symulowali fizyczne korzystanie z urządzeń peryferyjnych, takich jak klawiatura czy mysz. Replikanci będą obsługiwali całe oprogramowanie - stwierdza dokument. W NCR znajdzie się też miejsce dla realistycznych, zaawansowanych sił obrony i ataku. Wśród ich działań można wymienić zaawansowane wykorzystanie technologii cyfrowych, od obrony krajowej sieci po przeprowadzanie ataku na sieć wroga... cyberprzeciwnicy zostaną wyposażeni w cały zestaw szkodliwych programów atakujących oraz narzędzia do obrony przed nimi. DARPA przewidziała też spustoszenia w wirtualnym świecie. Podczas pozorowanych walk wirtualna infrastruktura będzie niszczona, więc NCR musi być w stanie odbudowywać swoje zasoby tak, by można było przeprowadzać kolejne testy. Jednym z warunków powstania NCR jest bezpieczeństwo. Całość ani żadna jej część nie może wymknąć się spod kontroli. Firmy, które chciałyby przystąpić do projektu muszą też opracować swoistą maszynę czasu. DARPA chce bowiem symulować wolniejszy lub szybszy przepływ czasu. Wszystko po to, by móc dowolnie testować technologie w różnych fazach ich rozwoju.
  10. Fujitsu twierdzi, że jest producentem najbardziej pojemnego 2,5-calowego dysku twardego. Przeznaczone dla laptopów urządzenie jest w stanie przechować 300 gigabajtów danych. Model MHX2300BT znajdzie się w sprzedaży w lutym przyszłego roku. Wraz z najnowszym dyskiem Fujitsu prezentuje drugą generację HDD wykorzystującę technologię zapisu prostopadłego. Urządzenie korzysta z interfejsu SATA oraz technologii wbudowanego kolejkowania zadań (NCQ). Jego talerze obracają się z prędkością 4200 rpm. Japońska firma chwali się również niewielkim poborem mocy urządzenia. Wynosi on 1,6 wata podczas pracy i 0,5 W czasie spoczynku. Główny rywal Fujitsu, Seagate Technology, planuje wprowadzenie w drugiej połowie przyszłego roku 250-gigabajtowego dysku twardego dla notebooków. Będzie on miał jednak tę przewagę nad MHX2300BT, że ma wykorzystywać technologię szyfrowania danych oraz zostanie wyposażony w pamięć flash o dużej pojemności.
  11. Trwają testy kliniczne szczepionki kokainowej. Są one prowadzone przez naukowców z Baylor College of Medicine w Houston. Szczepionka stymuluje układ odpornościowy, by atakował kokainę, gdy zostanie zażyta przez osobę uzależnioną. Pracami zespołu kieruje małżeństwo. Tom Kosten jest psychiatrą, a jego żona Therese – psychologiem i neurologiem. W grudniu ubiegłego roku otrzymali oni zezwolenie Agencji ds. Żywności i Leków na rozpoczęcie wstępnych testów. Odbywają się jednocześnie w kilku jednostkach badawczych i mają się zakończyć do wiosny. Jeśli wszystko pójdzie dobrze, wynalazek Amerykanów zostanie ostatecznie dopuszczony do użytku na szeroką skalę. Doktor Kosten podkreśla, że u ludzi, w przypadku których szczepionka jest skuteczna, występuje charakterystyczne zjawisko. Gdy ulegną pokusie i zażyją kokainę, nie przeżywają tzw. haju, przez co ich zainteresowanie narkotykiem słabnie. W normalnych warunkach układ odpornościowy nie może rozpoznać cząsteczek kokainy i innych substancji psychoaktywnych, ponieważ są zbyt małe. Nie wytwarza więc odpowiednich przeciwciał. Aby pomóc mu w przezwyciężeniu tych trudności, Kosten powiązał nieaktywną formę kokainy z dezaktywowanymi białkami przecinkowców cholery. Gdy kiedyś w przyszłości pacjent zażyje narkotyk, zostaną wytworzone przeciwciała, które zwiążą się z cząsteczkami kokainy, nie dopuszczając, by dostały się do mózgu. Istnieje ok. 50 metod terapii kokainizmu, ale większość jest niezbyt efektywna. W 2004 roku brytyjski koncern farmaceutyczny Xenova przedstawił szczepionkę antykokainową TA-CD, ale po upływie pewnego czasu okazało się, że działa ona tylko do pół roku. Tom Kosten pracuje nie tylko nad szczepionką dla kokainistów, ale także dla ludzi uzależnionych od nikotyny, heroiny oraz metamfetaminy.
  12. Ćwiczenie po jedzeniu może sprzyjać utracie wagi, wspierając działanie hormonów hamujących apetyt.To dzięki tym hormonom ludzie aktywni fizycznie bezpośrednio pozakończeniu ćwiczeń czują się mniej głodni. Zjawisko to utrzymuje sięaż do następnego posiłku. Chcesz schudnąć? Zjedz przed spacerem alborundką wokół stadionu... Co ciekawe, nawet jeśli spożywają więcej pokarmów, sportowcy dostarczają swoim organizmom mniej kalorii, ponieważ więcej ich spalają. W badaniach naukowców z 2 uczelni (Surrey University i Imperial College London) 12 wolontariuszy dostawało identyczne śniadania. Godzinę po posiłku połowa miała przez 60 minut jeździć na rowerku treningowym, a pozostali nadal spokojnie siedzieli. Przez kolejne 60 minut wszyscy mogli jeść tyle, ile chcieli. Osoby aktywne fizycznie spaliły 492 kilokalorie, a leniuchujący tylko 197. Po jeżdżeniu na rowerku wolontariusze mieli tendencję do zjadania większych porcji (913 kilokalorii) niż osoby spędzające czas biernie (762 kilokalorie). Po uwzględnieniu energii zużywanej podczas wysiłku gimnastykujący się przyjmowali ogółem mniej kalorii od pozostałych badanych (421 w porównaniu do 565). Tuż po zakończeniu ćwiczeń w ich organizmach wzrastał poziom 3 hormonów kontrolujących apetyt: PYY, GLP-1 oraz PP. Pokrywało się to z opisywanym przez wolontariuszy spadkiem uczucia głodu (Journal of Endocrinology). Dr Denise Robertson, szef zespołu badawczego, podkreśla, że kiedyś myślano, że jedząc więcej po ćwiczeniach, ludzie niweczą swój wysiłek i zaprzepaszczają szansę na zmniejszenie wagi ciała. To jednak nieprawda. Nasze badania wykazały, że ćwiczenia mogą zmieniać apetyt danej osoby i tym samym zapobiegać dalszemu tyciu, stanowiąc część zdrowego, zrównoważonego trybu życia.
  13. Apple prowadzi podobno rozmowy z koncernami muzycznymi, których wynikiem ma być nieograniczone udostępnienie plików muzycznych klientom iTunes. Pomysł Apple\'a polega ponoć na tym, że właściciele niektórych modeli iPhone\'ów i iPodów zyskaliby prawo do nieograniczonego bezpłatnego pobierania plików z iTunes przez cały okres sprawnego funkcjonowania ich urządzeń. Oczywiście wspomniane modele telefonów i odtwarzaczy byłyby droższe od innych. Jeśli Apple zawrze porozumienie z przemysłem muzycznym, mniejsi konkurenci iTunes mogą mieć olbrzymie kłopoty, gdyż klienci chętniej skorzystają z oferty firmy Jobsa. Niedawno Apple poinformowało, że przeciętny użytkownik iPoda kupił w iTunes zaledwie 22 pliki. Nie jest to wiele i dlatego ponoć Apple zaproponowało koncernom nagraniowym, że od każdego sprzedanego iPoda lub iPhone\'a z prawem do nieograniczonego pobierania muzyki zapłaci im 20 USD. Nie wiadomo, czy koncerny się na to zgodzą, gdyż, jak zauważył jeden z ich przedstawiciele, badania wykazały, że konsumenci są skłonni zapłacić jednorazowo nawet 100 USD lub 7-8 dolarów miesięcznego abonamentu za prawo do nieograniczonego pobierania muzyki. Podobny pomysł dotyczący korzystania z muzyki ma też Nokia. Jeśli się on przyjmie to z jednej strony zagrozi małym graczom na rynku, a z drugiej może ograniczyć piractwo, gdyż osoby, które już zapłaciły za prawo do pobierania muzyki, nie będą szukały jej gdzie indziej. Pomysł taki może wpłynąć też na przemysł filmowy, gdyż coraz więcej konsumentów z zadowoleniem przywitałoby taki model sprzedaży wideo.
  14. W ciągu jednego dnia cena akcji Facebooka zmniejszyła się o 18%. Spadek rozpoczął się, gdy swoje wyniki finansowe opublikowała Zynga, firma produkująca gry komputerowe i udostępniająca je na Facebooku. Jednak do największej wędrówki ceny w dół doszło, gdy po raz pierwszy swoje wyniki upublicznił Facebook. Po zamknięciu sesji cena akcji portalu spadła poniżej 24 dolarów. Od czasu rynkowego debiutu sprzed dwóch miesięcy, kiedy to akcje sprzedawano za 38 USD straciły one na wartości aż 37%. Tak duże spadki nie powinny być zaskoczeniem. Firma, której roczne przychody oscylują w okolicy 1 miliarda dolarów została podczas IPO (initial public offering) wyceniona na ponad 100 miliardów USD. Z raportu finansowego Facebooka można było dowiedzieć się, że co prawda przychody zwiększyły się o 32%, ale dochód nie był tak spektakularny. Odnotowano też niewielki wzrost liczby użytkowników. O Facebooku jest tak głośno, że niektórzy inwestorzy spodziewali się, iż wyższe przychody będą oznaczały też wyższe zyski - mówi Jordan Rohan, analityk ze Stifel Nicolaus. W kwartale - trzeba tutaj przypomnieć, że był to drugi kwartał bieżącego roku i pierwszy w historii firmy, w którym miała obowiązek upublicznić wyniki finansowe - przychody portalu wzrosły z 895 milionów do 1,18 miliarda. Firma ogłosiła techniczną stratę w wysokości 157 milionów USD, podczas gdy w analogicznym kwartale ubiegłego roku zanotowała 240 milionów dolarów zysku (11 centów na akcję). Przyczyną straty była konieczność zapisania po stronie wydatków wartości akcji przekazanych pracownikom. Jeśli pominiemy kwestię akcji, to Facebook zarobił 295 milionów USD (12 centów na akcję). Zanim Facebook stał się spółką giełdową jego wartość była szacowana na podstawie wzrostu liczby użytkowników. Teraz zaś świadczą o niej pieniądze, które zarabia - mówi analityk Colin Sebastian. Głównym zagrożeniem dla portalu i inwestorów jest możliwość znudzenia się Facebookiem. Jeśli użytkowników zacznie ubywać lub będą spędzali w serwisie mniej czasu, spadną dochody z reklamy. Podstawowym źródłem przychodów portalu jest reklama, a resztę pieniędzy zapewnia mu sprzedaż wirtualnych dóbr w grach Zyngi. Facebook szuka innych źródeł przychodów. Perłą w jego koronie mogą stać się dane, które użytkownicy ujawniają o samych sobie - ich wiek, płeć, stan cywilny, preferencje muzyczne, filmowe i literackie, zainteresowania itp. Portal testuje też tzw. historie sponsorowane, które nakłaniają użytkowników do polubienia profilu sponsora. To, jak dotychczas, najbardziej dochodowy sposób reklamy. Sądzimy, że najlepiej reklamować produkty tak, by informacja o nich była przekazywana użytkownikom przez ich znajomych - mówi Zuckerberg.
  15. Gdy wskutek zużycia aparatu gębowego robotnice i robotnicy pewnego gatunku termitów nie mogą już pracować, w inny sposób poświęcają się dla dobra kolonii. Zostają wysłani w samobójczą misję, w dodatku wybuchową. Jan Šobotník z Czeskiej Akademii Nauk i Thomas Bourguignon z Université Libre de Bruxelles badali termity Neocapritermes taracua. Ustalili, że w ramach wojny chemicznej z konkurującymi z nimi gatunkami wykorzystują 2-częściowy aparat samobójczy. Zarówno ilość substancji obronnych, jak i gotowość do eksplodowania wzrastają z wiekiem, gdy spada zdolność zdobywania pokarmu. U starszych owadów między tułowiem a odwłokiem widać parę ciemnoniebieskich plamek. To przechowywane w zewnętrznych kieszeniach kryształy białek zawierających miedź (stąd charakterystyczne zabarwienie). Podczas ataku innych termitów, np. Embiratermes neotenicus, niebieskie robotnice i robotnicy wybuchają, uwalniając w ten sposób zawartość gruczołów ślinowych, które znajdują się u nich nie w jamie gębowej, a właśnie w okolicach grzbietu. To bardzo ważna część operacji, dzięki której nieszkodliwe dotąd substancje wchodzą w kontakt z niebieskimi kryształami. Toksyczność niebieskich robotnic jest skutkiem zmieszania składników z 2 źródeł - podkreśla Bourguignon. Ciecz szybko staje się żelem. Kiedy para biologów nakładała ją na rywali N. taracua, u 28% występował paraliż, a 65% umierało. Po usunięciu niebieskich kryształów płyny nie były aż tak zabójcze. Gdy z kolei wyposażano w nie białe (młodsze) osobniki, stawały się toksyczne, ale w mniejszym stopniu od niebieskich koleżanek i kolegów. Akademicy ustalili, że z wiekiem kryształy na grzbiecie stają się coraz większe. Dodatkowo, w porównaniu do młodszych robotnic, starsze są bardziej agresywne w stosunku do innych termitów. Šobotník od lat zajmuje się bronią chemiczną u termitów. Autotyza (ang. autothysis) to nowy obszar jego zainteresowań. Termin ten został ukuty w 1974 r. przez Eleonorę i Ulricha Maschwitzów, którzy próbowali jakoś nazwać wybuchowy mechanizm obronny mrówek Camponotus saundersi.
  16. Naukowcy od dawna pracowali nad stworzeniem maszyny imitującej trójwymiarową strukturę nowotworu. Skonstruowanie takiego urządzenia znacznie ułatwiłoby prace badawcze nad biologią guzów. Mogłoby także przyczynić się do skuteczniejszego testowania nowych leków w warunkach laboratoryjnych, co ułatwiłoby utrzymanie ścisłej kontroli nad eksperymentem, a także pozwoliłoby ograniczyć liczbę testów wykonywanych na zwierzętach. Dotychczas w laboratoriach stosowano masowo zaledwie dwie techniki hodowli. Pierwsza to hodowla zawiesinowa, tzn. taka, w której komórki unoszą się w pożywce podobnie jak krwinki we krwi. W ten sposób można jednak hodować tylko nieliczne typy komórek. Większość potrzebuje kontaktu z podłożem, do którego przylegają podobnie, jak w naturalnej tkance przylegają do tzw. macierzy pozakomórkowej. Największą wadą tego typu hodowli była jej dwuwymiarowa struktura - komórki są hodowane jako pojedyncza, jednolita warstwa, przez co wszystkie rosną w identycznych warunkach. W prawdziwym guzie sytuacja jest bardziej skomplikowana, gdyż ze względu na nierównomierne unaczynienie poszczególne fragmenty tkanki dysponują różnymi warunkami środowiska. Z tego powodu badania nad nowotworami in vitro często nie odzwierciedlały rzeczywistej sytuacji wewnątrz guza. W celu przezwyciężenia tej niedogodności naukowcy opracowali tzw. sferoidy. Są to nieduże pęcherzyki mieszczące w swoim wnętrzu hodowane komórki. Odzwierciedlało to częściowo architekturę guza, lecz technologia ta była ciężka do zastosowania w typowym laboratorium. Wymagała odpowiednich maszyn i stosowania skomplikowanego procesu opłaszczania komórek specjalną błoną, przez co niewiele zakładów badawczych pozwalało sobie na stosowanie tej techniki. Dodatkowo trudno było utrzymać identyczny rozmiar poszczególnych struktur. Mimo to technologia ta ma też swoje wielkie zalety - udowodniono na przykład, że stosowany często w terapii raka piersi lek, Taxol, jest dwukrotnie mniej skuteczny w zabijaniu komórek rosnących wewnątrz sferoidów, niż w przypadku hodowli jednowarstwowej. Osiagnięty w ten sposób wynik jest jednocześnie znacznie bardziej przybliżony do realnej skuteczności tego środka. Grupa naukowców z Uniwersytetu Kalifornijskiego w Berkeley postanowiła poszukać łatwiejszej i tańszej metody hodowli symulującej strukturę tkanki. Opracowali oni specjalną trójwymiarową matrycę złożoną z licznych przedziałów, mieszczących zaledwie około dziesięciu komórek każdy. Gdy przepuści się przez nią roztwór komórek nowotworowych (komórki przylegające do podłoża tymczasowo odkleja się od niego, a następnie powstały roztwór wpuszcza do maszyny), wypełniają one poszczególne sektory, a następnie przylegają do ich ścianek. Gdy zasiedlenie matrycy jest zakończone, można do niej wpuścić standardową pożywkę hodowlaną. Luke Lee, główny twórca urządzenia, wyjaśnia sekret skuteczności opracowanego przez jego zespół systemu: Podanie komórek w roztworze pozwala na uzyskanie zbitych grup komórek rozsianych w trójwymiarowej sieci, co odgrywa ważną rolę w formowaniu równomiernych sferoidów. Maria Teresa Santini, niezwiązana z projektem włoska specjalistka w dziedzinie badań nad nowotworami, jest pod wrażeniem działania nowego systemu. To ważny krok naprzód. Do tej pory trudno było uformować sferoidy o identycznym kształcie i strukturze, co znacznie zmniejszało wiarygodność badań laboratoryjnych. Dzięki temu odkryciu możemy uzyskać znacznie większą powtarzalność wyników i jednocześnie pozbyć się błędów wynikających z nierównej wielkości poszczególnych pęcherzyków. Mniej entuzjastyczny jest Wolfgang Mueller Klieser, pracownik Uniwersytetu w Moguncji. Jego zdaniem, równie łatwo byłoby hodować sferoidy z użyciem dotychczas stosowanej technologii, wprowadzając jedynie dodatkowy krok sortowania ich według rozmiaru. Przyznaje jednak, że nowa technologia jest znacznie szybsza - pozwala bowiem wykonać w kilka godzin pracę, która do tej pory wymagała dziesięciu dni. Kontrowersje wzbudza także rozmiar pojedynczych zlepów komórek tworzonych przez maszynę opracowaną w Kalifornii. Luke Lee broni jednak swojego pomysłu, twierdząc, że eksperyment miał jedynie potwierdzić możliwość zastosowania wspomnianej metody. Twierdzi także, że liczba komórek w pojedynczym pęcherzyku odzwierciedla strukturę guza na wczesnym etapie rozwoju. Planuje jednak stworzenie nowych wersji urządzenia, które mogłyby być pomocne w badaniach nad bardziej zaawansowanymi nowotworami.
  17. Amerykańscy astronomowie odkryli nową planetę. HAT-P-1 to jednocześnie największa i najmniej gęsta (a więc i najlżejsza w stosunku do swej objętości) z niemal 200 planet, które odkryto dotychczas poza naszym systemem słonecznym. Planeta jest tak lekka, że, jak uznają specjaliści, unosiłaby się na wodzie. Znajduje się ona w gwiazdozbiorze Jaszczurki, gdzie okrąża jedną z pary gwiazd. Jest oddalona od Ziemi o około 450 lat świetlnych. HAT-P-1 to gazowy gigant, składający się prawdopodobnie z wodoru i helu. Okrąża swoją gwiazdę w odległości dwudziestokrotnie mniejszej, niż pomiędzy Słońcem a Ziemią. Czas jej obiegu wokół gwiazdy wynosi 4,5 doby.
  18. Naukowcy z Consejo Superior de Investigaciones Cientifícas, po przeanalizowaniu 464.411 piosenek, doszli do wniosku, że te, stworzone w ostatnich dekadach są do siebie bardziej podobne, niż utwory wcześniejsze. Analiza wykazała, że od 55 lat w utworach muzycznych ciągle zmniejsza się przejście pomiędzy grupami nut. Te parametry muzyczne są dla piosenek tym, czym słowa dla tekstu. Obserwujemy zatem, że zasób słownictwa jest coraz mniej zróżnicowany - mówi Joan Serrá z Instytutu Badań nad Sztuczną Inteligencją, który stał na czele grupy naukowej. Innymi słowy, gdy znamy jedną nutę współczesnego utworu muzycznego, możemy znacznie łatwiej niż kiedyś odgadnąć, jaka będzie kolejna nuta. Zauważono również spadek zróżnicowania brzmień oraz mniejszą różnorodność wykorzystywanych instrumentów. Na przykład w latach 60. grupy takie jak Pink Floyd eksperymentowały z muzyką w znacznie większym stopniu, niż jest to robione obecnie - dodaje Serrá. Zdaniem naukowca cechami charakterystycznymi współczesnej muzyki są głośność, wykorzystywanie podobnych instrumentów oraz zmiany prostych akordów.
  19. Zwolennikom poprawności politycznej to się zapewne nie spodoba, ale najnowsze badania wykazały, że ludzie są w stanie w mgnieniu oka ocenić orientację seksualną innych osób. Wystarczy krótkie spojrzenie na twarz. Mamy więc kolejny dowód na to, że ludzie podświadomie są w stanie wykryć więcej cech drugiego człowieka, niż nam się wydaje. Wszystko zaczęło się w roku 1994 gdy psychologowie Nalini Ambady i Robert Rosenthal z Tufts University przeprowadzili eksperyment, podczas którego badanym pokazywano 2-sekundowe filmy z nagraniami wykładowców akademickich podczas pracy. Później proszono ich, by ocenili, czy dany wykładowca jest dobrym czy złym nauczycielem. Odpowiedzi porównano z oceną wykładowców, którą wystawili im studenci uczęszczający cały semestr na ich zajęcia. Okazało się, że opinie są zbieżne. Teraz Nalini Ambady i Nicholas Rule postanowili sprawdzić, czy równie dobrze rozpoznajemy orientację seksualną. Mężczyznom i kobietom pokazali oni fotografie 90 twarzy homo- i heteroseksualnych mężczyzn. Czas, w jakim badani patrzyli na zdjęcie, wahał się od 33 milisekund do 10 sekund. Okazało się, że gdy badani widzieli fotografie przez co najmniej 100 milisekund, potrafili z 70% skutecznością odgadnąć orientację seksualną osób na zdjęciach. Skrócenie czasu ekspozycji spowodowało, że odsetek trafień się zmniejszał, natomiast jego wydłużenie nie wiązało się z lepszą oceną orientacji seksualnej. Dowodzi to niezwykłych zdolności naszego mózgu, choć badaczy zastanawia, dlaczego dłuższe przyglądanie się zdjęciom nie poprawiało percepcji. Psycholog David Kenny z University of Connecticut zauważył też, iż w przypadku niektórych zdjęć uczestnicy w każdym przypadku dawali mniej niż 50% trafnych odpowiedzi. Może to, jego zdaniem, oznaczać, iż z niektórych twarzy trudno cokolwiek wyczytać.
  20. Yahoo! zaprezentuje dzisiaj usługę SmartAds, która ma umożliwić firmie zwycięstwo w wyścigu technologii reklamy behawioralnej. Nowa „inteligentna” reklama będzie wyświetlała użytkownikowi to, czym potencjalnie jest najbardziej zainteresowany. SmartAds ma pomóc dostawcom reklamy w analizowaniu zachowania użytkowników na bieżąco i kierowania do nich odpowiedniej treści. Osobie, która szukała ostatnio w Sieci np. lodówki, wyświetlą się reklamy lodówek wraz z cenami i adresami pobliskich sklepów. Skomplikowana technologia SmartAds ma dość prosty cel: wyświetlenie odpowiedniej osobie odpowiedniej reklamy wówczas, gdy będzie najbardziej skłonna do kupienia reklamowanego towaru bądź usługi. Aby SmartAds działały reklamodawca musi dostarczyć Yahoo nie tylko materiały graficzne, ale również zapewnić automatyczny dostęp do swojej bazy danych, z której na bieżąco będą czerpane informacje o dostępności i cenach towarów. Z kolei Yahoo połączy te dane ze swoimi informacjami na temat użytkowników i ich zachowania w Sieci. W przyszłości Yahoo planuje wzbogacenie części reklam, przynajmniej tych dotyczących linii lotniczych, o umożliwienie zakupu biletu bezpośrednio po kliknięciu reklamy. Tak, by użytkownik nie musiał przechodzić na inną stronę, gdzie będzie mógł dokonać transakcji.
  21. "Peruwiańska viagra” to dość oryginalny napój. Składa się z rosołu z białej fasoli, dwóch łyżeczek miodu, kawałków aloesu, kilku łyżeczek maki (andyjskiej rośliny, która zwiększa ponoć wytrzymałość i wydajność seksualną) oraz miejscowej żaby pozbawionej skóry i wnętrzności. Całość jest miksowana w blenderze i sprzedawana w cenie 90 centów za szklankę. Niektóre andyjskie ludy wierzą, że taki koktajl leczy astmę, zapalenie oskrzeli, dodaje energii oraz wzmaga potencję.
  22. Niski poziom testosteronu u mężczyzn po pięćdziesiątce zwiększa ryzyko zgonu. W amerykańskich badaniach wzięło udział 800 panów po 50. roku życia. Jeśli u kogoś występowało niższe stężenie testosteronu, ryzyko zgonu podczas 18 lat studium wzrastało o 33% (w porównaniu do mężczyzn z wyższym poziomem hormonu). Uczestnicy eksperymentu mieli od 50 do 91 lat. Od lat 70. uczestniczyli w kalifornijskim eksperymencie dotyczącym chronicznych chorób. Eksperci podkreślają, że nie zalecali swoim pacjentom zażywania suplementów lub leków. Ze względu na możliwe efekty uboczne lepiej być po prostu aktywnym. To umożliwia utrzymanie odpowiedniego stężenia androgenu. Za niski poziom testosteronu uznawano stężenie znajdujące się poniżej dolnej granicy normy dla młodego dorosłego mężczyzny. To normalne, że z wiekiem stężenie hormonu spada, ale odnotowuje się tu duże różnice międzyosobnicze. W przypadku omawianych badań niski poziom androgenu wystąpił u 29% wolontariuszy. Trzeba podkreślić, że zwiększonego ryzyka zgonu nie można było wytłumaczyć paleniem tytoniu, piciem alkoholu, natężeniem aktywności fizycznej czy pewnymi chorobami, takimi jak występujące wcześniej choroby serca czy cukrzyca. Mężczyźni z niskim poziomem testosteronu cierpią jednak często na tzw. zespół metaboliczny. Jest to zbiorcze określenie kilku czynników ryzyka, m.in.: wysokiego poziomu cholesterolu, wysokiego stężenia glukozy oraz nadciśnienia, a także obwodu pasa powyżej 102 cm. Wszystkie razem predysponują do wystąpienia chorób sercowo-naczyniowych i cukrzycy. Nasze badania jasno wskazują, że związek między poziomem testosteronu a zgonem nie jest prostym skutkiem chronicznych chorób — podkreśla dr Gail Laughlin z Wydziału Medycyny Rodzinnej i Prewencyjnej Uniwersytetu Kalifornijskiego w San Diego. Styl życia może determinować poziom testosteronu i dałoby się go prawdopodobnie modyfikować, zmniejszając wagę ciała. Lekarstwem na wszelkie dolegliwości wydaje się więc zdrowy tryb życia i ćwiczenia.
  23. Odkryto pierwszego wirusa atakującego iPoda. Prototypowy kod nie jest szkodliwy, ani nie potrafi się rozprzestrzeniać. Nie stanowi więc obecnie realnego zagrożenia. Jest jednak dowodem, że zaatakować można kolejną platformę – tym razem odtwarzacz Apple’a. Wirus, nazwany Podloso, działa na tych iPodach, których użytkownicy zastąpili oryginalny system operacyjny Linuksem. Jeśli szkodliwy plik zostanie zainstalowany i uruchomiony, wirus skanuje dysk twardy odtwarzacza i infekuje wszystkie pliki ELF. Wówczas, przy próbie otwarcia któregoś z tych plików pojawia się komunikat: Zostałeś zainfekowany Oslo, pierwszym wirusem na iPoda z Linuksem. Specjaliści zwracają uwagę, że wraz z pierwszym szkodliwym kodem dla iPoda, firmy stanęły przed nowym zagrożeniem. Dotychczas ich głównym zmartwieniem były ewentualne próby wynoszenia przez pracowników tajemnic firmowych na dysku odtwarzacza. Obecnie będą musiały też dbać o to, by przyniesiony na iPodzie wirus nie zaatakował całej firmowej sieci. Sami użytkownicy mogą być mniej narażeni, gdyż dane przechowywane na iPodach rzadko są interesujące dla cyberprzestępców.
  24. Po raz pierwszy w historii porównano zakres zażywania narkotyków w 19 europejskich miastach, analizując próbki surowych ścieków. Raport naukowców z Norweskiego Instytutu Badań Wody (NIVA) w Oslo oraz Instytutu Maria Negri w Mediolanie nigdy by nie powstał, gdyby nie współpraca z 11 innymi jednostkami badawczymi. W jednym z tygodni marca 2011 r. zespół pobierał próbki z 21 oczyszczalni ścieków, które w sumie obsługiwały ok. 15-mln populację. W moczu identyfikowano biomarkery zażywania kokainy, amfetaminy, metamfetaminy, MDMA (ecstasy) i marihuany. Oceniano ogólną ilość narkotyków przypadającą na dane miasto, a następnie wyliczano, ile przypadłoby w udziale pojedynczemu mieszkańcowi. Okazało się, że w Europie dziennie zażywa się ok. 350 kg kokainy. Wykorzystanie tego narkotyku w Europie Zachodniej i Środkowej jest wyższe niż w Europie Północnej i Wschodniej. Najbardziej kokainowym ze wszystkich badanych miast okazała się Antwerpia. Za nią uplasowały się Amsterdam, Walencja, Eindhoven, Barcelona i Londyn. Największe wykorzystanie MDMA per capita wykryto w Amsterdamie i Utrechcie, na kolejnych miejscach listy wymieniano Antwerpię i Londyn. W próbkach ze Sztokholmu w ogóle nie wykryto ecstasy. Jeśli chodzi o metamfetaminę, prym wiodły Helsinki, Turku, Oslo i Czeskie Budziejowice. Zakres wykorzystania konopi był podobny w całej Europie. Akademików nie zdziwił też fakt, że w porównaniu do reszty tygodnia, w czasie weekendu "obciążenie" próbek kokainą i MDMA było znacząco wyższe. Kevin Thomas z NIVA uważa, że analizy ścieków zawsze będą dokładniejsze od tradycyjnych metod, np. kwestionariuszy samoopisu. W studiach oczyszczalniowych możemy określić, jak duży jest rynek narkotykowy w danym mieście. Jesteśmy też w stanie na bieżąco zmierzyć zmiany w konsumpcji po nalocie policyjnym czy interwencji służb celnych.
  25. Firma Millward Brown opublikowała swój kolejny raport "BrandZ Top 100", w którym wymienia 100 najbardziej wartościowych brandów świata. W 2008 roku wartość wszystkich brandów z Top 100 wzrosła o 21%, z 1,6 biliona USD do 1,94 biliona USD. Na liście 10 najbardziej wartościowych marek znajdziemy cztery firmy (Google, Microsoft, IBM i Apple) ściśle związane z przemysłem IT. Na pierwszym miejscu uplasowało się Google. Wartość tej marki to 86,057 miliarda USD (wzrost o 30%). Drugie miejsce należy do GE (71,379 mld, +15%). Na trzecim miejscu znajdziemy Microsoft (70,887 mld, +29%), a na czwartym Coca-Colę (58,208 mld, +17%). Kolejna jest pierwsza w tym zestawieniu chińska firma - China Mobile. Wartość tego brandu oszacowano na 57,225 mld, co oznacza 39-procentowy wzrost w porównaniu z rokiem ubiegłym. Na szóstym miejscu uplasował się IBM (55,335 mld, +65%), a na siódmym - Apple (55,206 mld), który zanotował najwyższy spośród wszystkich 100 firm wzrost wartości marki. Pomiędzy rokiem 2007 a 2008 zyskała ona aż 123%. Kolejne trzy miejsca należą do McDonald\'sa (49,499 mld, +49%), Nokii (43,975 mld, +39%) oraz Marlboro (37,324 mld, -5%). Branża technologiczna przeżywa obecnie olbrzymi rozkwit. Należy do niej 28 firm na 100 wymienionych w BrandZ. Wartość ich marek zwiększyła się w ciągu roku łącznie o 187,5 miliarda dolarów, co stanowi ponad połowę wzrostu wszystkich firm z listy. Wśród BrandZ Top 100 nie wymieniono żadnej polskiej firmy.
×
×
  • Dodaj nową pozycję...