Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37652
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    249

Zawartość dodana przez KopalniaWiedzy.pl

  1. Microsoft poinformował, że na rynek trafi sześć wersji systemu Windows 7. Dwie najważniejsze to Home Premium dla użytkownika domowego i Professional dla firm. Mike Ybarra, menedżer odpowiedzialny za linię Windows, stwierdził: Podstawowa zmiana jest taka, że każda następna wersja jest pochodną poprzedniej. Oznacza to, że gdy użytkownik zdecyduje się na aktualizację do wersji wyższej, zachowa wszystkie funkcje i narzędzia wersji niższej. W Windows Vista takiej ciągłości nie zachowano i np. w wersji Business nie było funkcji Media Center, obecnej w wersji Home Premium Najuboższą wersją Windows 7 będzie edycja Starter. Wbrew temu, co pisało wiele serwisów informacyjnych, Ybarra poinformował, że będzie ona dostępna na całym świecie, a nie tylko w państwach rozwijających się. Starter nie powstanie w wersji pudełkowej. Będzie dostępna tylko w formie preinstalowanej przez producentów komputerów i ograniczona do specyficznego typu sprzętu. Wersja Starter umożliwi uruchomienie do trzech aplikacji jednocześnie. Nie będą tu liczone aplikacje działające w tle, takie jak oprogramowanie antywirusowe. W Starterze nie znajdziemy też Aero. Microsoft chce wypozycjonować tę wersję na światowy rynek netbooków - słabo wyposażonych notebooków, używanych głównie do łączenia się z Internetem i prostych prac biurowych w podróży. Wersją przeznaczoną tylko na rynki rozwijające się będzie Home Basic. To również zubożona wersja, która, jak stwierdził Ybarra, ma trafić do osób stawiających pierwsze kroki z Windows na tanim pececie. Trzecią edycją będzie skierowana dla użytkownika domowego Windows 7 Home Premium. Zostanie ona wyposażona we wszystkie możliwe funkcje multimedialne, obsługę ekranów wielodotykowych, możliwość tworzenia grup roboczych, zestawiania sieci, odtwarzania filmów czy nagrywania DVD. Druga z podstawowych wersji to Windows 7 Professional. W porównaniu z Home Premium zostanie wzbogacona o funkcje przydatne w małej firmie. Jej użytkownik skorzysta więc z szerszych możliwości konfiguracji sieci (jak np. podłączenie do domeny), zaawansowane funkcje tworzenia kopii zapasowych przez sieć czy możliwość skorzystania z Location Aware Printing - technologii, która rozpoznaje, że komputer zmienił położenie (na przykład użytkownik przyniósł go z pracy do domu) i został podłączony w innym miejscu, a więc korzysta z innej drukarki. System ustawi jako domyślną odpowiednią drukarkę. Dla swoich największych partnerów Microsoft przygotował wersję Enterprise, która będzie dostępna jedynie na podstawie oddzielnych licencji. W edycji tej znajdą oni zaawansowane systemy ochrony danych, jak na przykład BitLocker (system pełnego szyfrowania dysku twardego), BitLocker To Go (rozszerzenie BitLockera na przenośne urządzenia do składowania danych, np. klipsy USB), BranchCase (tworzy lokalną kopię aplikacji i danych udostępnianych np. przez główne serwery firmy, przez co praca i dostęp do nich stają się łatwiejsze) czy AppLocker (umożliwia administratorowi ustalenie "białej listy" programów, które mogą być uruchamiane na komputerze). Edycja Enterprise zostanie wyposażona też w możliwość uruchomienia systemu z wirtualnego dysku twardego (VHD). W końcu ukaże się też wersja Windows 7 Ultimate, która będzie zawierała wszystkie narzędzia i technologie dostępne w innych edycjach. Ybarra określił ją jako edycję dla "entuzjastów, którzy chcą mieć wszystko". Ultimate będzie więc de facto wersją Enterprise, ale skierowaną na rynek konsumencki, a więc na zwykłej licencji, która nie będzie wymagała zakupu określonej liczby kopii. W mediach ukazała się informacja, że wersja Ultimate nie będzie dostępna tak łatwo, jak inne edycje. Podobno została ona pomyślana jako aktualizacja Home Premium i Professional, co oznacza, że użytkownik najpierw będzie musiał posiadać jedną z wymienionych edycji, a następnie dokupić aktualizację. Ceny poszczególnych wersji Windows 7 nie są jeszcze znane.
  2. Gra z ludzkim bądź komputerowym przeciwnikiem w inny sposób pobudza ludzki mózg. Jeśli więc chcemy osiągnąć określone rezultaty, to wybór partnera nie powinien być dziełem przypadku (BMC Neuroscience). Zespół doktora Kracha i profesora Kirchera z Uniwersytetu w Marburgu przeprowadził badanie obrazowe mózgu ochotników, którzy grali w grę hazardową. Wierzyli oni, że muszą się zmierzyć z żywą istotą lub maszyną, ale nie mogli sprawdzić, kto lub co siedzi naprawdę po drugiej stronie. Chodziło o określenie wpływu płci (bycie kobietą bądź mężczyzną) i przeciwnika (rywalizacja z człowiekiem lub komputerem) na wzorce aktywacji przyśrodkowej kory przedczołowej (ang. medial prefrontal cortex, mPFC). Wybrano właśnie mPFC, ponieważ jest to rejon związany z tworzeniem tzw. teorii umysłu, a więc modelu myśli, intencji oraz emocji innych ludzi. Podczas gry można było współpracować z konkurentem, by podzielić się potem wygraną lub oszukać go i zgarnąć wszystko dla siebie. Gdy na oszustwo decydowały się obie strony, wszyscy przegrywali. Choć badani o tym nie wiedzieli, w rzeczywistości zawsze grali z komputerem, który w każdej rundzie działał losowo. Niemcy zaobserwowali, że pewne rejony mózgu aktywowały się zawsze, bez względu na to, czy ochotnik myślał, że gra z człowiekiem, czy z maszyną. Były to przyśrodkowa kora przedczołowa, przedni zakręt obręczy (ang. anterior cingulate cortex, ACC) oraz prawa okolica zbiegu płatów skroniowego i ciemieniowego (ang. temporoparietal junction, TPJ). To właśnie te obszary odpowiadały za generowanie teorii umysłu. Kiedy ochotnik był jednak przekonany, że gra z drugim człowiekiem, nasilała się aktywność rejonów związanych z planowaniem i przewidywaniem: mPFC oraz ACC. Okazało się też, że w porównaniu do kobiet, u mężczyzn dochodziło do silniejszego pobudzenia różnych rejonów, w tym okolic przyśrodkowoczołowych, kiedy sądzili oni, że grają z człowiekiem. Wg Kracha, można to wyjaśnić na kilka sposobów. Badanym mówiono, że ludzkim przeciwnikiem jest zawsze przedstawiciel płci brzydkiej, a w ramach wcześniejszych studiów wykazano, że kobiety i mężczyźni obierają inne strategie w obecności rywala mężczyzny. Niewykluczone też, że panie lepiej wyczuwały, że w rzeczywistości zawsze konkurują z maszyną, przez co ich mózg cały czas angażował się w podobnym stopniu.
  3. IBM otrzymał rządowe zlecenie na budowę 20-petaflopsowego superkomputera Sequoia. Najbliższe lata będą więc dla Błękitnego Giganta bardzo pracowite, gdyż, jak już informowaliśmy, ma też zbudować ponad 10-petaflopsowy Blue Waters. Jakby jeszcze tego było mało, firmie zlecono stworzenie komputera Dawn o mocy 500 teraflopsów, który będzie wspomagał Sequoię. Wszystkie trzy supermaszyny mają rozpocząć pracę już w 2011 roku. Sequoia powstaje na potrzeby National Nuclear Security Administration, która jest częścią Departamentu Energii. Komputer będzie wykorzystywany do symulowania testów broni jądrowej. Superkomputer stanie w Lawrence Livermoer National Laboratory, a korzystać będą z niego też Laboratoria Narodowe Los Alamos i Sandia. Specyfikacja komputera Sequoia przewiduje wyposażenie go w 16 petabajtów pamięci, 98 304 węzły i 16 milionów rdzeni procesora Power. Dotychczas barierę petaflopsa, czyli biliarda (1 000 000 000 000 000) operacji zmiennoprzecinkowych na sekundę przekroczyły dwa komputery - IBM-owski RoadRunner (1,105 PFlops) oraz Jaguar (1,059 PFlops) firmy Cray. Sequoia będzie od nich 20-krotnie szybszy.
  4. Komputery mądrzejsze od ludzi to pomysł rodem z literatury science fiction. Jednak NASA i Google już postanowiły przygotować się na dzień, w którym stanie się on rzeczywistością. Wiosną bieżącego roku na terenie kampusu NASA w Dolinie Krzemowej ruszy Singularity University - uczelnia, której zadaniem będzie przygotowanie naukowców do epoki, w której inteligencja maszyn przewyższy ludzką. Nazwa uniwersytetu została zaczerpnięta z koncepcji futurologa Raya Kurzweila, który mianem Singularity określił czekającą nas wkrótce epokę gwałtownego rozwoju technologicznego. Jego zdaniem w przyszłości technologia będzie miliony razy bardziej zaawansowana niż obecnie, co nieuchronnie doprowadzi do głębokich zmian. Maszyny mogą wykorzystać sztuczną inteligencję do zwiększenia własnych możliwości, doskonalenia się i w końcu, prześcignięcia ludzkiej inteligencji. Sam Kurzweil zostanie pierwszym rektorem nowej uczelni. Głównym zadaniem uniwersytetu będzie przewidywanie zmian, które mogą zajść w przyszłości i przygotowanie się na nie. Jeśli je przewidzimy, możemy tak pokierować rozwojem technologii, by nie zaszkodził on ludzkości. Studenci nowej uczelni będą poszukiwali sposobów na tworzenie takich maszyn, które pomogą nam rozwiązać trapiące ludzkość problemy - ubóstwo, głód, globalne ocieplenie czy wyczerpywanie się surowców energetycznych. NASA udostępni na potrzeby uczelni pomieszczenia w Ames Research Centre, a Google przeznaczy na jej działalność ponad milion dolarów. Inne firmy zadeklarowały już wpłaty w wysokości co najmniej 250 000 USD.
  5. Międzynarodowy zespół naukowców odkrył na terenie Kolumbii skamieniałości olbrzymiego węża sprzed 60 mln lat. Titanoboa ważył ponad tonę (ok. 1100 kg) i mierzył 13 metrów, mógłby więc z powodzeniem straszyć w horrorach. Badacze dowodzą, że zwierzęta te prześlizgiwały się przez krajobraz Ameryki Południowej podczas paleocenu, czyli jakieś 5-6 mln lat po wyginięciu tyranozaurów. Olbrzymie węże nie były jadowite. Jako dusiciele żywiły się upolowanymi żółwiami i krokodylami. Nowy gatunek jest największym znanym wężem, żyjącym bądź skamieniałym. Najokazalszymi wężami są obecnie pytony oraz anakondy, które zazwyczaj osiągają długość do ok. 6 m, a od czasu do czasu mają nawet 9 m. Skamielina uznawana dotąd za najdłuższą mierzyła 10 m. Nowy wąż był 13-metrowym gigantem, zdeklasował więc wszystkich – podlicza David Polly, geolog z Indiana University. Południowoamerykańskie doniesienia pomogą określić wpływ temperatur na rozmiary zwierząt zmiennocieplnych.
  6. Nadwrażliwość na perfumy jest częstą postacią alergii kontaktowej u dorosłych. Lina Hagval, doktorantka z Uniwersytetu w Göteborgu, wykazała, że wbrew pozorom, ludzie są uczuleni nie tylko na substancje syntetyczne, lecz również na naturalne olejki zapachowe, np. lawendowy. Choć mało kto o tym wie, aż 1 na 5 dorosłych mieszkańców Europy Północnej cierpi na jakąś postać alergii kontaktowej, najczęściej na nikiel. W przypadku perfum, nawet jeśli początkowo wydają się one nieszkodliwe, sytuacja może się zmienić diametralnie, gdy ich składniki przereagują z powietrzem (samoutlenianie) lub z enzymami skóry. Obecnie wiele osób zakłada, że produkty naturalne zawsze są zdrowe i właściwie nie mogą być niebezpieczne. Tak, niestety, nie jest. Wg producentów ekologicznych kosmetyków, olejki eteryczne nie powinny szkodzić, gdyż zawierają zapobiegające autooksydacji przeciwutleniacze. Hagvall postanowiła zbadać właściwości olejku lawendowego oraz geraniolu – organicznego związku z grupy alkoholi terpenowych, którego zapach kojarzy się ze świeżością; jest on głównym składnikiem olejku różanego, cytrynowego i pelargoniowego. Gdy olejek lawendowy zaczynał reagować z kwasami, tworzyły się uczulające związki. Geraniol sam w sobie był jedynie lekko alergizujący, lecz kiedy wchodził w reakcję z enzymami skórnymi/podlegał autoutlenianiu, tworzył się geranial (inaczej cytral a, czyli izomer trans tego związku, o intensywnym zapachu przypominającym cytrynę), a ten już nie jest taki nieszkodliwy. Szwedka podsumowuje, że egzemę powoduje o wiele więcej perfum niż dotąd przypuszczano. Wygląda więc na to, że wszystkie "zapachy" trzeba ponownie przetestować pod kątem ewentualnych reakcji z powietrzem czy enzymami.
  7. Czy pępek jest tylko i wyłącznie blizną? Aki Sinkkonen z Uniwersytetu w Helsinkach uważa, że nie i stanowi on wskaźnik formy oraz potencjału reprodukcyjnego kobiety w wieku rozrodczym (The FASEB Journal). Ważny jest wygląd zarówno pępka, jak i otaczającej go skóry. Sugeruję, że symetria, kształt i umiejscowienie pępka mogą stanowić podstawę wnioskowania o potencjale rozrodczym kobiet, włącznie z ryzykiem dziedziczonych po matce anomalii płodu. Jak wiadomo, pępki bywają bardzo różne. Przejrzawszy literaturę przedmiotu, Sinkkonen stwierdził, że ludzie preferują te o kształcie litery "t", owalne i poziome. By się im podobały, nie mogą być za bardzo ukryte ani wystające czy przepastne. Nic więc dziwnego, że czeska modelka Karolina Kurkova, która ma jedynie szczątkowo zarysowany pępek, na wszystkich zdjęciach pojawia się z blizną "pożyczoną" od którejś z koleżanek. Fin zakłada, że skoro stan pępowiny, sznura łączącego płód z łożyskiem, jest istotny dla przebiegu ciąży, to wszystkie anomalie i zaburzenia znajdą odzwierciedlenie w wyglądzie pozostającej po niej blizny. Wiele ssaków nie ma widocznego pępka. My mamy i nie wydaje się, by pełnił on jakąkolwiek oczywistą funkcję poza sygnałową. Sinkkonen uważa, że gdyby jego hipotezy się potwierdziły, można by mierzyć kobiece pępki, by określić ryzyko zaburzeń przebiegu ciąży bądź wad płodu.
  8. Wytwarzanie hybrydowych zarodków ludzko-zwierzęcych, uzyskiwanych z komórek jajowych zwierząt wzbogaconych o ludzkie DNA, uznawane jest za jeden z najważniejszych celów nowoczesnej biologii. Niestety, pomimo starań wielu naukowców, żadnemu zespołowi nie udało się jeszcze osiągnąć upragnionego celu. Wygląda na to, że mieszanie ze sobą komórek ludzkich i zwierzęcych nie programuje komórki jajowej poprawnie, tłumaczy lakonicznie dr Robert Lanza, badacz specjalizujący się w hodowli hybrydowych zarodków. Niestety, naukowiec nie potrafi wyjaśnić, dlaczego tak się dzieje, choć geny odpowiedzialne za rozwój embrionu wydają się działać prawidłowo. Próby wytwarzania międzygatunkowych zarodków podejmowane są od około dziesięciu lat. Jest o co walczyć: embriony takie byłyby doskonałym źródłem komórek macierzystych, zaś badania na nich byłyby znacznie mniej kontrowersyjne od używania naturalnych embrionów ludzkich. Co więcej, organizmy samic wielu ssaków wytwarzają komórki jajowe w znacznie większej liczbie, niż ma to miejsce u kobiet. Aby wytworzyć hybrydowy embrion, teoretycznie wystarczy pobrać komórkę jajową dowolnego ssaka, usunąć z niej DNA i zastąpić je DNA ludzkiej komórki jajowej, a następnie zapłodnić ją przy użyciu ludzkiego plemnika. Niestety, w praktyce jest znacznie gorzej: zarodki ludzko-mysie obumierają już po pierwszym podziale komórkowym, zaś ludzko-krowie i ludzko-królicze - niewiele później. Mieliśmy piękne malutkie hybrydowe zarodki, lecz to wciąż nie działało, nieważne jak ciężko pracowaliśmy, żali się dr Lanza. Badacz nie złożył jednak broni i sięgnął po najnowszą broń: globalną analizę ekspresji genów, czyli metodę pozwalającą na monitorowanie aktywności praktycznie wszystkich genów obecnych w danej komórce w różnych fazach dojrzewania embrionu. Przeprowadzone przez dr. Lanzę analizy wykazały, że hybrydy ludzko-zwierzęce charakteryzują się zaburzeniami aktywności licznych genów, co prowadzi do przedwczesnego obumierania zarodków. Nie to jest jednak najdziwniejsze. Okazuje się, że obumierają także hybrydy ludzko-ludzkie, choć w ich przypadku sekwencja "uruchamiania" i "wyłączania" poszczególnych genów wydaje się zachodzić prawidłowo. Dlaczego? Tego, niestety, nie wie nikt...
  9. Jaki jest idealny sposób na zdobycie "monopolu" na zamieszkiwanie na określonym obszarze? Wyjątkowo dobrym pomysłem wydaje się być dostosowanie się do przeżycia przy ogromnym niedoborze substancji odżywczej uznawanej za jedną z najważniejszych dla organizmów żywych. Właśnie to uczyniły gatunki żyjące w wyjątkowo niegościnnych wodach Morza Sargassowego. Odkrycia dokonali naukowcy z Woods Hole Oceanographic Institution (WHOI), prywatnego instytutu zajmującego się badaniami oceanograficznymi. Jak donoszą odkrywcy, zaobserwowane przez nich komórki wykazują cechy świadczące o doskonałym dostosowaniu do warunków skrajnie obniżonej zawartości fosforu i azotu w wodzie. Odnalezione w Morzu Sargassowym organizmy należą do kokolitoforów oraz okrzemek, jednokomórkowych składników planktonu roślinnego. Jak twierdzą naukowcy z WHOI, błony komórkowe tych glonów są pozbawione fosfolipidów - związków z grupy tłuszczowców, uznawanych dotąd za niezbędny składnik tych struktur. Zamiast tego, organizmy te wytwarzają lipidy bogate w betainę - związek o strukturze zbliżonej do jednego z aminokwasów wchodzących w skład białek, lecz niezawierający fosforu. Pozwala to na bardzo istotne ograniczenie zapotrzebowania na ten pierwiastek, który w wodach Morza Sargassowego dostępny jest w wyjątkowo niewielkich ilościach. Gdy wydawało się, że dokonano przełomowego odkrycia, okazało się, że... ewolucja zaszła jeszcze dalej. Okazało się bowiem, że jeszcze lepiej dostosowane do niedostatku podstawowych składników są sinice (cyjanobakterie) - organizmy zdolne do przeprowadzania fotosyntezy, lecz zaliczane ze względu na budowę komórek do królestwa bakterii. Jak wykazały badania, budowa błon komórkowych sinic jest jeszcze prostsza, niż u kokolitoforów i okrzemek. Zamiast zawierającej azot betainy, cząsteczki lipidów otaczające ich komórki powstają przy udziale związku zwanego SQDG, zawierającego siarkę. Pozwala to cyjanobakteriom nie tylko na przeżycie przy obniżonej zawartości fosforu, lecz także na ominięcie kolejnego poważnego ograniczenia, jakim jest skrajnie niskie stężenie azotu. Zdolność do życia w środowisku niemal całkowicie pozbawionym związków azotu i fosforu, dwóch pierwiastków uznawanych za podstawowe budulce żywych komórek, zapewnia sinicom niezwykłą przewagę w ewolucyjnym wyścigu o zasoby środowiska. Zdaniem jednego z autorów odkrycia, Benjamina van Mooya, zebrane informacje mogą odegrać istotną rolę w badaniach nad funkcjami życiowymi planktonu i całych ekosystemów morskich. Jedyny problem mają teraz autorzy podręczników biologii, którzy muszą napisać od nowa przynajmniej niektóre rozdziały swoich dzieł...
  10. Popularny Google Earth został wzbogacony przez swojego producenta o moduł Ocean, który umożliwia wirtualne nurkowanie, oglądanie trójwymiarowej podwodnej rzeźby terenu oraz zapoznawanie się z przygotowanymi przez oceanografów informacjami na temat morskich głębin. W Google Ocean nie mogło oczywiście zabraknąć materiałów filmowych najsłynniejszego badacza oceanów, z którymi zapoznamy się dzięki "Podwodnemu światowi Jacques'a Cousteau". Zainteresowani ekologią znajdą też moduły o wiele mówiących nazwach "Martwe strefy", "Obserwacja owoców morza" czy "Ryby niezagrożone wyginięciem", gdzie znajdziemy informacje o wpływie człowieka na faunę oceanów. Najnowsza, piąta już wersja Google Earth, została wzbogacona nie tylko o Google Ocean. Dodano do niej kilka innych funkcji, takich jak "Wirtualna podróż w czasie", która prezentuje archiwalne zdjęcia satelitarne wielu obszarów planety. Dzięki nim zobaczymy jak wyglądała budowa stadionów w Niemczech przed Mistrzostwami Świata w 2006 roku, jak wysycha jezioro Czad, czy sprawdzić tempo topnienia lodowca Grinnell w Montanie. Google Earth 5.0 jest dostępne w 40 językach, w tym po polsku.
  11. Już w drugiej połowie bieżącego roku mają zakończyć się prace nad AMD Fusion Render Cloud - superkomputerem graficznym, którego moc obliczeniowa ma przekroczyć barierę 1 petaflopsa. Ta niezwykle wydajna maszyna ma, jak zapewnia AMD, zrewolucjonizować sposób tworzenia i dystrybucji grafiki oraz obrazu wideo. Dzięki niej użytkownik będzie mógł jadąc z pracy do domu rozpocząć oglądanie filmu na wyświetlaczu telefonu komórkowego, a gdy dotrze do domu, dokończy go oglądać na ekranie telewizora. Wszystko dzięki bezprzewodowej łączności z Internetem, która pozwoli też np. na wykorzystanie komórki do grania w najbardziej zaawansowane gry bez konieczności instalacji dodatkowego oprogramowania. Nie wspominając już o ograniczeniach technicznych samego telefonu. Obsługą gry zajmie się AMD Fusion Render Cloud, zbudowany z wykorzystanie procesorów Phenom II, chipsetów AMD 790 i kart graficznych ATI Radeon HD 4870. Maszyna powstaje we współpracy z firmą OTOY, autorem zaawansowanego oprogramowania dla multimediów. Użytkownikowi wystarczy dostęp do Sieci i przeglądarka. Resztą zajmie się superkomputer, który w czasie rzeczywistym prześle do wyświetlenia gotowy obraz. Zdalne renderowanie umożliwi odtwarzanie obrazu HD na urządzeniach przenośnych, które ze względów technologicznych nie są w stanie przechowywać i przetwarzać tak olbrzymiej ilości danych.
  12. Co łączy proces produkcji układów scalonych z opracowywanymi przez NASA silnikami jonowymi? I chipy, i silniki jonowe mogą zostać udoskonalone dzięki najnowszemu osiągnięciu uczonych z Lawrence Berkeley National Laboratory (LBNL). Opracowali oni lepszą metodę napylania jonowego. W przemyśle półprzewodnikowym metalowe warstwy są nanoszone na podłoże krzemowe właśnie za pomocą napylania jonowego. Technika ta polega na wykorzystaniu plazmy, uzyskiwanej najczęściej z argonu, którą umieszcza się za pomocą pola magnetycznego pomiędzy warstwą metalu a produkowanym obwodem. Plazma wybija jony z metalu, a te przepływają do obwodu, gdzie są osadzane. Obecnie najczęściej wykorzystywaną techniką napylania jonowego jest opracowane w latach 90. impulsowe magnetronowe napylanie wysokosprawne (HIPIMS - High Power Impulse Magnetron Sputtering), która znacznie zwiększyło liczbę jonów metali osadzających się na podłożu, co z kolei polepsza jakość pokrycia. Jednak nawet w HIPIMS prąd wyładowczy ma ponaddziesięciokrotnie wyższe natężenie, niż jony docierające do krzemowego podłoża. Specjaliści z LBNL wykorzystali HIPIMS i odwrócili sytuację: wbrew intuicji natężenie jonów w pewnych warunkach znacznie przewyższa natężenie prądu wyładowczego. Oczywiście większą liczbę jonów można by teoretycznie uzyskać za pomocą obecnych technik. Wystarczy tylko zwiększyć moc dostarczanego prądu. Jednak przy zwiększeniu mocy istnieje ryzyko przegrzania systemu do tego stopnia, iż magnesy się rozmagnetyzują lub dojdzie do stopienia krzemowego podłoża. Zarówno magnesy jak i katoda muszą być chłodzone wodą. W zastosowaniach przemysłowych używa się rozpylacza o średniej mocy około 1 kilowata - mówi Anders. Właśnie ta "średnia" jest tutaj bardzo ważna. Gdy bowiem dostarcza się prądu w krótkich impulsach, mogą one przekraczać średnią o setki razy, dzięki czemu uzyskujemy znacznie więcej jonów i wolnych elektronów, a więc znacznie lepsze pokrycie. Liczba jonów wytworzonych w takich warunkach jest dostatecznie duża do tworzenia pokrycia, jak i wystarczająca do powrotu do celu i pozyskania kolejnych jonów. System sam się podtrzymuje, gdyż w plazmie dominują jony metalu, a nie gaz, a w płaszczu mamy dodatkowe nadmiarowe elektrony tworzące nadmiarową plazmę. System po chwili samodzielnie się stabilizuje, ale już na wyższym poziomie, niż poprzednio. W tradycyjnych metodach napylania gaz potrzebny do uzyskania plazmy powoduje, że pokrycia nie są jednorodne, a mogą nawet przypominać gąbkę. Jednak w nowej technologii w plazmie już nie dominuje gaz, a więc w pokryciu nie powstają luki. Ponadto wysoka koncentracja jonów pozwala na nałożenie ich nawet w najtrudniej dostępnych miejscach. To z kolei umożliwia tworzenie doskonalszych układów scalonych. Ponadto, jako że nowa technologia dobrze sprawdza się w próżni, może zostać w przyszłości wykorzystania zarówno do napylania materiałów w przestrzeni kosmicznej, jak i do stworzenia jonowego silnika, którego paliwem będzie tani niepalny metal. Inne potencjalne egzotyczne zastosowanie nowej technologii to użycie jej do pokrywania wnętrz akceleratorów cząstek niobem, materiałem, z którym bardzo trudno jest obecnie pracować. Podczas dotychczasowych eksperymentów Anders i Joakim Andersson wykorzystali prąd o natężeniu 250 amperów, a więc o wartości znacznie większej, niż kiedykolwiek stosowana w magnetronach.
  13. U młodych ludzi, którzy często palą marihuanę, z większym prawdopodobieństwem dochodzi do zaburzenia rozwoju części mózgu odpowiadających za pamięć, uwagę, podejmowanie decyzji, język oraz funkcje wykonawcze (Journal of Psychiatric Research). Manzar Ashtari, szef zespołu badawczego ze Szpitala Dziecięcego w Filadelfii, ujawnia, że chodzi o krytyczne rejony, rozbudowywane w późnym okresie dojrzewania. W studium wzięli udział wyłącznie młodzi mężczyźni w wieku ok. 19 lat. Średnio od 13. do 18.-19. r.ż. wszyscy używali dużych ilości marihuany. W roku poprzedzającym zerwanie z nałogiem dziennie wypalali do 6 skrętów. Amerykański zespół przeprowadził obrazowanie tensora dyfuzji. Dzięki tej metodzie można obserwować przepływ wody przez tkanki mózgu. "Odbiegające od normy wzorce dyfuzji wody, które występowały u tych mężczyzn, sugerują uszkodzenie bądź zatrzymanie tworzenia się osłonek mielinowych. Jeśli mielina nie działa prawidłowo, przekazywanie sygnałów między neuronami może ulec zwolnieniu. Mielina jest dobrym izolatorem o białawej barwie i stanowi jeden ze składników istoty białej. Amerykanie sądzą, że wczesny kontakt z narkotykami zmienia rozwój struktur oraz połączeń w ramach istoty białej, zwłaszcza pomiędzy czołowymi, ciemieniowymi i skroniowymi rejonami mózgu. [...] Zwolniony transfer informacji negatywnie wpływa na funkcjonowanie poznawcze.
  14. Naukowcy z prestiżowego Szwajcarskiego Federalnego Instytutu Technologicznego (ETH) w Zurichu rozważają koncepcję hybrydowego silnika pneumatycznego. Jego główne zalety to zużycie paliwa porównywalne z hybrydami elektrycznymi przy jednoczesnych mniejszych kosztach produkcji silnika. Obecnie najpopularniejszą alternatywą dla silników spalinowych są hybrydy spalinowo-elektryczne. Pozwalają one zaoszczędzić paliwo, jednak same w sobie są znacznie droższe, wymagają używania ciężkich i drogich akumulatorów oraz mają bardziej skomplikowaną budowę niż same silniki spalinowe. Z tych też powodów profesor Lino Guzzella, który specjalizuje się w termotronice, nie sądzi, by hybrydy spalinowo-elektryczne były jedynym możliwym rozwiązaniem. Proponuje on zastosowanie pojemników ze sprężonym powietrzem w miejsce akumulatorów jednostki elektrycznej. W pewnych sytuacjach, np. podczas uruchamiania samochodu lub bezpośrednio po zmianie biegu, samochód byłby napędzany sprężonym powietrzem. Później silnik otrzymywałby tradycyjne paliwo. Co prawda system kontroli przełączania pomiędzy sprężonym powietrzem a paliwem też byłby skomplikowany, jednak współczesne komputery i zaawansowane algorytmy z łatwością by sobie poradziły z zadaniem. Zespół konstruktorów pracujących pod kierunkiem Guzzelli skonstruował już testowy silnik, znacznie zmniejszając samą jednostkę. Zwykle silniki samochodowe mają moc nawet 150 koni mechanicznych i więcej, jednak przeciętnie podczas jazdy wystarcza moc 30 koni. Dlatego też naukowcy zmniejszyli sam silnik i zredukowali liczbę cylindrów z czterech do dwóch. By jednak zaspokoić wymagania konsumentów do silnika dołożono mechanizm turbodoładowania. Wstępne testy wykazały, że wydajność takiego silnika jest o 18 do 24% wyższa, niż tradycyjnego urządzenia. Jako, że urządzenie pompuje i spręża powietrze podczas hamowania, odzyskując w ten sposób część energii, z wyliczeń wynika, że w jeździe miejskiej zużycie paliwa może być do 50% niższe. Co prawda oszczędności nie są aż tak duże, jak w zaawansowanych hybrydach paliwowo-elektrycznych, jednak biorąc pod uwagę fakt niższych kosztów produkcji silnika Guzzelli, nowy silnik może być interesującą alternatywą, szczególnie w krajach rozwijających się. Cena silnika spalinowo-pneumatycznego będzie wyższa od ceny silnika spalinowego jedynie o 20%. Tymczasem hybrydy spalinowo-elektryczne są droższe o 200%. Pracami Guzzelli zainteresowało się już kilka koncernów motoryzacyjnych. Jednak, dopóki nie minie kryzys finansowy, trudno oczekiwać, by zainwestowały one w nowe linie produkcyjne i nowe modele samochodów.
  15. W ciągu pierwszych dziewięciu miesięcy życia szympansy mogą osiągać lepsze wyniki w testach poznawczych od człowieka. Badacze z Uniwersytetu w Portsmouth porównywali osierocone i wychowywane przez ludzi małpy z przeciętnymi niemowlętami naszego gatunku (Developmental Psychobiology). To pierwsze studium, w ramach którego badano wpływ różnych typów opieki nad szympansami na ich rozwój umysłowy. Okazało się, że najwięcej osiągały człekokształtne, którym zapewniono dodatkowe wsparcie emocjonalne. System przywiązania szympansich niemowląt okazał się zaskakująco podobny do swego ludzkiego odpowiednika. Wczesne doświadczenia, takie jak ciepło, opieka dostosowana do potrzeb lub skrajna deprywacja, w dramatyczny sposób oddziałują na emocjonalne i poznawcze osiągnięcia zarówno małp, jak i ludzi – przekonuje profesor Kim Bard. W latach 80. i 90. Brytyjka zbadała 46 szympansów z Przedszkola Człekokształtnych w Yerkes National Primate Research Centre w Atlancie. Szympansiątka znalazły się tam, ponieważ ich matki nie umiały się nimi prawidłowo opiekować. Bard zauważyła, że zwierzęta, którymi intensywnie zajmowano się przez 20 godzin tygodniowo, były szczęśliwsze, lepiej przystosowane i czyniły szybsze postępy niż maluchy objęte zinstytucjonalizowaną opieką. W przypadku tych ostatnich dbano przede wszystkim o potrzeby czysto fizyczne. Zwierzęta ze zrealizowanymi potrzebami emocjonalnymi trudniej było zdenerwować, ponadto rzadziej korzystały one z tzw. obiektów zastępczych, czyli pluszaków czy miękkich kocyków. Nie pojawiały się też u nich symptomy choroby sierocej, np. kiwanie. Pod względem intelektualnym szympansy te rozwijały się szybciej od sierot objętych standardową opieką. Osoby zajmujące się "wyróżnionymi" szympansami bawiły się z nimi, pielęgnowały, karmiły i dopieszczały na wszelkie inne sposoby. Zachowywały się więc jak prawdziwa szympansia matka. Rozwój maluchów oceniano kilkakrotnie w ciągu 1. roku życia, zawsze za pomocą testu do badania przywiązania/osiągnięć poznawczych u ludzkich niemowląt. U małpek, które wychowywały się w warunkach zinstytucjonalizowanych, często pojawiały się wzorce przywiązania zdezorganizowanego. Zwierzęta kiwały się, biły same siebie i w stresowych chwilach nie chroniły się w ramionach opiekuna, lecz owijały się kocem. Gdy człowieka nie było, stawały się niespokojne, lecz gdy po krótkiej przerwie wracał, przerażone, zastygały w bezruchu.
  16. Co wpływało na umiejscowienie świątyń starożytnej Grecji? Gregory J. Retallack z University of Oregon przeanalizował ukształtowanie terenu, rodzaje gleby oraz wegetację na terenie 84 tego typu przybytków z okresu klasycznego. Sporo uwagi poświęcił też zapiskom Herodota, Homera i Platona. Po tym wszystkim orzekł, że istniał silny związek między czczonym bóstwem a rodzajem gleby, na jakim usadowiono budowlę (Antiquity). Świątynie Demeter (bogini uprawy zboża, której atrybutami były m.in. pszenica i owies) oraz Dionizosa (boga ekstazy religijnej, sił witalnych i wina) wznosiły się na glebach zwanych kserolami (od greckiego xeros, czyli suchy). Są to półpustynne szaroziemy, które nadają się do uprawy zbóż. Świątynie Apolla (boga wróżbiarstwa oraz muzyki) i jego bliźniaczej siostry Artemidy (dziewiczej bogini lasów i łowów) stawiano na ortentach lub ksereptach. Ortenty są uznawane za entisole, czyli gleby inicjalne o niewykształconym profilu. Brak w nich poziomych warstw, ponieważ materiał gromadzi się na stromych stokach lub w danym miejscu nie występuje odporna na oddziaływanie pogody skała macierzysta. Gleba ta zawiera sporo iłów i gliny, dlatego kiedyś wykorzystywali ją głównie wędrowni pasterze. Kapliczki poświęcone Afrodycie (bogini miłości i piękna), a także Posejdonowi (bogowi morza) występowały na glebach wapiennych, np. na nadbrzeżnych terasach, gdzie było za sucho, by myśleć o uprawie czegokolwiek. Wg Retallacka, budowniczowie dopasowywali "profesję" bóstwa do lokalizacji, która ze względu na nią najbardziej by mu odpowiadała.
  17. Badacze z Karolinska Institutet przestrzegają przed przyjmowaniem nadmiaru płynów podczas porodu. Prowadzi to do hiponatremii, czyli obniżonego poziomu sodu w surowicy krwi (<135 mmol/l). Co ważne, zatrucie wodne wydłuża drugą fazę porodu (BJOG). Między styczniem a czerwcem 2007 roku lekarze przeprowadzili studium z udziałem 287 ciężarnych kobiet. W czasie porodu w szpitalu hrabstwa Kalmar w południowo-wschodniej Szwecji pozwolono im wypić dowolną ilość wody. Na początku i po porodzie pobrano próbki krwi. Sprawdzano, czy ilość spożytych płynów wpływa również na dziecko. Sześćdziesiąt jeden kobiet wypiło ponad 2,5 l płynów. U 16 doszło do hiponatremii. Lekarze odkryli, że obniżonemu poziomowi sodu we krwi towarzyszyło wydłużenie drugiej fazy porodu. Wg Szwedów, zjawisku temu trzeba się bliżej przyjrzeć, ponieważ hiponatremia ogranicza najprawdopodobniej zdolność macicy do kurczenia się. Dr Vibeke Moen podkreśla, że u rodzących kobiet obniża się próg tolerowanego nawodnienia, dlatego też nadmierne picie zagraża hiponatremią. W wielu krajach nie ma jednak norm, które by określały, jaka ilość płynów jest bezpieczna dla rodzącej. Generalnie spadek poziomu Na poniżej normalnego poziomu nie jest u wydających na świat dziecko wcale taki rzadki, ale łatwo temu zapobiec. Bardziej niż picie wskazane jest sączenie płynów lub lekkie zwilżanie ust. Jak widać, warto zaufać swojemu organizmowi, a wypijanie dużych ilości wody nie zawsze jest zdrowe. U rodzących spożycie ponad 2,5 l płynu o 26% zwiększa ryzyko groźnego spadku stężenia sodu. W lżejszej postaci hiponatremii pacjenta dręczą zawroty głowy, mdłości i wymioty. Jeśli nadmiar płynów nie zostaje usunięty, dochodzi do zaostrzenia i pojawiają się obrzęk mózgu, drgawki, a nawet śpiączka. Podczas porodu trudniej zdiagnozować hiponatremię, ponieważ bywa mylona ze stanem przedrzucawkowym.
  18. Badaczka z Uniwersytetu Kalifornijskiego opracowała technikę pozwalającą na przekształcenie niemal dowolnych komórek pobranych z ciała dorosłego człowieka do postaci zdolnej do przekształcania się w plemniki lub komórki jajowe. Niezwykłe komórki uzyskano dzięki tzw. indukowanym komórkom pluripotentnym (ang. induced pluripotent stem cells - iPS), podobnym pod względem właściwości do embrionalnych komórek macierzystych, lecz uzyskiwanym z komórek ciała dorosłego człowieka. Dzięki hodowli w roztworze specjalnie dobranych czynników wzrostu udało się przekształcić je do postaci, z której mogą się one rozwijać w tzw. gamety, czyli komórki jajowe lub plemniki. Wcześniejsze badania wykazały, że możliwe jest uzyskanie gamet z embrionalnych komórek macierzystych, lecz dotychczas nikt nie zaprezentował sposobu na wykorzystanie do tego celu iPS. Przełomu dokonał zespół kierowany przez Amander Clark, badaczkę z Uniwersytetu Kalifornijskiego. Niestety, przeprowadzone studium doprowadziło do odkrycia kilku niepokojących zjawisk. Najważniejszym z nich jest stosunkowo wysoka częstotliwość zaburzeń budowy i liczebności chromosomów, mogące prowadzić do powstawania wad rozwojowych u zarodków uzyskiwanych tą metodą. Pewnym pocieszeniem może być fakt, że część spośród wykrytych wad można wytłumaczyć niedoskonałością metod, dzięki którym uzyskano badane przez panią Clark komórki. Nie ma jednak pewności, czy zastosowanie nowoczesniejszych technik pozwoliłoby na zmniejszenie częstotliwości uszkodzeń. Metoda opracowana przez panią Clark może już niedługo zostać wykorzystana do wytwarzania na masową skalę komórek rozrodczych, co ułatwi prowadzenie badań nad procesem rozrodu oraz bezpłodnością. W nieco dalszej przyszłości, gdy uda się obniżyć częstotliwość mutacji pojawiających się podczas tego procesu, może ona także pozwolić na udoskonalenie stosowanych obecnie metod wspomagania rozrodu.
  19. Specjaliści z IBM-owskiego centrum badawczego Thomasa J. Watsona opracowali technologię o skomplikowanej nazwie: "generowanie paralingwistycznych zjawisk poprzez znaczniki w syntezie tekstu w mowę". Kryje się pod nią technika, która do skomputeryzowanych głosów dodaje charakterystyczne dla prawdziwej mowy zawahania, mruknięcia, chrząknięcia. W przyszłości telefoniczna informacja, tekst przekazywany przez samochodowe urządzenie do nawigacji czy wszelkie inne komunikaty głosowe staną się więc mniej sztuczne i monotonne. Andy Aaron, jeden z twórców systemu, mówi: Dźwięki te mogą być niezwykle subtelne, niemal niesłyszalne, ale mają olbrzymie znaczenie psychologiczne. To niezwykle ważne, by głos przyciągał uwagę. Jeśli kontaktujesz się przez telefon z automatycznym serwisem, za pomocą którego chcesz np. zawrzeć ubezpieczenie, to właśnie [te subtelne dźwięki - red.] czyni różnicę pomiędzy zadowolonym klientem, a kimś, kto odłoży słuchawkę i zrezygnuje. Aaron mówi, że opracowana przez jego zespół technologia jest tak doskonała, iż sztuczny głos jest niemal nie do odróżnienia od głosu prawdziwego. Technologia IBM-a potrafi też zachowywać się odpowiednio do sytuacji. Gdy dzwoniący będzie np. mówił zbyt głośno lub przerywał wypowiedź, automat poprosi o przyciszenie głosu lub o umożliwienie mu dokończenia kwestii".
  20. Choć kolekcja zebranych przez naukowców szczątków dinozaurów nie zawiera szkieletów wszystkich gatunków, nasza wiedza na ich temat jest zadziwiająco precyzyjna - oceniają naukowcy z Uniwersytetu Bath oraz londyńskiego Muzeum Historii Naturalnej. Wiek znalezisk kopalnych ocenia się zwykle za pomocą jednej z dwóch metod. Pierwsza z nich to stratygrafia, czyli ustalanie wieku skał, w których zostały one pochowane. Druga metoda, zwana morfologią, polega na badaniu charakterystycznych cech wyglądu skamieniałości i dopasowaniu ich do wieku innych, podobnych szczątków, których wiek został dokładnie określony. Choć trudno w to uwierzyć, obie te techniki były stosowane bardzo często, lecz... bardzo rzadko używano ich jednocześnie. Na pomysł porównania zgodności obu metod wpadło dwóch brytyjskich badaczy, dr Matthew Wills z Uniwersytetu w Bath oraz dr Paul Barrett z Muzeum Historii Naturalnej w Londynie. Naukowcy ocenili dane statystyczne dotyczące znalezisk szczątków czterech ważnych grup dinozaurów i porównali je z informacjami na temat stopnia ich ewolucyjnego pokrewieństwa. Przeprowadzone studium wykazało zadziwiająco wysoką zbieżność informacji uzyskiwanych za pomocą obu sposobów. Zebrane dane niemal idealnie wpasowują się w kształt tzw. drzewa filogenetycznego, określającego kolejność powstawania kolejnych gatunków oraz czas ich ewolucji. Uzyskane informacje pozwalają także na zrozumienie ewolucji gatunków, których szczątków... nigdy nie odnaleziono. Jeżeli bowiem udowodniono, że ewolucja poszczególnych gatunków zachodzi w sposób bardzo przewidywalny, można wysnuć wiele wniosków na temat ogniw pośrednich na "ewolucyjnej drodze" do powstania znanych gatunków. Jest to niezwykle istotne, gdyż szansa, że kiedykolwiek uda się odnaleźć szczątki wszystkich dinozaurów żyjących kiedykolwiek na Ziemi, jest praktycznie zerowa. To ekscytujące, że nasze dane pokazują niemal idealną zgodność pomiędzy drzewem ewolucyjnym i wiekiem skamielin [znalezionych] w skałach. Dzieje się tak, ponieważ potwierdzają one, że znaleziska kopalne pokazują bardzo dokładnie, w jaki sposób te niezwykłe zwierzęta ewoluowały z biegiem czasu, i dostarczają nam wskazówek na temat tego, w jaki sposób wyewoluowały z nich ssaki i ptaki, podsumowuje efekty swojego odkrycia dr Wills.
  21. Eksperci z Intela, Arizona State University, RTI International i Nextreme Thermal Solutions pokazali pierwsze w historii termoelektryczne urządzenie chłodzące wbudowane w układ scalony. Podczas eksperymentów zadaniem termoelektrycznej "lodówki" było obniżenie temperatury niewielkiego fragmentu (0,16 mm2) układu scalonego. Po włączeniu chłodzenia spadła o niemal 15 stopni Celsjusza. To pierwsza demonstracja technologii, która może w przyszłości służyć chłodzeniu układów scalonych. Twórcy nowej technologii wykorzystali dwa znane zjawiska. Pierwsze, polegające na tym, że materiał termoelektryczny w skali nano jest znacznie bardziej efektywny, i drugie, że użycie termoelektrycznych ciepłowodów do chłodzenia najbardziej gorących części chipa jest bardziej rozsądne z punktu widzenia oszczędności energii niż próby schłodzenia całego układu. Obecnie, aby usunąć 100 watów mocy cieplnej, trzeba zużyć 100 watów mocy elektrycznej. Jeśli jednak skupimy się na najgorętszym obszarze, to jego ciepło jest generowana przez kilka watów, więc zużycie jest znacznie mniejsze. Naukowcy do standardowego odbiornika ciepła montowanego na układach scalonych przyczepili niewielką płytkę z arsenku galu. Na niej wyhodowali grubą na 100-mikrometrów strukturę krystaliczną zawierającą bizmut, tellur, antymon i selen. Struktura przekazywała ciepło z wybranego punku układu scalonego do odbiornika ciepła. Do testów naukowcy wybrali punkt, w którym przepływ mocy cieplnej wynosił 1300 watów na centymetr kwadratowy, czyli znacznie więcej, niż w mikroprocesorach. Okazało się, że nawet przed uruchomieniem "lodówki" była ona w stanie obniżyć temperaturę wskazanego punktu o 6 stopni. Wystarczył fakt, że struktura krystaliczna znacznie lepiej przewodzi ciepło. Po przyłożeniu do "lodówki" prądu o natężeniu 3 amperów temperatura punktu została obniżona o 15 stopni Celsjusza. Nowa technologia wymaga jeszcze wielu testów, jednak już wiadomo, że nowy sposób chłodzenia może trafić do wielkich centrów obliczeniowych przyszłości, w których rachunki związane z chłodzeniem stanowią poważną część kosztów. Ponadto niewykluczone, że trafi ona też do niewielkich, przenośnych urządzeń, umożliwiając montowanie w nich znacznie bardziej wydajnych procesorów niż obecnie.
  22. Analiza zaplecza ekonomiczno-społecznego pasażerów i załogi Titanica wykazała, że dobre maniery doprowadziły do tragicznego końca podróżujących transatlantykiem Brytyjczyków. Wg naukowców, prawdopodobieństwo przeżycia było w ich przypadku o 10% niższe niż wyliczone dla innych nacji. Ekonomista profesor Bruno Frey z Uniwersytetu w Zurychu oraz David Savage, ekonomista behawioralny z Politechniki w Queensland, twierdzą, że wychowanie Wyspiarzy wpłynęło na załadunek szalup ratunkowych. Uważają jednocześnie, iż największe (o 12% wyższe od obywateli Zjednoczonego Królestwa) szanse na ocalenie mieli Amerykanie. W ciągu kilku godzin dzielących zderzenie od zatonięcia nadal obowiązywała np. norma przepuszczania przodem kobiet i dzieci. Niestety, na luksusowym statku było za mało szalup, w dodatku wiele wypełniano jedynie do połowy, ponieważ oficerowie nie znali ich ładowności. Wskutek tego zginęło 1517 z 2223 osób. Wśród kobiet większe szanse na przetrwanie miały panie w wieku reprodukcyjnym. Podobną prawidłowość odnotowano także w przypadku posiadających dzieci mężczyzn. W porównaniu do dorosłych powyżej 51. r.ż., szanse dzieci 15-letnich i młodszych na przeżycie były aż o 30% wyższe. Wygląda też na to, że załoga wykorzystywała swoją przewagę w dostępie do informacji i wyposażenia Titanica (18-procentowy skok prawdopodobieństwa przetrwania). Segregacja pasażerów na poszczególne klasy uprzywilejowała najbogatszych. Mieli oni o 40% wyższe szanse od najbiedniejszych, ukrytych w głębi liniowca. Savage podkreśla, że uzyskane wyniki wpłyną na opracowywanie procedur ratunkowych. Ważne bowiem, jak ludzie naturalnie zachowują się w sytuacjach kryzysowych. Katastrofa z 1912 r. pokazuje, że w niektórych przypadkach zasada noblesse oblige nadal pozostaje silniejsza od paniki. Międzynarodowy zespół zamierza ustalić, w jakich warunkach ludzie reagują skrajnym strachem, a kiedy zachowują się przykładnie. Zmanierowani Brytyjczycy skupili się na konwenansach, a dla współczesnych im Amerykanów ważniejsze od właściwego zachowania było zadbanie o własne życie. Frey twierdzi, że w grę mógł wchodzić osławiony indywidualizm obywateli USA lub zwykła nieznajomość norm. Titanic powstał w Wielkiej Brytanii i był obsługiwany przez Brytyjczyków. Byłoby więc całkowicie zrozumiałe, gdyby to oni zdobyli przewagę. Szwajcar spodziewał się też, że w warunkach zagrożenia życia przetrwają raczej najsilniejsi, czyli mężczyźni. Tak się jednak nie stało. Anglicy tonęli, a szanse kobiet na przeżycie były aż o 53% wyższe niż wyliczone dla panów.
  23. W Brookhaven National Laboratory (BNL) powstał nowy katalizator, dzięki któremu etanolowe ogniwa paliwowe mogą w końcu trafić do niewielkich urządzeń elektronicznych. Zasilane etanolem ogniwa mogą być bardziej efektywne niż etanolowe silniki oraz prostsze w użyciu niż ogniwa wodorowe. Etanol jest bowiem łatwiejszy w transporcie i przechowywaniu. Dotychczas jednak nie istniał dobry katalizator, który byłby w stanie efektywnie utlenić etanol i pozyskać elektrony. Naukowcy z Brookhaven stworzyli katalizator, który zapewnia 100-krotnie wyższe natężenie prądu uzyskiwanego z etanolu niż dotychczas stosowane urządzenia. Pierwsze testy pokazały, że z centrymetra kwadratowego powierzchni można uzyskać 7,5 miliampera. Radoslav Adzic, chemik z BNL mówi, że jest prawie pewien, że katalizator, po wbudowaniu w ogniwo paliwowe, zapewni natężenie rzędu setek miliamperów na centymetr kwadratowy. Podobnego zdania jest Brian Pivovar, naukowiec z National Renewable Energy Laboratory, który nie brał udziału w badaniach w BNL. Jeśli przewidywania naukowców się spełnią, to ogniwo etanolowe będzie równie wydajne co metanolowe. Etanol ma nad metanolem liczne przewagi: zapewnia więcej energii, jest mniej toksyczny i łatwiej uzyskać go ze źródeł odnawialnych. Katalizator Adzica został zbudowany z niewielkich klastrów platyny i rodu umieszczonych na tlenku cyny. Połączenie rodu z tlenkiem cyny umożliwia rozerwanie w niskiej temperaturze połączeń pomiędzy atomami węgla, a platyna odgrywa kluczową rolę podczas produkcji protonów i elektronów z atomów wodoru. Zanim katalizator trafi do komercyjnych produktów, trzeba przede wszystkim obniżyć jego cenę. Rod jest droższy od platyny, tak więc trzeba będzie albo zastąpić go innym metalem, albo opracować technologię, która pozwoli zmniejszyć jego ilość w katalizatorze. Jednak Adzic osiągnął to, czemu nikomu wcześniej się nie udało - w niskiej temperaturze rozerwał wiązania węgla w etanolu.
  24. Jak pokazuje przykład oczyszczalni ścieków z prefektury Nagano, złoto można wydobywać nie tylko z ukrytych w ziemi złóż, ale także (i to w całkiem pokaźnych ilościach) ze spopielonego szlamu. Po pierwszym miesiącu realizacji projektu przedsiębiorcza oczyszczalnia zarobiła 56 tys. dolarów. Pod koniec stycznia operator oczyszczalni w Suwa poinformował, że z każdej tony osadów można pozyskać ok. 1,9 kg złota. W rejonie znajduje się sporo zakładów metalurgicznych oraz gorące źródła, co w dużej mierze wyjaśnia pochodzenie drogocennego pierwiastka. W 2007 roku prefektura Nagano i Japan Sewage Works Agency przeprowadziły badania, które wykazały, że w popiele z oczyszczalni występuje tyle złota, co w bogatej rudzie. Koszty wyekstrahowania złota przewyższały jednak początkowo wartość uzyskiwanego metalu, dlatego jeszcze przez rok popioły nadal traktowano jak odpady przemysłowe. Później wzrosła cena kruszcu i cały proceder stał się opłacalny. W październiku zeszłego roku 1,4 t popiołu przekazano do huty i pod koniec stycznia na koncie oczyszczalni z Suwa pojawiła się pierwsza okrągła suma. Kadra zarządzająca ma nadzieję, że w ten sposób uda się m.in. uzyskać zwrot kosztów operacyjnych.
  25. Naukowcy z Uniwersytetu Stanforda odzyskali, utracony w 1990 roku tytuł zespołu, który stworzył najmniejszy w historii... napis. Starania o stworzenie jak najmniejszych liter odegrały olbrzymią rolę w rozwoju nanotechnologii. Wszystko rozpoczęło się w 1959 roku, gdy słynny fizyk Richard Feynman stwierdził, iż nie istnieją fizyczne bariery, które uniemożliwiłyby znaczące zmniejszenie maszyn i obwodów. Feynman zaoferował 1000 dolarów nagrody dla tego, kto opracuje sposób na stworzenie tekstu o 25 000 razy mniejszego, niż ówcześnie wykorzystywana czcionka w książkach. Było to niezwykłe wyzwanie. Tak małymi literami można by zapisać całą zawartość Encyclopedia Britannica na czubku od szpilki. W 1985 roku nagrodę Feynmana zdobył Tom Newman z Uniwersytetu Stanforda, który za pomocą litografii strumieniem elektronów przepisał pierwszą stronę "Opowieści o dwóch miastach" Dickensa. Tekst można było przeczytać tylko za pomocą mikroskopu elektronowego. Rekord został pobity w 1990 roku, gdy naukowcy pracujący dla Błękitnego Giganta ułożyli 35 atomów ksenonu w napis IBM. Teraz uczeni ze Stanford stworzyli litery, które są 40-krotnie mniejsze niż czcionka Newmana i 4-krotnie mniejsze niż litery w napisie IBM. Chris Moon, Hari Manoharan i Laila Mattos wykorzystali skaningowy mikroskop tunelowy, dzięki któremu byli w stanie przesuwać pojedyncze molekuły tlenku węgla i układać je na miedzianej płytce. Na powierzchni miedzi elektrony ciągle się poruszają. Zachowują się jednocześnie jak fale i cząsteczki. Gdy napotkają molekułę CO, tworzą "wzorce interferencji". Naukowcy byli w stanie, odpowiednio manipulując molekułami, zmieniać te "wzorce" tak, by utworzyły możliwy do odczytania napis. To z kolei było możliwe dzięki elektronicznej holografii kwantowej. Technika ta polega na rozświetleniu "molekularnych hologramów" nie za pomocą lasera, jak ma to miejsce w tradycyjnej holografii, a przez elektrony. Wówczas możliwe jest odczytanie napisu za pomocą skaningowego mikroskopu tunelowego. Litery SU (Stanford University) skonstruowano tak, by, jak w tradycyjnym hologramie, dane można było zapisywać w tym samym miejscu za pomocą światła o różnej długości fali. Każdy z "bitów", który posłużył do stworzenia liter miał długość zaledwie 0,3 nanometra. Manoharan wyjaśnia, że sądzono, iż ostateczną granicą zapisu informacji jest wielkość atomu, gdy jeden atom reprezentowałby jeden bit. Ale w tym eksperymencie podczas kodowania liter byliśmy w stanie przechowywać 35 bitów na elektron i stworzyliśmy litery tak małe, że bity mają wielkość subatomową. A więc jeden bit na atom nie jest już granicą przechowywania danych. Uważa on, że jest jeszcze sporo miejsca do gęstszego upakowania informacji.
×
×
  • Dodaj nową pozycję...