Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    227

Zawartość dodana przez KopalniaWiedzy.pl

  1. W przyszłym roku klienci Forda będą mogli zażyczyć sobie opcjonalnego zamontowania w samochodzie radaru pilnującego tzw. martwego punktu. Przypomnijmy, że jest to punkt w którym widoczny w lusterku bocznym wyprzedzający nas samochód nagle znika z pola widzenia. Problem martwego punktu jest też rozwiązywany za pomocą specjalnych lusterek. Te staną się standardowym wyposażeniem modeli Lincoln i Mercury. Ford zaproponuje ponadto radar korzystający z pasma 24 GHz. W USA jest ono przeznaczone dla radarów o krótkim zasięgu, więc firma nie będzie miała problemów z uzyskaniem odpowiedniej zgody na jego wykorzystanie. Radar Forda będzie badał obszar, który nie jest widoczny w lusterku. Gdy wykryje tam samochód, w lusterku z odpowiedniej strony zacznie migać kontrolka, informując kierowcę o znajdującym się tam samochodzie. Niewykluczone, że system zostanie wyposażony też w alarm dźwiękowy. Spora część kierowców z zadowoleniem wita zmiany poprawiające bezpieczeństwo. Gdy testowano nowe lusterka, w których nie istnieje martwy punkt, aż 76% osób było z nich zadowolonych i stwierdziło, że zwiększyły one bezpieczeństwo. Nowy radar znajdzie się w ofercie Forda na początku przyszłego roku.
  2. Na pustyni na zachodzie Egiptu archeolodzy odnaleźli coś, co może być najstarszym śladem ludzkiej stopy. Jak poinformował sekretarz generalny Egipskiej Służby Starożytności (SCA) Zahi Hawass, ma on ok. 2 milionów lat. Wg niego, niewykluczone, że to najważniejsze odkrycie, jakiego dokonano na terenie kraju. Ktoś przemierzający te obszary wiele, wiele lat temu odcisnął kontur swojej stopy w błocie. Ślad ten uległ następnie petryfikacji. Naukowcy ujrzeli go, pracując w oazie Siwa. Aby określić dokładny wiek znaleziska, naukowcy zbadają metodą datowania węglowego rośliny zachowane w tej samej skale. Khaled Saad, szef wydziału prehistorii w SCA, uważa, że bazując na wieku skały, w której znaleziono ślad stopy, można zaryzykować stwierdzenie, że jest starszy od szkieletu człokokształtnej Lucy, odbywającej obecnie podróż po Stanach Zjednoczonych. Fragmenty jej kośćca znaleziono w 1974 roku w Etiopii. Uważa się, że "dziewczyna" żyła 3 mln lat temu. Wykopaliska w Egipcie koncentrują się głównie na czasach faraonów, tymczasem, jak widać, kraj ten może się poszczycić jeszcze starszymi artefaktami. Poprzednie najstarsze prehistoryczne znalezisko liczyło sobie 200 tys. lat.
  3. Programiści wykonali imponującą pracę. Na potrzeby Visty powstało 30 tysięcy sterowników, system był pisany ponoć dwukrotnie (po trzech latach pracy pierwszą jego wersję wyrzucono podobno do kosza), a koszty jego wyprodukowania szacuje się na 6 miliardów dolarów. Powstaje więc pytanie – czy było warto? Początkowo z Vistą wiązano nadzieje na pojawienie się kilku bardzo interesujących technologii. Miał więc zadebiutować nowy system plików (zapowiadany przez Microsoft) czy środowisko skryptowe nowej generacji Monad (nieoficjalne pogłoski mówiły, że będzie ono włączone do Visty). Obecnie wiadomo już, że Vista nie przynosi ze sobą żadnego przełomu. Systemowi nie można nic szczególnego zarzucić, ale nie ma też powodu, by go szczególnie chwalić. Vista pracuje co prawda bardziej stabilnie niż Windows XP ale i starszy system Microsoftu pracuje właściwie bez zastrzeżeń, więc ta zwiększona stabilność dla przeciętnego użytkownika będzie niezauważalna. Microsoft podkreśla, że Vista to najbardziej bezpieczny spośród wszystkich systemów Windows. To niewątpliwie prawda, jednak nawet sam koncern z Redmond zauważa, że użytkownicy powinni używać oprogramowania antywirusowego i innych systemów zabezpieczających. Ponadto należy przypomnieć starą prawdę, że system jest na tyle bezpieczny, na ile rozsądny jest jego użytkownik. Musimy oddać jednak Microsoftowi sprawiedliwość – znacząco poprawiono bezpieczeństwo i wprowadzono nowoczesne technologie pozwalające spać spokojnie posiadaczom Visty. Jest tylko jedno ale... Technologie te przygotowano przede wszystkim z myślą o firmach, spotkamy je więc w edycjach biznesowych oraz edycjach 64-bitowych. Przeciętny użytkownik, który będzie chciał znacząco poprawić bezpieczeństwo swojego systemu, albo powinien kupić biznesową wersję Visty, albo w wersji domowej zastosować dodatkowe oprogramowanie zabezpieczające. Na temat bezpieczeństwa nowego OS-u krążą różne informacje, a prawdziwą wartość wbudowanych przez Microsoft zabezpieczeń poznamy zapewne w ciągu kilkunastu miesięcy, gdy Vista przejdzie swój "rynkowy chrzest bojowy”. Specjaliści są zgodni, co do tego, że jeśli nie mamy zamiaru wymieniać sprzętu i jesteśmy zadowoleni z naszego Windows XP to nie mamy najmniejszego powodu, by instalować Vistę. Instalację Visty powinny rozważyć osoby, które kupują nowy komputer. Powinny jednak pamiętać przy tym, że Vista jest systemem bardziej wymagającym od Windows XP oraz o tym, że nie ma jeszcze zbyt wielu programów zoptymalizowanych pod kątem współpracy z Vistą, co niewątpliwie dodatkowo spowolni ich działanie. Czytaj również: Debiut Windows Visty Windows Vista: test wydajności
  4. Najbardziej energooszczędnymi superkomputerami na Ziemi są dwie maszyny produkcji IBM-a. Dwa pierwsze miejsca na liście Green500 zajęły Blue Gene/Q Prototype 2 i Prototype 1. Maszyna Prototype 2 osiągnęła wydajność 2097 megaflopsów na każdy wat pobieranej energii. Tym samym po raz pierwszy w historii przekroczono granicę 2 GFlops/wat. Pół roku temu na Green500 dominował BlueGene/Q Prototype 1, który obecnie uplasował się na drugiej pozycji z wynikiem 1684 MFlops/wat. Najbardziej wydajny superkomputer, który znajduje się na czele listy TOP500, czyli japoński K zajął szóste miejsce na Green500 z wynikiem 824 MFlops/wat. Pomiar wydajności w stosunku do pobieranej energii jest coraz ważniejszym wskaźnikiem w świecie superkomputerów. W miarę jak stają się one coraz potężniejsze, szybko rosnące zapotrzebowanie na energię powoduje, iż coraz częściej pojawiają się pytanie o opłacalność inwestowania w superkomputery. Stąd olbrzymie zainteresowanie zwiększeniem wydajności na wat. Doktor Wu-chun Feng, założyciel listy Green500 mówi, że można zauważyć znaczny postęp w tej dziedzinie. W ciągu ostatnich sześciu miesięcy średnia wydajność systemów na Green500 zwiększyła się z 230 do 256 megaflopsów na wat, czyli wzrosła o 11 procent - stwierdził Feng. Jeszcze większy wzrost wydajności można zauważyć w systemach korzystających z GPU. Wzrosła ona z 573 do 707 MFlops/wat. Siedemdziesiąt procent z 20 najbardziej wydajnych superkomputerów wykorzystuje GPU - dodał. Postęp jest rzeczywiście olbrzymi. Przed czterema laty, gdy opublikowano pierwszą edycję Green500, najbardziej wydajny system - IBM-owski Blue Gene - mógł się poszczycić wynikiem 357 MFlops/wat.
  5. <!-- @page { size: 21cm 29.7cm; margin: 2cm } P { margin-bottom: 0.21cm } --> Obrońcy przyrody sprzeciwiający się połowom wykorzystującym tzw. trałowanie denne, właśnie otrzymali nowe argumenty na swoją korzyść. Kolejnych dowodów potwierdzających niszczycielski wpływ trałowców na środowisko dostarczył satelita Landsat. Wykonane za jego pomocą zdjęcia ukazują skłębione pióropusze osadów ciągnące się za tymi statkami. Mimo niewielkich rozmiarów tych jednostek, podwodne chmury są ogromne, bardzo długo się utrzymują i zakłócają działanie całego morskiego ekosystemu. Wśród skutków trałowania wymienia się m.in. niszczenie raf koralowych, dewastację dna morskiego oraz wyłapywanie gatunków zwierząt, które nie są celem połowu. Według zoologów, widoczne z satelity ślady to jedynie czubek góry lodowej – znaczna część statków tego rodzaju działa na głębszych akwenach, gdzie zniszczenia nie są tak łatwe do zaobserwowania. Mimo wprowadzenia licznych zakazów i ograniczeń, problem wciąż jest poważny, zwłaszcza na obszarze Zatoki Meksykańskiej, u wybrzeży Ameryki Południowej i po atlantyckiej stronie Afryki. Stanem środowiska nie przejmują się także trałowce operujące na Morzu Północnym oraz na wodach należących do Chin. Jak widać, przed ekologami wciąż jeszcze wiele pracy.
  6. Amerykańskie prawo patentowe od lat budzi kontrowersje i od dawna pojawiają się głosy o konieczności jego zmiany. Koalicja gigantów IT, w skład której wchodzą m.in. Microsoft, Google, Dell, Intel, Amazon czy HP i eBay, proponuje reformę tego prawa. Koncerny argumentują, że w obecne formie pozwala ono na rejestrowanie wątpliwych wynalazków i powoduje, że dochodzi do dyskusyjnych sądowych ugód. Zmianom proponowanym przez gigantów IT przeciwstawiają się jednak niemal wszystkie inne firmy i gałęzie przemysłu. Są wśród nich nie tylko firmy, które działają na innych rynkach, ale także małe przedsiębiorstwa z branży IT. Prawnicy reprezentujący przemysł biotechnologiczny, uczelnie wyższe, małych wynalazców czy firmy specjalizujące się w licencjonowaniu patentów mówią, że propozycje Microsoftu i Google\'a faworyzują gigantów IT i działają na szkodę mniejszych firm oraz innych branż. Przeciwnicy proponowanych zmian przyznają, że są one konieczne, ale nie powinny być tak daleko idące, gdyż działają tylko na korzyść wielkich koncernów. W USA istnieje sporo małych firm, które są posiadaczami wielu patentów, ale zdecydowały się nie wypuszczać na rynek żadnego produktu, tylko udzielają licencji wielkim firmom. Koncerny nazywają ich "trollami patentowymi" i próbują z nimi walczyć. Tymczasem przedstawiciele tych firm mówią, że nie ma żadnego dowodu na to, by Biuro Patentowe zbyt lekkomyślnie rozdawało patenty. Nie można też, ich zdaniem, twierdzić, że obecny system jest szkodliwy. A takie zarzuty pojawiają się w argumentacji gigantów. Jednocześnie przyznają, że trzeba uprościć procedury sądowe. Wielkie koncerny odniosły sukces we wrześniu, kiedy to Izba Reprezentantów przyjęła proponowane przez nie zmiany. Teraz ustawę rozpatruje Senat, który ma podjąć decyzję jeszcze w bieżącym miesiącu. Spór toczy się, oczywiście, o pieniądze. Wielkie koncerny IT chcą, by sądy, wyliczając odszkodowanie dla właściciela patentu, który został naruszony, brały pod uwagę stosunek wartości tego patentu w całym produkcie. Produkty koncernów IT zwykle korzystają z technologii, które w sumie chronione są setkami czy tysiącami patentów. Nowe rozwiązanie oznacza więc, że właściciel patentu, którego prawa zostały naruszone przez koncern IT, otrzyma odszkodowanie, którego wartość będzie setki lub tysiące razy mniejsza od wartości produktu naruszającego patent. To nie podoba się małym firmom, które uważają, że w ten sposób ich dochody znacząco spadną, same firmy stracą na wartości i zostaną pozbawione zysków, które są im należne. Małe firmy argumentują, że należy do nich 60% wszystkich przyznanych patentów, ale aż 99% zysków z patentów wędruje do kieszeni wielkich koncernów. Nowe przepisy tylko zmienią sytuację na ich niekorzyść. Moses Mares, prawnik kontrowersyjnej firmy Acacia Technologies, mówi, że propozycje gigantów IT dążą do tego, by objęli oni 100% wpływów z patentów. Możemy skończyć tak, jak Chiny, gdzie istnieje olbrzymia liczba firm produkcyjnych, ale nie są one innowacyjne, bo innowacyjność się tam nie opłaca - stwierdził Mares. Fundusze inwestycyjne nie dadzą pieniędzy przedsiębiorstwom, które nie będą mogły patentować własnych pomysłów.
  7. Amerykańska Agencja ds. Żywności i Leków (FDA) ostrzega rodziców, by nie podawali dzieciom poniżej 2. roku życia lekarstw na kaszel i przeziębienie, które można kupić bez recepty. Ich zażycie może zagrozić życiu najmłodszych. Agencja otrzymuje, rzadkie co prawda, informacje o zgonach, konwulsjach, utracie przytomności i gwałtownym wzroście ciśnienia krwi, występujących po spożyciu wspomnianych środków. Charles Ganley, dyrektor Biura ds. Produktów Nierecepturowych, powiedział, że nie udowodniono, by tego typu środki były bezpieczne i skuteczne u dzieci poniżej 2. roku życia. FDA podkreśla jednocześnie, że powyższe zalecenie nie dotyczy dzieci w wieku 2-11 lat. Agencja ciągle bada wpływ wspomnianych lekarstw na osoby w tym wieku. Po zakończeniu badań zostanie wydany stosowne zalecenie. Na razie, w przypadku dzieci pomiędzy 2. a 11. rokiem życia FDA zaleca:ściśle trzymać się dawek podawanych na opakowaniach leków wydawanych bez recepty;pamiętać, że środki te NIE leczą ani NIE skracają okresu gorączkowania;sprawdzić na ulotce, jaki jest środek czynny w danym lekarstwie;do odmierzania dawek używać tylko i wyłącznie miarek dołączonych do opakowania. Każdą wątpliwość należy wyjaśnić z lekarzem.
  8. Pracujący w AMD inżynier Yinghai Lu opublikował na licencji GPL kod źródłowy BIOS-u płyty głównej M57SLI-S4 firmy Gigabyte. To pierwszy w historii przypadek pojawienia się desktopowej płyty głównej z opensource\'owym BIOS-em. Wiadomość ta ucieszyła zwolenników Linuksa, gdyż dzięki temu będą mogli np. przeprogramować BIOS tak, by płyta główna lepiej spełniała ich wymagania. M57SLI-S4 to płyta dla procesorów AMD korzystających z podstawki AM2. Wyposażono ją w chipset nForce 570 SLI, cztery gniazda pamięci DDR2, dwa złącza PCI Express 16x, trzy PCI Express 1x. Można do niej podłączyć do 6 urządzeń SATA II i skorzystać z macierzy RAID. Producent zastosował również 10 portów USB 2.0, trzy FireWire itp. Na razie nie wiadomo, czy entuzjastom Linuksa uda się, dzięki przeprogramowaniu BIOS-u, zwiększyć wydajność płyty Gigabyte’a. Prawdopodobnie jednak już wkrótce dowiemy się o tym, że próbują oni zastosować otwarty BIOS do zaprogramowania kolejnych urządzeń.
  9. Uczeni odkryli największą ze znanych nam planet. Gazowy gigant jest zbudowany głównie z wodoru i okrąża gwiazdę odległą od Ziemi o 1400 lat świetlnych. Średnica nowo odkrytego ciała niebieskiego wynosi 1,7 średnicy Jowisza – największej planety Układu Słonecznego. Naukowcy uważają, że temperatura na powierzchni giganta wynosi 1260 stopni Celsjusza. Georgi Mandushev z Lowerll Obserwatory, który odkrył planetę, uważa, że na jej powierzchni nie ma żadnego fragmentu stałego lądu. TrES-4, bo taką nazwę zyskało ciało niebieskie, okrąża gwiazdę z gwiazdozbioru Herkulesa. Zdaniem akademików w tej samej konstelacji może znajdować się jeszcze druga planeta. To byłoby niesamowite – stwierdził Medushev. Lowell Obserwatory zyskało międzynarodowe uznanie w 1930 gdy jego pracownicy odkryli Plutona.
  10. Najnowsze badania wykazały, że rynkowe udziały serwera Apache spadły poniżej 50%. Netcraft, firma specjalizująca się w monitorowaniu Internetu, zbadała ponad 100 milionów witryn WWW. Okazało się, że udział Apache’a w rynku serwerów web wynosi obecnie 48,42%, a udział microsoftowego IIS – 36,21. Podobne badania z listopada 2005 roku wykazały, że Apache ma 71% rynku, a Microsoft poniżej 20%. Apache traci udziały nie tylko na rzecz Microsoftu. Rynek jest mu odbierany także przez opensource’owy lighttpd (1,2% udziałów) i Google (4,4% rynku). Badacze zwracają jednak uwagę, że jeśli Microsoft będzie nadal podbijał rynek w takim tempie jak dotychczas, to w przyszłym roku będzie miał w nim tyle samo udziałów co Apache. Sytuacja Apache'a wygląda nieco lepiej jeśli weźmiemy pod uwagę fakt, że Google Server korzysta w dużej mierze z jego kodu. Netcraft objął badaniami niemal 128 milionów witryn i sprawdzał, przez jaki serwer są one obsługiwane.
  11. Z nieoficjalnych danych przekazanych przez jednego z dystrybutorów wynika, że 12 lipca Sony o 100 dolarów obniży cenę konsoli PlayStation 3. Dotychczas cena PS3 była jedną z największych przeszkód na drodze do jej upowszechnienia się. Droższą wersję konsoli Sony będzie można kupić w cenie 499 dolarów. Wcześniej na tyle wyceniono wersję z 20-gigabajtowym dyskiem twardym. Konsumenci nie byli jednak zainteresowani zakupem urządzenia, więc Sony zaprzestało jego produkcji i na rynku pozostała PS3 z dyskiem o pojemności 60 GB oraz modułem łączności bezprzewodowej, która była wyceniana na 599 USD. Obecna obniżka ceny jest o tyle zaskakująca, iż nie spodziewano się, że dojdzie do niej tak szybko. Sony wybrało bardzo dobry moment na zmianę ceny. Microsoft – główny rywal na rynku wysoko zaawansowanych konsoli – przyznał właśnie, że w Xboksie 360 występuje nieakceptowalnie duży odsetek usterek i ocenił, że ich usunięcie będzie kosztowało firmę ponad miliard dolarów.
  12. NASA ogłosiła, że jest gotowa do zastąpienia krzemowych układów scalonych chipami zbudowanymi z węgliku krzemu. Takie kości przydadzą się tam, gdzie panują wysokie temperatury, wytrzymują one bowiem nawet 540 stopni Celsjusza. Pierwsze komercyjnie dostępne układy, które wyprodukuje firma Inprox Technology, pojawią się pod koniec bieżącego roku. Zostaną one wykorzystane wewnątrz silników używanych przez NASA, gdzie posłużą do pomiaru różnych parametrów pracy tych urządzeń. Inprox zapowiada jednak, że Agencja nie będzie jedynym klientem firmy. Nowe kości zostaną zaoferowane również przemysłowi motoryzacyjnego. Obecnie NASA stosuje tradycyjne układy scalone, jednak muszą być one umieszczane z dala od silników lub też trzeba je schładzać cieczą. To powoduje, że system jest drogi, trudny w konstrukcji i mniej doskonały. Kości z węgliku krzemu (SiC) nie muszą być chłodzone nawet w temperaturze 500 stopni Celsjusza. Jedyną wadą tego materiału jest mniejsza wydajność układów związana z mniejszą mobilnością elektronów. Wynosi ona 900 cm2/V-s, podczas gdy w krzemie – 1500 cm2/V-s. Jednak inne zalety równoważą tę wadę. Właściwości SiC są znane od ponad 10 lat, jednak musiała minąć więcej niż dekada, by udało się wyprodukować odpowiedniej jakości tani układ scalony wykorzystujący ten materiał. Technologia szybko jednak idzie naprzód. W ubiegłym roku informowaliśmy o prototypowym układzie, który wytrzymał 1700 godzin w temperaturze 500 stopni. Niedawno identyczna kość pracowała w takich samych warunkach już przez ponad 5000 godzin. Podczas projektowania takiej kości jednym z największych wyzwań było stworzenie metalowych nóżek, dzięki którym układ komunikuje się zresztą systemu. Pracujący dla NASA Robert Okojie zbudował odpowiedni połączenia, które podczas testów wytrzymały wiele tysięcy godzin w temperaturze 500 stopni Celsjusza. Pierwszy układ z węgliku krzemu zostanie wykorzystany do monitorowania ruchu liniowego wewnątrz silnika odrzutowego.
  13. Poniższa wiadomość to nasz żart primaaprilisowy. Wydział Nauk Biologicznych Polskiej Akademii Nauk rozpoczął jakiś czas temu prace nad rewitalizacją tura (Bos primigenius), przodka bydła domowego. Swoją pomoc zadeklarowali Szkoci z Roslin Institute w Edynburgu, którym udało się sklonować kilka gatunków zwierząt, między innymi owcę Dolly. Ostatnia sztuka tura (samica) zmarła w 1627 roku za panowania Zygmunta III Wazy. Gatunek wytępiono przez nadmierne polowania i kłusownictwo. Do pewnego momentu turom żyło się jak u pana Boga za piecem, ponieważ w Puszczy Jaktorowskiej na mocy traktatów książęcych opiekowali się nimi królewscy nadzorcy. Gdy skończył się okres ochronny, a choroby zakaźne zaczęły zbierać krwawe żniwo, w połowie XVI wieku liczebność populacji skurczyła się do 50 osobników. Archeolodzy ubolewają nad tym, że udało się odnaleźć tak niewiele pozostałości po tym wymarłym ssaku z rodziny pustorożców. Niedawno dokonano jednak sensacyjnego odkrycia. Podczas renowacji insygniów królewskich w muzeum na Wawelu pod rubinem w berle zauważono wydrążenie. Było zbyt duże, by mogło zostać stworzone przez jubilera podczas osadzania kamieni szlachetnych. Okazało się, że wewnątrz umieszczono jak relikwię niewielki fragment kości tura i zwój pergaminu z opisem wytępionego gatunku. Dr Mańkowski opowiada, że po ich zobaczeniu od razu przypomniało mu się współczesne przesłanie do ewentualnych mieszkańców kosmosu, które wysłaliśmy w przestrzeń razem z sondą. Król pomyślał chyba o tym samym. Skoro nie przeżyło żadne zwierzę, chciał przynajmniej zachować dla potomnych jego kości. Zapobiegliwość Zygmunta III Wazy bardzo ucieszyła genetyków z PAN-u, którzy mogli zacząć prace nad wyodrębnieniem DNA, a następnie klonowaniem.
  14. Seagate informuje o wyprodukowaniu 3,5-calowego dysku twardego, który pozwala na zapisanie 180 gigabitów danych na calu kwadratowym. To największa osiągnięta dotychczas gęstość upakowania danych. Pojedynczy talerz dysku może pomieścić 250 GB informacji. Dzięki upakowaniu większej ilości danych na calu kwadratowym powierzchni amerykańska firma oddala moment, w którym współczesne technologie produkcji dysków twardych odejdą do lamusa. Ponadto bardziej gęsty zapis oznacza, że do produkcji bardziej pojemnych HDD będzie można wykorzystać mniejszą liczbę talerzy, co z kolei pozwala na zredukowanie hałasu i ciepła generowanego przez pracujące urządzenie. Czyni je również bardziej niezawodnym.
  15. Redaktorzy serwisu The Inquirer przeprowadzili testy karty GeForce 8800GTX i porównali jej wydajność z dwoma kartami ATI X1950 XTX pracującymi w trybie CrossFire. Okazuje się, że w wykorzystującej biblioteki OpenGL grze Quake 4 procesor Nvidii jest szybszy od dwóch układów ATI! GeForce 8800GTX był w stanie wyświetlić więcej klatek w ciągu sekundy w każdej z testowanych rozdzielczości. Karty wyposażone w procesory ATI okazały się słabsze również wówczas, gdy włączono ośmiokrotne filtrowanie anizotropowe (AF) i czterokrotny antyaliasing (FSAA). Filtrowanie anizotropowe to technologia filtrowania tekstur na obiektach trójwymiarowych, której zadaniem jest ich wyostrzenie, a tym samym poprawa jakości całej grafiki. Z kolei FSAA to inaczej pełnoekranowe wygładzanie krawędzi – technologia odpowiedzialna za wygładzanie krawędzi obiektów trójwymiarowych. Obie technologie bardzo obciążają procesor graficzny, szczególnie wtedy, gdy wykorzystywane są jednocześnie. Układy ATI były bardziej wydajne w grze FEAR z wyłączonymi FSAA i AF. Potrafiły pokazać 7-8 klatek w ciągu sekundy więcej. Jednak w rozdzielczościach 1600x1200 i wyższych lepsza okazała się karta GeForce 8800GTX. Nvidia przegrała też minimalnie po włączeniu czterokrotnego FSAA i 16-krotnego AF. Wówczas karty konkurencji wyświetlały 3-4 klatek więcej. Okazuje się więc, że jeden procesor GeForce 8800GTX potrafi być bardziej wydajny niż dwa najnowsze układy ATI. Tą drugą firmę czeka wiele pracy. Czy wykona ją dobrze przekonamy się w przyszłym roku, gdy zadebiutuje układ R600.
  16. Inżynierom IBM-a udało się pokonać jedną z najpoważniejszych przeszkód stojących na drodze wykorzystaniu grafitu do produkcji obwodów elektrycznych. Odkryli oni w jaki sposób zapobiec interferencji, do której dochodzi, gdy podzespoły wykonane z grafenu - dwuwymiarowej struktury grafitu o grubości zaledwie jednego atomu - zaczynamy coraz bardziej pomniejszać. Grafen jest uważany w elektronice za materiał przyszłości. Problem jednak w tym, że im bardziej pomniejszamy urządzenia (nie tylko grafenowe), tym większe pojawiają się w nich zakłócenia. W skali nano te zakłócenia mogą być tak wielkie, że miniaturowe urządzenia stają się bezużyteczne - "szum" jest bowiem tak silny jak przydatny sygnał. Pracujący dla IBM-a naukowcy najpierw zbudowali tranzystor z pojedynczej warstwy grafenu. Przekonali się, że im bardziej go pomniejszali, tym silniejsze w stosunku do sygnału były szumy. Inżynierowie stworzyli więc analogiczny tranzystor, ale z dwóch warstw grafenu ułożonych jedna na drugiej. Okazało się, że zakłócenia uległy tak daleko idącemu wyciszeniu, iż dwuwarstwowa urządzenia grafenowe będą nadawały się do produkcji elektroniki. Szumy zostały zniesione przez silne sprzężenie elektryczne pomiędzy obiema warstwami grafenu. Zadziałało ono jak izolacja. IBM podkreśla, że konieczne są dalsze badania, ale inżynierowie Błękitnego Giganta udowodnili, iż grafen nadaje się do produkcji elektroniki przyszłości.
  17. Firma Qualcomm jest autorem elektronicznego papieru, który może wyświetlić klip wideo wysokiej jakości. Do produkcji papieru wykorzystano przełączniki mikroelektromechaniczne (MEMS), które pracują na tyle szybko, iż możliwe jest przedstawienie ruchomych obrazów. Pierwsza wersja wyświetlacza będzie monochromatyczna. Został on już zastosowany w urządzeniu przenośnym firmy Audiovox, które zadebiutowało przed kilkoma dniami. W przyszłym roku chińska firma Hisense wykorzysta w swoim telefonie komórkowym dwukolorowy e-papier. Qualcomm pracuje też nad pełnokolorowymi wersjami swojego wynalazku. E-papier, podobnie jak zwykły papier, umożliwia odczytanie druku czy obejrzenie grafiki dzięki odbiciu światła z otoczenia. To pozwala na korzystanie z niego w bardzo różnych warunkach oświetleniowych. Z kolei wyświetlacze LCD posiadają własne źródła światła, co z kolei utrudnia korzystanie z nich gdy otoczenie jest zbyt jasno oświetlone lub jest zbyt ciemno. Kolejną zaletą e-papieru jest fakt, że potrzebuje on napięcia elektrycznego tylko w momencie zmiany wyświetlanych treści. Gdy już np. „odwrócimy” stronę w elektronicznej książce, e-papier wyświetla ją nie pobierając prądu. Dzięki temu urządzenia korzystające z elektronicznego papieru charakteryzują się niskim poborem energii. Dotychczas jednak elektroniczny papier włączał i wyłączał poszczególne piksele zbyt wolno, by można było zaprezentować na nim klipy wideo. Przełączanie takie trwało bowiem ponad pół sekundy. Qualcomm opracował technologię, dzięki której piksele w elektronicznym papierze są przełączane w ciągu dziesiątych części mikrosekundy. To wystarczy, by zaprezentować wyraźny obraz wideo. Dzięki temu e-papier powinien szybko wyjść ze swojej niszy i stać się technologią szeroko stosowaną np. w telefonach komórkowych. Andre Arsenault, chemik z University of Toronto i założyciel firmy Opalux, która pracuje nad e-papierem, informuje, że nowatorska technologia reprodukcji kolorów, wykorzystywana przez Qualcomm, przypomina sposób odwzorowywania kolorów przez światło padające na rozlaną na wodzie ropę. Gdy światło trafia na taką warstwę ropy, zostaje częściowo odbite, a częściowo przechodzi przez ropę i odbija się od wody. Promienie odbite od ropy są nieco przesunięte w fazie w porównaniu z tymi odbitymi od wody. W rezultacie, dochodzi do interferencji pomiędzy tymi promieniami. Część długości fali zostaje pochłonięta, a część wzmocniona. O tym, które długości ulegają pochłonięciu, a które wzmocnieniu decyzuje odległość powierzchni wody od powierzchni ropy. Na przykład przy określonych grubościach warstwy ropy, wzmocnieniu ulega światło zielone, a czerwone i niebieskie są pochłanianie. Powierzchnia ropy wydaje się wówczas zielona. W przypadku e-papieru, każdy z pikseli składa się z kilku kolorowych komórek, a każda z nich z dwóch warstw odbijających światło i ułożonych jedna na drugiej. Warstwa górna jest półprzepuszczalna, więc część światła przenika przez nią i odbija się od dolnej warsty. Piksel składa się z trzech takich komórek, a w każdej z nich odległość pomiędzy warstwami ustawiona jest tak, by interferencja pomiędzy falami światła powodowała wyświetlanie określonego koloru: czerwonego, zielonego lub niebieskiego. Każdą z takich komórek można wyłączyć za pomocą przełącznika MEMS, zbliżając do siebie warstwy. Gdy są one bardzo blisko, żadna z długości fal światła nie jest wzmacniana i komórka wydaje się czarna. Przełącznik zmienia swoje położenie pomiędzy dwoma stanami tylko pod wpływem impulsu elektrycznego. Dopóki nie zostanie on poddany jego działaniu, pozostaje w dotychczasowym staniem. Dzięki takiemu rozwiązaniu każdy piksel, poprzez kombinacje kolorów z subpikseli, może przybierać dowolny kolor. Przełączniki MEMS są w stanie przetrwać ponad 12 miliardów cykli włączania-wyłączania. E-papier Qualcommu nie ma, niestety, samych zalet. Wykorzystanie przełączników MEMS powoduje, że, przynajmniej na razie, będzie można tworzyć jedynie niewielkie wyświetlacze z e-papieru. Ponadto zastosowanie go do pokazywania klipów wideo powoduje, że e-papier przestaje być energooszczędny. Gdy będziemy oglądali za jego pomocą film, przełączniki MEMS będą ciągle w użyciu.
  18. Padnie czy nie padnie, a może wziąć ze sobą ładowarkę, w końcu zawsze gdzieś znajdzie się kontakt. A może skorzystać z chwil spędzanych w samochodzie w godzinach szczytu? Wychodząc na basen czy na plażę, współczesna kobieta już nie musi drżeć na myśl o wyczerpującej się baterii telefonu komórkowego. A wszystko dzięki owocom współpracy dwóch firm: Triumph International (światowej sławy producenta bielizny i strojów kąpielowych) i Conergy (producenta ogniw fotowoltanicznych). Strój kąpielowy Solar Swimsuit, bo o nim mowa, wytwarza dostatecznie dużo energii, by można było zasilić telefon komórkowy, odtwarzacz MP3 czy inne urządzenia przenośne. Pod warunkiem jednak, że korzystają ze złącza USB, bo taką właśnie wtyczkę przymocowano do tkaniny. Pokazy mody bieliźnianej Triumph Fashion Cup są inspirowane różnymi wydarzeniami w świecie sportu. W zeszłym roku były to piłkarskie Mistrzostwa Świata, w tym zaś regaty Americas Cup, rozpoczynające się 25 kwietnia w Walencji. Solar Swimsuit zaprezentowała Gemma Mengual, hiszpańska mistrzyni pływacka. Nie podano ceny stroju, ale chodzą pogłoski, że znajdzie się on w tegorocznej ofercie katalogowej Triumpha. To doskonały moment na rozpoczęcie promocji, ponieważ sezon wakacyjny zbliża się wielkimi krokami. Sam kostium wygląda skromnie, lecz elegancko. Ułożone pasmami malutkie ogniwa słoneczne przypominają większe cekiny. Prototypy strojów bazujących na podobnym pomyśle tworzono już wcześniej, jednak Solar Swimsuit jako pierwszy trafi na sklepowe półki, a nie do archiwów designerów.
  19. Naukowcy z Georgia Institute of Technology stworzyli miniaturowe generatory, które tworzą energię elektryczną wykorzystując ruch. Generatory można będzie wszyć w ubranie, dzięki czemu na spacerze skorzystamy z przenośnych urządzeń dla których sami wyprodukujemy energię. W piśmie Nature uczeni opisali, w jaki sposób tekstylne włókna pokryte nanowłóknami z tlenku cynku mogą wytwarzać energię elektryczną dzięki zjawisku piezoelektrycznemu. Nanogenerator bazujący na włóknach może być prostym i ekonomicznym sposobem wytwarzania energii z ruchu fizycznego – mówi profesor Zhong Lin Wang z GaTech. Jeśli wykorzystamy wiele takich włókien do stworzenia warstw wewnątrz ubrania, uzyskamy elastyczne, giętkie i ubieralne źródło energii, które może zostać wykorzystane do jej tworzenia podczas spaceru – dodaje. Generator korzysta z faktu, że nanostruktury z tlenku cynku produkują niewielkie wyładowania gdy są zginane. Urządzenie o powierzchni 6 milimetrów kwadratowych potrafi wyprodukować prąd o natężeniu 800 nanoamperów i napięciu 20 miliwoltów. Teoretycznie z metra kwadratowego można by uzyskać 80 miliwatów mocy. Tworzenie generatorów rozpoczyna się od pokrycia kewlaru tlenkiem cynku za pomocą techniki napylania magnetronowego. Tworzą się w ten sposób nanowłókna, a całość jest zanurzana na około 12 godzin w specjalnym roztworze. W temperaturze 80 stopni Celsjusza następuje wzrost cynkowych nanowókien. Osiągają one długość około 3,5 mikrona, a odległości pomiędzy nimi wynoszą kilkaset nanometrów. Cynkowe nanowłókna są przymocowane za pomocą tetraetoksysilanu (TEOS), którym na początku całego procesu produkcyjnego pokrywa się kewlar. Później, po zakończeniu wzrostu włókien dodawana jest kolejna warstwa TEOS. Ma ona zapobiegać odrywaniu się nanowłókien gdy będą o siebie pocierały. Na koniec część kewlarowych powłok z nanowłóknami powlekanych jest złotem. Powłoki łączone są w pary – ze złotem i bez złota – tak, by stykały się ze sobą i tylko ze sobą. Złoto wraz z tlenkiem cynku tworzą barierę Shottky’ego, dzięki czemu taka struktura zastąpiła platynową elektrodę użytą w pierwotnym projekcie. Naukowcy planują teraz połączenie wielu opisanych powyżej par, by zwiększyć natężenie i napięcie całego układu. Chcą też poprawić przewodnictwo samych włókien. Przed akademikami jest jeszcze pokonanie jednej poważnej bariery. Tlenek cynku jest wrażliwy na wilgoć, więc w chwili obecnej nie można by prać ubrań z wszytym generatorem. Uczeni zastanawiają się, jak chronić nanowłóka przed zgubnym działaniem pralki.
  20. Profesor Steve Cole z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) informuje, że samotność jest powiązana z gorzej funkcjonującym układem odpornościowym. Dlatego też osoby samotne są bardziej narażone na choroby i śmierć w młodszym wieku. Naukowiec badał DNA ludzi określających się jako „chronicznie samotni” i odkrył, że aktywność ich kodu genetycznego różni się od tej, która występuje u ludzi niebędących samotnymi. Niemal zawsze różnica ta dotyczy tych części, które są odpowiedzialne za układ immunologiczny. Badania pokazują, że samotność ma wpływ na najbardziej podstawowe procesy naszego organizmu: na aktywność genów – mówi Cole. Od lat wiadomo, że istnieje korelacja pomiędzy liczebnością rodziny i przyjaciół a zdrowiem fizycznym. Wiele już badań wykazało, że osoby opisujące się jako samotne są bardziej narażone na przedwczesny zgon, choroby, nadciśnienie, bezsenność i nowotwory. Istnieją dwie teorie, wyjaśniające to zjawisko. Jedna twierdzi, że gdy człowiek zachoruje, ale ma wokół siebie rodzinę czy przyjaciół, prędzej wyzdrowieje, gdyż zadbają oni, by udał się do lekarza, brał lekarstwa, pomogą podczas choroby. Według drugiej z teorii w samotności jest coś, co bezpośrednio wpływa na nasze ciało. Zespół Cole’a postanowił zweryfikować tę drugą teorię. Wykorzystał wcześniejsze badania profesora psychologii Johna Cacioppo z University of Chicago. Cacioppo przez wiele lat badał relacje społeczne i zdrowie grupy ochodników. Cole i Cacioppo połączyli siły i wybrali do dalszych badań 14 ochotników. Sześciu z nich to osoby, które znajdowały się w górnych 15% skali samotności. To ludzie, którzy co najmniej od czterech lat nie byli z nikim blisko związani – mówi Cole. Pozostała ósemka to osoby najmniej samotne z grupy badanej przez Cacioppo. Uczeni przyjrzeli się 22 000 genów, sprawdzili jak wpływają one na pracę układu odpornościowego i okryli, że 209 genów u ludzi najbardziej samotnych zachowuje się dziwnie. Te 200 genów nie wykazywało przypadkowych zmian. Wyglądało to jakby zawiązały spisek. Duża część z nich wydawała się zaangażowana w podstawowe działanie systemu immunologicznego – wyjaśnia Cole. Wydaje się, że geny „celowo” działały źle. Wygląda więc na to, że w organizmach ludzi samotnych, w związku z upośledzeniem systemu odpornościowego, istnieje niebezpiecznie dużo ognisk zapalnych, które mogą powodować m.in. choroby serca, artretyzm czy chorobę Alzheimera. Uczeni mają nadzieję, że skoro znaleźli biologiczny ślad samotności, to uda się opracować odpowiednie lekarstwo, tak by samotni nie chorowali. Nie wiadomo jedynie, co pojawia się pierwsze: samotność czy „konspiracja” genów.
  21. Osoby, które od kilku dni stały w kolejkach przed amerykańskim sklepami, w końcu się doczekały – w USA rozpoczęto sprzedaż najnowszej konsoli Sony PlayStation 3. Czekających nie zniechęcał fakt, iż do Stanów Zjednoczonych miało trafić w dniu premiery jedynie 400 000 urządzeń (chociaż pojawiły się głosy, że będzie ich nie więcej niż 200 000). Osoby nie stojące na początku miały więc niewielkie szanse, by nabyć konsolę. W Nowym Jorku pierwszym, który kupił PS3 był 31-ledni Angel Paredes. Kosztowała go ona 599 dolarów oraz 3 noce koczowania przed sklepem. Podobne obrazki można było zobaczyć w całych USA – długie kolejki, namioty i ludzie koczujący całymi dniami tylko po to, by już w dniu premiery stać się posiadaczami długo oczekiwanej konsoli. W kolejkach oczekiwali nie tylko fanatycy gier. Byli tam też ludzie, którzy na konsoli chcieli dobrze zarobić. Część osób deklarowało, że natychmiast sprzedadzą swoją konsolę na aukcji internetowej. Biorąc pod uwagę fakt, że konsoli jest tak niewiele, a w USA rozpoczyna się sezon świąteczny, można liczyć na spore zyski. Oczywiście, pod warunkiem, że znajdą się chętni zapłacić więcej niż wynosi i tak już wysoka cena konsoli.
  22. Microsoft złożył wniosek patentowy na technologię zabezpieczania oprogramowania, którą określił mianem „znaku wodnego”. Jej zadaniem jest zwiększenie bezpieczeństwa programów umieszczanych w Sieci i sprzedawanych za jej pośrednictwem. Dołączenie znaku wodnego do każdej kopii programu spersonalizuje ją i przyczyni się do tego, że łatwiej będzie zidentyfikować ewentualne miejsce kradzieży programu. Gdy program jest sprzedawany za pośrednictwem Internetu w bazie danych przechowywane są informacje o nabywcy: jego nazwisko, adres, numer telefonu, numer karty kredytowej itp. Na ich podstawie specjalne algorytmy tworzyłyby serię unikatowych numerów identyfikacyjnych, które w formie binarnej dodawane byłyby do sprzedawanego programu. Dodatkowo informacje te można szyfrować tak, by wykrycie i sfałszowanie dodanego kodu było jeszcze trudniejsze. Producenci oprogramowania mogliby z łatwością sprawdzić, komu została sprzedana dana kopia programu. Wystarczy, by porównali kod programu przejętego np. podczas akcji antypirackiej, z przechowywanym u siebie kodem oryginalnym. To pozwoliłoby na odnalezienie fragmentów znaku wodnego, a ich odczytanie umożliwiłoby zidentyfikowanie nabywcy programu.
  23. Kalifornijska firma Nanochip Inc. ogłosiła, że dokonała przełomu w rozwijanej przez siebie od 12 lat technologii "pamięci macierzowej". To technologia, która nie jest zależna od Prawa Moore\'a - mówi Gordon Knight, dyrektor Nanochipa. Powinna ona wystarczyć na co najmniej 10 generacji - dodaje. Knight odniósł się w ten sposób do Prawa Moore\'a, które mówi o tym, że co dwa lata liczba podzespołów w układzie scalonym ulega podwojeniu. Obecnie układy produkuje się dzięki technikom litograficznym. Oznacza to, że co dwa lata trzeba kupować kolejne maszyny do litografii, które poradzą sobie z nadrukowywaniem coraz mniejszych ścieżek. Uważa się, że możliwości współczesnych technologii produkcji pamięci flash skończą się przy wielkościach rzędu 32-45 nanometrów. Technika Nanochipa zakłada wykorzystanie matrycy mikroskopijnych próbników, które będą odczytywały i zapisywały dane. Już w tej chwili firma informuje, że przygotowała próbniki o średnicy 25 nanometrów i w przyszłym roku dostarczy swoim klientom pierwsze działające próbki układów pamięci. Na rynek mogłyby one trafić w 2010 roku. Teoretycznie już wówczas mogą być dostępne pojedyncze kości, których pojemność wyniesie 100 gigabajtów. Bardziej jednak realne jest, że pomieszczą one kilkadziesiąt gigabajtów danych. Czyli tyle, ile obecne pamięci flash. A musimy pamiętać, że to dopiero pierwsza generacja "pamięci macierzowych". Knight mówi, że w ciągu 10-12 lat średnica próbnika spadnie do 2-3 nanometrów, a pojemność pojedynczej kości pamięci będzie większa niż 1 terabajt. Nowa technologia ma tym większe szanse na przyjęcie się, że nie wymaga olbrzymich inwestycji. Oni wykorzystują używane w tej chwili narzędzia i przystosowują je do swoich celów. Te same maszyny, to samo wyposażenie, te same materiały, te same podstawy. Po prostu zamiast dwuwymiarowych oni tworzą trójwymiarowe obiekty - mówi Marlene Bourne, szefowa firmy analitycznej The Bourne Report. Nowe układy mogą zostać w przyszłości wykorzystane tam, gdzie i obecnie wykorzystywana jest pamięć flash - w klipsach USB czy dyskach SSD. Co więcej, przedstawiciele Nanochipa wierzą, że można je będzie nawet stosować w serwerach zamiast tradycyjnych dysków twardych. Knight mówi, że "pamięć macierzowa" bez problemu radzi sobie z problemem jednoczesnego dostępu wielu użytkowników do zasobów. Jeśli masz całą matrycę z tych układów, to masz jednocześnie wiele punktów dostępu do danych - twierdzi. Kontroler pamięci działa podobnie jak obecne kontrolery, jednak dane są rozproszone w wielu układach, więc jednoczesny dostęp do nich stanowi mniejszy problem. Pomysł Nanochipa nie jest nowy. Widać tu wyraźnie podobieństwa do IBM-owskiego projektu Millipede, który spotkał się z olbrzymim zainteresowaniem na przełomie ubiegłego i obecnego wieku. Jednak Błękitny Gigant zarzucił prace nad nim. Knight zauważa, że o ile Millipede korzystało z polimeru jako materiału przechowującego dane, to jego firma wykorzystuje lepszy materiał. Nie chciał jednak zdradzić, czym on jest. Powiedział tylko, że półtora roku temu jego przedsiębiorstwo dokonało przełomowego odkrycia opracowując materiał, który w ogóle się nie zużywa podczas zapisu i odczytu danych. Być może ma on coś wspólnego z materiałem zawierającym szkło chalkogenkowe, nad którym pracowała firma Ovonyx. W radzie technicznej Nanochipa pracuje bowiem Stefan Lai, menedżer w Ovonyx, który był też wiceprezesem wydziału Intela odpowiedzialnego za rozwój pamięci flash. Knight mówi też, że jego firma poradziła sobie z problemem zużywania się próbników odczytująco/zapisujących. Trzeba pamiętać bowiem, że mają one już obecnie średnicę zaledwie 25 nanometrów, więc mogą się błyskawicznie zużyć. A jeśli nowe układy pamięci mają trafić do serwerów, to wszystkie ich podzespoły muszą być na tyle wytrzymałe, by pracować nieprzerwanie przez co najmniej 6-7 lat. Jeśli Nanochipowi rzeczywiście uda się przygotować działające tanie prototypy, możemy być świadkami małej rewolucji. "Pamięć macierzowa" może zastąpić dyski twarde w notebookach, umożliwi powstanie tanich kilkusetgigabajtowych klipsów USB, zmniejszy zużycie energii przez farmy serwerowe. Analitykom nie przeszkadza nawet fakt, że IBM nie pracuje już nad Millipede. Część inżynierów, którzy tworzyli ten projekt, doradza obecnie Nanochipowi, a sam Błękitny Gigant nadal rozwija technologie coraz gęstszego upakowania danych, chociaż nie ma zamiaru tworzenia żadnego konkretnego produktu. Bardzo chętnie udzieli jednak licencji. Firma Nanochip Inc. powstała w 1996 roku i ma trzech inwestorów - wśród nich Intel Capital - którzy przekazali jej 14 milionów dolarów.
  24. DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych) ujawniła szczegóły projektu National Cyber Range. Wynika z niego że DARPA pracuje nad stworzeniem... Matriksa. NCR ma być rodzajem wirtualnego poligonu, w którym będą symulowane m.in. cyfrowe wojny przyszłości. Ma on pozwolić na testowanie bezpieczeństwa sieci, przepływu informacji czy odporności sieci na ataki. DARPA chce, by w NCR można było symulować obecnie istniejące oraz przyszłe rodzaje broni i operacji wojskowych. "Wirtualny poligon" umożliwi też symulowanie światowych systemów komunikacyjnych. W opublikowanym dokumencie czytamy: NCR musi być w stanie symulować dowolny fizyczny komputer oraz tworzyć jego repliki w wirtualnym świecie. Nie tylko repliki jego oprogramowania, ale sprzętu, aż do poziomu przerwań, repliki chipsetu, kart rozszerzeń i urządzeń zewnętrznych. Oczywiście taki wirtualny poligon będzie niekompletny bez wirtualnych ludzi. DARPA nazywa ich "replikantami": Replikanci muszą być w stanie podejmować różne role użytkownika. Zachowanie replikantów będzie zmieniało się w odpowiedzi na zmiany w sieci [będzie więc inne w zależności od tego, co akurat będzie symulowane, np. zabezpieczenia systemu informatycznego czy opracowywanie planów wojny - red.], ma też zmieniać się w zależności od aktywności w sieci [a więc replikanci będą inaczej działali gdy będzie prowadzony atak, a inaczej zachowają się, jeśli symulowana będzie np. awaria komputerów - red.]. Replikanci będą symulowali fizyczne korzystanie z urządzeń peryferyjnych, takich jak klawiatura czy mysz. Replikanci będą obsługiwali całe oprogramowanie - stwierdza dokument. W NCR znajdzie się też miejsce dla realistycznych, zaawansowanych sił obrony i ataku. Wśród ich działań można wymienić zaawansowane wykorzystanie technologii cyfrowych, od obrony krajowej sieci po przeprowadzanie ataku na sieć wroga... cyberprzeciwnicy zostaną wyposażeni w cały zestaw szkodliwych programów atakujących oraz narzędzia do obrony przed nimi. DARPA przewidziała też spustoszenia w wirtualnym świecie. Podczas pozorowanych walk wirtualna infrastruktura będzie niszczona, więc NCR musi być w stanie odbudowywać swoje zasoby tak, by można było przeprowadzać kolejne testy. Jednym z warunków powstania NCR jest bezpieczeństwo. Całość ani żadna jej część nie może wymknąć się spod kontroli. Firmy, które chciałyby przystąpić do projektu muszą też opracować swoistą maszynę czasu. DARPA chce bowiem symulować wolniejszy lub szybszy przepływ czasu. Wszystko po to, by móc dowolnie testować technologie w różnych fazach ich rozwoju.
  25. Fujitsu twierdzi, że jest producentem najbardziej pojemnego 2,5-calowego dysku twardego. Przeznaczone dla laptopów urządzenie jest w stanie przechować 300 gigabajtów danych. Model MHX2300BT znajdzie się w sprzedaży w lutym przyszłego roku. Wraz z najnowszym dyskiem Fujitsu prezentuje drugą generację HDD wykorzystującę technologię zapisu prostopadłego. Urządzenie korzysta z interfejsu SATA oraz technologii wbudowanego kolejkowania zadań (NCQ). Jego talerze obracają się z prędkością 4200 rpm. Japońska firma chwali się również niewielkim poborem mocy urządzenia. Wynosi on 1,6 wata podczas pracy i 0,5 W czasie spoczynku. Główny rywal Fujitsu, Seagate Technology, planuje wprowadzenie w drugiej połowie przyszłego roku 250-gigabajtowego dysku twardego dla notebooków. Będzie on miał jednak tę przewagę nad MHX2300BT, że ma wykorzystywać technologię szyfrowania danych oraz zostanie wyposażony w pamięć flash o dużej pojemności.
×
×
  • Dodaj nową pozycję...