-
Liczba zawartości
37631 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Od czasu uderzenia meteorytu mieszkańców wioski w południowym Peru nęka tajemnicza choroba. W zeszłą sobotę (15 września) w południe ludzi przestraszył odgłos wybuchu i wyraźnie widoczna na niebie kula ognia. Wielu podejrzewało, że to katastrofa lotnicza. Miejscowość znajduje się w Andach, a konkretnie w departamencie Puno, w pobliżu granicy z Boliwią. Od tego czasu mieszkańcy wioski uskarżają się na wywołane dziwnym zapachem bóle głowy i wymioty – powiedział peruwiańskiemu radiu RPP Jorge Loprez, przedstawiciel miejscowego wydziału zdrowia. Hospitalizowano również 7 policjantów, którzy udali się na wizję lokalną. Przed przyjęciem do szpitala podano im tlen. Na miejsce katastrofy wysłano ekipę ratowniczą i ekspertów. Znaleziono krater o średnicy 30 i głębokości 6 metrów. Z otworu wydobywała się wrząca woda. Wokół leżały odłamki skały i popiół. Tubylcy byli bardzo zaniepokojeni – poinformował inny przedstawiciel władz, Marco Limache. Okoliczni mieszkańcy obawiają się, że nękające ich objawy to efekt napromieniowania. Sprawa jest na tyle poważna, że na miejsce upadku udadzą się ekperci Instytutu Geofizycznego. José Ishitsuka Iba, szef obserwatorium astronomicznego, które należy do Instytutu, nie wyklucza jednak, że tajemnicza choroba to... efekt psychozy, którym ulegli mieszkańcy. Przyznaje on, że meteoryty mogą nieść ze sobą radioaktywny materiał, jednak w Peru spadł niewielki meteoryt, a więc i materiału nie było dużo. Nie mógł on więc wpłynąć na zdrowie mieszkańców. Opinię o zbiorowej psychozie lub innym pochodzeniu objawów zdają się potwierdzać słowa Modesto Monoi, byłego prezesa Instytutu Energii Jądrowej. Jego zdaniem mieszkańcy wykazują efekty, które pojawiają się, gdy człowiek wystawiony jest na działanie dużej ilości siarki. A meteoryty siarki nie zawierają. Na miejsce upadku meteorytu wybierają się też lekarze z Departamentu Zdrowia z Puno.
-
Anna Streżyńska, prezes Urzędu Komunikacji Elektronicznej, zapowiedziała, że do roku 2010 Telekomunikacja Polska SA zostanie podzielona na dwie spółki. Jednocześnie pani prezes opowiedziała się przeciwko powołaniu europejskiego regulatora rynku telekomunikacyjnego. Komisja Europejska uważa, że nowy urząd zapewni większą swobodę działania różnym firmom, będzie mógł nakazać podzielenie istniejących telekomów, a w rezultacie doprowadzi do spadku cen. Anna Streżyńska mówi, że jego powołanie jest niepotrzebne. Jedyną nową rzeczą jest ten międzynarodowy europejski regulator. Regulatorzy uważają, że nie jest on potrzebny. Uważamy, że nie jest potrzebne kolejne ciało, które będzie miało takie same lub właściwie podobne kompetencje, bo po pierwsze to dodatkowe koszty, po drugie spowolnienie procedur, po trzecie ich komplikacja, po czwarte trochę dla nas utrata suwerenności i takiego spojrzenia lokalnego na nasze potrzeby. I wreszcie na koniec taki paneuropejski regulator oznacza dalsze kroki w przyszłości, czyli być może w ogóle utratę przez kraje członkowskie możliwości regulowania rynków krajowych – powiedziała Streżyńska w radiu PiN. Stwierdziła jednocześnie, ze w połowie przyszłego roku zapadnie decyzja, czy i jak zostanie podzielona TP SA. To jest prawie pewnik, musiałabym dostać bardzo mocne argumenty, żeby tego nie zrobić. Jeżeli byśmy w połowie przyszłego roku podjęli decyzję na tak, to druga połowa roku byłaby na przygotowanie decyzji i 2009 rok byłby przeznaczony na działania regulacyjne – mówi Streżyńska.
-
Naukowcy z MIT dokonali kolejnego ważnego odkrycia w dziedzinie biologii molekularnej. Badając jedną z bakteryjnych protein, odkryli oni, dlaczego spełnia ona znacznie więcej funkcji niż inne białka podobnej wielkości. Zespół prof. Grahama Walkera odkrył, że białko zwane UmuD należy do nowo odkrytej kategorii "białek wewnętrznie nieuporządkowanych" (ang. intrinsically disordered proteins). Mimo iż białko UmuD występuje w komórkach bakteryjnych, może mieć istotne znaczenie dla zrozumienia niektórych ludzkich chorób. Dzięki temu odkryciu jesteśmy o krok bliżej od zrozumienia funkcji tzw. translesion DNA polymerases (w wolnym tłumaczeniu: polimeraz DNA kopiujących mimo pęknięć), nietypowego rodzaju polimeraz ludzkiego DNA. Są to białka zdolne do kopiowania ludzkiego DNA, lecz - w przeciwieństwie do "klasycznych" polimeraz - są one w stanie kopiować materiał genetyczny nawet z pękniętego chromosomu. Dzięki temu możliwe jest zachowanie całej informacji genetycznej komórki i zapewnienie jej przeżycia nawet przy rozległym uszkodzeniu DNA. Z drugiej jednak strony, proces ten zawsze prowadzi do powstania nowych mutacji w miejscu "naprawionego" uszkodzenia. Może to prowadzić do sytuacji, w której komórka - zamiast obumrzeć w wyniku uszkodzenia DNA - złośliwieje i staje się zalążkiem nowotworu. Z powodu złożonej funkcji translesion DNA polymerases mogą być istotne dla rozwoju tych chorób. UmuD, tak jak każde inne białko, musi przejść proces tzw. składania, zanim osiągnie zdolność do pełnienia swojej funkcji. O analogicznym procesie w przypadu cząsteczek RNA pisaliśmy niedawno. Co jest jednak ciekawe, białka wewnętrznie nieuporządkowane nie posiadają ściśle zdefiniowanej struktury przestrzennej stąd wzięła się ich nazwa). Dzięki temu, że mają pewną dowolność tworzenia struktur, mogą wiązać znacznie więcej rodzajów cząsteczek w porównaniu do "klasycznych" białek podobnej wielkości. [One] posiadają pewną strukturę, lecz rozumianą inaczej, niż do tej pory nam się wydawało - mówi prof. Walker. W dużych stężeniach, przy których - ze względów technicznych - przeważnie wykonuje się analizy struktury białek, UmuD tworzy zazwyczaj tzw. strukturę harmonijkową. Okazuje się jednak, że dzięki zastosowaniu nowej techniki, możliwe było zbadanie kształtu cząsteczek przy stężeniu występującym naturalnie w komórce bakteryjnej. Zaskakujący jest fakt, że w takich warunkach białko to tworzy przypadkowe zwoje zamiast uporządkowanej struktury. Dalsze badania wskazują, iż białka wewnętrznie nieuporządkowane po połączeniu z innymi proteinami mogą zmienić kształt, co umożliwia im kontakt z innymi molekułami. W ten sposób powstaje chronologiczna sekwencja konfiguracji atomów tego białka. Dodatkowo, pomimo dość "luźnej" struktury, proteina ta występuje przeważnie w parach (dimerach). Sugeruje to, że istnieje pewna preferowana struktura, bardziej prawdpodobna od innych. Nadal nie wiadomo jednak, jakie mechanizmy regulują powstawanie poszczególnych form białka UmuD. Odkrycie dokonane w MIT może rzucić nowe światło na rolę UmuD w tzw. systemie SOS, aktywowanym w komórkach bakteryjnych po rozległych uszkodzeniach DNA. Polega on na działaniu mechanizmów naprawy DNA "za wszelką cenę": aktywowane są wszelkie mechanizmy naprawcze, włącznie z tymi, które odtwarzają ciągłość DNA kosztem rozległych mutacji. Jednym z typów "białek systemu SOS" są właśnie wspomniane wcześniej translesion DNA polymerases. Proces działania tych protein przeżywają bardzo nieliczne komórki, lecz często są one wówczas znacznie silniejsze niż przed zadziałaniem szkodliwego czynnika (można podejrzewać, że w analogicznej sytuacji u człowieka powstaje nowotwór). Z kolei rolą białka UmuD w systemie SOS jest m.in. interakcja właśnie z takim typem polimeraz oraz regulacja ich aktywności i zdolności do wiązania DNA. Oprócz naukowców z MIT, w projekcie brali udział badacze z Uniwersytetu Federalnego w Rio de Janeiro w Brazylii. Szczegółowa publikacja dotycząca tego zagadnienia ukazała się w czasopiśmie Proceedings of the National Academy of Sciences.
-
Papugi kakapo nie wyginą! Udało się je uratować z pomocą biologów z Uniwersytetu w Glasgow. Zielono upierzone kakapo (Strigops habrotilus) to nieloty zamieszkujące Nową Zelandię. Są roślinożerne i prowadzą nocny tryb życia. Zmiany środowiskowe i wprowadzenie polujących na nie ssaków doprowadziły do tego, że w 1995 roku liczebność gatunku spadła do 51 osobników. Papugi te bardzo rzadko wyprowadzają lęgi. Dzieje się tak, ponieważ karmią pisklęta owocami dwóch endemicznych drzew: sosny Halocarpus biformis oraz rimu (Dacrydium cupressinum), a owocują one tylko raz na 2 do 6 lat. W międzyczasie ptaki żywią się liśćmi, trawami i ziołami, w których nie ma wystarczających ilości składników odżywczych do wykarmienia młodych. Biolodzy środowiskowi i ewolucyjni z Glasgow współpracowali z nowozelandzkim Departamentem Ochrony Środowiska. Stworzyli suplement, dzięki któremu kakapo miały składać więcej jaj nawet w tzw. latach chudych (gdy nie owocowały ich ulubione drzewa). Kakapo rozmnażały się niechętnie. Kiedy zbadaliśmy pożywienie, zaczęliśmy podejrzewać, że należy za to obwiniać ich menu. Składanie jaj to wymagający okres dla ptaków. Aby wyprodukować jaja dobrej jakości, potrzebują określonych składników odżywczych. Podczas eksperymentów podawaliśmy suplementy ze wszystkimi substancjami, których, wg nas, brakowało w diecie papugi. Chcieliśmy w ten sposób sprawdzić, czy uda nam się wpłynąć na jej rozmnażanie. Okazało się, że samice zażywające tabletki składały znacznie więcej jaj. W 2002 roku, pierwszym roku suplementacji, złożyły łącznie 67 jaj – wyjaśnia David Houston, profesor zoologii z Uniwersytetu w Glasgow. Kakapo nadal są zagrożone wyginięciem. Ponieważ rozmnażają się nieregularnie, proces "wychodzenia na prostą" będzie długi.
-
IBM we współpracy z austriacką firmą VDEL oraz z LX Polska zaoferuje na terenie Rosji peceta "wolnego od Microsoftu". Maszyna będzie sprzedawana z preinstalowanym systemem firmy Red Hat i IBM-owskim pakietem biurowym Lotus Symphony. Sprzęt będzie produkowany i dostarczany przez partnerów VDEL i LX Polska. Błękitny Gigant zapewnia, że komputery z rodziny Open Referent będą o połowę tańsze, niż tradycyjne maszyny. Wbrew pozorom nie chodzi tutaj, a przynajmniej nie bezpośrednio, o rozpropagowanie opensource\'owego systemu na rynku konsumenckim. Gra toczy się o wyższą stawkę. W Rosji wiele firm i instytucji państwowych po raz pierwszy buduje swoje wielkie sieci. Rynek Federacji jest więc bardzo atrakcyjny dla producentów oprogramowania. Microsoft już zaangażował się w Rosji w kampanie edukacyjne, a w ubiegłym miesiącu podpisał umowę z największym rosyjskim operatorem komórkowym. Dzięki niej małe firmy będą mogły korzystać z tańszych laptopów z preinstalowanym systemem Vista. Opensource\'owi rywale giganta z Redmond też nie zasypiają gruszek w popiele i próbują przedstawić Rosjanom swoje produkty. Robią to na tyle skutecznie, że opensource\'owe pecety zamówiło już Ministerstwo Obrony, Aerofłot i Alfa Bank. Trzeba przy tym pamiętać, że zatrudnieni w firmach i instytucjach, którzy zetkną się w pracy z danym rozwiązaniem, chętniej skorzystają z niego w domu. Wynik walki o rynek przedsiębiorstw przełoży się w przyszłości na rynek użytkownika indywidualnego.
-
Darul Uloom Deoband, wpływowa konserwatywna islamska szkoła teologiczna w indyjskim stanie Uttar Pradesz wydała dekret (fatwę), który dopuszcza zawieranie ślubów przez Internet. Wystarczy, by małżonkowie widzieli się za pośrednictwem kamer. Internet spełnia rolę prawnika i, jako taki, jest formalnie zdolny do nadzorowania zarówno „ljaab” (złożenie oferty) jak i „Qabool” (przyjęcia jej przez pannę młodą) – oświadczył duchowny Khalid Safiullah Rehmani. Islamscy duchowni debatowali nad ważnością internetowych ślubów od 2005 roku, gdy w miejscowości Lucknow zawarto pierwszy tego typu kontrakt małżeński. Szkoła Deoband ma duże wpływy w Azji Południowej. Znana jest ze swojego konserwatywnego podejścia do kwestii płci. Niedawno jej klerycy ogłosili, że dziewczynki nie powinny uczęszczać do koedukacyjnych szkół. Teraz zgodzili się na internetowe małżeństwa, pod warunkiem, że będzie przestrzegane islamskie prawo, a to wymaga, by prócz prawnika (tutaj: Internetu) obecnych było jeszcze dwóch świadków.
-
Jeden z kanadyjskich uniwersytetów postanowił wykorzystać fakt, że dzieci lubią gry i spędzają całe godziny przed ekranem komputera. Jego pracownicy opracowali grę, której bohaterowie ścigają statkiem kosmicznym złodziei manuskryptu Szekspira. Przy okazji grający poznają życiorys pisarza i fragmenty jego dzieł. Oficjalna premiera gry nastąpiła przed kilkoma dniami w rocznicę śmierci Szekspira. Specjaliści pracowali nad nią przez dwa lata, a jej stworzenie kosztowało 44 800 dolarów, co jest niewielką sumą, w porównaniu z budżetami współczesnych gier. W grze "Speare” znajduje się też odnośnik do Canadian Adaptations of Shakespeare, bazy danych dotyczących pisarza. Znajdują się w niej m.in. konspekty dla nauczycieli, filmy wideo dotyczące Szekspira oraz elektroniczne wersje jego dzieł. "Speare” pomagała stworzyć firma ApolloGames. Na jej stronie można pobrać demonstracyjną wersję gry lub zakupić oryginał.
-
Wizje pisarzy science-fiction i reżyserów takich jak George Lucas są coraz bliższe realizacji. W ciągu najbliższych lat na polach bitew prawdopodobnie pojawią się żołnierze wyposażeni w laserowe karabiny. Stany Zjednoczone wydają miliony dolarów na badania nad laserową bronią i już wkrótce może ona zostać tak zminiaturyzowana, że znajdzie się na wyposażeniu każdego żołnierza. USA prowadzą prace nad bronią laserową od 1972 roku. Mimo upływu 35 lat broń laserowa jest tak duża, że musi być montowana na ciężarówkach lub w samolotach. Służy do zwalczania rakiet przeciwnika, a nie do walki z jego żołnierzami. Osobista broń laserowa będzie niezwykle niebezpiecznym rodzajem dłoni. Karabin korzystający z promienia światła będzie w stanie wypalić w żołnierzu przeciwnika dziurę o średnicy ponad pół centymetra. Będzie to wymarzona broń dla snajperów. W przeciwieństwie do tego, co widzieliśmy w „Gwiezdnych wojnach” nie będzie widocznego promienia, więc pozycja strzelca nie zostanie zdradzona. Co więcej jej zasięg wyniesie około 8 kilometrów, a że promień lasera porusza się po linii prostej (tor lotu kuli jest parabolą) i podróżuje z prędkością światła, trafienie jest niemal pewne tak długo, jak cel pozostaje widoczny. Oczywiście takiej broni jeszcze nie ma, a przed naukowcami, którzy nad nią pracują, stoi kilka poważnych wyzwań. Lasery, które obecnie stosowane są jako broń, to przede wszystkim lasery chemiczne. Zyskują one energię dzięki gwałtownym reakcjom chemicznym, dzięki którym osiągają moc rzędu megawata. Główne ich wady to problem z przechowywaniem chemikaliów powodujących korozję oraz niebezpieczny dym wydobywający się podczas wykorzystywania lasera. Dlatego też najbardziej prawdopodobnym kandydatem do zastosowania w broni osobistej jest laser bazujący na ciele stałym. Ten najstarszy typ laserów jest obecnie powszechnie używany. Wykorzystuje się go od usuwania tatuaży po operacje okulistyczne. Lasery na ciele stałym korzystają z energii elektrycznej. Oczywiście laser, który żołnierz mógłby trzymać w ręku, nie osiągnie mocy megawata – nie istnieją bowiem na tyle zminiaturozowane źródła energii. Jednak najprawdopodobniej tak olbrzymia moc nie byłaby potrzebna. Żołnierzom piechoty wystarczą być może lasery o mocy jednego kilowata. W tej chwili są dostępne 100-kilowatowe lasery produkcji Boeinga i Grunmana. Mieszczą się one na platformie samochodu ciężarowego. Ich zminiaturyzowania do rozmiarów karabinu należy spodziewać się w ciągu 2 (to ocena optymistów) do 10 (tak twierdzą pesymiści) lat.
-
Poniższa wiadomość to nasz żart primaaprilisowy. Gdy przed kilkoma miesiącami Microsoft i Novell podpisały swoje głośnie porozumienie o współpracy, niemal natychmiast pojawiły się plotki, że podobną umowę z Microsoftem mogą zawrzeć inne firmy, w tym Red Hat. Pogłoski te wydają się obecnie potwierdzać. Na stronach Microsoftu przypadkowo pojawiła się informacja, datowana na 3 kwietnia, o porozumieniu pomiędzy koncernem Gatesa a producentem popularnej dystrybucji Linuksa. Podobną informację zawarł Red Hat w kwartalnym raporcie złożonym amerykańskiej Komisji Giełd i Papierów Wartościowych. Umowa przewiduje wymianę technologii, licencji oraz patentów. Przewidziano w niej również, że obie firmy będą chroniły siebie i swoich klientów przed pozwami o naruszenie własności intelektualnej jakiejkolwiek ze stron. Microsoft zobowiązał się ponadto do zatrudnienia w Redmond co najmniej 30 dotychczasowych pracowników Red Hata, którzy zasilą microsoftowe Centrum Pomocy oraz będą współpracowali z inżynierami giganta w celu dostosowania produktów obu firm. Umowa przewiduje też, że w ciągu 5 lat Microsoft zapłaci Red Hatowi 436 milionów dolarów, a Red Hat zobowiązał się do udostępnienia swoich kanałów dystrybucyjnych produktom Microsoftu. W opublikowanych przypadkowo dokumentach znalazło się również stwierdzenie, że rady nadzorcze obu firm nie sprzeciwiają się dalszemu zacieśnianiu współpracy. Zdaniem części analityków może być to zapowiedź przejęcia Red Hata przez Microsoft. Inni z kolei zwracają uwagę, iż umowa pomiędzy obiema firmami przewiduje współpracę w węższym zakresie niż ta pomiędzy Novellem a Microsoftem i rady nadzorcze jedynie dały zarządom wolną rękę w jej rozszerzeniu. Przedstawiciele Microsoftu i Red Hata odmówili komentarzy na temat umowy.
-
The Inquirer donosi, iż w ramach IBM-owskiego programu badawczego Extreme Blue powstało oprogramowanie, które pozwoli niesłyszącym korzystać z telefonu komórkowego. Wypowiadane przez rozmówcę słowa są przekładane na język migowy i pokazywane na ekranie. Aplikacja jest w tej chwili całkowicie zależna od serwera. Przygotowuje on odpowiedni strumień wideo na którym cyfrowo generowana postać pokazuje poszczególne znaki. Uczeni mają nadzieją, że Sisi (od: say it, sign it) będzie można przygotować w formie aplikacji Java, która będzie instalowana w samych telefonach. Jeśli tak się stanie, osoby niesłyszące będą mogły bez przeszkód korzystać z „komórek”.
-
W przyszłym roku klienci Forda będą mogli zażyczyć sobie opcjonalnego zamontowania w samochodzie radaru pilnującego tzw. martwego punktu. Przypomnijmy, że jest to punkt w którym widoczny w lusterku bocznym wyprzedzający nas samochód nagle znika z pola widzenia. Problem martwego punktu jest też rozwiązywany za pomocą specjalnych lusterek. Te staną się standardowym wyposażeniem modeli Lincoln i Mercury. Ford zaproponuje ponadto radar korzystający z pasma 24 GHz. W USA jest ono przeznaczone dla radarów o krótkim zasięgu, więc firma nie będzie miała problemów z uzyskaniem odpowiedniej zgody na jego wykorzystanie. Radar Forda będzie badał obszar, który nie jest widoczny w lusterku. Gdy wykryje tam samochód, w lusterku z odpowiedniej strony zacznie migać kontrolka, informując kierowcę o znajdującym się tam samochodzie. Niewykluczone, że system zostanie wyposażony też w alarm dźwiękowy. Spora część kierowców z zadowoleniem wita zmiany poprawiające bezpieczeństwo. Gdy testowano nowe lusterka, w których nie istnieje martwy punkt, aż 76% osób było z nich zadowolonych i stwierdziło, że zwiększyły one bezpieczeństwo. Nowy radar znajdzie się w ofercie Forda na początku przyszłego roku.
-
Na pustyni na zachodzie Egiptu archeolodzy odnaleźli coś, co może być najstarszym śladem ludzkiej stopy. Jak poinformował sekretarz generalny Egipskiej Służby Starożytności (SCA) Zahi Hawass, ma on ok. 2 milionów lat. Wg niego, niewykluczone, że to najważniejsze odkrycie, jakiego dokonano na terenie kraju. Ktoś przemierzający te obszary wiele, wiele lat temu odcisnął kontur swojej stopy w błocie. Ślad ten uległ następnie petryfikacji. Naukowcy ujrzeli go, pracując w oazie Siwa. Aby określić dokładny wiek znaleziska, naukowcy zbadają metodą datowania węglowego rośliny zachowane w tej samej skale. Khaled Saad, szef wydziału prehistorii w SCA, uważa, że bazując na wieku skały, w której znaleziono ślad stopy, można zaryzykować stwierdzenie, że jest starszy od szkieletu człokokształtnej Lucy, odbywającej obecnie podróż po Stanach Zjednoczonych. Fragmenty jej kośćca znaleziono w 1974 roku w Etiopii. Uważa się, że "dziewczyna" żyła 3 mln lat temu. Wykopaliska w Egipcie koncentrują się głównie na czasach faraonów, tymczasem, jak widać, kraj ten może się poszczycić jeszcze starszymi artefaktami. Poprzednie najstarsze prehistoryczne znalezisko liczyło sobie 200 tys. lat.
-
Programiści wykonali imponującą pracę. Na potrzeby Visty powstało 30 tysięcy sterowników, system był pisany ponoć dwukrotnie (po trzech latach pracy pierwszą jego wersję wyrzucono podobno do kosza), a koszty jego wyprodukowania szacuje się na 6 miliardów dolarów. Powstaje więc pytanie – czy było warto? Początkowo z Vistą wiązano nadzieje na pojawienie się kilku bardzo interesujących technologii. Miał więc zadebiutować nowy system plików (zapowiadany przez Microsoft) czy środowisko skryptowe nowej generacji Monad (nieoficjalne pogłoski mówiły, że będzie ono włączone do Visty). Obecnie wiadomo już, że Vista nie przynosi ze sobą żadnego przełomu. Systemowi nie można nic szczególnego zarzucić, ale nie ma też powodu, by go szczególnie chwalić. Vista pracuje co prawda bardziej stabilnie niż Windows XP ale i starszy system Microsoftu pracuje właściwie bez zastrzeżeń, więc ta zwiększona stabilność dla przeciętnego użytkownika będzie niezauważalna. Microsoft podkreśla, że Vista to najbardziej bezpieczny spośród wszystkich systemów Windows. To niewątpliwie prawda, jednak nawet sam koncern z Redmond zauważa, że użytkownicy powinni używać oprogramowania antywirusowego i innych systemów zabezpieczających. Ponadto należy przypomnieć starą prawdę, że system jest na tyle bezpieczny, na ile rozsądny jest jego użytkownik. Musimy oddać jednak Microsoftowi sprawiedliwość – znacząco poprawiono bezpieczeństwo i wprowadzono nowoczesne technologie pozwalające spać spokojnie posiadaczom Visty. Jest tylko jedno ale... Technologie te przygotowano przede wszystkim z myślą o firmach, spotkamy je więc w edycjach biznesowych oraz edycjach 64-bitowych. Przeciętny użytkownik, który będzie chciał znacząco poprawić bezpieczeństwo swojego systemu, albo powinien kupić biznesową wersję Visty, albo w wersji domowej zastosować dodatkowe oprogramowanie zabezpieczające. Na temat bezpieczeństwa nowego OS-u krążą różne informacje, a prawdziwą wartość wbudowanych przez Microsoft zabezpieczeń poznamy zapewne w ciągu kilkunastu miesięcy, gdy Vista przejdzie swój "rynkowy chrzest bojowy”. Specjaliści są zgodni, co do tego, że jeśli nie mamy zamiaru wymieniać sprzętu i jesteśmy zadowoleni z naszego Windows XP to nie mamy najmniejszego powodu, by instalować Vistę. Instalację Visty powinny rozważyć osoby, które kupują nowy komputer. Powinny jednak pamiętać przy tym, że Vista jest systemem bardziej wymagającym od Windows XP oraz o tym, że nie ma jeszcze zbyt wielu programów zoptymalizowanych pod kątem współpracy z Vistą, co niewątpliwie dodatkowo spowolni ich działanie. Czytaj również: Debiut Windows Visty Windows Vista: test wydajności
-
Najbardziej energooszczędnymi superkomputerami na Ziemi są dwie maszyny produkcji IBM-a. Dwa pierwsze miejsca na liście Green500 zajęły Blue Gene/Q Prototype 2 i Prototype 1. Maszyna Prototype 2 osiągnęła wydajność 2097 megaflopsów na każdy wat pobieranej energii. Tym samym po raz pierwszy w historii przekroczono granicę 2 GFlops/wat. Pół roku temu na Green500 dominował BlueGene/Q Prototype 1, który obecnie uplasował się na drugiej pozycji z wynikiem 1684 MFlops/wat. Najbardziej wydajny superkomputer, który znajduje się na czele listy TOP500, czyli japoński K zajął szóste miejsce na Green500 z wynikiem 824 MFlops/wat. Pomiar wydajności w stosunku do pobieranej energii jest coraz ważniejszym wskaźnikiem w świecie superkomputerów. W miarę jak stają się one coraz potężniejsze, szybko rosnące zapotrzebowanie na energię powoduje, iż coraz częściej pojawiają się pytanie o opłacalność inwestowania w superkomputery. Stąd olbrzymie zainteresowanie zwiększeniem wydajności na wat. Doktor Wu-chun Feng, założyciel listy Green500 mówi, że można zauważyć znaczny postęp w tej dziedzinie. W ciągu ostatnich sześciu miesięcy średnia wydajność systemów na Green500 zwiększyła się z 230 do 256 megaflopsów na wat, czyli wzrosła o 11 procent - stwierdził Feng. Jeszcze większy wzrost wydajności można zauważyć w systemach korzystających z GPU. Wzrosła ona z 573 do 707 MFlops/wat. Siedemdziesiąt procent z 20 najbardziej wydajnych superkomputerów wykorzystuje GPU - dodał. Postęp jest rzeczywiście olbrzymi. Przed czterema laty, gdy opublikowano pierwszą edycję Green500, najbardziej wydajny system - IBM-owski Blue Gene - mógł się poszczycić wynikiem 357 MFlops/wat.
-
<!-- @page { size: 21cm 29.7cm; margin: 2cm } P { margin-bottom: 0.21cm } --> Obrońcy przyrody sprzeciwiający się połowom wykorzystującym tzw. trałowanie denne, właśnie otrzymali nowe argumenty na swoją korzyść. Kolejnych dowodów potwierdzających niszczycielski wpływ trałowców na środowisko dostarczył satelita Landsat. Wykonane za jego pomocą zdjęcia ukazują skłębione pióropusze osadów ciągnące się za tymi statkami. Mimo niewielkich rozmiarów tych jednostek, podwodne chmury są ogromne, bardzo długo się utrzymują i zakłócają działanie całego morskiego ekosystemu. Wśród skutków trałowania wymienia się m.in. niszczenie raf koralowych, dewastację dna morskiego oraz wyłapywanie gatunków zwierząt, które nie są celem połowu. Według zoologów, widoczne z satelity ślady to jedynie czubek góry lodowej – znaczna część statków tego rodzaju działa na głębszych akwenach, gdzie zniszczenia nie są tak łatwe do zaobserwowania. Mimo wprowadzenia licznych zakazów i ograniczeń, problem wciąż jest poważny, zwłaszcza na obszarze Zatoki Meksykańskiej, u wybrzeży Ameryki Południowej i po atlantyckiej stronie Afryki. Stanem środowiska nie przejmują się także trałowce operujące na Morzu Północnym oraz na wodach należących do Chin. Jak widać, przed ekologami wciąż jeszcze wiele pracy.
-
Amerykańskie prawo patentowe od lat budzi kontrowersje i od dawna pojawiają się głosy o konieczności jego zmiany. Koalicja gigantów IT, w skład której wchodzą m.in. Microsoft, Google, Dell, Intel, Amazon czy HP i eBay, proponuje reformę tego prawa. Koncerny argumentują, że w obecne formie pozwala ono na rejestrowanie wątpliwych wynalazków i powoduje, że dochodzi do dyskusyjnych sądowych ugód. Zmianom proponowanym przez gigantów IT przeciwstawiają się jednak niemal wszystkie inne firmy i gałęzie przemysłu. Są wśród nich nie tylko firmy, które działają na innych rynkach, ale także małe przedsiębiorstwa z branży IT. Prawnicy reprezentujący przemysł biotechnologiczny, uczelnie wyższe, małych wynalazców czy firmy specjalizujące się w licencjonowaniu patentów mówią, że propozycje Microsoftu i Google\'a faworyzują gigantów IT i działają na szkodę mniejszych firm oraz innych branż. Przeciwnicy proponowanych zmian przyznają, że są one konieczne, ale nie powinny być tak daleko idące, gdyż działają tylko na korzyść wielkich koncernów. W USA istnieje sporo małych firm, które są posiadaczami wielu patentów, ale zdecydowały się nie wypuszczać na rynek żadnego produktu, tylko udzielają licencji wielkim firmom. Koncerny nazywają ich "trollami patentowymi" i próbują z nimi walczyć. Tymczasem przedstawiciele tych firm mówią, że nie ma żadnego dowodu na to, by Biuro Patentowe zbyt lekkomyślnie rozdawało patenty. Nie można też, ich zdaniem, twierdzić, że obecny system jest szkodliwy. A takie zarzuty pojawiają się w argumentacji gigantów. Jednocześnie przyznają, że trzeba uprościć procedury sądowe. Wielkie koncerny odniosły sukces we wrześniu, kiedy to Izba Reprezentantów przyjęła proponowane przez nie zmiany. Teraz ustawę rozpatruje Senat, który ma podjąć decyzję jeszcze w bieżącym miesiącu. Spór toczy się, oczywiście, o pieniądze. Wielkie koncerny IT chcą, by sądy, wyliczając odszkodowanie dla właściciela patentu, który został naruszony, brały pod uwagę stosunek wartości tego patentu w całym produkcie. Produkty koncernów IT zwykle korzystają z technologii, które w sumie chronione są setkami czy tysiącami patentów. Nowe rozwiązanie oznacza więc, że właściciel patentu, którego prawa zostały naruszone przez koncern IT, otrzyma odszkodowanie, którego wartość będzie setki lub tysiące razy mniejsza od wartości produktu naruszającego patent. To nie podoba się małym firmom, które uważają, że w ten sposób ich dochody znacząco spadną, same firmy stracą na wartości i zostaną pozbawione zysków, które są im należne. Małe firmy argumentują, że należy do nich 60% wszystkich przyznanych patentów, ale aż 99% zysków z patentów wędruje do kieszeni wielkich koncernów. Nowe przepisy tylko zmienią sytuację na ich niekorzyść. Moses Mares, prawnik kontrowersyjnej firmy Acacia Technologies, mówi, że propozycje gigantów IT dążą do tego, by objęli oni 100% wpływów z patentów. Możemy skończyć tak, jak Chiny, gdzie istnieje olbrzymia liczba firm produkcyjnych, ale nie są one innowacyjne, bo innowacyjność się tam nie opłaca - stwierdził Mares. Fundusze inwestycyjne nie dadzą pieniędzy przedsiębiorstwom, które nie będą mogły patentować własnych pomysłów.
-
Szkodliwe środki "na grypę i przeziębienie"
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Amerykańska Agencja ds. Żywności i Leków (FDA) ostrzega rodziców, by nie podawali dzieciom poniżej 2. roku życia lekarstw na kaszel i przeziębienie, które można kupić bez recepty. Ich zażycie może zagrozić życiu najmłodszych. Agencja otrzymuje, rzadkie co prawda, informacje o zgonach, konwulsjach, utracie przytomności i gwałtownym wzroście ciśnienia krwi, występujących po spożyciu wspomnianych środków. Charles Ganley, dyrektor Biura ds. Produktów Nierecepturowych, powiedział, że nie udowodniono, by tego typu środki były bezpieczne i skuteczne u dzieci poniżej 2. roku życia. FDA podkreśla jednocześnie, że powyższe zalecenie nie dotyczy dzieci w wieku 2-11 lat. Agencja ciągle bada wpływ wspomnianych lekarstw na osoby w tym wieku. Po zakończeniu badań zostanie wydany stosowne zalecenie. Na razie, w przypadku dzieci pomiędzy 2. a 11. rokiem życia FDA zaleca:ściśle trzymać się dawek podawanych na opakowaniach leków wydawanych bez recepty;pamiętać, że środki te NIE leczą ani NIE skracają okresu gorączkowania;sprawdzić na ulotce, jaki jest środek czynny w danym lekarstwie;do odmierzania dawek używać tylko i wyłącznie miarek dołączonych do opakowania. Każdą wątpliwość należy wyjaśnić z lekarzem. -
Pierwsza desktopowa płyta główna z otwartym BIOS-em
KopalniaWiedzy.pl dodał temat w dziale Technologia
Pracujący w AMD inżynier Yinghai Lu opublikował na licencji GPL kod źródłowy BIOS-u płyty głównej M57SLI-S4 firmy Gigabyte. To pierwszy w historii przypadek pojawienia się desktopowej płyty głównej z opensource\'owym BIOS-em. Wiadomość ta ucieszyła zwolenników Linuksa, gdyż dzięki temu będą mogli np. przeprogramować BIOS tak, by płyta główna lepiej spełniała ich wymagania. M57SLI-S4 to płyta dla procesorów AMD korzystających z podstawki AM2. Wyposażono ją w chipset nForce 570 SLI, cztery gniazda pamięci DDR2, dwa złącza PCI Express 16x, trzy PCI Express 1x. Można do niej podłączyć do 6 urządzeń SATA II i skorzystać z macierzy RAID. Producent zastosował również 10 portów USB 2.0, trzy FireWire itp. Na razie nie wiadomo, czy entuzjastom Linuksa uda się, dzięki przeprogramowaniu BIOS-u, zwiększyć wydajność płyty Gigabyte’a. Prawdopodobnie jednak już wkrótce dowiemy się o tym, że próbują oni zastosować otwarty BIOS do zaprogramowania kolejnych urządzeń. -
Uczeni odkryli największą ze znanych nam planet. Gazowy gigant jest zbudowany głównie z wodoru i okrąża gwiazdę odległą od Ziemi o 1400 lat świetlnych. Średnica nowo odkrytego ciała niebieskiego wynosi 1,7 średnicy Jowisza – największej planety Układu Słonecznego. Naukowcy uważają, że temperatura na powierzchni giganta wynosi 1260 stopni Celsjusza. Georgi Mandushev z Lowerll Obserwatory, który odkrył planetę, uważa, że na jej powierzchni nie ma żadnego fragmentu stałego lądu. TrES-4, bo taką nazwę zyskało ciało niebieskie, okrąża gwiazdę z gwiazdozbioru Herkulesa. Zdaniem akademików w tej samej konstelacji może znajdować się jeszcze druga planeta. To byłoby niesamowite – stwierdził Medushev. Lowell Obserwatory zyskało międzynarodowe uznanie w 1930 gdy jego pracownicy odkryli Plutona.
-
Najnowsze badania wykazały, że rynkowe udziały serwera Apache spadły poniżej 50%. Netcraft, firma specjalizująca się w monitorowaniu Internetu, zbadała ponad 100 milionów witryn WWW. Okazało się, że udział Apache’a w rynku serwerów web wynosi obecnie 48,42%, a udział microsoftowego IIS – 36,21. Podobne badania z listopada 2005 roku wykazały, że Apache ma 71% rynku, a Microsoft poniżej 20%. Apache traci udziały nie tylko na rzecz Microsoftu. Rynek jest mu odbierany także przez opensource’owy lighttpd (1,2% udziałów) i Google (4,4% rynku). Badacze zwracają jednak uwagę, że jeśli Microsoft będzie nadal podbijał rynek w takim tempie jak dotychczas, to w przyszłym roku będzie miał w nim tyle samo udziałów co Apache. Sytuacja Apache'a wygląda nieco lepiej jeśli weźmiemy pod uwagę fakt, że Google Server korzysta w dużej mierze z jego kodu. Netcraft objął badaniami niemal 128 milionów witryn i sprawdzał, przez jaki serwer są one obsługiwane.
-
Z nieoficjalnych danych przekazanych przez jednego z dystrybutorów wynika, że 12 lipca Sony o 100 dolarów obniży cenę konsoli PlayStation 3. Dotychczas cena PS3 była jedną z największych przeszkód na drodze do jej upowszechnienia się. Droższą wersję konsoli Sony będzie można kupić w cenie 499 dolarów. Wcześniej na tyle wyceniono wersję z 20-gigabajtowym dyskiem twardym. Konsumenci nie byli jednak zainteresowani zakupem urządzenia, więc Sony zaprzestało jego produkcji i na rynku pozostała PS3 z dyskiem o pojemności 60 GB oraz modułem łączności bezprzewodowej, która była wyceniana na 599 USD. Obecna obniżka ceny jest o tyle zaskakująca, iż nie spodziewano się, że dojdzie do niej tak szybko. Sony wybrało bardzo dobry moment na zmianę ceny. Microsoft – główny rywal na rynku wysoko zaawansowanych konsoli – przyznał właśnie, że w Xboksie 360 występuje nieakceptowalnie duży odsetek usterek i ocenił, że ich usunięcie będzie kosztowało firmę ponad miliard dolarów.
-
NASA ogłosiła, że jest gotowa do zastąpienia krzemowych układów scalonych chipami zbudowanymi z węgliku krzemu. Takie kości przydadzą się tam, gdzie panują wysokie temperatury, wytrzymują one bowiem nawet 540 stopni Celsjusza. Pierwsze komercyjnie dostępne układy, które wyprodukuje firma Inprox Technology, pojawią się pod koniec bieżącego roku. Zostaną one wykorzystane wewnątrz silników używanych przez NASA, gdzie posłużą do pomiaru różnych parametrów pracy tych urządzeń. Inprox zapowiada jednak, że Agencja nie będzie jedynym klientem firmy. Nowe kości zostaną zaoferowane również przemysłowi motoryzacyjnego. Obecnie NASA stosuje tradycyjne układy scalone, jednak muszą być one umieszczane z dala od silników lub też trzeba je schładzać cieczą. To powoduje, że system jest drogi, trudny w konstrukcji i mniej doskonały. Kości z węgliku krzemu (SiC) nie muszą być chłodzone nawet w temperaturze 500 stopni Celsjusza. Jedyną wadą tego materiału jest mniejsza wydajność układów związana z mniejszą mobilnością elektronów. Wynosi ona 900 cm2/V-s, podczas gdy w krzemie – 1500 cm2/V-s. Jednak inne zalety równoważą tę wadę. Właściwości SiC są znane od ponad 10 lat, jednak musiała minąć więcej niż dekada, by udało się wyprodukować odpowiedniej jakości tani układ scalony wykorzystujący ten materiał. Technologia szybko jednak idzie naprzód. W ubiegłym roku informowaliśmy o prototypowym układzie, który wytrzymał 1700 godzin w temperaturze 500 stopni. Niedawno identyczna kość pracowała w takich samych warunkach już przez ponad 5000 godzin. Podczas projektowania takiej kości jednym z największych wyzwań było stworzenie metalowych nóżek, dzięki którym układ komunikuje się zresztą systemu. Pracujący dla NASA Robert Okojie zbudował odpowiedni połączenia, które podczas testów wytrzymały wiele tysięcy godzin w temperaturze 500 stopni Celsjusza. Pierwszy układ z węgliku krzemu zostanie wykorzystany do monitorowania ruchu liniowego wewnątrz silnika odrzutowego.
-
Poniższa wiadomość to nasz żart primaaprilisowy. Wydział Nauk Biologicznych Polskiej Akademii Nauk rozpoczął jakiś czas temu prace nad rewitalizacją tura (Bos primigenius), przodka bydła domowego. Swoją pomoc zadeklarowali Szkoci z Roslin Institute w Edynburgu, którym udało się sklonować kilka gatunków zwierząt, między innymi owcę Dolly. Ostatnia sztuka tura (samica) zmarła w 1627 roku za panowania Zygmunta III Wazy. Gatunek wytępiono przez nadmierne polowania i kłusownictwo. Do pewnego momentu turom żyło się jak u pana Boga za piecem, ponieważ w Puszczy Jaktorowskiej na mocy traktatów książęcych opiekowali się nimi królewscy nadzorcy. Gdy skończył się okres ochronny, a choroby zakaźne zaczęły zbierać krwawe żniwo, w połowie XVI wieku liczebność populacji skurczyła się do 50 osobników. Archeolodzy ubolewają nad tym, że udało się odnaleźć tak niewiele pozostałości po tym wymarłym ssaku z rodziny pustorożców. Niedawno dokonano jednak sensacyjnego odkrycia. Podczas renowacji insygniów królewskich w muzeum na Wawelu pod rubinem w berle zauważono wydrążenie. Było zbyt duże, by mogło zostać stworzone przez jubilera podczas osadzania kamieni szlachetnych. Okazało się, że wewnątrz umieszczono jak relikwię niewielki fragment kości tura i zwój pergaminu z opisem wytępionego gatunku. Dr Mańkowski opowiada, że po ich zobaczeniu od razu przypomniało mu się współczesne przesłanie do ewentualnych mieszkańców kosmosu, które wysłaliśmy w przestrzeń razem z sondą. Król pomyślał chyba o tym samym. Skoro nie przeżyło żadne zwierzę, chciał przynajmniej zachować dla potomnych jego kości. Zapobiegliwość Zygmunta III Wazy bardzo ucieszyła genetyków z PAN-u, którzy mogli zacząć prace nad wyodrębnieniem DNA, a następnie klonowaniem.
-
Seagate informuje o wyprodukowaniu 3,5-calowego dysku twardego, który pozwala na zapisanie 180 gigabitów danych na calu kwadratowym. To największa osiągnięta dotychczas gęstość upakowania danych. Pojedynczy talerz dysku może pomieścić 250 GB informacji. Dzięki upakowaniu większej ilości danych na calu kwadratowym powierzchni amerykańska firma oddala moment, w którym współczesne technologie produkcji dysków twardych odejdą do lamusa. Ponadto bardziej gęsty zapis oznacza, że do produkcji bardziej pojemnych HDD będzie można wykorzystać mniejszą liczbę talerzy, co z kolei pozwala na zredukowanie hałasu i ciepła generowanego przez pracujące urządzenie. Czyni je również bardziej niezawodnym.
-
Redaktorzy serwisu The Inquirer przeprowadzili testy karty GeForce 8800GTX i porównali jej wydajność z dwoma kartami ATI X1950 XTX pracującymi w trybie CrossFire. Okazuje się, że w wykorzystującej biblioteki OpenGL grze Quake 4 procesor Nvidii jest szybszy od dwóch układów ATI! GeForce 8800GTX był w stanie wyświetlić więcej klatek w ciągu sekundy w każdej z testowanych rozdzielczości. Karty wyposażone w procesory ATI okazały się słabsze również wówczas, gdy włączono ośmiokrotne filtrowanie anizotropowe (AF) i czterokrotny antyaliasing (FSAA). Filtrowanie anizotropowe to technologia filtrowania tekstur na obiektach trójwymiarowych, której zadaniem jest ich wyostrzenie, a tym samym poprawa jakości całej grafiki. Z kolei FSAA to inaczej pełnoekranowe wygładzanie krawędzi – technologia odpowiedzialna za wygładzanie krawędzi obiektów trójwymiarowych. Obie technologie bardzo obciążają procesor graficzny, szczególnie wtedy, gdy wykorzystywane są jednocześnie. Układy ATI były bardziej wydajne w grze FEAR z wyłączonymi FSAA i AF. Potrafiły pokazać 7-8 klatek w ciągu sekundy więcej. Jednak w rozdzielczościach 1600x1200 i wyższych lepsza okazała się karta GeForce 8800GTX. Nvidia przegrała też minimalnie po włączeniu czterokrotnego FSAA i 16-krotnego AF. Wówczas karty konkurencji wyświetlały 3-4 klatek więcej. Okazuje się więc, że jeden procesor GeForce 8800GTX potrafi być bardziej wydajny niż dwa najnowsze układy ATI. Tą drugą firmę czeka wiele pracy. Czy wykona ją dobrze przekonamy się w przyszłym roku, gdy zadebiutuje układ R600.