-
Liczba zawartości
37629 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Naukowcy z MIT dokonali kolejnego ważnego odkrycia w dziedzinie biologii molekularnej. Badając jedną z bakteryjnych protein, odkryli oni, dlaczego spełnia ona znacznie więcej funkcji niż inne białka podobnej wielkości. Zespół prof. Grahama Walkera odkrył, że białko zwane UmuD należy do nowo odkrytej kategorii "białek wewnętrznie nieuporządkowanych" (ang. intrinsically disordered proteins). Mimo iż białko UmuD występuje w komórkach bakteryjnych, może mieć istotne znaczenie dla zrozumienia niektórych ludzkich chorób. Dzięki temu odkryciu jesteśmy o krok bliżej od zrozumienia funkcji tzw. translesion DNA polymerases (w wolnym tłumaczeniu: polimeraz DNA kopiujących mimo pęknięć), nietypowego rodzaju polimeraz ludzkiego DNA. Są to białka zdolne do kopiowania ludzkiego DNA, lecz - w przeciwieństwie do "klasycznych" polimeraz - są one w stanie kopiować materiał genetyczny nawet z pękniętego chromosomu. Dzięki temu możliwe jest zachowanie całej informacji genetycznej komórki i zapewnienie jej przeżycia nawet przy rozległym uszkodzeniu DNA. Z drugiej jednak strony, proces ten zawsze prowadzi do powstania nowych mutacji w miejscu "naprawionego" uszkodzenia. Może to prowadzić do sytuacji, w której komórka - zamiast obumrzeć w wyniku uszkodzenia DNA - złośliwieje i staje się zalążkiem nowotworu. Z powodu złożonej funkcji translesion DNA polymerases mogą być istotne dla rozwoju tych chorób. UmuD, tak jak każde inne białko, musi przejść proces tzw. składania, zanim osiągnie zdolność do pełnienia swojej funkcji. O analogicznym procesie w przypadu cząsteczek RNA pisaliśmy niedawno. Co jest jednak ciekawe, białka wewnętrznie nieuporządkowane nie posiadają ściśle zdefiniowanej struktury przestrzennej stąd wzięła się ich nazwa). Dzięki temu, że mają pewną dowolność tworzenia struktur, mogą wiązać znacznie więcej rodzajów cząsteczek w porównaniu do "klasycznych" białek podobnej wielkości. [One] posiadają pewną strukturę, lecz rozumianą inaczej, niż do tej pory nam się wydawało - mówi prof. Walker. W dużych stężeniach, przy których - ze względów technicznych - przeważnie wykonuje się analizy struktury białek, UmuD tworzy zazwyczaj tzw. strukturę harmonijkową. Okazuje się jednak, że dzięki zastosowaniu nowej techniki, możliwe było zbadanie kształtu cząsteczek przy stężeniu występującym naturalnie w komórce bakteryjnej. Zaskakujący jest fakt, że w takich warunkach białko to tworzy przypadkowe zwoje zamiast uporządkowanej struktury. Dalsze badania wskazują, iż białka wewnętrznie nieuporządkowane po połączeniu z innymi proteinami mogą zmienić kształt, co umożliwia im kontakt z innymi molekułami. W ten sposób powstaje chronologiczna sekwencja konfiguracji atomów tego białka. Dodatkowo, pomimo dość "luźnej" struktury, proteina ta występuje przeważnie w parach (dimerach). Sugeruje to, że istnieje pewna preferowana struktura, bardziej prawdpodobna od innych. Nadal nie wiadomo jednak, jakie mechanizmy regulują powstawanie poszczególnych form białka UmuD. Odkrycie dokonane w MIT może rzucić nowe światło na rolę UmuD w tzw. systemie SOS, aktywowanym w komórkach bakteryjnych po rozległych uszkodzeniach DNA. Polega on na działaniu mechanizmów naprawy DNA "za wszelką cenę": aktywowane są wszelkie mechanizmy naprawcze, włącznie z tymi, które odtwarzają ciągłość DNA kosztem rozległych mutacji. Jednym z typów "białek systemu SOS" są właśnie wspomniane wcześniej translesion DNA polymerases. Proces działania tych protein przeżywają bardzo nieliczne komórki, lecz często są one wówczas znacznie silniejsze niż przed zadziałaniem szkodliwego czynnika (można podejrzewać, że w analogicznej sytuacji u człowieka powstaje nowotwór). Z kolei rolą białka UmuD w systemie SOS jest m.in. interakcja właśnie z takim typem polimeraz oraz regulacja ich aktywności i zdolności do wiązania DNA. Oprócz naukowców z MIT, w projekcie brali udział badacze z Uniwersytetu Federalnego w Rio de Janeiro w Brazylii. Szczegółowa publikacja dotycząca tego zagadnienia ukazała się w czasopiśmie Proceedings of the National Academy of Sciences.
-
Papugi kakapo nie wyginą! Udało się je uratować z pomocą biologów z Uniwersytetu w Glasgow. Zielono upierzone kakapo (Strigops habrotilus) to nieloty zamieszkujące Nową Zelandię. Są roślinożerne i prowadzą nocny tryb życia. Zmiany środowiskowe i wprowadzenie polujących na nie ssaków doprowadziły do tego, że w 1995 roku liczebność gatunku spadła do 51 osobników. Papugi te bardzo rzadko wyprowadzają lęgi. Dzieje się tak, ponieważ karmią pisklęta owocami dwóch endemicznych drzew: sosny Halocarpus biformis oraz rimu (Dacrydium cupressinum), a owocują one tylko raz na 2 do 6 lat. W międzyczasie ptaki żywią się liśćmi, trawami i ziołami, w których nie ma wystarczających ilości składników odżywczych do wykarmienia młodych. Biolodzy środowiskowi i ewolucyjni z Glasgow współpracowali z nowozelandzkim Departamentem Ochrony Środowiska. Stworzyli suplement, dzięki któremu kakapo miały składać więcej jaj nawet w tzw. latach chudych (gdy nie owocowały ich ulubione drzewa). Kakapo rozmnażały się niechętnie. Kiedy zbadaliśmy pożywienie, zaczęliśmy podejrzewać, że należy za to obwiniać ich menu. Składanie jaj to wymagający okres dla ptaków. Aby wyprodukować jaja dobrej jakości, potrzebują określonych składników odżywczych. Podczas eksperymentów podawaliśmy suplementy ze wszystkimi substancjami, których, wg nas, brakowało w diecie papugi. Chcieliśmy w ten sposób sprawdzić, czy uda nam się wpłynąć na jej rozmnażanie. Okazało się, że samice zażywające tabletki składały znacznie więcej jaj. W 2002 roku, pierwszym roku suplementacji, złożyły łącznie 67 jaj – wyjaśnia David Houston, profesor zoologii z Uniwersytetu w Glasgow. Kakapo nadal są zagrożone wyginięciem. Ponieważ rozmnażają się nieregularnie, proces "wychodzenia na prostą" będzie długi.
-
IBM we współpracy z austriacką firmą VDEL oraz z LX Polska zaoferuje na terenie Rosji peceta "wolnego od Microsoftu". Maszyna będzie sprzedawana z preinstalowanym systemem firmy Red Hat i IBM-owskim pakietem biurowym Lotus Symphony. Sprzęt będzie produkowany i dostarczany przez partnerów VDEL i LX Polska. Błękitny Gigant zapewnia, że komputery z rodziny Open Referent będą o połowę tańsze, niż tradycyjne maszyny. Wbrew pozorom nie chodzi tutaj, a przynajmniej nie bezpośrednio, o rozpropagowanie opensource\'owego systemu na rynku konsumenckim. Gra toczy się o wyższą stawkę. W Rosji wiele firm i instytucji państwowych po raz pierwszy buduje swoje wielkie sieci. Rynek Federacji jest więc bardzo atrakcyjny dla producentów oprogramowania. Microsoft już zaangażował się w Rosji w kampanie edukacyjne, a w ubiegłym miesiącu podpisał umowę z największym rosyjskim operatorem komórkowym. Dzięki niej małe firmy będą mogły korzystać z tańszych laptopów z preinstalowanym systemem Vista. Opensource\'owi rywale giganta z Redmond też nie zasypiają gruszek w popiele i próbują przedstawić Rosjanom swoje produkty. Robią to na tyle skutecznie, że opensource\'owe pecety zamówiło już Ministerstwo Obrony, Aerofłot i Alfa Bank. Trzeba przy tym pamiętać, że zatrudnieni w firmach i instytucjach, którzy zetkną się w pracy z danym rozwiązaniem, chętniej skorzystają z niego w domu. Wynik walki o rynek przedsiębiorstw przełoży się w przyszłości na rynek użytkownika indywidualnego.
-
Darul Uloom Deoband, wpływowa konserwatywna islamska szkoła teologiczna w indyjskim stanie Uttar Pradesz wydała dekret (fatwę), który dopuszcza zawieranie ślubów przez Internet. Wystarczy, by małżonkowie widzieli się za pośrednictwem kamer. Internet spełnia rolę prawnika i, jako taki, jest formalnie zdolny do nadzorowania zarówno „ljaab” (złożenie oferty) jak i „Qabool” (przyjęcia jej przez pannę młodą) – oświadczył duchowny Khalid Safiullah Rehmani. Islamscy duchowni debatowali nad ważnością internetowych ślubów od 2005 roku, gdy w miejscowości Lucknow zawarto pierwszy tego typu kontrakt małżeński. Szkoła Deoband ma duże wpływy w Azji Południowej. Znana jest ze swojego konserwatywnego podejścia do kwestii płci. Niedawno jej klerycy ogłosili, że dziewczynki nie powinny uczęszczać do koedukacyjnych szkół. Teraz zgodzili się na internetowe małżeństwa, pod warunkiem, że będzie przestrzegane islamskie prawo, a to wymaga, by prócz prawnika (tutaj: Internetu) obecnych było jeszcze dwóch świadków.
-
Jeden z kanadyjskich uniwersytetów postanowił wykorzystać fakt, że dzieci lubią gry i spędzają całe godziny przed ekranem komputera. Jego pracownicy opracowali grę, której bohaterowie ścigają statkiem kosmicznym złodziei manuskryptu Szekspira. Przy okazji grający poznają życiorys pisarza i fragmenty jego dzieł. Oficjalna premiera gry nastąpiła przed kilkoma dniami w rocznicę śmierci Szekspira. Specjaliści pracowali nad nią przez dwa lata, a jej stworzenie kosztowało 44 800 dolarów, co jest niewielką sumą, w porównaniu z budżetami współczesnych gier. W grze "Speare” znajduje się też odnośnik do Canadian Adaptations of Shakespeare, bazy danych dotyczących pisarza. Znajdują się w niej m.in. konspekty dla nauczycieli, filmy wideo dotyczące Szekspira oraz elektroniczne wersje jego dzieł. "Speare” pomagała stworzyć firma ApolloGames. Na jej stronie można pobrać demonstracyjną wersję gry lub zakupić oryginał.
-
Wizje pisarzy science-fiction i reżyserów takich jak George Lucas są coraz bliższe realizacji. W ciągu najbliższych lat na polach bitew prawdopodobnie pojawią się żołnierze wyposażeni w laserowe karabiny. Stany Zjednoczone wydają miliony dolarów na badania nad laserową bronią i już wkrótce może ona zostać tak zminiaturyzowana, że znajdzie się na wyposażeniu każdego żołnierza. USA prowadzą prace nad bronią laserową od 1972 roku. Mimo upływu 35 lat broń laserowa jest tak duża, że musi być montowana na ciężarówkach lub w samolotach. Służy do zwalczania rakiet przeciwnika, a nie do walki z jego żołnierzami. Osobista broń laserowa będzie niezwykle niebezpiecznym rodzajem dłoni. Karabin korzystający z promienia światła będzie w stanie wypalić w żołnierzu przeciwnika dziurę o średnicy ponad pół centymetra. Będzie to wymarzona broń dla snajperów. W przeciwieństwie do tego, co widzieliśmy w „Gwiezdnych wojnach” nie będzie widocznego promienia, więc pozycja strzelca nie zostanie zdradzona. Co więcej jej zasięg wyniesie około 8 kilometrów, a że promień lasera porusza się po linii prostej (tor lotu kuli jest parabolą) i podróżuje z prędkością światła, trafienie jest niemal pewne tak długo, jak cel pozostaje widoczny. Oczywiście takiej broni jeszcze nie ma, a przed naukowcami, którzy nad nią pracują, stoi kilka poważnych wyzwań. Lasery, które obecnie stosowane są jako broń, to przede wszystkim lasery chemiczne. Zyskują one energię dzięki gwałtownym reakcjom chemicznym, dzięki którym osiągają moc rzędu megawata. Główne ich wady to problem z przechowywaniem chemikaliów powodujących korozję oraz niebezpieczny dym wydobywający się podczas wykorzystywania lasera. Dlatego też najbardziej prawdopodobnym kandydatem do zastosowania w broni osobistej jest laser bazujący na ciele stałym. Ten najstarszy typ laserów jest obecnie powszechnie używany. Wykorzystuje się go od usuwania tatuaży po operacje okulistyczne. Lasery na ciele stałym korzystają z energii elektrycznej. Oczywiście laser, który żołnierz mógłby trzymać w ręku, nie osiągnie mocy megawata – nie istnieją bowiem na tyle zminiaturozowane źródła energii. Jednak najprawdopodobniej tak olbrzymia moc nie byłaby potrzebna. Żołnierzom piechoty wystarczą być może lasery o mocy jednego kilowata. W tej chwili są dostępne 100-kilowatowe lasery produkcji Boeinga i Grunmana. Mieszczą się one na platformie samochodu ciężarowego. Ich zminiaturyzowania do rozmiarów karabinu należy spodziewać się w ciągu 2 (to ocena optymistów) do 10 (tak twierdzą pesymiści) lat.
-
Poniższa wiadomość to nasz żart primaaprilisowy. Gdy przed kilkoma miesiącami Microsoft i Novell podpisały swoje głośnie porozumienie o współpracy, niemal natychmiast pojawiły się plotki, że podobną umowę z Microsoftem mogą zawrzeć inne firmy, w tym Red Hat. Pogłoski te wydają się obecnie potwierdzać. Na stronach Microsoftu przypadkowo pojawiła się informacja, datowana na 3 kwietnia, o porozumieniu pomiędzy koncernem Gatesa a producentem popularnej dystrybucji Linuksa. Podobną informację zawarł Red Hat w kwartalnym raporcie złożonym amerykańskiej Komisji Giełd i Papierów Wartościowych. Umowa przewiduje wymianę technologii, licencji oraz patentów. Przewidziano w niej również, że obie firmy będą chroniły siebie i swoich klientów przed pozwami o naruszenie własności intelektualnej jakiejkolwiek ze stron. Microsoft zobowiązał się ponadto do zatrudnienia w Redmond co najmniej 30 dotychczasowych pracowników Red Hata, którzy zasilą microsoftowe Centrum Pomocy oraz będą współpracowali z inżynierami giganta w celu dostosowania produktów obu firm. Umowa przewiduje też, że w ciągu 5 lat Microsoft zapłaci Red Hatowi 436 milionów dolarów, a Red Hat zobowiązał się do udostępnienia swoich kanałów dystrybucyjnych produktom Microsoftu. W opublikowanych przypadkowo dokumentach znalazło się również stwierdzenie, że rady nadzorcze obu firm nie sprzeciwiają się dalszemu zacieśnianiu współpracy. Zdaniem części analityków może być to zapowiedź przejęcia Red Hata przez Microsoft. Inni z kolei zwracają uwagę, iż umowa pomiędzy obiema firmami przewiduje współpracę w węższym zakresie niż ta pomiędzy Novellem a Microsoftem i rady nadzorcze jedynie dały zarządom wolną rękę w jej rozszerzeniu. Przedstawiciele Microsoftu i Red Hata odmówili komentarzy na temat umowy.
-
The Inquirer donosi, iż w ramach IBM-owskiego programu badawczego Extreme Blue powstało oprogramowanie, które pozwoli niesłyszącym korzystać z telefonu komórkowego. Wypowiadane przez rozmówcę słowa są przekładane na język migowy i pokazywane na ekranie. Aplikacja jest w tej chwili całkowicie zależna od serwera. Przygotowuje on odpowiedni strumień wideo na którym cyfrowo generowana postać pokazuje poszczególne znaki. Uczeni mają nadzieją, że Sisi (od: say it, sign it) będzie można przygotować w formie aplikacji Java, która będzie instalowana w samych telefonach. Jeśli tak się stanie, osoby niesłyszące będą mogły bez przeszkód korzystać z „komórek”.
-
W przyszłym roku klienci Forda będą mogli zażyczyć sobie opcjonalnego zamontowania w samochodzie radaru pilnującego tzw. martwego punktu. Przypomnijmy, że jest to punkt w którym widoczny w lusterku bocznym wyprzedzający nas samochód nagle znika z pola widzenia. Problem martwego punktu jest też rozwiązywany za pomocą specjalnych lusterek. Te staną się standardowym wyposażeniem modeli Lincoln i Mercury. Ford zaproponuje ponadto radar korzystający z pasma 24 GHz. W USA jest ono przeznaczone dla radarów o krótkim zasięgu, więc firma nie będzie miała problemów z uzyskaniem odpowiedniej zgody na jego wykorzystanie. Radar Forda będzie badał obszar, który nie jest widoczny w lusterku. Gdy wykryje tam samochód, w lusterku z odpowiedniej strony zacznie migać kontrolka, informując kierowcę o znajdującym się tam samochodzie. Niewykluczone, że system zostanie wyposażony też w alarm dźwiękowy. Spora część kierowców z zadowoleniem wita zmiany poprawiające bezpieczeństwo. Gdy testowano nowe lusterka, w których nie istnieje martwy punkt, aż 76% osób było z nich zadowolonych i stwierdziło, że zwiększyły one bezpieczeństwo. Nowy radar znajdzie się w ofercie Forda na początku przyszłego roku.
-
Na pustyni na zachodzie Egiptu archeolodzy odnaleźli coś, co może być najstarszym śladem ludzkiej stopy. Jak poinformował sekretarz generalny Egipskiej Służby Starożytności (SCA) Zahi Hawass, ma on ok. 2 milionów lat. Wg niego, niewykluczone, że to najważniejsze odkrycie, jakiego dokonano na terenie kraju. Ktoś przemierzający te obszary wiele, wiele lat temu odcisnął kontur swojej stopy w błocie. Ślad ten uległ następnie petryfikacji. Naukowcy ujrzeli go, pracując w oazie Siwa. Aby określić dokładny wiek znaleziska, naukowcy zbadają metodą datowania węglowego rośliny zachowane w tej samej skale. Khaled Saad, szef wydziału prehistorii w SCA, uważa, że bazując na wieku skały, w której znaleziono ślad stopy, można zaryzykować stwierdzenie, że jest starszy od szkieletu człokokształtnej Lucy, odbywającej obecnie podróż po Stanach Zjednoczonych. Fragmenty jej kośćca znaleziono w 1974 roku w Etiopii. Uważa się, że "dziewczyna" żyła 3 mln lat temu. Wykopaliska w Egipcie koncentrują się głównie na czasach faraonów, tymczasem, jak widać, kraj ten może się poszczycić jeszcze starszymi artefaktami. Poprzednie najstarsze prehistoryczne znalezisko liczyło sobie 200 tys. lat.
-
Programiści wykonali imponującą pracę. Na potrzeby Visty powstało 30 tysięcy sterowników, system był pisany ponoć dwukrotnie (po trzech latach pracy pierwszą jego wersję wyrzucono podobno do kosza), a koszty jego wyprodukowania szacuje się na 6 miliardów dolarów. Powstaje więc pytanie – czy było warto? Początkowo z Vistą wiązano nadzieje na pojawienie się kilku bardzo interesujących technologii. Miał więc zadebiutować nowy system plików (zapowiadany przez Microsoft) czy środowisko skryptowe nowej generacji Monad (nieoficjalne pogłoski mówiły, że będzie ono włączone do Visty). Obecnie wiadomo już, że Vista nie przynosi ze sobą żadnego przełomu. Systemowi nie można nic szczególnego zarzucić, ale nie ma też powodu, by go szczególnie chwalić. Vista pracuje co prawda bardziej stabilnie niż Windows XP ale i starszy system Microsoftu pracuje właściwie bez zastrzeżeń, więc ta zwiększona stabilność dla przeciętnego użytkownika będzie niezauważalna. Microsoft podkreśla, że Vista to najbardziej bezpieczny spośród wszystkich systemów Windows. To niewątpliwie prawda, jednak nawet sam koncern z Redmond zauważa, że użytkownicy powinni używać oprogramowania antywirusowego i innych systemów zabezpieczających. Ponadto należy przypomnieć starą prawdę, że system jest na tyle bezpieczny, na ile rozsądny jest jego użytkownik. Musimy oddać jednak Microsoftowi sprawiedliwość – znacząco poprawiono bezpieczeństwo i wprowadzono nowoczesne technologie pozwalające spać spokojnie posiadaczom Visty. Jest tylko jedno ale... Technologie te przygotowano przede wszystkim z myślą o firmach, spotkamy je więc w edycjach biznesowych oraz edycjach 64-bitowych. Przeciętny użytkownik, który będzie chciał znacząco poprawić bezpieczeństwo swojego systemu, albo powinien kupić biznesową wersję Visty, albo w wersji domowej zastosować dodatkowe oprogramowanie zabezpieczające. Na temat bezpieczeństwa nowego OS-u krążą różne informacje, a prawdziwą wartość wbudowanych przez Microsoft zabezpieczeń poznamy zapewne w ciągu kilkunastu miesięcy, gdy Vista przejdzie swój "rynkowy chrzest bojowy”. Specjaliści są zgodni, co do tego, że jeśli nie mamy zamiaru wymieniać sprzętu i jesteśmy zadowoleni z naszego Windows XP to nie mamy najmniejszego powodu, by instalować Vistę. Instalację Visty powinny rozważyć osoby, które kupują nowy komputer. Powinny jednak pamiętać przy tym, że Vista jest systemem bardziej wymagającym od Windows XP oraz o tym, że nie ma jeszcze zbyt wielu programów zoptymalizowanych pod kątem współpracy z Vistą, co niewątpliwie dodatkowo spowolni ich działanie. Czytaj również: Debiut Windows Visty Windows Vista: test wydajności
-
Najbardziej energooszczędnymi superkomputerami na Ziemi są dwie maszyny produkcji IBM-a. Dwa pierwsze miejsca na liście Green500 zajęły Blue Gene/Q Prototype 2 i Prototype 1. Maszyna Prototype 2 osiągnęła wydajność 2097 megaflopsów na każdy wat pobieranej energii. Tym samym po raz pierwszy w historii przekroczono granicę 2 GFlops/wat. Pół roku temu na Green500 dominował BlueGene/Q Prototype 1, który obecnie uplasował się na drugiej pozycji z wynikiem 1684 MFlops/wat. Najbardziej wydajny superkomputer, który znajduje się na czele listy TOP500, czyli japoński K zajął szóste miejsce na Green500 z wynikiem 824 MFlops/wat. Pomiar wydajności w stosunku do pobieranej energii jest coraz ważniejszym wskaźnikiem w świecie superkomputerów. W miarę jak stają się one coraz potężniejsze, szybko rosnące zapotrzebowanie na energię powoduje, iż coraz częściej pojawiają się pytanie o opłacalność inwestowania w superkomputery. Stąd olbrzymie zainteresowanie zwiększeniem wydajności na wat. Doktor Wu-chun Feng, założyciel listy Green500 mówi, że można zauważyć znaczny postęp w tej dziedzinie. W ciągu ostatnich sześciu miesięcy średnia wydajność systemów na Green500 zwiększyła się z 230 do 256 megaflopsów na wat, czyli wzrosła o 11 procent - stwierdził Feng. Jeszcze większy wzrost wydajności można zauważyć w systemach korzystających z GPU. Wzrosła ona z 573 do 707 MFlops/wat. Siedemdziesiąt procent z 20 najbardziej wydajnych superkomputerów wykorzystuje GPU - dodał. Postęp jest rzeczywiście olbrzymi. Przed czterema laty, gdy opublikowano pierwszą edycję Green500, najbardziej wydajny system - IBM-owski Blue Gene - mógł się poszczycić wynikiem 357 MFlops/wat.
-
<!-- @page { size: 21cm 29.7cm; margin: 2cm } P { margin-bottom: 0.21cm } --> Obrońcy przyrody sprzeciwiający się połowom wykorzystującym tzw. trałowanie denne, właśnie otrzymali nowe argumenty na swoją korzyść. Kolejnych dowodów potwierdzających niszczycielski wpływ trałowców na środowisko dostarczył satelita Landsat. Wykonane za jego pomocą zdjęcia ukazują skłębione pióropusze osadów ciągnące się za tymi statkami. Mimo niewielkich rozmiarów tych jednostek, podwodne chmury są ogromne, bardzo długo się utrzymują i zakłócają działanie całego morskiego ekosystemu. Wśród skutków trałowania wymienia się m.in. niszczenie raf koralowych, dewastację dna morskiego oraz wyłapywanie gatunków zwierząt, które nie są celem połowu. Według zoologów, widoczne z satelity ślady to jedynie czubek góry lodowej – znaczna część statków tego rodzaju działa na głębszych akwenach, gdzie zniszczenia nie są tak łatwe do zaobserwowania. Mimo wprowadzenia licznych zakazów i ograniczeń, problem wciąż jest poważny, zwłaszcza na obszarze Zatoki Meksykańskiej, u wybrzeży Ameryki Południowej i po atlantyckiej stronie Afryki. Stanem środowiska nie przejmują się także trałowce operujące na Morzu Północnym oraz na wodach należących do Chin. Jak widać, przed ekologami wciąż jeszcze wiele pracy.
-
Amerykańskie prawo patentowe od lat budzi kontrowersje i od dawna pojawiają się głosy o konieczności jego zmiany. Koalicja gigantów IT, w skład której wchodzą m.in. Microsoft, Google, Dell, Intel, Amazon czy HP i eBay, proponuje reformę tego prawa. Koncerny argumentują, że w obecne formie pozwala ono na rejestrowanie wątpliwych wynalazków i powoduje, że dochodzi do dyskusyjnych sądowych ugód. Zmianom proponowanym przez gigantów IT przeciwstawiają się jednak niemal wszystkie inne firmy i gałęzie przemysłu. Są wśród nich nie tylko firmy, które działają na innych rynkach, ale także małe przedsiębiorstwa z branży IT. Prawnicy reprezentujący przemysł biotechnologiczny, uczelnie wyższe, małych wynalazców czy firmy specjalizujące się w licencjonowaniu patentów mówią, że propozycje Microsoftu i Google\'a faworyzują gigantów IT i działają na szkodę mniejszych firm oraz innych branż. Przeciwnicy proponowanych zmian przyznają, że są one konieczne, ale nie powinny być tak daleko idące, gdyż działają tylko na korzyść wielkich koncernów. W USA istnieje sporo małych firm, które są posiadaczami wielu patentów, ale zdecydowały się nie wypuszczać na rynek żadnego produktu, tylko udzielają licencji wielkim firmom. Koncerny nazywają ich "trollami patentowymi" i próbują z nimi walczyć. Tymczasem przedstawiciele tych firm mówią, że nie ma żadnego dowodu na to, by Biuro Patentowe zbyt lekkomyślnie rozdawało patenty. Nie można też, ich zdaniem, twierdzić, że obecny system jest szkodliwy. A takie zarzuty pojawiają się w argumentacji gigantów. Jednocześnie przyznają, że trzeba uprościć procedury sądowe. Wielkie koncerny odniosły sukces we wrześniu, kiedy to Izba Reprezentantów przyjęła proponowane przez nie zmiany. Teraz ustawę rozpatruje Senat, który ma podjąć decyzję jeszcze w bieżącym miesiącu. Spór toczy się, oczywiście, o pieniądze. Wielkie koncerny IT chcą, by sądy, wyliczając odszkodowanie dla właściciela patentu, który został naruszony, brały pod uwagę stosunek wartości tego patentu w całym produkcie. Produkty koncernów IT zwykle korzystają z technologii, które w sumie chronione są setkami czy tysiącami patentów. Nowe rozwiązanie oznacza więc, że właściciel patentu, którego prawa zostały naruszone przez koncern IT, otrzyma odszkodowanie, którego wartość będzie setki lub tysiące razy mniejsza od wartości produktu naruszającego patent. To nie podoba się małym firmom, które uważają, że w ten sposób ich dochody znacząco spadną, same firmy stracą na wartości i zostaną pozbawione zysków, które są im należne. Małe firmy argumentują, że należy do nich 60% wszystkich przyznanych patentów, ale aż 99% zysków z patentów wędruje do kieszeni wielkich koncernów. Nowe przepisy tylko zmienią sytuację na ich niekorzyść. Moses Mares, prawnik kontrowersyjnej firmy Acacia Technologies, mówi, że propozycje gigantów IT dążą do tego, by objęli oni 100% wpływów z patentów. Możemy skończyć tak, jak Chiny, gdzie istnieje olbrzymia liczba firm produkcyjnych, ale nie są one innowacyjne, bo innowacyjność się tam nie opłaca - stwierdził Mares. Fundusze inwestycyjne nie dadzą pieniędzy przedsiębiorstwom, które nie będą mogły patentować własnych pomysłów.
-
Szkodliwe środki "na grypę i przeziębienie"
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Amerykańska Agencja ds. Żywności i Leków (FDA) ostrzega rodziców, by nie podawali dzieciom poniżej 2. roku życia lekarstw na kaszel i przeziębienie, które można kupić bez recepty. Ich zażycie może zagrozić życiu najmłodszych. Agencja otrzymuje, rzadkie co prawda, informacje o zgonach, konwulsjach, utracie przytomności i gwałtownym wzroście ciśnienia krwi, występujących po spożyciu wspomnianych środków. Charles Ganley, dyrektor Biura ds. Produktów Nierecepturowych, powiedział, że nie udowodniono, by tego typu środki były bezpieczne i skuteczne u dzieci poniżej 2. roku życia. FDA podkreśla jednocześnie, że powyższe zalecenie nie dotyczy dzieci w wieku 2-11 lat. Agencja ciągle bada wpływ wspomnianych lekarstw na osoby w tym wieku. Po zakończeniu badań zostanie wydany stosowne zalecenie. Na razie, w przypadku dzieci pomiędzy 2. a 11. rokiem życia FDA zaleca:ściśle trzymać się dawek podawanych na opakowaniach leków wydawanych bez recepty;pamiętać, że środki te NIE leczą ani NIE skracają okresu gorączkowania;sprawdzić na ulotce, jaki jest środek czynny w danym lekarstwie;do odmierzania dawek używać tylko i wyłącznie miarek dołączonych do opakowania. Każdą wątpliwość należy wyjaśnić z lekarzem. -
Pierwsza desktopowa płyta główna z otwartym BIOS-em
KopalniaWiedzy.pl dodał temat w dziale Technologia
Pracujący w AMD inżynier Yinghai Lu opublikował na licencji GPL kod źródłowy BIOS-u płyty głównej M57SLI-S4 firmy Gigabyte. To pierwszy w historii przypadek pojawienia się desktopowej płyty głównej z opensource\'owym BIOS-em. Wiadomość ta ucieszyła zwolenników Linuksa, gdyż dzięki temu będą mogli np. przeprogramować BIOS tak, by płyta główna lepiej spełniała ich wymagania. M57SLI-S4 to płyta dla procesorów AMD korzystających z podstawki AM2. Wyposażono ją w chipset nForce 570 SLI, cztery gniazda pamięci DDR2, dwa złącza PCI Express 16x, trzy PCI Express 1x. Można do niej podłączyć do 6 urządzeń SATA II i skorzystać z macierzy RAID. Producent zastosował również 10 portów USB 2.0, trzy FireWire itp. Na razie nie wiadomo, czy entuzjastom Linuksa uda się, dzięki przeprogramowaniu BIOS-u, zwiększyć wydajność płyty Gigabyte’a. Prawdopodobnie jednak już wkrótce dowiemy się o tym, że próbują oni zastosować otwarty BIOS do zaprogramowania kolejnych urządzeń. -
Uczeni odkryli największą ze znanych nam planet. Gazowy gigant jest zbudowany głównie z wodoru i okrąża gwiazdę odległą od Ziemi o 1400 lat świetlnych. Średnica nowo odkrytego ciała niebieskiego wynosi 1,7 średnicy Jowisza – największej planety Układu Słonecznego. Naukowcy uważają, że temperatura na powierzchni giganta wynosi 1260 stopni Celsjusza. Georgi Mandushev z Lowerll Obserwatory, który odkrył planetę, uważa, że na jej powierzchni nie ma żadnego fragmentu stałego lądu. TrES-4, bo taką nazwę zyskało ciało niebieskie, okrąża gwiazdę z gwiazdozbioru Herkulesa. Zdaniem akademików w tej samej konstelacji może znajdować się jeszcze druga planeta. To byłoby niesamowite – stwierdził Medushev. Lowell Obserwatory zyskało międzynarodowe uznanie w 1930 gdy jego pracownicy odkryli Plutona.
-
Najnowsze badania wykazały, że rynkowe udziały serwera Apache spadły poniżej 50%. Netcraft, firma specjalizująca się w monitorowaniu Internetu, zbadała ponad 100 milionów witryn WWW. Okazało się, że udział Apache’a w rynku serwerów web wynosi obecnie 48,42%, a udział microsoftowego IIS – 36,21. Podobne badania z listopada 2005 roku wykazały, że Apache ma 71% rynku, a Microsoft poniżej 20%. Apache traci udziały nie tylko na rzecz Microsoftu. Rynek jest mu odbierany także przez opensource’owy lighttpd (1,2% udziałów) i Google (4,4% rynku). Badacze zwracają jednak uwagę, że jeśli Microsoft będzie nadal podbijał rynek w takim tempie jak dotychczas, to w przyszłym roku będzie miał w nim tyle samo udziałów co Apache. Sytuacja Apache'a wygląda nieco lepiej jeśli weźmiemy pod uwagę fakt, że Google Server korzysta w dużej mierze z jego kodu. Netcraft objął badaniami niemal 128 milionów witryn i sprawdzał, przez jaki serwer są one obsługiwane.
-
Z nieoficjalnych danych przekazanych przez jednego z dystrybutorów wynika, że 12 lipca Sony o 100 dolarów obniży cenę konsoli PlayStation 3. Dotychczas cena PS3 była jedną z największych przeszkód na drodze do jej upowszechnienia się. Droższą wersję konsoli Sony będzie można kupić w cenie 499 dolarów. Wcześniej na tyle wyceniono wersję z 20-gigabajtowym dyskiem twardym. Konsumenci nie byli jednak zainteresowani zakupem urządzenia, więc Sony zaprzestało jego produkcji i na rynku pozostała PS3 z dyskiem o pojemności 60 GB oraz modułem łączności bezprzewodowej, która była wyceniana na 599 USD. Obecna obniżka ceny jest o tyle zaskakująca, iż nie spodziewano się, że dojdzie do niej tak szybko. Sony wybrało bardzo dobry moment na zmianę ceny. Microsoft – główny rywal na rynku wysoko zaawansowanych konsoli – przyznał właśnie, że w Xboksie 360 występuje nieakceptowalnie duży odsetek usterek i ocenił, że ich usunięcie będzie kosztowało firmę ponad miliard dolarów.
-
NASA ogłosiła, że jest gotowa do zastąpienia krzemowych układów scalonych chipami zbudowanymi z węgliku krzemu. Takie kości przydadzą się tam, gdzie panują wysokie temperatury, wytrzymują one bowiem nawet 540 stopni Celsjusza. Pierwsze komercyjnie dostępne układy, które wyprodukuje firma Inprox Technology, pojawią się pod koniec bieżącego roku. Zostaną one wykorzystane wewnątrz silników używanych przez NASA, gdzie posłużą do pomiaru różnych parametrów pracy tych urządzeń. Inprox zapowiada jednak, że Agencja nie będzie jedynym klientem firmy. Nowe kości zostaną zaoferowane również przemysłowi motoryzacyjnego. Obecnie NASA stosuje tradycyjne układy scalone, jednak muszą być one umieszczane z dala od silników lub też trzeba je schładzać cieczą. To powoduje, że system jest drogi, trudny w konstrukcji i mniej doskonały. Kości z węgliku krzemu (SiC) nie muszą być chłodzone nawet w temperaturze 500 stopni Celsjusza. Jedyną wadą tego materiału jest mniejsza wydajność układów związana z mniejszą mobilnością elektronów. Wynosi ona 900 cm2/V-s, podczas gdy w krzemie – 1500 cm2/V-s. Jednak inne zalety równoważą tę wadę. Właściwości SiC są znane od ponad 10 lat, jednak musiała minąć więcej niż dekada, by udało się wyprodukować odpowiedniej jakości tani układ scalony wykorzystujący ten materiał. Technologia szybko jednak idzie naprzód. W ubiegłym roku informowaliśmy o prototypowym układzie, który wytrzymał 1700 godzin w temperaturze 500 stopni. Niedawno identyczna kość pracowała w takich samych warunkach już przez ponad 5000 godzin. Podczas projektowania takiej kości jednym z największych wyzwań było stworzenie metalowych nóżek, dzięki którym układ komunikuje się zresztą systemu. Pracujący dla NASA Robert Okojie zbudował odpowiedni połączenia, które podczas testów wytrzymały wiele tysięcy godzin w temperaturze 500 stopni Celsjusza. Pierwszy układ z węgliku krzemu zostanie wykorzystany do monitorowania ruchu liniowego wewnątrz silnika odrzutowego.
-
Poniższa wiadomość to nasz żart primaaprilisowy. Wydział Nauk Biologicznych Polskiej Akademii Nauk rozpoczął jakiś czas temu prace nad rewitalizacją tura (Bos primigenius), przodka bydła domowego. Swoją pomoc zadeklarowali Szkoci z Roslin Institute w Edynburgu, którym udało się sklonować kilka gatunków zwierząt, między innymi owcę Dolly. Ostatnia sztuka tura (samica) zmarła w 1627 roku za panowania Zygmunta III Wazy. Gatunek wytępiono przez nadmierne polowania i kłusownictwo. Do pewnego momentu turom żyło się jak u pana Boga za piecem, ponieważ w Puszczy Jaktorowskiej na mocy traktatów książęcych opiekowali się nimi królewscy nadzorcy. Gdy skończył się okres ochronny, a choroby zakaźne zaczęły zbierać krwawe żniwo, w połowie XVI wieku liczebność populacji skurczyła się do 50 osobników. Archeolodzy ubolewają nad tym, że udało się odnaleźć tak niewiele pozostałości po tym wymarłym ssaku z rodziny pustorożców. Niedawno dokonano jednak sensacyjnego odkrycia. Podczas renowacji insygniów królewskich w muzeum na Wawelu pod rubinem w berle zauważono wydrążenie. Było zbyt duże, by mogło zostać stworzone przez jubilera podczas osadzania kamieni szlachetnych. Okazało się, że wewnątrz umieszczono jak relikwię niewielki fragment kości tura i zwój pergaminu z opisem wytępionego gatunku. Dr Mańkowski opowiada, że po ich zobaczeniu od razu przypomniało mu się współczesne przesłanie do ewentualnych mieszkańców kosmosu, które wysłaliśmy w przestrzeń razem z sondą. Król pomyślał chyba o tym samym. Skoro nie przeżyło żadne zwierzę, chciał przynajmniej zachować dla potomnych jego kości. Zapobiegliwość Zygmunta III Wazy bardzo ucieszyła genetyków z PAN-u, którzy mogli zacząć prace nad wyodrębnieniem DNA, a następnie klonowaniem.
-
Seagate informuje o wyprodukowaniu 3,5-calowego dysku twardego, który pozwala na zapisanie 180 gigabitów danych na calu kwadratowym. To największa osiągnięta dotychczas gęstość upakowania danych. Pojedynczy talerz dysku może pomieścić 250 GB informacji. Dzięki upakowaniu większej ilości danych na calu kwadratowym powierzchni amerykańska firma oddala moment, w którym współczesne technologie produkcji dysków twardych odejdą do lamusa. Ponadto bardziej gęsty zapis oznacza, że do produkcji bardziej pojemnych HDD będzie można wykorzystać mniejszą liczbę talerzy, co z kolei pozwala na zredukowanie hałasu i ciepła generowanego przez pracujące urządzenie. Czyni je również bardziej niezawodnym.
-
Redaktorzy serwisu The Inquirer przeprowadzili testy karty GeForce 8800GTX i porównali jej wydajność z dwoma kartami ATI X1950 XTX pracującymi w trybie CrossFire. Okazuje się, że w wykorzystującej biblioteki OpenGL grze Quake 4 procesor Nvidii jest szybszy od dwóch układów ATI! GeForce 8800GTX był w stanie wyświetlić więcej klatek w ciągu sekundy w każdej z testowanych rozdzielczości. Karty wyposażone w procesory ATI okazały się słabsze również wówczas, gdy włączono ośmiokrotne filtrowanie anizotropowe (AF) i czterokrotny antyaliasing (FSAA). Filtrowanie anizotropowe to technologia filtrowania tekstur na obiektach trójwymiarowych, której zadaniem jest ich wyostrzenie, a tym samym poprawa jakości całej grafiki. Z kolei FSAA to inaczej pełnoekranowe wygładzanie krawędzi – technologia odpowiedzialna za wygładzanie krawędzi obiektów trójwymiarowych. Obie technologie bardzo obciążają procesor graficzny, szczególnie wtedy, gdy wykorzystywane są jednocześnie. Układy ATI były bardziej wydajne w grze FEAR z wyłączonymi FSAA i AF. Potrafiły pokazać 7-8 klatek w ciągu sekundy więcej. Jednak w rozdzielczościach 1600x1200 i wyższych lepsza okazała się karta GeForce 8800GTX. Nvidia przegrała też minimalnie po włączeniu czterokrotnego FSAA i 16-krotnego AF. Wówczas karty konkurencji wyświetlały 3-4 klatek więcej. Okazuje się więc, że jeden procesor GeForce 8800GTX potrafi być bardziej wydajny niż dwa najnowsze układy ATI. Tą drugą firmę czeka wiele pracy. Czy wykona ją dobrze przekonamy się w przyszłym roku, gdy zadebiutuje układ R600.
-
Inżynierom IBM-a udało się pokonać jedną z najpoważniejszych przeszkód stojących na drodze wykorzystaniu grafitu do produkcji obwodów elektrycznych. Odkryli oni w jaki sposób zapobiec interferencji, do której dochodzi, gdy podzespoły wykonane z grafenu - dwuwymiarowej struktury grafitu o grubości zaledwie jednego atomu - zaczynamy coraz bardziej pomniejszać. Grafen jest uważany w elektronice za materiał przyszłości. Problem jednak w tym, że im bardziej pomniejszamy urządzenia (nie tylko grafenowe), tym większe pojawiają się w nich zakłócenia. W skali nano te zakłócenia mogą być tak wielkie, że miniaturowe urządzenia stają się bezużyteczne - "szum" jest bowiem tak silny jak przydatny sygnał. Pracujący dla IBM-a naukowcy najpierw zbudowali tranzystor z pojedynczej warstwy grafenu. Przekonali się, że im bardziej go pomniejszali, tym silniejsze w stosunku do sygnału były szumy. Inżynierowie stworzyli więc analogiczny tranzystor, ale z dwóch warstw grafenu ułożonych jedna na drugiej. Okazało się, że zakłócenia uległy tak daleko idącemu wyciszeniu, iż dwuwarstwowa urządzenia grafenowe będą nadawały się do produkcji elektroniki. Szumy zostały zniesione przez silne sprzężenie elektryczne pomiędzy obiema warstwami grafenu. Zadziałało ono jak izolacja. IBM podkreśla, że konieczne są dalsze badania, ale inżynierowie Błękitnego Giganta udowodnili, iż grafen nadaje się do produkcji elektroniki przyszłości.
-
Firma Qualcomm jest autorem elektronicznego papieru, który może wyświetlić klip wideo wysokiej jakości. Do produkcji papieru wykorzystano przełączniki mikroelektromechaniczne (MEMS), które pracują na tyle szybko, iż możliwe jest przedstawienie ruchomych obrazów. Pierwsza wersja wyświetlacza będzie monochromatyczna. Został on już zastosowany w urządzeniu przenośnym firmy Audiovox, które zadebiutowało przed kilkoma dniami. W przyszłym roku chińska firma Hisense wykorzysta w swoim telefonie komórkowym dwukolorowy e-papier. Qualcomm pracuje też nad pełnokolorowymi wersjami swojego wynalazku. E-papier, podobnie jak zwykły papier, umożliwia odczytanie druku czy obejrzenie grafiki dzięki odbiciu światła z otoczenia. To pozwala na korzystanie z niego w bardzo różnych warunkach oświetleniowych. Z kolei wyświetlacze LCD posiadają własne źródła światła, co z kolei utrudnia korzystanie z nich gdy otoczenie jest zbyt jasno oświetlone lub jest zbyt ciemno. Kolejną zaletą e-papieru jest fakt, że potrzebuje on napięcia elektrycznego tylko w momencie zmiany wyświetlanych treści. Gdy już np. „odwrócimy” stronę w elektronicznej książce, e-papier wyświetla ją nie pobierając prądu. Dzięki temu urządzenia korzystające z elektronicznego papieru charakteryzują się niskim poborem energii. Dotychczas jednak elektroniczny papier włączał i wyłączał poszczególne piksele zbyt wolno, by można było zaprezentować na nim klipy wideo. Przełączanie takie trwało bowiem ponad pół sekundy. Qualcomm opracował technologię, dzięki której piksele w elektronicznym papierze są przełączane w ciągu dziesiątych części mikrosekundy. To wystarczy, by zaprezentować wyraźny obraz wideo. Dzięki temu e-papier powinien szybko wyjść ze swojej niszy i stać się technologią szeroko stosowaną np. w telefonach komórkowych. Andre Arsenault, chemik z University of Toronto i założyciel firmy Opalux, która pracuje nad e-papierem, informuje, że nowatorska technologia reprodukcji kolorów, wykorzystywana przez Qualcomm, przypomina sposób odwzorowywania kolorów przez światło padające na rozlaną na wodzie ropę. Gdy światło trafia na taką warstwę ropy, zostaje częściowo odbite, a częściowo przechodzi przez ropę i odbija się od wody. Promienie odbite od ropy są nieco przesunięte w fazie w porównaniu z tymi odbitymi od wody. W rezultacie, dochodzi do interferencji pomiędzy tymi promieniami. Część długości fali zostaje pochłonięta, a część wzmocniona. O tym, które długości ulegają pochłonięciu, a które wzmocnieniu decyzuje odległość powierzchni wody od powierzchni ropy. Na przykład przy określonych grubościach warstwy ropy, wzmocnieniu ulega światło zielone, a czerwone i niebieskie są pochłanianie. Powierzchnia ropy wydaje się wówczas zielona. W przypadku e-papieru, każdy z pikseli składa się z kilku kolorowych komórek, a każda z nich z dwóch warstw odbijających światło i ułożonych jedna na drugiej. Warstwa górna jest półprzepuszczalna, więc część światła przenika przez nią i odbija się od dolnej warsty. Piksel składa się z trzech takich komórek, a w każdej z nich odległość pomiędzy warstwami ustawiona jest tak, by interferencja pomiędzy falami światła powodowała wyświetlanie określonego koloru: czerwonego, zielonego lub niebieskiego. Każdą z takich komórek można wyłączyć za pomocą przełącznika MEMS, zbliżając do siebie warstwy. Gdy są one bardzo blisko, żadna z długości fal światła nie jest wzmacniana i komórka wydaje się czarna. Przełącznik zmienia swoje położenie pomiędzy dwoma stanami tylko pod wpływem impulsu elektrycznego. Dopóki nie zostanie on poddany jego działaniu, pozostaje w dotychczasowym staniem. Dzięki takiemu rozwiązaniu każdy piksel, poprzez kombinacje kolorów z subpikseli, może przybierać dowolny kolor. Przełączniki MEMS są w stanie przetrwać ponad 12 miliardów cykli włączania-wyłączania. E-papier Qualcommu nie ma, niestety, samych zalet. Wykorzystanie przełączników MEMS powoduje, że, przynajmniej na razie, będzie można tworzyć jedynie niewielkie wyświetlacze z e-papieru. Ponadto zastosowanie go do pokazywania klipów wideo powoduje, że e-papier przestaje być energooszczędny. Gdy będziemy oglądali za jego pomocą film, przełączniki MEMS będą ciągle w użyciu.