Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36971
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    227

Zawartość dodana przez KopalniaWiedzy.pl

  1. Po 16 latach istnienia jądro Windows CE odchodzi do historii. Z materiału wideo dotyczącego telefonów Nokii z systemem Windows Phone 8 wynika, że system ten będzie korzystał z jądra Windows NT. Windows CE zadebiutował jako system dla urządzeń przenośnych, takich jak PDA. Był rozwijany przez całe lata, a wokół jego jądra zbudowano Windows Phone. Równocześnie Microsoft rozwijał jądro NT, wykorzystywane w komputerach osobistych. Pogłoski o tym, że Microsoft może zrezygnować z CE na rzecz NT w urządzeniach przenośnych pojawiały się od czasu debiutu Windows Phone. Jednak kolejna jego edycja - 7.5 Mango - również korzystała z CE. Teraz wszystko wskazuje na to, że historia CE dobiegła końca. Dzięki nowej architekturze, jaką zastosowano w Windows Phone, zmiana jądra nie spowoduje większych perturbacji. Wszystkie aplikacje działające na Windows Phone 7.5 będą pracowały też na Windows Phone 8. Zmiana jądra będzie miała daleko idące konsekwencje. Telefony z NT będą mogły korzystać z wielu mechanizmów obecnych dotychczas tylko z komputerach - czujników, modeli zabezpieczeń, mechanizmów obsługujących dźwięk, grafikę czy sieci. To pozwoli developerom na zaoszczędzenie sporo pracy i pieniędzy, gdyż większość dotychczasowego kodu będzie można przenieść z komputerów do smartfonów. WP8 będzie wspierał większą gamę sprzętu niż jego poprzednik, obsłuży szerszą gamę wyświetlaczy o różnej rozdzielczości, pozwoli na zastosowanie wymiennych kart microSD i obsłuży technologię NFC (Near Field Communication). Skype zostanie tak ściśle zintegrowany z systemem, że użytkownik nie odczuje różnicy pomiędzy nawiązywaniem standardowego połączenia telefonicznego, a korzystaniem z komunikatora. To tylko kilka z wielu zmian, spośród których najważniejszą jest, oczywiście, rezygnacja z CE na rzecz NT.
  2. Na Dominikanie znaleziono bursztyn sprzed 20-30 mln z uwięzioną wewnątrz - i świetnie zachowaną - muchówką mrokawkowatą (Nycteribiidae). Owady te są pasożytami zewnętrznymi nietoperzy i żywią się ich krwią. Jak dotąd to jedyna odkryta skamieniałość przedstawiciela tej rodziny. Znalezisko paleontologów z Uniwersytetu Stanowego Oregonu pokazuje, że nietoperze od co najmniej 20 mln lat zmagają się z nękającymi je pasożytami (w angielskim funkcjonuje nawet nazwa "nietoperza mucha"). Poza tym, jako że owady te przenoszą zarodźce malarii, naukowcy mogli się dowiedzieć, od mniej więcej jak dawna choroba występuje na terenie Nowego Świata. Muchówki mrokawkowate to niezwykły przypadek ewolucji specyficznej, zwierzęcia, które koewoluowało z nietoperzami i nie występuje nigdzie indziej [poza futrem latających ssaków; ciało muchówek jest nawet spłaszczone jak u pchły, by swobodniej przemieszczać się między włosami żywiciela] - opowiada prof. George Poinar. Mrokawkowate opuszczają "swoje" nietoperze tylko po to, by się rozmnażać. I najprawdopodobniej w takiej właśnie sytuacji sfosylizowany egzemplarz musiał zostać zaskoczony przez napływającą falę lepkich soków prehistorycznej rośliny.
  3. Amerykańscy naukowcy opracowali nową technikę zespalania przerwanych nerwów. Zabieg trwa ponoć kilka minut, a nerw ma zacząć pracować jak dawniej nie po miesiącach czy latach, a po 2-4 tygodniach. Zespół odwołał się do mechanizmu komórkowego wykorzystywanego do naprawy uszkodzonych aksonów przez bezkręgowce. Spełnienie marzeń rehabilitanta, a przede wszystkim pacjentów... Jak zapewnia prof. George Bittner z Uniwersytetu Teksańskiego, po kilku dniach pacjent, w tym przypadku zwierzę, częściowo odzyskuje funkcje, za które odpowiada dany nerw. Po 2 tygodniach, góra miesiącu nerw działa właściwie jak przed przerwaniem. Naukowcy badali mechanizm wykorzystywany do naprawy błon przez wszystkie komórki zwierzęce, ale szczególnie skoncentrowali się na bezkręgowcach, u których zdolność regenerowania uszkodzonych aksonów jest bardziej rozwinięta niż u ssaków. Bittner odkrył, że u kręgowców akson odcięty od ciała komórki (perikarionu) nie degeneruje się w ciągu kilku dni, jak się to dzieje u ssaków, lecz utrzymuje się przy życiu przez miesiące, a nawet lata. Aksony proksymalnego i dystalnego końca przerwanego nerwu mogą się u bezkręgowców ponownie połączyć w ciągu 7 dni, zapewniając tempo rekonwalescencji nieporównywalnie lepsze niż u ssaków. U ssaków aksony z kikuta dystalnego degenerują się w ciągu 3 dni. Kikut proksymalny musi rosnąć miesiącami lub latami, by przywrócić kontrolę nad mięśniami czy obszarami czuciowymi, często z mniejszą dokładnością i w niepełnym zakresie. Amerykanie zespalali nerw kulszowy przerwany w górnej części uda. Po tygodniu nerw odzyskiwał część swoich funkcji (gryzonie mogły poruszać kończyną), a po 2-4 tygodniach działał prawie normalnie; w kilku przypadkach niemal w 100%. Niestety, w relacji prasowej nie ujawniono żadnych szczegółów dotyczących procedury czy wspomnianego mechanizmu komórkowego. Badania prowadzone nie tylko na Uniwersytecie Teksańskim, ale i przez szkoły medyczne Harvardu oraz Vanderbilt University mają pozwolić na zgromadzenie tylu danych, by udało się uzyskać pozwolenie na testy kliniczne.
  4. Specjaliści ostrzegają, że 8 marca część użytkowników internetu mogą czekać poważne kłopoty. Właśnie na ten dzień FBI zapowiedziało wyłączenie swoich serwerów, które zastąpiły serwery przestępców, kierujących użytkowników na złośliwe witryny. W listopadzie FBI zlikwidowało botnet DNSChanger. Jego twórcy infekowali komputery i manipulowali adresami internetowymi tak, że użytkownicy trafiali na witryny, których jedynym celem było wyświetlanie reklam. FBI zastąpiło serwery przestępców własnymi maszynami, dzięki czemu komputery zainfekowane przez botnet mogły bez przeszkód łączyć się z internetem. Ponadto FBI było w stanie zidentyfikować zarażone maszyny. Jednak Biuro z góry założyło, że zastępcze serwery będą działały tylko przez jakiś czas, by użytkownicy komputerów zarażonych DNSChangerem mieli czas na wyczyszczenie komputerów ze szkodliwego kodu. „Zastępcza sieć“ FBI ma zostać wyłączona właśnie 8 marca. Oznacza to, że komputery, które nadal są zarażone, stracą dostęp do internetu, gdyż będą usiłowały łączyć się z nieistniejącymi serwerami DNS. Eksperci ostrzegają, że wiele komputerów wciąż nie zostało wyczyszczonych ze szkodliwego kodu. Z danych firmy ID wynika, że co najmniej 250 z 500 największych światowych firm oraz 27 z 55 największych amerykańskich instytucji rządowych używa co najmniej jednego komputera lub routera zarażonego DNSChangerem. Nieznana jest liczba indywidualnych użytkowników, którzy mogą mieć kłopoty. Zespół odpowiedzialny w FBI za zwalczanie DNSChangera rozważa przedłużenie pracy serwerów. Jednak nawet jeśli nie zostaną one wyłączone 8 marca, to niewiele się zmieni. Internauci, zarówno prywatni jak i instytucjonalni, nie dbają o to, co dzieje się z ich komputerami. Można tak wnioskować chociażby z faktu, że największa liczba skutecznych ataków jest przeprowadzonych na dziury, do których łaty istnieją od dawna, jednak właściciele komputerów ich nie zainstalowali. Przykładem takiej walki z wiatrakami może być historia robaka Conficker, który wciąż zaraża miliony maszyn, mimo, że FBI od 2009 roku prowadzi aktywne działania mające na celu oczyścić zeń internet. Ponadto, jeśli FBI nie wyłączy swoich serwerów, to DNSChanger nadal będzie groźny. Robak uniemożliwia bowiem pobranie poprawek, co oznacza, że niektóre z zarażonych nim maszyn nie były aktualizowane od wielu miesięcy, a to wystawia je na jeszcze większe niebezpieczeństwo. Firmy, które chcą sprawdzić, czy ich komputery zostały zarażone DNSChangerem powinny skontaktować się z witryną DNS Changer Working Group. Użytkownicy indywidualni mogą skorzystać z narzędzia do sprawdzenia komputera.
  5. Hiperglikemia, czyli za wysoki poziom cukru we krwi, prowadzi do uszkodzenia serca, nawet u osób, które nie chorują na serce ani nie mają cukrzycy (Journal of the American College of Cardiology). Pracując pod kierownictwem dr Elizabeth Selvin, naukowcy ze Szkoły Zdrowia Publicznego Uniwersytetu Johnsa Hopkinsa odkryli, że podwyższonemu poziomowi hemoglobiny glikowanej HbA1C (która powstaje wskutek nieenzymatycznego przyłączenia glukozy do cząsteczki hemoglobiny) towarzyszy pojawienie się niewielkich ilości troponiny T (cTnT) - jednego z markerów martwicy mięśnia sercowego. Wykorzystano bardzo czuły test, który pozwalał na wykrycie 10-krotnie niższych stężeń cTnT niż te występujące u pacjentów po zawale serca. Amerykanie podkreślają, że uzyskane przez nich wyniki wskazują, że hiperglikemia może być związana z uszkodzeniem serca niezależnym od miażdżycy. W ramach studium analizowano dane 9662 osób, które brały udział w studium Atherosclerosis Risk in Communities (Społecznościowe Ryzyko Miażdżycy). Żadna z nich nie cierpiała na chorobę niedokrwienną serca ani na niewydolność serca. Zauważono, że im wyższy poziom HbA1C, tym wyższe stężenia cTnT. Związek występował nawet przy stężeniach HbA1C niewystarczających do zdiagnozowania cukrzycy. Za pomocą konwencjonalnych testów troponinę T wykrywa się u 0,7% populacji i jest ona markerem zawału (ogólnie wskaźnikiem uszkodzenia mięśnia serca). Z czułym testem cTnT niewielkie stężenia troponiny stwierdzano aż u 66% populacji. Wszystko wskazuje więc na to, że podwyższona glukoza może nie tylko nasilać miażdżycę, ale i bezpośrednio uszkadzać mięsień sercowy - podsumowuje dr Jonathan Rubin.
  6. W Rowie Kermadec na północ od Nowej Zelandii na głębokości 7 km odkryto olbrzymiego obunoga (Amphipoda). Zwykle skorupiaki te mają długość 2-3 cm, a nieco większy gatunek z Antarktydy dorasta nawet do 10 cm, ale w porównaniu do ok. 30-cm supergiganta to naprawdę niewiele... Największy ze schwytanych okazów miał 28 cm długości, ale na filmie uwieczniono egzemplarz o szacowanej długości aż 34 cm (w sumie wyłowiono 7, a sfotografowano 9). To tak, jakby znaleźć karaczana o długości stopy [30,5 cm]. Ten obunóg był o wiele większy, niż sądziłem, że to w ogóle możliwe - wyjaśnia lider wyprawy, dr Alan Jamieson z należącego do Uniwersytetu w Aberdeen Laboratorium Oceanicznego. Brytyjsko-nowozelandzko-amerykański zespół posługiwał się metalową pułapką, na której zamontowano kamerę. By nie uszkodziło jej ciśnienie, została zamknięta w klatce ze szkła szafirowego. System zaprojektowali specjaliści z Oceanlab. Sprzęt zanurzano na głębokość 6900-9900 m. Na głębokości ok. 7 tys. m spodziewano się złowić rybę z rodziny dennikowatych, którą ekipa wcześniej sfotografowała. Byłoby to tym większe osiągnięcie, że nie udało się to od początku lat 50. Kiedy pułapka wylądowała na pokładzie statku badawczego Kaharoa, wszyscy ucieszyli się na widok długo wyczekiwanej ryby. Chwilę później dostrzeżono jeszcze większą gratkę - olbrzymiego obunoga. W takim towarzystwie skromne równonogi pozostały właściwie niezauważone. Obunogi występują na dużych głębokościach. Im głębiej, tym liczniej. Terminem "supergigant" posłużyli się po raz pierwszy Amerykanie, którzy na początku lat 80. schwytali u wybrzeży Hawajów kilka dużych okazów. Ponieważ duże egzemplarze odkrywano jedynie od czasu do czasu w latach 70., w końcu założono, że to rzadkie i tajemnicze istoty. Zwierzęta, które wyłowił zespół Jamiesona, były nie tylko największe, ale i występowały na największej głębokości. Jednego dnia się pojawiły, następnego już ich tam nie było... Teraz naukowcy zamierzają sprawdzić, czy obunogi z Rowu Kermadec należą do tego samego gatunku, co skorupiaki z Hawajów. Spróbują się też dowiedzieć, jak i dlaczego tak bardzo urosły.
  7. Anonimowe źródło zdradziło serwisowi CNET, że Microsoft ma już stabilną wersję Windows 8 dla architektury ARM i wkrótce system trafi do rąk developerów. Jeszcze w październiku Windows 8 dla ARM przeraził partnerów Microsoftu, gdyż był niestabilny. Teraz jest stabilny - stwierdziło kolejne źródło, które potwierdziło, iż system zostanie dostarczony developerom jeszcze w lutym. Dla użytkownika końcowego najważniejszy będzie zapewne fakt, że urządzenia z Windows 8 pracujące na platformie ARM mogą być znacznie tańsze niż analogiczne urządzenia z procesorami Intela. Źródło poinformowało bowiem, że jedno z highendowych urządzeń na platformie Intela pokazane podczas CES, ma już swój niemal identyczny odpowiednik dla ARM-a. Jednak cena tego drugiego jest o setki dolarów niższa. Najistotniejszym wydarzeniem może być premiera ultrabooków z Windows dla ARM. Intel stara się dorównać procesorom ARM pod względem energooszczędności. Jednak nawet gdy mu się to uda, może się okazać, że ARM i tak znajdzie więcej klientów, gdyż możliwe będzie kupienie ultrabooka o identycznych parametrach, wykorzystujących Windows 8, który będzie znacznie tańszy. Największą przeszkodą, przynajmniej początkowo, w rozpowszechnieniu się platformy ARM z systemem Windows, będzie niewielka liczba dostępnych programów. Tutaj Intel ma zdecydowaną przewagę.
  8. Amerykańskie media pracują nad systemami, które pozwolą w czasie rzeczywistym dostosowywać reklamy do gustów użytkowników. Będzie to możliwe dzięki śledzeniu i analizie komentarzy w serwisach społecznościowych. Specjaliści spodziewają się, że podczas najbliższych finałów Super Bowl około 5 milionów ludzi zasiądzie do Twittera i innych serwisów społecznościowych, by na bieżąco komentować wydarzenia. To olbrzymi wzrost w porównaniu z ubiegłym rokiem, gdy komentujących było 900 000. W internecie pojawi się zatem olbrzymia liczba opinii nie tylko o samych rozgrywkach, ale również o wyświetlanych reklamach. Bieżący rok będzie wielkim sprawdzianem przed tym, co jest planowane w roku 2013. Za rok stacje telewizyjne i reklamodawcy chcą dysponować systemem na bieżąco zbierającym i analizującym opinie, by błyskawicznie zmieniać plany i w kolejnym bloku reklamowym usunąć te klipy, które się widzom nie podobają, zastępując je treściami bardziej lubianymi. Trzeba będzie przygotować kilka reklam tego samego produktu i kilka wersji każdej reklamy. Będą one wyświetlane w zależności od tego, jakie komentarze będą się pojawiały zarówno na temat samej reklamy, jak i na temat wydarzeń na boisku - mówi Kate Sirkin, dyrektor ds. badań w Starcom MediaVest Group. W najbliższą sobotę firma Bluefin Labs, specjalizująca się w analizie mediów społecznościowych, po raz pierwszy upubliczni swoje analizy dotyczące reklam podczas Super Bowl. Będzie je można zobaczyć zaraz po rozgrywkach. Dotychczas takie dane były ujawniane tylko klientom firmy. Specjaliści podkreślają, że liczba komentarzy dotyczących tego, co można zobaczyć w telewizji, gwałtownie rośnie. Premiera pierwszego odcinka nowej serii reality show The Bachelor doczekała się 80 528 komentarzy, podczas gdy przed rokiem pierwszy odcinek nowej serii został skomentowany 13 966 razy. Nowy sezon Jersey Shore skomentowano 410 230 razy, a rok wcześniej - 69 829 razy. Internet, wbrew prognozom, nie tylko nie zabija telewizji, ale może jej pomagać. Średnia cena emisji pojedynczej reklamy podczas tegorocznego Super Bowl wyniesie 3,5 miliona dolarów. Anheuser-Busch, producent m.in. Budweisera, przygotował 6 różnych reklam, które będą wyświetlane w czasie rozgrywek. Pod koniec meczu będziemy wiedzieli, czy reklamy odbierane są podobnie, czy też któraś się wyróżnia. Na sam koniec będziemy mogli dzięki temu pokazać najbardziej lubianą reklamę - mówi Tom Thai, wiceprezes Bluefin. Jego firma obsługuje ponad 8000 programów w 200 stacjach oraz śledzi media społecznościowe, przede wszystkim Twittera. Śledzi też około 10 milionów osób, które w ciągu ostatnich trzech miesiącach dodały komentarz odnoszący się do programu telewizyjnego. Dzięki temu Bluefin wie, co się ludziom podoba, jak zmieniają się ich gusta, co ich inspiruje.
  9. Naukowcy z należącego do MIT-u Center for Transportation and Logistics (CTL) uważają, że firmom już teraz opłaca się używać elektrycznych ciężarówek. Od zakupu takiego pojazdu może odstraszać cena, jednak w dłuższym terminie zakup jest opłacalny. W USA średnia cena samochodu ciężarowego z silnikiem diesla wynosi około 50 000 dolarów, gdy pojazd z silnikiem elektrycznym kosztuje niemal 150 000 USD. Pracownicy MIT-u wyliczyli jednak, że koszty obsługi takiej ciężarówki są o 9-12 procent niższe jeśli jest ona używana codziennie do dostarczania towarów w granicach dużego miasta. To będzie dobry biznes, gdy samochody elektryczne będą stosowane na szerszą skalę. Już teraz zakup takiego samochodu jest ekonomicznie uzasadniony, a że akumulatory ciągle tanieją, będzie tylko lepiej - mówi Jarrod Goentzel, jeden z badaczy. Uczeni z MIT-u wykorzystali dane zebrane przez firmę Staples, która specjalizuje się w dostarczaniu klientom sprzętu biurowego oraz firmy ISO New England, niedochodowego przedsiębiorstwa, które jest operatorem sieci energetycznej w Nowe Anglii. Na podstawie tych informacji badacze stworzyli model firmy, która posiada 250 ciężarówek i zbadali trzy scenariusze. W jednym wszystkie pojazdy wyposażono w silniki spalinowe, w drugim w hybrydy spalinowo-elektryczne, a w trzecim - w elektryczne. Na podstawie danych od Staples stwierdzono, że pracująca w mieście ciężarówka przejeżdża średnio 70 mil (niemal 113 kilometrów) i pracuje przez 253 dni w roku. Przyjęto, że galon (ok. 3,8 litra) oleju napędowego kosztuje 4 dolary. Samochody z silnikami diesla przejeżdżają na galonie średnio 10,14 mili (16,3 kilometra), podczas gdy hybrydy 11,56 mili (18,6 kilometra) na galonie. Z kolei silniki elektryczne ciężarówek zużywają 0,8 kWh na milę. Staples posiada obecnie 53 elektryczne ciężarówki. Do szacunków kosztów dodano założenie, że samochody można ładować z sieci elektrycznej, z której pobierają energię w nocy. Ponadto w ciągu dnia energia, której nie zużyły jest zwracana do sieci, dzięki czemu właściciele ciężarówek zarabiają na różnicy w cenie. Badając różne scenariusze pracy firmy uczeni z MIT-u doszli do wniosku, że na opłatach od operatorów sieci energetycznej każda ciężarówka zarobi 900-1400 dolarów rocznie. Ponadto jej właściciel zaoszczędzi pieniądze na paliwie i naprawach, gdyż elektryczne ciężarówki mniej zużywają hamulce Koszt operacyjny ciężarówki na każdą przejechaną wynosi w przypadku pojazdu z silnikiem diesla 75 centów, a w przypadku pojazdu elektrycznego - 65 centów. Naukowcy podkreślają, że ich wyliczenia dotyczą nie tylko firm posiadających 250 pojazdów, ale można je skalować niemal do pojedynczego samochodu. Ich zdaniem, jeśli podłączane do gniazdka samochody elektryczne będą się rozpowszechniały, to najpierw będzie to dotyczyło ciężarówek. W dużej mierze dlatego, że będą mogły w przewidywalnych porach dostarczać energię elektryczną mieszkańcom konkretnej okolicy.
  10. Wiele badań poświęcono oglądaniu przez ludzi witryn internetowych czy książek, jednak kwestia skanowania wzrokiem menu to empiryczna tabula rasa. Restauratorzy zwykli zakładać istnienie tzw. słodkiego punktu tuż nad połową prawej strony karty dań, na który ludzie patrzą ponoć dłużej i częściej. Okazuje się jednak, że klienci pochodzą do menu jak do książki - sekwencyjnie. Prof. Sybil Yang z San Francisco State University stwierdziła, że czytając menu sekwencyjnie, przeciętny klient nie zatrzymuje się nigdzie na dłużej. Wygląda więc na to, że umieszczanie w "słodkim punkcie" dań do wypromowania nie ma większego sensu, bo punkt ten zwyczajnie nie istnieje. Amerykanka podkreśla, że czytanie karty dań różni się od czytania w innych kontekstach, bo mamy do czynienia z odbiorcą zmotywowanym do zapoznania się z całością [tekstu]. Yang przypomina studium grafika Williama Doerflera, który opublikował mapę punktów skupiania wzroku w menu. W zygzakowatym schemacie pierwsze skrzypce grała umieszczona nad środkiem prawej paginy (a jakże) jedynka, która miała ciągle i wciąż ściągać na siebie uwagę klienta. Pani profesor była zaskoczona tymi wynikami i zastanawiała się, czy to ona inaczej podchodzi do karty dań, czy też Doerfler się myli. Postanowiła to sprawdzić, dlatego zebrała grupę ochotników, którzy nosili skaner siatkówki na podczerwień i po przejrzeniu fikcyjnego menu mieli złożyć zamówienie. Analizując nagranie, Yang stwierdziła, że przeważnie ludzie wodzili wzrokiem od lewej do prawej i od góry do dołu dwustronicowego menu. Posuwali się wolno, co sugeruje, że czytali, a nie skanowali. Naukowcy nie znaleźli słodkiego punktu, na którym skupiano by się szczególnie długo, wspominają jednak o "kwaśnym punkcie", na który patrzono najkrócej. Znajdowały się w nim informacje o restauracji i spis sałatek (punkt ten obejmuje dół obu stron). Wszystko wskazuje na to, że klienci restauracji wybierają przystawkę i na niej budują resztę zamówienia.
  11. Teoria jakoby Megaupload został zamknięty, gdyż jego właściciel planował uruchomienie serwisu MegaBox, pozwalającemu twórcom na publikowanie muzyki w sieci z pominięciem studiów nagraniowych, nie wytrzymuje konfrontacji z faktami. Okazuje się bowiem, że do zamknięcia serwisu w głównej mierze przyczyniło się MPAA, czyli stowarzyszenie przemysłu filmowego. Gdy FBI rozpoczęło śledztwo przeciwko Megaupload, serwis jeszcze nie planował uruchomienia MegaBoksa. Ponadto bardziej przeszkadzał on przemysłowi filmowemu, a nie muzycznemu. Jak oświadczył wiceprezes MPAA ds. ochrony treści, Kevin Suh, Megaupload był „na samym szczycie pirackiej piramidy“. Z nieoficjalnych informacji wynika, że to właśnie MPAA dostarczyło mocnych, przekonujących dowodów, na podstawie których sąd zdecydował o aresztowaniach i zamknięciu serwisu. Neil MacBride, prokurator, który podpisał się pod wnioskiem do sądu, odmówił ujawnienia, co spowodowało, że przeciwko Megaupload wszczęto śledztwo. Jednak jego biuro wydało oświadczenie opisujące sposób działania Departamentu Sprawiedliwości. Ogólnie rzecz biorąc rząd USA otrzymuje informacje o przestępstwach z bardzo różnych źródeł, w tym od ofiar przestępstw. Śledztwo wszczynane jest w każdej sprawie, w której zostaną dostarczone znaczące i konkretne dowody działań przestępczych. Przestępstwa przeciwko własności intelektualnej nie są tu wyjątkiem. Dowody przeciwko Megaupload pochodziły z wielu źródeł, ale żadne z nich nie dostarczyło tak dużej ilości tak przekonujących materiałów co MPAA. Za tezą wskazującą na MPAA świadczy też fakt, że, jak informuje MacBride, śledztwo zostało wszczęte przez FBI w marcu 2010 roku. Źródła z przemysłu filmowego twierdzą, że w tym samym czasie MPAA złożyło wniosek o ściganie Megaupload i Kima Dotcoma. Wtedy to dostarczono FBI dużo mocnych dowodów przeciwko serwisowi. Nie ograniczały się one tylko do informacji na temat pirackich kopii filmów, ale również zawierały dane na temat osób zaangażowanych w działalność Megaupload oraz prowadzonych przez serwis transakcji finansowych. RIAA, stowarzyszenie przemysłu muzycznego, również przekazało FBI dowody, jednak były one dość słabe. Zawierały praktycznie tylko spis utworów chronionych prawami autorskimi, które znajdowały się na serwerach Megaupload.
  12. Rosjanie mają kolejne wytłumaczenie, dlaczego misja pojazdu Fobos Grunt, na którą wydali miliardy rubli, zakończyła się spektakularnym niepowodzeniem. Za fiasko misji ma odpowiadać promieniowanie kosmiczne oraz podróbki z zagranicy. Vladimir Popovkin, szef Federalnej Agencji Kosmicznej (Roskosmos), który niedawno sugerował, że za niepowodzenie misji odpowiadają pewne siły z Zachodu, teraz zmienił zdanie. To już nie amerykański radar z Wysp Marshalla uszkodził sondę, a promieniowanie kosmiczne. Dwa podzespoły komputera pokładowego samiostnie zrestartowały się i weszły w tryb oczekiwania. Najbardziej prawdopodobną przyczyną jest wpływ naładowanych kosmicznych cząstek - stwierdził Popovkin. Zasugerował też, że wspomniane dwa układy były importowanymi [prawdopodobnie z Chin - red.] podróbkami. Popovkin szybko dodał, że wykorzystywanie tego typu części to nie tylko problem Rosji, gdyż martwią się też tym NASA i Pentagon. Rodzi się tez pytanie, czy oprócz wykorzystania podrobionych podzespołów nie zapomniano o zastosowaniu odpowiedniej ochrony przed promieniowaniem. Z danych NASA dowiadujemy się, że żadna z 17 marsjańskich misji podjętych przez ZSRR i Rosję od 1960 roku nie zakończyła się sukcesem. Roskosmos nie wyklucza ponownej próby podboju Marsa. Sonda Fobos Grunt 2 mogłaby wystartować w 2018 roku.
  13. Naukowcy z Uniwersytetu Kalifornijskiego w San Francisco (UCSF) zidentyfikowali w zdrowej tkance prostaty mężczyzn z guzami gruczołu krokowego o niewielkim stopniu zaawansowania 184 geny, które pozwalają wyjaśnić, czemu aktywność fizyczna spowalnia chorobę i obniża ryzyko zgonu. Kalifornijczycy zbadali ok. 20 tys. genów zdrowej tkanki prostaty (pobrano ją od 70 pacjentów). Bazowali na wspólnych ustaleniach zespołu z UCSF i Harvardzkiej Szkoły Zdrowia Publicznego, że szybki marsz, ewentualnie bieganie przez 3 godziny w tygodniu lub więcej obniża ryzyko postępów choroby i zgonu po zdiagnozowaniu raka prostaty. Wiedząc, że się tak dzieje, pozostawało jeszcze odpowiedzieć na pytanie dlaczego. I tym właśnie zajęli się specjaliści pracujący pod przewodnictwem June Chan. Poziom ekspresji ok. 20 tys. genów zestawiano z wzorcem aktywności fizycznej, opisanym przez badanych w kwestionariuszu. Okazało się, że w porównaniu do osób, które ruszały się mniej, u mężczyzn ćwiczących intensywnie co najmniej 3 godziny w tygodniu zwiększała się ekspresja 109 genów, a spadała 75. Wśród zwiększających swoją aktywność znalazły się np. geny supresorowe BRCA1 i BRCA2 (kodowane przez nie białka biorą udział w naprawie uszkodzonego DNA) oraz odpowiadające za przebieg cyklu komórkowego. Analiza uzyskanych danych nadal trwa. Naukowcy sprawdzają, jakie szlaki ulegają wyłączeniu/stłumieniu pod wpływem ćwiczeń. W przyszłości Chan zamierza powtórzyć badania na większej próbie, w tym na mężczyznach, u których doszło do wznowy raka prostaty.
  14. Microsoft udostępnił pakiet SKD i środowisko uruchomieniowe Kinect for Windows 1.0. Jednocześnie w 12 krajach partnerzy Microsoftu rozpoczęli dostarczanie sprzętu dla developerów chcących rozwijać oprogramowanie dla Kinecta. Obecnie za sprzęt trzeba zapłacić 249 dolarów, jednak jeszcze w bieżącym roku Microsoft skieruje specjalną ofertę dla środowisk akademickich. W ramach programu Qualified Educational Users cena sprzętu zostanie obniżona do 149 dolarów. W porównaniu z wersją Beta 2 SDK wprowadzono wiele usprawnień, w tym wsparcie dla czterech urządzeń Kinect podłączonych do jednego komputera, znacznie udoskonalono śledzenie użytkownika, wraz z możliwością wyboru, który użytkownik jest śledzony przez który czujnik. Poprawiono pracę kamer, dzięki czemu w trybie Near Mode możliwe jest śledzenie obiektów z odległości 40 centymetrów. Udoskonalono też systemy rozpoznawania mowy, zastosowano technologie rozpoznawania źródła dźwięku oraz kolorów. Microsoft zapowiada, że aktualizacje Kinect for Windows SDK będą publikowane 2-3 razy w roku.
  15. W Muzeum Prado odkryto najstarszą znaną kopię Mony Lizy Leonarda da Vinci. Szacuje się, że powstała w tym samym czasie, co oryginał. Gdy mistrz malował swoją wersję, jeden z jego uczniów pracował nad kopią. Przedstawiciele muzeum przyznali, że przed konserwacją, w czasie której pod warstwami czarnej farby znaleziono coś niespodziewanego, nikt nie zdawał sobie sprawy z wartości obrazu. Na początku sądzono, że to replika namalowana po śmierci renesansowego artysty, tymczasem tak naprawdę powstawała u jego boku i pod jego nadzorem. Dzięki niej można stwierdzić, jak naprawdę wyglądała modelka. Przez stulecia na oryginale jej rysy uległy zatarciu. Powierzchnię portretu pokrył bowiem brud i popękany werniks, których w najbliższym czasie na pewno nie będzie się usuwać. Informując o przełomowym odkryciu na sympozjum zorganizowanym przed 2 tygodniami w londyńskiej National Gallery, konserwatorzy podkreślili, że osoba z kopii wyglądała bardziej świeżo i młodo (jakby miała dwadzieścia kilka lat). Choć sam portret był dobrze namalowany, czarne tło niszczyło cały efekt. Ponieważ wcześniej wydawało się, że kopię stworzono na dębinie, założono, że ma flamandzkie korzenie. Później okazało się, że to nie dąb, ale orzech, często używany przez włoskich malarzy (oryginalną Monę Lizę namalowano na brzezinie). Oryginał i kopia z Prado mają podobne wymiary. Wynoszą one, odpowiednio, 77x53 cm oraz 76x57 cm. Na londyńskiej konferencji konserwatorzy ujawnili, że ciemne tło było późniejszym dodatkiem. Pokazali zdjęcie portretu po usunięciu 90% czarnej farby. Toskański krajobraz zdecydowanie zmienił wygląd kobiety. Miguel Falomir, kurator malarstwa włoskiego w Muzeum Prado, powiedział na konferencji prasowej, że Leonarda da Vinci i kopistę musiały łączyć silne więzi. Kopia powstawała w warsztacie mistrza. Oryginał i kopia stały zapewne obok siebie i razem "ewoluowały". Są identyczne, ale mistrz nie ingerował w proces kopiowania. Możliwe, że uczeń spotkał modelkę, a nawet widział, jak pozowała mistrzowi. Jeszcze w lutym odnowiona kopia zostanie wystawiona w Prado, a w marcu trafi do Luwru.
  16. Jak poradzić sobie z pochodzącą z Afryki palczatką Andropogon gayanus, która zasila pożary sawann na północy Australii? Skoro jest ona za duża dla miejscowych torbaczy, np. kangurów, i dla bydła, należy sprowadzić słonie, a może nawet nosorożce. Tak przynajmniej uważa prof. David Bowman z Uniwersytetu Tasmańskiego, co jak łatwo się domyślić, wywołało burzliwe dyskusje w środowisku naukowym. Jak napisał Bowman w artykule opublikowanym w Nature, wprowadzenie dzikich słoni do Australii może się wydawać absurdem, ale inną metodą kontrolowania [inwazyjnej] trawy byłoby użycie chemii albo fizyczne oczyszczenie gruntu, co mogłoby zniszczyć habitat. Badacz z antypodów uważa, że skorzystanie z pomocy dużych roślinożerców byłoby nie tylko bardziej praktyczne, ale i tańsze. Co więcej, pozwoliłoby chronić zwierzęta, które przez kłusownictwo w rodzimych środowiskach są narażone na wyginięcie. Problemy, które Bowman proponuje rozwiązać sprowadzeniem słoni, narosły w wyniku zmian wywołanych dwiema falami ludzkiej migracji: 1) przodków aborygenów ok. 50 tys. lat temu, którzy przyczynili się do stopniowego zaniku megafauny oraz 2) europejskich osadników kilkaset lat temu. Najpierw wybito megafaunę, a później przybysze ze Starego Kontynentu przywieźli ze sobą (celowo lub przez przypadek) króliki, świnie, wielbłądy, szczury czy agi. Obce gatunki próbowano okiełznać na wiele różnych sposobów, żaden nie okazał się jednak w pełni skuteczny. Wg Bowmana, Australijczycy zajmują się problemami wybiórczo, co powoduje jeszcze większy chaos. Sięgająca nawet 4 m palczatka A. gayanus porasta Queensland i Terytorium Północne. Ze względu na rozmiary wygrywa konkurencję z rodzimymi gatunkami. W różnych rejonach stosowano już koszenie i herbicydy, ale nie dość intensywnie i konsekwentnie, by zrobić na A. gayanus większe wrażenie... Zbyt duża dla kangurów i bawołów trawa jest dla słoni afrykańskich czymś zwyczajnym. Wyobraźmy sobie wysterylizowanego słonia z obrożą GPS. Cały czas wiedzielibyśmy, gdzie jest. W dodatku nie mógłby się rozmnażać. Bowman proponuje, by w sprawę zaangażować aborygenów, którym pozwolono by polować na część z wprowadzanych do środowiska zwierząt oraz wywoływać kontrolowane pożary lasów i sawann. Wg niego, tego typu działania miałyby również charakter prozdrowotny, ponieważ zachęcałyby nękanych chorobami aborygenów do ruchu. Nawet gdyby projekt ze słoniami nigdy się nie rozpoczął, biolog uważa, że warto zachęcać ich do polowania na wielbłądy (przypomnijmy, że w zeszłym roku Australia rozważała wybicie całej populacji wielbłądów, by ograniczyć emisję gazów cieplarnianych).
  17. W PNAS ukazał się artykuł, który potwierdza najgorsze przypuszczenia naukowców badających Park Narodowy Everglades. Profesor Michael Dorcas i jego zespół powiązali gwałtowny spadek liczebności powszechnych niegdyś ssaków z obecnością inwazyjnego pytona birmańskiego. Z powodu ludzkiej głupoty w Parku mieszkają obecnie trzy inwazyjne gatunki węży - boa dusiciel, bardzo rozpowszechniony i agresywny pyton birmański oraz niedawno zauważony, niezwykle agresywny pyton skalny, który w Afryce atakuje nawet ludzi. Pyton birmański może pożerać nawet jelenie i aligatory. Naukowcy zauważyli, że ostatnio dramatycznie spadła populacja wielu powszechnych niegdyś gatunków ssaków. Skoro rozpowszechnione gatunki znikają, uczeni pytają, co dzieje się z tymi zwierzętami, które już przed sprowadzeniem na Florydę pytona były zagrożone. Największe straty zanotowano w populacjach szopa pracza, królika i rysia rudego. Ponadto do największego spadku populacji doszło w odległych południowych obszarach Parku, gdzie pytony żyją najdłużej. Stwierdzono, że populacja szopa spadła tam o 99,3%, oposa o 98,9%, a rysia rudego o 87,5%. Króliki i lisy najprawdopodobniej całkowicie wyginęły. Naukowcy badali populację zwierząt w latach 2003-2011, przebyli niemal 63 000 kilometrów, liczyli osobniki żywe jak i zabite na drogach. Swoje spostrzeżenia porównali z badaniami z lat 1996-1997, które były robione w tych samych obszarach, w czasie, zanim jeszcze pyton birmański zadomowił się w Everglades. Wyniki badań porównano z danymi z północnych części Parku, gdzie pytona jeszcze nie znaleziono. W tych regionach zwierzęta występują w podobnej ilości, co przed pojawieniem się inwazyjnego węża. Pytony niszczą jeden z najpiękniejszych, najcenniejszych i najbogatszych ekosystemów Ameryki. Obecnie tylko zdecydowane, celowe ludzkie działanie może powstrzymać pytona przed inwazją na nowe tereny - mówi Marcia McNutt z amerykańskiej Służby Geologicznej. Przyczyną sukcesu pytonów i zagłady miejscowych gatunków jest fakt, iż tak wielkie węże nigdy nie występowały na Florydzie. Miejscowe gatunki nie potrafią się przed nimi bronić. Brązowy wąż drzewny potrzebował zaledwie 30 lat by niemal całkowicie wyniszczyć ssaki i ptaki na Guam. Od czasu, gdy zauważono, że pytony zadomowiły się w Everglades, minęło tylko 11 lat, a naukowcy już wiedzą, że mają równie niszczący wpływ na ssaki. Możliwe, że inne gatunki ssaków, w tym zagrożone, zostały zdziesiątkowane przez pytony w równym stopniu, ale obecnie nie mamy na ten temat danych - mówi Robert Reed, współautor badań. Od tygodnia import i przewożenie pomiędzy stanami czterech węży dusicieli, w tym pytona birmańskiego, jest zakazane. Na podstawie przepisów Lacey Act z 1900 roku za złamanie zakazu grożą zarówno sankcje finansowe jak i karne.
  18. Badanie krwi, podczas którego analizuje się poziom 9 biomarkerów, pozwala odróżnić osoby z depresją od zdrowej grupy kontrolnej (Molecular Psychiatry). Tradycyjnie diagnozę ciężkiego zaburzenia depresyjnego stawia się w oparciu o opisywane przez pacjenta objawy - podkreśla dr George Papakostas z Wydziału Pyschiatrii Massachusetts General Hospital (MGH). Uzyskiwane wyniki zależą jednak zarówno od doświadczenia klinicysty, jak i dostępu do (wiarygodnych) źródeł. Dodanie biologicznego testu mogłoby zwiększyć trafność diagnostyczną i pomóc w śledzeniu reakcji pacjenta na leczenie. Wcześniejsze testy, w ramach których badano poziom tylko jednego markera z krwi czy moczu, nie były wystarczająco czułe lub specyficzne (czułość testu przesiewowego to procent poprawnie wykrytych patologii, zaś specyficzność testu oznacza procent poprawnie wykrytych osób zdrowych). Biorąc pod uwagę złożoność i zmienność tego typu zaburzeń [nastroju], łatwo zrozumieć, czemu podejścia bazujące na pomiarze pojedynczego czynnika nie miały wystarczającej użyteczności klinicznej - uważa dr John Biello ze sponsorującej badania firmy Ridge Diagnostics. Najnowszy test mierzy poziom 9 markerów, związanych m.in. ze stanem zapalnym, rozwojem i utrzymywaniem neuronów przy życiu czy interakcjami różnych części mózgu biorących udział w reakcji stresowej. Później za pomocą specjalnego równania wylicza się wskaźnik MDDScore - liczbę od 1 do 100, oznaczającą procentowe prawdopodobieństwo, że dana osoba ma ciężkie zaburzenie depresyjne. W praktyce klinicznej stosowany zakres będzie wynosił od 1 do 10. W pilotażowej fazie badań wzięło udział 36 pacjentów z dużą depresją, leczoną w 3 ośrodkach na terenie USA. Uwzględniono też 43-osobową grupę kontrolną. Na obecność depresji wskazywały MDDScore 33 z 36 chorych oraz 8 z 43 przedstawicieli grupy kontrolnej. Średni wynik w grupie chorych wynosił 85, a w grupie kontrolnej tylko 33. W następnej fazie badań uwzględniono dodatkową grupę 34 pacjentów, z których 31 uzyskiwało dodatni wynik MDDScore. Połączenie wyników obu etapów pozwoliło stwierdzić, że test przesiewowy ma ok. 90-proc. czułość i 80-proc. specyficzność. W przyszłości akademicy zamierzają przeprowadzić badania na większej próbie. Wg nich, posługiwanie się testem biologicznym, nie psychologicznym może przekonać pacjentów, że ich przypadłość da się leczyć.
  19. Założyciele serwisu The Pirate Bay mogą trafić do więzienia. Szwedzki Sąd Najwyższy nie zgodził się bowiem rozpatrywać ich sprawy. Oznacza to, że wyroki wydane w październiku 2010 roku przez Sąd Apelacyjny są ostateczne. Peterowi Sunde grozi 8 miesięcy więzienia, Frederik Neij może spędzić za kratkami 10 miesięcy, a biznesmen Carl Lundstrom został skazany na 4 miesiące. Wszyscy trzej mają też zapłacić odszkowania w łącznej wysokości 46 milionów koron, czyli około 6,8 miliona dolarów. Czwarty z oskarżonych, Gottfrid Svartholm, który nie stawił się na dwóch kolejnych rozprawach przed Sądem Apelacyjnym, może powędrować do więzienia na rok. W jego przypadku uznano bowiem, że ostatecznym wyrokiem jest ten wydany przez sąd niższej instancji. A w nim zapadły surowsze wyroki. Jeden ze skazanych poinformował, że odwołają się do Europejskiego Trybunału Sprawiedliwości. To jednak nie wstrzymuje wykonania wyroku w Szwecji. Niewykluczone jednak, że skazani w ogóle nie trafią do więzienia. W Szwecji zwyczajowo odejmuje się 12 miesięcy od każdego wyroku więzienia, w sprawach, które toczą się ponad 5 lat. Ostateczna decyzja należy jednak od sądu. Nawet jeśli sąd odmówi zmniejszenia wyroku, twórcy The Pirate Bay trafią do więzienia dopiero za kilka miesięcy. Dwóch z nich - Peter Sunde i Frederik Neij - nie mieszka już w Szwecji, co skomplikuje wyegzekwowanie wyroku. Witryna The Pirate Bay funkcjonuje normalnie, gdyż nie była ona przedmiotem postępowania sądowego. Na wszelki jednak wypadek zaczęto przekierowywać ruch z zarejestrowanej w USA domeny .org na domenę .se, gdyż obawiano się, że uprawomocnienie się wyroku spowoduje, iż władze USA zajmą domenę.
  20. Mikael Hed, dyrektor firmy Rovio, która stworzyła grę „Angry Birds“ stwierdził, że piractwo nie jest wcale takie złe i może przynosić firmom zyski. „Piractwo jest pewnym problemem, nie tylko jeśli chodzi o aplikacje, ale przede wszystkim na rynku produktów konsumenckich. Sprzedawane są, szczególnie w Azji, olbrzymie ilości podrobionych produktów. Możemy wiele nauczyć się od przemysłu muzycznego, w tym także tego, jak okropny sposób walki z piractwem wybrali“ - stwierdził Hed. Jego zdaniem piractwo przynosi szkody, jednak wybrana przez studia nagraniowe metoda walki z nim raczej odstrasza użytkowników od kupowania legalnych produktów. Ponadto, jak twierdzi Hed, może w efekcie przynosić zyski, gdyż zwiększa bazę użytkowników produktu. „Piractwo nie jest tak całkowicie złe - w efekcie może przynieść pieniądze. Od przemysłu muzycznego nauczyliśmy się, by przestać traktować konsumentów jak użytkowników, a traktować ich jak fanów. I to dzisiaj robimy. Mówimy o tym, ilu fanów mamy. Jeśli ich stracimy, to po naszej firmie, jeśli zwiększymy ich liczbę - firma rozkwitnie“ - mówi Hed. Przed kilkoma miesiącami Rovio poinformowało, że legalni użytkownicy pobrali 500 milionów kopii Angry Birds. Ponadto firma sprzedaje też koszulki i maskotki, które cieszą się ogromną popularnością. Każdego miesiąca klienci nabywają milion takich przedmiotów. Mimo swojej krytyki studiów nagraniowych Hed nie wykluczył, że jego firma podpisze z nimi umowę przewidującą promowanie ścieżek dźwiękowych w grze.
  21. Niewydolność serca wiąże się z pogorszeniem funkcjonowania poznawczego i utratą substancji szarej mózgu. Wg autorów badania, utrudnia to realizację zaleceń lekarza, np. pamiętanie o zażywaniu właściwych leków o wyznaczonej porze. Nasze wyniki pokrywają się z obserwacjami osób z niewydolnością serca, które mają problem z wdrożeniem złożonych zaleceń i sugerują, że wskazane są prostsze instrukcje. Prof. Osvaldo Almeida z Uniwersytetu Zachodniej Australii zbadał za pomocą testów poznawczych 35 pacjentów z niewydolnością serca (NS), 56 z chorobą niedokrwienną serca (ChNS), która często, ale nie zawsze towarzyszy niewydolności, oraz 64 zdrowe osoby (grupa kontrolna). Objętość istoty szarej w różnych częściach mózgu oceniano za pomocą rezonansu magnetycznego. Okazało się, że w porównaniu do grupy kontrolnej, pacjenci z niewydolnością serca wypadli gorzej pod względem pamięci bezpośredniej i długotrwałej, a także szybkości reakcji. W ramach naszego studium ustaliliśmy, że zarówno niewydolność, jak i choroba niedokrwienna serca wiążą się z utratą neuronów w określonych obszarach mózgu, które są ważne dla modulowania emocji i aktywności umysłowej. Jest ona silniej zaznaczona u osób z niewydolnością, ale może także występować u pacjentów z chorobą niedokrwienną bez niewydolności serca. [...] Ludzie z NS i ChNS wykazują, w porównaniu do grupy kontrolnej, drobne deficyty poznawcze. Ponownie są one bardziej widoczne u chorych z NS. Regiony, w których stwierdzono ubytki substancji szarej, odpowiadają za pamięć, wnioskowanie i planowanie. Istnieją dowody, że optymalizują one wydajność w wymagających wysiłku umysłowego złożonych zadaniach. W konsekwencji utarta komórek nerwowych w tych obszarach może upośledzić [...] pamięć, zdolność modyfikowania zachowania, hamowanie emocjonalne i poznawcze, a także organizację. O ile nam wiadomo, to pierwsze studium, w którym uwzględniono dodatkową grupę z ChNS, dzielącą czynniki ryzyka z NS. Pozwoliło nam to wykazać, że ubytki poznawcze mogą być niespecyficznym skutkiem narastającego wyniszczenia chorobą sercowo-naczyniową. Analizy ujawniły, że subtelnych deficytów nie da się wyjaśnić upośledzeniem frakcji wyrzutowej lewej komory, powszechnymi schorzeniami współwystępującymi czy markerami biochemicznymi. W przyszłości Almeida zamierza ustalić, za pośrednictwem jakich szlaków fizjologicznych HF prowadzi do utraty neuronów i pogorszenia funkcjonowania poznawczego i czy zmiany mają charakter postępujący.
  22. Obserwacje humbaków (Megaptera noveangliae) pozwoliły niemieckim inżynierom udoskonalić... helikoptery. Specjalistów z Niemieckiego Centrum Lotniczego i Kosmicznego (DLR) zainteresował fakt, że pomimo obecności olbrzymich płetw piersiowych, humbaki są w stanie wykonywać pod wodą skomplikowane akrobacje i błyskawicznie zmieniać kierunek poruszania się. Rotor śmigłowca odpowiada za zapewnienie siły ciągu, kontrolę kierunku oraz prędkości. Gdy wirnik się obraca, jego łopata, która porusza się w tym samym kierunku, co śmigłowiec, szybciej przesuwa się do przodu niż łopata poruszająca się w kierunku przeciwnym. Ta różnica w prędkości powoduje powstawanie turbulencji, wibracji oraz jest przyczyną niestabilności. Te niekorzystne zjawiska nabierają na sile przy szybkim locie i zmianach kierunku. Możliwe jest też utrata siły nośnej przez łopatę poruszającą się w kierunku przeciwnym do śmigłowca. Kai Richter i jego koledzy z DLR zastanawiali się, czy coś podobnego do guzów na płetwach piersiowych humbaka pomogłoby w udoskonaleniu wirników. Uczeni przeskalowali te guzy do rozmiarów wirnika i stworzyli gumowe pierścienie o średnicy 6 milimetrów. Następnie przymocowali po 186 takich pierścieni do krawędzi natarcia każdego z wirników. Zaobserwowano, że taki zabieg znacząco zmniejszył zakłócenia pracy rotora. Piloci testowi potwierdzili, że widza różnicę w zachowaniu maszyny w powietrzu. Wyniki pierwszy lotów są na tyle obiecujące, że Niemcy złożyli wniosek patentowy i pracują nad udoskonaleniem swojego projektu. Oczywiście w przyszłości na łopaty wirników nikt nie będzie naklejał kawałków gumy. Odpowiedni kształt otrzymają one już w fabryce.
  23. NASA informuje, że pomimo niezwykle niskiej aktywności Słońca, Ziemia przyjmuje więcej energii niż jej oddaje. To kolejny dowód, iż nasza gwiazda nie odgrywa większej roli w ocieplaniu się klimatu planety. Naukowcy pracujący pod kierunkiem Jamesa Hansena, dyrektora Goddard Institute for Space Studies, opublikowali wyniki swoich badań w piśmie Atmospheric Chemistry and Physics. Ich obliczenia wykazały, że pomimo bardzo niskiej aktywności słonecznej w latach 2005-2010, Ziemia absorbuje więcej ciepła niż wypromieniowuje go w przestrzeń kosmiczną. Całkowita irradiancja słoneczna zmienia się o około 0,1% podczas okresów zmniejszonej aktywności słonecznej. Nasza gwiazda zmienia poziom swojej aktywności w 11-letnich cyklach. Zwykle przez rok mamy do czynienia z minimum słonecznym, później aktywność gwiazdy rośnie. Ostatnio jednak Słońce było niezwykle spokojne aż przez dwa lata. Od czasu, gdy ludzie wysyłają w przestrzeń kosmiczną satelity, nie zaobserwowano jeszcze tak małej aktywności naszej gwiazdy. Jeśli zatem Słońce miałoby znaczący wpływ na ocieplanie klimatu, powinniśmy to zauważyć chociażby badając budżet energetyczny Ziemi w czasie, gdy gwiazda wykazuje niską aktywność. Badanie nierównowagi budżetu energetycznego naszej planety jest bardzo istotne dla klimatologów, gdyż jeśli w budżecie tym występuje nadwyżka, czyli Ziemia więcej ciepła absorbuje niż wypromieniowuje, klimat będzie się ocieplał. Przy niedoborze energii dojdzie do jego ochłodzenia. Hansen i jego zespół wyliczyli, że w latach 2005-2010 na każdy metr kwadratowy powierzchni Ziemia zaabsorbowała o 0,58 wata więcej energii, niż wypromieniowała. Tymczasem różnica pomiędzy ilością energii dostarczanej na Ziemię przez Słońce w czasie maksimum i minimum aktywności wynosi 0,25 wata na metr kwadratowy. Fakt, że pomimo przedłużonego minimum słonecznego budżet energetyczny jest dodatni, nie jest zaskoczeniem w świetle tego, co wiemy o klimacie. Warto jednak zwrócić na to uwagę, gdyż to niezaprzeczalny dowód, iż Słońce nie jest główną siłą napędową globalnego ocieplenia - stwierdził Hansen. Z badań pracowników NASA wynika również, że jeśli chcielibyśmy osiągnąć równowagę w bilansie energetycznym Ziemi, ilość dwutlenku węgla w atmosferze powinna wynosić około 350 części na milion. Obecnie jest to 392 części na milion.
  24. Wg naukowców z Uniwersytetów w Exeter i Oksfordzie, pojawienie się 470 mln lat temu pierwszych roślin wywołało reakcję łańcuchową w postaci serii zlodowaceń. W ordowiku (488-444 mln lat temu) klimat stopniowo się ochładzał. Miało to związek ze znacznym spadkiem poziomu atmosferycznego węgla. Najnowsze brytyjskie badanie, którego wyniki ukazały się w piśmie Nature Goscience, sugeruje, że miało to związek właśnie z pojawieniem się roślin. Wśród pionierów znajdowały się rośliny, które dały początek mchom. Pobierając ze skał wapń, magnez, fosfor i żelazo, doprowadzały do chemicznego wietrzenia powierzchni naszej planety. Wywierało to silny wpływ na globalny obieg węgla, a więc i na klimat. Niewykluczone, że procesy te prowadziły do masowego wymierania życia morskiego. Wykorzystanie jonów wapnia i żelaza ze skał krzemianowych, np. granitu, prowadziło do pobierania węgla z atmosfery i powstawania nowych skał węglanowych w oceanie (zachodziło więc uwęglanowienie, in. karbonizacja). Wskutek tego globalne temperatury spadły o ok. 5 st. Celsjusza. Poza tym wywołane przez pierwsze rośliny wietrzenie zwiększało ilość fosforu i żelaza w oceanie. Nasilało to fotosyntezę i skutkowało uwięzieniem kolejnych porcji węgla. Nic dziwnego, że temperatura znowu spadła o 2-3 stopnie. Akademicy prowadzili eksperymenty na współczesnym mchu Physcomitrella patens. Różne skały, z mchem na wierzchu lub bez, umieszczano w inkubatorze. Po 3 miesiącach można było określić wpływ roślin na chemiczne wietrzenie skał. Później posłużono się modelem systemu ziemskiego, który pozwolił stwierdzić, jak rośliny mogły wpływać na zmianę klimatu w ordowiku. Orogeneza (Taconic Orogeny) prowadziła do intensywnego wypiętrzania gór i wietrzenia wzdłuż tego, co obecnie stanowi śródatlantyckie i północno-wschodnie wybrzeże USA. W ordowiku wzrósł też wskaźnik erupcji bazaltu - dość podatnej na wietrzenie skały. Dodatkowo ruch kontynentów przez strefę konwergencji tropikalnej, gdzie opady są intensywne, także nasilał wietrzenie. Wszystko to razem mogło od środkowego ordowiku do wczesnego syluru obniżyć stężenie CO2 do ok. 12-krotności dzisiejszego poziomu (ang. present-day atmospheric level, PAL). Ponieważ do wywołania zlodowaceń tego okresu potrzeba było, jak wykazały złożone modele klimatyczne, 8 PAL, musiało zadziałać coś jeszcze. Rośliny... Biorąc pod uwagę ogromny wpływ roślin, prof. Liam Dolan z Uniwersytetu Oksfordzkiego twierdzi, że rośliny odgrywają centralną rolę w regulacji klimatu; robiły to kiedyś, robią teraz i będą, oczywiście, robić w przyszłości.
  25. Casey Holliday, biolog z University of Missouri, odkrył nowy gatunek prehistorycznego krokodyla, przodka dzisiejszych gadów. Na jego głowie znajdowała się gruba tarcza. Aegisuchus witmeri stanowi cenne źródło informacji o ewolucji krokodyli. A. witmeri to najstarszy znaleziony w Afryce przodek naszych współczesnych krokodyli. [...] Stwierdzamy, że przodkowie krokodyli byli o wiele bardziej zróżnicowani, niż naukowcy sądzili. "Tarczogłowy" żył w późnej kredzie, ok. 95 mln lat temu. Okres ten często nazywa się erą dinozaurów, ale biorąc pod uwagę ostatnie odkrycia, specjaliści coraz częściej posługują się terminem "era krokodyli". Holliday zidentyfikował A. witmeri, analizując częściowo zachowaną sfosylizowaną czaszkę. Pochodzi ona z Maroka i przed badaniami Amerykanina przeleżała parę lat w Royal Ontario Museum w Toronto. Ślady układu naczyń krwionośnych na czaszce wskazują, że na szczycie głowy znajdowała się struktura przypominająca tarczę (miała ona kształt wyniesionego pierścienia). Biolog podejrzewa, że służyła do wabienia partnerów i/lub odstraszania wrogów. Niewykluczone też, że pozwalała kontrolować temperaturę głowy. Porównując kości, Holliday ustalił, że czaszka A. witmeri była bardziej płaska od czaszek innych znanych gatunków. Sugeruje to, że nie polował on na dinozaury. Sądzimy, że tarczogłowy używał swych długich szczęk jako pułapek na ryby. Możliwe, że leżał, aż niczego niepodejrzewająca ryba przepływała tuż przed jego nosem. Gdy była już dostatecznie blisko, otwierał pysk i zjadał ją bez walki. Mocne szczęki nie były mu więc potrzebne - tłumaczy Nick Gardner z Marshall University. Gardner i Holliday ustalili, że głowa prehistorycznego mieszkańca Afryki miała długość ok. 152 cm, a całe ciało mierzyło zapewne nieco ponad 9 m.
×
×
  • Dodaj nową pozycję...