Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37640
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Na całym świecie gwałtownie pogarsza się sytuacja płazów. Zwierzęta te stoją obecnie przed dwoma olbrzymimi zagrożeniami - utratą habitatów i epidemią chytridiomycosis. To śmiertelna choroba powodowana przez grzyba z gatunku Batrachochytrium dendrobatidis. Niestety, jak dowiadujemy się z najnowszego numeru PNAS, epidemią najbardziej zagrożone są dziewicze habitaty. Badania przeprowadzone przez uczonych z Cornell University wykazały, że przed epidemią w pewnym stopniu chroni... dewastacja habitatów, szczególnie ich wylesianie. Jednak może to pomóc jedynie tym nielicznym gatunkom, które są w stanie przeżyć w zniszczonych przez człowieka ekosystemach. To podwójne zagrożenie. Większość tropikalnych płazów jest wyspecjalizowanych, nie tolerują niszczenia habitatów. Jest więc nieprawdopodobne, by przetrwały w zdewastowanym środowisku - mówi Guilherme Becker, doktorant z Cornell i główny autor badań. Analiza dystrybucji Batrachochytrium dendrobatidis wykazała, że najlepiej rozpowszechnia się on w dziewiczych lasach. Takie zjawisko zanotowano zarówno w Australii jak i Kostaryce. Biorąc pod uwagę takie zmienne jak wysokość nad poziomem morza, szerokość geograficzna, klimat, bogactwo ekosystemu i inne, okazało się, że jedynie utrata habitatów powoduje zmiany w rozprzestrzenianiu się choroby. Dane te potwierdzono obserwacjami z Brazylii. Te wyniki przeczą są sprzeczne z dotychczasowymi badaniami, które wykazywały, że utrata bioróżnorodności przyczynia się do rozprzestrzeniania takich chorób jak malaria czy denga. Batrachochytrium dendrobatidis zaatakował już 350 gatunków na całym świecie i zawsze do wybuchu epidemii dochodziło w dziewiczych lasach. Becker i jego promotor, Kelly Zamudio, sugerują, że Bd słabiej rozprzestrzenia się w zdewastowanym środowisku z powodu mniejszej liczby gatunków lub zmienionego klimatu. Wielu specjalistów nie zgadza się jednak z takimi wnioskami. Na papierze wszystko wygląda dobrze i jest to interesujące, przeczące intuicji, odkrycie - jednak są inne sposoby, by je wyjaśnić - mówi Peter Daszak, szef organizacji EcoHealth Alliance. Popiera go Vance Vrendenburg, specjalista ds. ekologii płazów z San Francisco State University. Bd nie radzi sobie dobrze w wysokich temperaturach i do wiedzieliśmy już wcześniej, ale nie zgodzę się z wnioskiem, że badania te obalają olbrzymi materiał dowodowy wskazujący, że utrata bioróżnorodności ułatwia rozprzestrzenianie się patogenów - mówi. Jego zdaniem wyjaśnieniem może być też fakt, że habitaty położone niżej nad poziomem może są zawsze bardziej zanieczyszczone, szczególnie w przypadku Kostaryki, gdzie większość obszarów chronionych znajduje się wysoko nad poziomem morza. Włączenie Kostaryki do zbioru danych może zatem zafałszować obraz wskazując na większą liczbę problemów w obszarach dziewiczych. Ewentualnie, mówi Vrendenburg, patogen mógł już dotrzeć do bardziej zdewastowanych obszarów i poczynić tam szkody. Do obszarów dziewiczych choroby docierają na samym końcu ze względu na niewielką obecność tam człowieka. Gdy jednak tam dotrą, dochodzi zwykle do masowych zachorowań. Daszak zwraca uwagę przede wszystkim na fakt, że niewiele wiemy o chorobach trapiących płazy. Naukowców interesują przede wszystkim choroby dotykające zwierzęta hodowlane i towarzyszące człowiekowi. W dziedzinie chorób zwierząt dziko żyjących jesteśmy w epoce kamienia - mówi. Większość naukowców już się poddała i nie próbują walczyć z epidemią Bd. Świat należy teraz do Bd - mówi Karen Lips z University of Maryland. Wraz z Vrendenburgiem skupia się ona teraz na zrozumieniu, jak to się stało, że niektóre płazy przetrwały epidemię. Vrendenburg jest optymistą, mimo strat jakie poniósł ekosystem m.in. w King's Canyon w Kalifornii. Było tam 10 000 żab. Teraz jest ich 175, ale te które przetrwały rozmnażają się i nie padają. Ewolucja działa. Może po prostu nie tak szybko, jak byśmy chcieli - mówi uczony.
  2. Parzenie herbaty wydaje się zwykłą codzienną czynnością, jednak i wtedy może dochodzić do ważnych naukowych odkryć. Przygotowując napar z ostrokrzewu paragwajskiego (yerba mate), zespół prof. Ernesta Althsulera z Uniwersytetu w Hawanie odkrył proces odpowiadający za napływ liści do czajnika, z którego nalewa się wodę. Susz nie zostaje wpompowany, za jego poruszaniem się pod prąd musi więc stać coś innego. Yerba mate przygotowuje się, wlewając do naczynia (mate lub guampa) ostudzoną wodę. Liście i łodyżki unoszą się zazwyczaj na powierzchni, jednak część przemieszcza się pod prąd i trafia do czajnika. Gdy Kubańczycy powtórzyli czynności z wykorzystaniem sproszkowanej kredy, dalej obserwowali to samo. Dopóki odległość między dzióbkiem a powierzchnią wody w naczyniu była mniejsza niż 1 cm, część cząstek napływała do czajnika. Już wcześniej naukowcy zaobserwowali wiry powstające w czasie poziomego przepływu cieczy. Odpowiadają one za przepływ w kierunku odwrotnym do głównego nurtu wzdłuż brzegów naczynia/kanału. Altshuler, S. Bianchini i A. Lage-Castellanos uważają jednak, że podobne wiry powstają również w wodzie spadającej z czajnika. Zjawisko można wyjaśnić m.in. efektem Marangoniego (przepływem wywołanym gradientem napięcia powierzchniowego), ponieważ w miarę jak rośnie liczba listków/cząstek kredy unoszących się na powierzchni cieczy, w dolnym naczyniu spada napięcie powierzchniowe. By wiry przeciwstawne zadziałały, należy pamiętać, żeby strumień wody z czajnika nie był zbyt długi w stosunku do swej szerokości. Inaczej zachodzić będzie przepływ laminarny (uwarstwiony), który charakteryzuje się dużą przewagą sił lepkości nad siłami bezwładności. Naukowcy komentujący wstępne doniesienia Kubańczyków podkreślają, że do ostatecznej oceny ich koncepcji konieczne jest ujawnienie większej ilości danych.
  3. Chińscy naukowcy z Uniwersytetu Południowo-Wschodniego w Nankinie poinfomowali o stworzeniu urządzenia, które, kontrolując sposób zaginania światła powoduje, iż obiekty wydają się mniejsze niż są w rzeczywistości. Inżynierowie Wei Xiang Jiang i Tie Jun Cui opublikowali artykuł na ten temat w Applied Physics Letters. Urządzenie zmniejszające może wirtualnie zmniejszyć rozmiary obiektu. Takie urządzenie działa w zakresie mikrofal, może zatem zmylić radary i inny sprzęt wykorzystujący fale elektromagnetyczne do wykrywania przedmiotów i spowodować, iż zostanie podjęta zła decyzja. Nasze urządzenie potencjalnie może zostać zastosowane w przemyśle wojskowym - powiedział Cui. Uczeni wykorzystali materiały do zbudowania ośmiu koncentrycznych pierścieni o wysokości 12 milimetrów każdy. W środku można umieścić niewielki przedmiot. Gdy światło przechodzi przez pierścienie zostaje zagięte, a długość fali ulega kompresji. Po dotarciu do wnętrza pierścieni zachodzi dekompresja. Obserwatorowi z zewnątrz wydaje się, że przedmiot umieszczony w środku pierścieni jest mniejszy niż w rzeczywistości. Inżynierowie wyjaśniają, że całość działa nieco podobnie do „czapki-niewidki" tworzonej z metamateriałów, gdyż wirtualnie zmniejsza średnicę najmniejszego okręgu, w którym znajduje się przedmiot. Teoretycznie można zmniejszyć ją tak bardzo, że środkowy okrąg zniknie wraz ze znajdującym się tam przedmiotem. Chińczycy zarówno teoretycznie jak i praktycznie wykazali, że ich konstrukcja działa tak, jak zakładali.
  4. Telefony wykorzystywane przez pacjentów w szpitalu i osoby, które ich odwiedzają, 2-krotnie częściej zawierają niebezpieczne dla zdrowia bakterie niż aparaty pracowników służby zdrowia. Naukowcy z Wydziału Mikrobiologii Medycznej İnönü Üniversitesi pobrali wymazy z 3 części telefonów komórkowych: klawiatury, mikrofonu i słuchawki. W sumie w studium uwzględniono 200 aparatów. Sześćdziesiąt siedem należało do białego personelu, a 133 do pacjentów i odwiedzających. Okazało się, że chorobotwórcze bakterie udało się wyhodować z 39,6% komórek pacjentów i ich znajomych oraz 20,6% telefonów lekarzy i pielęgniarek. Siedem telefonów pacjentów zawierało wielolekooporne patogeny, w tym Gram-dodatniego metycylinoopornego gronkowca złocistego (MRSA od ang. methicillin-resistant Staphylococcus aureus) i wielolekooporne bakterie Gram-ujemne. Nie występowały one na żadnym z telefonów pracowników służby zdrowia. Turcy podkreślają, że typy znalezionych bakterii oraz wzorce ich oporności stanowią powód do zmartwień. Niektórzy badacze sugerowali wcześniej, że w warunkach szpitalnych to telefony białego personelu stanowią źródło patogenów, jednak zespół z İnönü Üniversitesi bezsprzecznie wykazał, że to nieprawda i znacznie groźniejsze są komórki pacjentów i ich gości. W krajach rozwijających się infekcje szpitalne występują u 25% hospitalizowanych osób. W USA rocznie zdarza się 1,7 mln takich zakażeń. Biorąc pod uwagę statystyki oraz wskaźnik śmiertelności, nie powinno dziwić, że naukowcy poświęcają temu zagadnieniu tyle czasu i wysiłków.
  5. Prof. Mike Picker i dr Jonathan Colville z University of Cape Town odkryli gatunek skaczącego karaczana. Niezauważony kicał wśród poszycia lasu Parku Narodowego Góry Stołowej, a konkretnie Silvermine Nature Reserve. Bardzo szybko został doceniony przez społeczność naukową, ponieważ w zeszłym tygodniu poinformowano, że został wpisany na listę Top 10 New Species for 2011. Zestawienie przygotowują akademicy z Międzynarodowego Instytutu Odkrywania Gatunków na Uniwersytecie Stanowym Arizony. Oprócz skaczącego karaczana do superdziesiątki dostały się pijawki z olbrzymimi ząbkami, bakterie Halomonas titanicae z sopli rdzy na Titanicu czy owocożerna 1,8-m jaszczurka. Zestawienie obejmuje najbardziej interesujące gatunki, których taksonomię opisano w roku poprzedzającym. Picker i Colville odkryli karaczana przez przypadek w 2006 r. Rozciągnęli siatkę, by schwytać muchy, kiedy zobaczyli coś wyglądającego na pierwszy rzut oka na konika polnego. Kiedy jednak zabraliśmy owada do laboratorium, stało się jasne, że to karaczan blisko spokrewniony z pospolitym w naszych domach czy restauracjach karaczanem prusakiem [Blatella germanica], ale natura wyposażyła go w skomplikowane tylne odnóża i zdolność skakania na odległość wielokrotnie przewyższającą długość ciała. Panowie szybko zorientowali się, że wpadli na trop czegoś specjalnego i ważnego. Potwierdziło to badanie mikroskopowe. Ciało owada było szerokie i spłaszczone, a głowa niewielka (pokrywała ją tarcza głowowa). To typowe cechy karaczanów, ale entomolodzy zauważyli też sporo cech charakterystycznych dla koników polnych: muskularne tylne nogi, okrągłe wyłupiaste oczy, które rozszerzają pole widzenia oraz szorstkie "palce", odpowiadające za przyczepność przed i po skoku. Mimo że karaczan z RPA należy do tej samej rodziny co karaczan prusak (do rodziny prusakowatych), jest aktywny w dzień. Żyje na źdźbłach traw tuż obok koników polnych. Cztery lata po odkryciu Picker i Colville napisali artykuł do periodyku Arthropod Systematics & Phylogeny. Dzięki temu owad zyskał oficjalną nazwę Saltoblattella montistabularis (Saltoblattella oznacza po łacinie "niewielki skaczący karaczan", a montistabularis odnosi się do miejsca, gdzie go odkryto). Wydaje się, że S. montistabularis występuje wyłącznie w Parku Narodowym Góry Stołowej, ponieważ nigdzie indziej go nie napotkano. Karaczan doczekał się w krótkim czasie kolejnej publikacji. Tym razem do dwóch odkrywców dołączył trzeci autor - Malcolm Burrows z Uniwersytetu w Cambridge. Pracę poświęcono mechanice skoków. Naukowcy stwierdzili, że współczesny gatunek w żadnym razie nie przypomina pod tym względem drugiego ze skaczących karaczanów: Skok svaba z późnej jury. Jego skamieniałość sprzed 160 mln lat opisano po raz pierwszy w 2007 r. Picker i Colville uważają, że przystosowania obu owadów do skakania rozwinęły się najprawdopodobniej niezależnie.
  6. Eksperci WHO uznali, że telefony komórkowe mogą wywoływać nowotwory u ludzi. Do takiego wniosku doszli naukowcy z International Agency for Research on Cancer po tygodniowym spotkaniu, które odbyło się w Lyonie. Przejrzeli oni dziesiątki publikacji opisujących badania na temat możliwego związku pomiędzy promieniowaniem elektromagnetycznym z telefonów komórkowych, kuchenek mikrofalowych i radarów. International Agency for Research on Cancer to wydział Światowej Organizacji Zdrowia i teraz jego zalecenia zostaną przekazane do narodowych organów odpowiedzialnych za zdrowie obywateli. Agencja zaklasyfikowała telefony komórkowe do grupy 2B, co oznacza, że mogą one powodować nowotwory u ludzi. W tej samej grupie znajdują się np. DDT czy spaliny samochodowe. Stwierdzenie związku lub jego braku pomiędzy używaniem telefonów komórkowych a występowaniem nowotworu może być niezwykle trudne, bądź nawet niemożliwe. Telefony komórkowe są tak rozpowszechnione, że trudno wyobrazić sobie stworzenie grupy kontrolnej z osób, które ich nie używają. Ponadto zmieniają się zachowania związane z używaniem telefonów komórkowych, nie wiadomo zatem nawet, na ile pierwsze badania nad wpływem komórek na zdrowie można odnieść do czasów obecnych. Wiele guzów nowotworowych rozwija się przez dziesięciolecia, a zatem niemożliwe jest stwierdzenie, że telefony komórkowe ich nie wywołują. Najdłuższe z obecnie prowadzonych badań trwają dopiero około dekady. Na razie wiadomo, że promieniowanie elektromagnetyczne z telefonów komórkowych nie prowadzi do bezpośredniego uszkodzenia DNA, ponadto podgrzewa komórki organizmu, ale raczej ich nie niszczy. Dotychczasowe badania wykazały też, że zwiększają aktywność komórek mózgowych, jednak nie wiemy, czy ma to jakiś negatywny bądź pozytywny wpływ.
  7. W 1986 roku w odległości około 10 kilometrów od miejscowości Grado we Włoszech odkryto wrak rzymskiej jednostki pochodzącej z II wieku naszej ery. Od roku 1999 można go oglądać w lokalnym Muzeum Archeologii Podwodnej. Tym, co czyni wrak niezwykłym, jest ołowiana rura o długości 1,3 metra i średnicy 7-10 centymetrów, która wychodziła z kadłuba w okolicach steru. Poza tym niewielka 16,5-metrowa jednostka handlowa nie wyróżnia się niczym niezwykłym. Obecnie archeolog Carlo Beltrame z Uniwersytetu w Wenecji i jego koledzy opublikowali w International Journal of Nautical Archeology artykuł, w którym dowodzą, iż tajemnicza rura była częścią systemu hydraulicznego umożliwiającego dostarczanie świeżej napowietrzonej wody do zbiorników, w których przechowywano żywe ryby. Wiadomo, że mieszkańcy starożytnego Rzymu znali ręczne pompy i zawory zapobiegające cofaniu się wody. Nigdy jednak nie zauważono, by była ona stosowana na jednostkach pływających. Beltrame obala jednocześnie inne teorie dotyczące obecności rury. Jedna z nich mówi, że dziura i rura służyły do odpompowywania wody gromadzącej się pod pokładem. Uczony przypomina jednak, że Rzymianie stosowali w tym celu inny system pomp, który nie wymagał ryzykownego dziurawienia poszycia statku. Inna teoria mówi, że pompa transportowała wodę potrzebną do mycia pokładu i gaszenia ewentualnych pożarów. Beltrame sądzi jednak, że jednostka była zbyt mała, by taki pomysł miał sens. Włoski uczony uważa, że skoro mamy dowody na to, iż statek handlował rybami, gdyż znaleziono przy jego wraku pojemniki na solone sardynki i makrele, to najbardziej logicznym wytłumaczeniem obecności rury są właśnie cele handlowe. Dzięki pompom i zbiornikowi możliwy byłby handel żywymi rybami. Beltrame oblicza, że jednostka wielkości Grado mogłaby przewozić zbiornik wody o pojemności około 4 metrów sześciennych, co pozwoliłoby na transport około 200 kilogramów żywych ryb. By utrzymać je przy życiu konieczne było dostarczanie natlenionej wody. Ta musiałaby być wymieniana co pół godziny. Uczony wyliczył, że znalezione zawory umożliwiłyby na przetoczenie 252 litrów w ciągu minuty. Wymiana wody zajęłaby zatem około 16 minut. Tracey Rihill ze Swansea University, która specjalizuje się w historii technologii starożytnych Grecji i Rzymu uważa, że Beltrame zbyt łatwo odrzucił teorię o zwalczaniu pożarów, ale nie wyklucza, iż ma on rację. Świadectwa literackie i archeologiczne pokazują, że Grecy i Rzymianie handlowali żywymi rybami. Pliniusz Starszy wspomina na przykład, że papugoryby były transportowane z Morza Czarnego i wypuszczano w okolicach współczesnego Neapolu. Z kolei grecki pisarz Athenaeus wspomina olbrzymi okręt Syracusia, który miał na swoim pokładzie wyposażony w ołowiane rury zbiornik z żywymi rybami przeznaczonymi na handel. Znalezienie jednak tego typu urządzeń na małym Grado oznaczałoby, że starożytny handel wyglądał inaczej niż sądzimy. Sądziliśmy, że ryby musiały być spożywane w pobliżu portów, do których zawijały kutry rybackie. Dzięki temu systemowi mogłyby być transportowane w dowolne miejsce - mówi Beltrame.
  8. Naukowcy ze Smithsonian Institution zauważyli największe ze znanych zgromadzenie rekinów wielorybich. Zwierzęta te uważane są za samotników i bardzo rzadko obserwuje się ich stada, liczące zwykle od kilku do kilkudziesięciu osobników. Tym razem podczas badań prowadzonych zarówno z wody jak i powietrza zauważono zgromadzenie liczące sobie nawet 420 zwierząt. Zgromadziły się one na żer u wybrzeży półwyspu Jukatan. Rekin wielorybi to największa żyjąca współcześnie ryba. Żywi się on jednymi z najmniejszych stworzeń występujących w oceanach - zooplanktonem. „Nasze badania wykazały, że w tym przypadku setki rekinów wielorybich zgromadziły się, by żerować na gęstych złożach rybich jaj" - mówi Mike Maslanka, biolog ze Smithsonian Conservation Biology Institute. Mimo, że rekiny wielorybie są olbrzymie - mogą mieć długość nawet 20 metrów i ważyć ponad 13 ton, to wciąż niewiele o nich wiadomo. Badania przeprowadzone podczas wielkiego zgromadzenia rekinów pozwoliły stwierdzić, że żywiły się tam one jajami Euthynnus alletteratus, niewielkiego tuńczyka z rodziny makreli. W tym samym mniej więcej czasie inne, mniejsze zgromadzenie, polowało na widłonogi i krewetki. Uczeni uważają, że należy lepiej chronić okolice półwyspu Jukatan, gdyż, jak widać, są to ważne obszary dla rekinów wielorybich. Zwierzę to występuje we wszystkich oceanach i jest uważane za zagrożone. Niedawno zauważono, że na przestrzeni kilku lat średnia długość rekinów wielorybich zmniejszyła się o 2 metry, co może świadczyć o nielegalnym odławianiu największych osobników. Biorąc pod uwagę fakt, że zwierzęta te osiągają dojrzałość płciową dopiero w wieku 25 lat, kłusownictwo może zagrozić istnieniu gatunku.
  9. Cena akcji Nokii spadła o niemal 16% gdy koncern ogłosił, że bieżący kwartał będzie słabszy niż oczekiwano. W oświadczeniu firmy czytamy, że wiele czynników wpływa negatywnie na wydział Devices and Services i to w większym stopniu niż się spodziewano. Nokia poinformowała również, że przychód netto ze sprzedaży będzie znacznie niższy niż planowane 6,1-6,6 miliarda euro. Firma liczy się z tym, że w bieżącym kwartale nie zanotuje zysku. Inwestorzy Nokii poważnie niepokoją się sytuacją firmy od lutego, gdy nowy dyrektor wykonawczy, Stephen Elop, oświadczył, iż koncern znajduje się w sytuacji człowieka stojącego na płonącej platformie. Nokia notowała rekordową cenę akcji (56,06 USD) w kwietniu 2000 roku, w szczycie bańki dotkomowej. Akcje firmy spadały do lipca 2004, gdy osiągnęły cenę 11,62 USD. W październiku 2007 płacono za nie 39,72 USD i od tamtej pory widoczny jest trend spadkowy. Ostatni duży spadek - z 11,73 do 8,84 USD miał miejsce po ogłoszeniu zawarcia umowy z Microsoftem. Jeszcze na początku maja cena akcji wzrosła do 9,31 USD, by obecnie spaść do około 7 dolarów.
  10. Kanadyjska firma D-Wave Systems sprzedała swój pierwszy komputer kwantowy. Urządzenie wartości 10 milionów dolarów kupił Lockheed Martin. O komputerze D-Wave One tak naprawdę niewiele wiadomo. Firma twierdzi, że wykorzystuje 128-kubitowy procesor umieszczony w kriogenicznej komorze znajdującej się w pomieszczeniu o powierzchni 10 metrów kwadratowych. Mózgiem systemu jest proceso Rainier wykorzystujący technikę „kwantowego wyżarzania" (quantum annealing). Polega ona na znalezieniu najmniejszego elementu z grupy możliwych rozwiązań. Procesor został zaprogramowany za pomocą języka Python. Jednak krytycy zauważają, że w artykule, który ukazał się w Nature zaprezentowano jedynie „nieklasyczne zjawiska" (a zatem takie, które mogą być zjawiskami kwantowymi) na systemie składającym się z 8 kubitów. Profesor Scott Aaronson z MIT-u, znany krytyk firmy D-Wave, mówi: „W swojej nowej pracy zastosowali wyżarzanie kwantowe na ośmiu kubitach połączonych w łańcuch, później wykreślili prawdopodobieństwo konkretnego stanu wyjściowego jako funkcję w czasie poprzez wielokrotne uruchamianie obliczeń i zatrzymywanie ich w wyznaczonych punktach pośrednich. Później sprawdzili jak wygląda w czasie wykres prawdopodobieństwa w stosunku do trzeciego parametru, czyli temperatury i ogłosili, że krzywa temperatury jest zależna od przeprowadzanych operacji numerycznych, co wskazuje na zjawiska z dziedziny mechaniki kwantowej, ale nie wskazuje to jednoznacznie na kwantowe wyżarzanie". Kwantowe wyżarzanie prawdopodobnie zachodzi w procesorze Rainier, ale nie jest jasne, na ile jest ono użyteczne. Wiadomo też, że w systemie D Wave nie dochodzi do splątania kwantowego. Lockheed Martin kupując D Wave One chce prawdopodobnie zostać partnerem kanadyjskiej firmy. Koncern ma duże doświadczenie z najbardziej wydajnymi platformami obliczeniowymi, a jego inwestycję należy traktować bardziej jako wydatek naukowo-badawczy niż inwestycję w produkcję.
  11. Tudor Brown, prezes firmy ARM postanowił nieco ochłodzić nastroje wśród osób oczekujących na rychłe premiery serwerów z kośćmi ARM. Mocno wierzymy w to, że ta chwila nadejdzie. Ten proces już się rozpoczyna, ale minie kilka lat [zanim serwery ARM będą sprzedawane w znaczącej ilości - red.] - mówił Brown. Wiele firm, wśród nich Nvidia, Marvell czy Calxeda, pracuje nad serwerami z kośćmi ARM. Tego typu maszyny mogą przydać się wszędzie tam, gdzie nie jest wymagana największa możliwa moc obliczeniowa. Ich olbrzymią zaletą jest niskie zapotrzebowanie na energię, co w wielu przypadkach przyniesie oznacza duże oszczędności. ARM rozpoczęło własne badania nad serwerami już w roku 2008 w nadziei, że pewnego dnia będą one stanowiły ważny rynek dla tego typu procesorów. Jednak, by do tego doszło, firma musi zadbać o całe związane z tym otoczenie. Musi upewnić się, że istnieje oprogramowanie serwerowe dla architektury ARM i namówić producentów sprzętu, by tworzyli odpowiednie urządzenia. Brytyjska firma intensywnie pracuje nad kolejnymi układami. Zapowiada, że kość Cortex A-15 będzie obsługiwała wirtualizację oraz 64-bitowe oprogramowanie. To jednak dopiero początek implementowania podstawowych technologii, które powinny obsługiwać procesory serwerowe. Dlatego też zdaniem Browna na pojawienie się na rynku większej liczby serwerów ARM trzeba będzie poczekać do roku 2014 lub 2015.
  12. Niektórzy ludzie odczuwają ból innych osób. Najnowsze badania aktywności elektrycznej mózgu ujawniły, dlaczego się tak dzieje. Ból synestetyczny występuje głównie u chorych, którzy stracili własną kończynę. Nie jest to zwykły ból fantomowy, ponieważ nie występuje spontanicznie, ale pod wpływem obserwowanego lub wyobrażonego bólu. Wyobrażenia bólu mogą uruchomić np. widok noża, siekiery czy odgłosy pracujących elektronarzędzi. Obserwowanie/wyobrażanie sobie bólu aktywuje te same obszary, co przetwarzanie "osobistego" bólu. Umożliwia to tzw. system neuronów lustrzanych. Dzięki specjalnym mechanizmom hamującym w zwykłych okolicznościach aktywacja nie jest jednak tak silna jak przy rzeczywistym bólu. Bernadette Fitzgibbon z Monash University i jej zespół udowodnili, że u synestetyków bólowych dochodzi jednak do inhibicji mechanizmów hamujących. Australijczycy zbadali za pomocą EEG 8 osób po amputacjach, które doświadczały zarówno bólu fantomowego, jak i synestetycznego, 10 pacjentów po amputacji, u których występował wyłącznie ból fantomowy oraz grupę kontrolną 10 zdrowych ludzi. Wszystkim pokazywano w czasie eksperymentu zdjęcia rąk i nóg w bolesnych i bezpiecznych sytuacjach. W pierwszej grupie w przypadku określonych elektrod zaobserwowano zmniejszenie amplitudy potencjałów wywołanych bodźcem swoistym (ang. event-related potential, ERP), a w zapisie z elektrody centralnej pośrodkowej zmniejszenie wielkości amplitudy w zakresie fal alfa i theta. Pierwsze ze wskazanych zjawisk wskazuje na inhibicję przetwarzania obserwowanego bólu (strategia ochronna w postaci np. unikania), podczas gdy drugie sugeruje rozhamowanie procesów kontrolnych, które może prowadzić do wzrostu aktywacji neuronów lustrzanych i bólu synestetycznego. Szczegółowe wyniki badań zespołu Fitzgibbon opublikowano w piśmie Social Cognitive and Affective Neuroscience.
  13. Nvidia opublikowała wideo pokazyjące prototypową grę Glowball, która ma być prezentacją możliwości czterordzeniowego procesora Kal-El dla urządzeń przenośnych. W grze, która korzysta z akcelerometra, sterujemy świecącą kulą za pomocą ruchów urządzenia. To wszystko jest symulowane w czasie rzeczywistym. Nie korzystamy z wcześniej przygotowywanych animacji - dowiadujemy się z wideo. Gra działa bardzo płynnie, chociaż z prezentowanego filmu nie dowiemy się, ile czasu mija pomiędzy poruszeniem urządzenia, a reakcją kuli. Na wideo widzimy, co dzieje się po przełączeniu trybu gry tak, by korzystała ona z dwóch, a nie czterech, rdzeni. Z gry praktycznie nie można korzystać. Nvidia zapewnia, że gdy Kal-El trafi do rąk użytkowników, będzie jeszcze bardziej wydajny. To układ prototypowy. Te, które trafią do produkcji będą o 25-30 procent szybsze - stwierdzono na filmie. Producenci procesorów mobilnych muszą mierzyć się z poważnym wyzwaniem. Użytkownicy smartfonów czy tabletów chętnie sięgają po gry komputerowe i chcą, by działały one równie płynnie i miały podobne możliwości, jak gry znane im z pecetów. Jednocześnie jednak wymagają, by obsługujące je procesory nie zużywały zbyt dużo energii i nie wyczerpywały baterii po kilku godzinach. Kal-El ma pojawić się na rynku jeszcze w bieżącym roku. http://www.youtube.com/watch?v=eBvaDtshLY8
  14. Japoński nadawca telewizyjny, firma NHK, testuje nową technologię, za pomocą której telewizor będzie obserwował widza, określi to, co ogląda oraz stopień zainteresowania danym programem. UTAN (User Technology Assisted Navigation) zakłada wyposażenie telewizora w kamery, które fotografują użytkownika, oceniają jego stopień zainteresowania, skupienie na programie. Dane są przetwarzane przez tablet i na jego ekranie wyświetlają się informacje, które mają pomóc użytkownikowi telewizora z znalezieniu mogących go zainteresować programów. Użytkownik sam może zasygnalizować zwiększone zainteresowanie danym programem, możliwe jest też odróżnienie od siebie wielu widzów. Oprogramowanie określa stopień zainteresowania użytkownika na podstawie wyglądu jego twarzy, ekspresji i ruchów. Japońska technologia znajduje się na wczesnym etapie rozwoju i trudno wyrokować, na ile będzie przydatna widzom. Z pewnością jednak zainteresuje reklamodawców.
  15. Międzynarodowa Agencja Energii (IEA) informuje, że w ubiegłym roku emisja dwultenku węgla do atmosfery była rekordowo duża i wyniosła 30,6 gigatony. To o 5% więcej niż w rekordowym dotychczas roku 2008. W 2009 emisja zmniejszyła się z powodu kryzysu gospodarczego. Dane te pokazują, że ludzkość, wbrew zapewnieniom i podpisywanym umowom, nie ma zamiaru zmniejszać emisji zanieczyszczeń i aktywnie walczyć z globalnym ociepleniem. Znaczący wzrost emisji CO2 oraz prowadzone inwestycje w infrastrukturę, które pokazują, że nie będzie ona zmniejszana, to poważny cios w nasze nadzieje dotyczące spowolnienia globalnego wzrostu temperatury tak, by nie był on większy niż 2 stopnie Celsjusza - mówi doktor Fatih Birol, główny ekonomista IEA. Wspomniany wzrost o nie więcej niż 2 stopnie to założenie przyjęte podczas oenzetowskiego szczytu klimatycznego w Cancun w 2010 roku. Udałoby się je osiągnąć, jeśli w długim terminie koncentracja gazów cieplarnianych w atmosferze nie przekroczyłaby 450 części na milion liczonych w ekwiwalencie CO2. A zatem nie mogłaby wzrosnąć o więcej niż 5% w porównaniu z rokiem 2000. Jednak by to osiągnąć w roku 2020 globalna emisja związana z produkcją energii nie może przekroczyć 32 gigaton. Innymi słowy, w ciągu najbliższych 10 lat może ona wzrosnąć mniej, niż w latach 2009-2010. A to, jak widać, jest praktycznie niemożliwe. To kolejny dzwonek alarmowy. Znajdujemy się niezwykle blisko granicy, której nie powinniśmy przekroczyć do roku 2020 o ile chcemy uniknąć wzrostu temperatury powyżej 2 stopni Celsjusza - mówi Birol. W liczbach bezwzględnych do obecnego wzrostu emisji najbardziej przyczyniają się kraje rozwijające się, jak Chiny i Indie. Co prawda za aż 40% emisji odpowiedzialne są kraje OECD, ale odpowiadają one tylko za 25% wzrostu. Jednak z drugiej strony w przeliczeniu na głowę mieszkańca to kraje OECD emitują najwięcej zanieczyszczeń, bo aż 10 ton. Chińska emisja wynosi 5,8 tony, a Indyjska - 1,5 tony.
  16. Obiecujący lek przeciwnowotworowy okazał się równie skuteczną bronią w walce z nadciśnieniem tętniczym powikłanym zajęciem serca (ang. hypertensive heart disease). Wiele wskazuje bowiem na to, że odwraca on niekorzystne skutki autofagii w kardiomiocytach myszy. Autofagia to proces kataboliczny, w wyniku którego w warunkach stresu komórka pozyskuje energię ze strawienia własnych białek. Opisywany lek - należący do grupy ihibitorów deacetylazy histonowej (HDAC) - sprzyja regresji choroby serca. W ramach wcześniejszych badań dr Joseph Hill z UT Southwestern odkrył, że w przebiegu wszystkich chorób serca występuje za mało lub zbyt dużo autofagii, która w zwykłych warunkach jest procesem przystosowawczym (trawione są m.in. obumarłe lub uszkodzone elementy struktury komórki). Przy nadciśnieniu dochodzi do uruchomienia autofagii i przerostu serca, a ostatecznie do niewydolności serca. Ponieważ wykazano też, że HDAC hamują związany z chorobą przerost serca, Amerykanie zaplanowali studium, które miało wyjaśnić, jak konkretny inhibitor deacetylazy histonowej wpływa na autofagię. Wyhodowano myszy z nadreaktywnym procesem autofagii i wywołano hipertrofię serca prowadzącą do niewydolności. Później zwierzętom podano inhibitor HDAC, który miał ograniczyć autofagię. Serce zmniejszyło się do swoich normalnych rozmiarów. Do normy powróciła też osłabiona wcześniej funkcja serca.
  17. Ponieważ samice motyla czerwończyka żarka (Lycaena phlaeas) spółkują tylko raz w życiu, muszą w jakiś sposób uniknąć niechcianych awansów. Japoński entomolog stwierdził, że dają natrętom charakterystyczny znak: składają skrzydła. Spód skrzydeł nie jest już tak jaskrawo ubarwiony jak góra, dlatego stają się mniej widoczne dla upartych konkurentów (Ethology). Wszystko zaczęło się od tego, że dr Jun-Ya Ide z Kurume Institute of Technology w Fukuoce zauważył, że samice czerwończyka często składały skrzydła, kiedy bardzo blisko nich przelatywał inny czerwończyk. Stwierdziłem również, że samice rzadziej składały skrzydła, gdy obok pojawiał się przedstawiciel innego gatunku motyli. Japończyk zaczął się więc zastanawiać, czemu się tak dzieje i doszedł do wniosku, że w ten sposób delikatne samice bronią się przed niekończącymi się próbami kopulacji. By to ostatecznie potwierdzić, skonstruował model samca L. phlaeas. Okazało się, że gdy przybliżał go do samic, często składały skrzydła. Co ciekawe, dziewice tego nie robiły. Na tej podstawie wyciągnąłem wniosek, że gdy samica nie potrzebuje już kopulacji, zamyka skrzydła, żeby się ukryć. Samice przed kopulacją otwierają zaś skrzydła, by zwiększyć swoją widoczność.
  18. Społeczeństwa doświadczone przez zagrożenia, np. wojny, głód czy katastrofy naturalne, mają silniejsze tendencje do ścisłego kontrolowania zachowania swoich członków (Science). Prof. Yoshi Kashima z Uniwersytetu w Melbourne i jego zespół zastanawiali się, czemu jedne społeczeństwa tolerują odstępstwa od normy, podczas gdy w innych grozi za to surowa kara. Australijczycy uważają, że wyjaśnienie tego problemu ma duże znaczenie, ponieważ w różnicy tolerancyjności upatrują źródła potencjalnych konfliktów narodowościowo-kulturowych. W latach 60. ubiegłego wieku antropolog P.J. Pelto zaproponował teorię, która postulowała, że kultury ściśle kontrolujące zachowania społeczne rozwijają się w wyniku wystawienia na oddziaływanie szczególnych (czytaj - trudnych) środowisk. Mając to na uwadze, ekipa Kashimy postanowiła poszperać w historii współczesnych społeczeństw. Zakładano, że konieczność radzenia sobie z większą liczbą wojen, katastrof naturalnych itp. może z czasem doprowadzić do powstania rozmaitych obostrzeń. Bardzo szybko ta hipoteza się potwierdziła. Narody zmagające się z tymi szczególnymi wyzwaniami rozwiną silniejsze normy i będą przejawiać niską tolerancję dla zachowań dewiacyjnych. W ten sposób zwiększą porządek i społeczną koordynację, by skutecznie poradzić sobie z zagrożeniami. Dla odmiany narody z niewielką liczbą zagrożeń ekologicznych i pochodzenia ludzkiego mają o wiele słabszą potrzebę uporządkowania i społecznej koordynacji, stąd słabsze normy i o wiele więcej swobody. Australijczycy oceniali ścisłość norm w różnych krajach, przeprowadzając wywiady z ok. 7 tys. osób z 33 krajów (leżały one na 5 kontynentach, niestety, w badaniach pominięto Afrykę). Respondentów pytano o ocenę tolerancyjności ich państwa czy ilość swobody dawanej ludziom w zakresie przestrzegania norm. Wszystkich proszono też o ocenę właściwości 180 zachowań, w tym kłócenia się lub jedzenia w windzie, płakania w czasie wizyty u lekarza, śpiewania na ulicy, śmiania się na głos w autobusie przeklinania w pracy, flirtowania na pogrzebie lub całowania kogoś w usta w restauracji. Analiza uzyskanych odpowiedzi pozwoliła wyliczyć wskaźnik ścisłości danej nacji i ułożyć na tej podstawie listę. Na jej dole z wynikiem 1,6 uplasowali się niefrasobliwi Ukraińcy, a na szczyt z wynikiem 12,3 trafili Pakistańczycy. W środku stawki znalazły się USA (5,1) i Wielka Brytania (6,9), która okazała się nieco "ostrzejsza" od Francji. Akademicy z Melbourne zebrali historyczne dane statystyczne o każdym z uwzględnionych w studium państw (niekiedy nawet z XVI w.). Okazało się, że państwa, w których w przeszłości pojawił się głód/niedobór wody, była wysoka gęstość zaludnienia, często dochodziło do wojen lub wybuchów epidemii, są częściej nastawione na kontrolę swoich obywateli. Naukowcy ustalili też, że z większym prawdopodobieństwem rozwija się w nich ustrój autokratyczny (samowładczy), media są mniej otwarte, tworzy się więcej zasad/norm, kary są surowsze, popełnia się mniej przestępstw, a ludzie mają mniej praw politycznych. Ograniczenia nie dotyczą wyłącznie przebiegu kontaktów społecznych, ale i osobowości jednostek. W krajach ściśle regulujących wszytsko i wszystkich są one ostrożniejsze, bardziej posłuszne, nastawione na kontrolę impulsów i mniej toleranycjne w stosunku do obcych. Po przyjrzeniu się dokładności zegarów miejskich w głównych miastach okazało się również, że przedstawiciele krajów "ścisłych" przywiązują większą wagę do czasu.
  19. Obecnie testy wielu leków dla ludzi prowadzi się wstępnie na myszach. Możność uzyskania klarownego obrazu wnętrza zwierzęcia ma więc kolosalne znaczenie. W praktyce często wykorzystuje się fluorescencyjne barwniki, ale już kilka milimetrów pod skórą obraz staje się tak zamazany, że naukowcy tak naprawdę nie za bardzo wiedzą, co widzą. W ramach najnowszych eksperymentów specjaliści z Uniwersytetu Stanforda posłużyli się fluorescencyjnymi nanorurkami węglowymi, dzięki czemu rzeczywistością stało się zaglądanie na kilka centymetrów w głąb zwierzęcia. Tradycyjne barwniki nie zapewniały takiej ostrości, a nikogo nie trzeba chyba przekonywać, że w przypadku tak niewielkiego zwierzęcia jak mysz parę centymetrów to naprawdę dużo. Wykorzystywaliśmy już podobne nanorurki do dostarczania testowanych na myszach leków przeciwnowotworowych, ale warto by też wiedzieć, gdzie medykament właściwie trafił, prawda? Z fluorescencyjnymi nanorurkami możemy w czasie rzeczywistym jednocześnie dostarczać leki i obrazować, aby określić dokładność trafiania przez preparat w cel - tłumaczy prof. Hongjie Dai. Zespół wstrzyknął gryzoniom nanorurki o pojedynczej ścianie. Później pozostało obserwować, jak rurki i lek trafiają do narządów wewnętrznych za pośrednictwem układu krwionośnego. Nanorurki świeciły jasno po skierowaniu na zwierzę promienia lasera. Zdjęcia wykonywano kamerą ustawioną na bliską podczerwień. Amerykanie podkreślają, że w odróżnieniu od większości fluorescencyjnych barwników, świecenie fluorescencyjnych nanorurek węglowych obejmuje inną część spektrum bliskiej podczerwieni. To bardzo dobrze, ponieważ naturalna fluorescencja tkanek dotyczy długości fali poniżej 900 nanometrów, pokrywając się z zakresem biokompatybilnych barwników fluorescencyjnych, przez co obraz zostaje zamazany przez fluorescencję tła. Z nanorurkami nie ma tego problemu, ponieważ świecą w zakresie 1000-1400 nm. Na tym jednak nie koniec plusów wynikających z wykorzystania nanorurek węglowych. Ciało rozprasza mniej światła przy większej długości fali z zakresu bliskiej podczerwieni, przez co obraz nie ulega rozmazaniu, gdy światło się przemieszcza. Ekipa Daia eksperymentowała z jednościennymi nanrurkami o różnej chiralności, średnicy itp., dzięki czemu można było dokładnie wyregulować długość fali, przy której będą one fluoryzować. Amerykanie poddali nagranie wideo analizie głównych składowych. W ten sposób jeszcze bardziej polepszono jakość obrazu. W surowym materiale śledziona, trzustka i nerka mogą wyglądać jak jeden uogólniony sygnał. Analiza głównych składowych wyłapuje jednak niuanse zmienności sygnału i rozdziela to, co wydawało się na początku jednością, na sygnały poszczególnych narządów. Można naprawdę widzieć rzeczy położone głęboko lub przysłonięte przez inne organy, np. trzustkę - wyjaśnia jedna z autorek studium studentka Sarah Sherlock. Dai podkreśla, że co prawda za pomocą nanorurek nie uzyska się obrazu tkanek położonych tak głęboko jak w przypadku rezonansu magnetycznego czy tomografii komputerowej, ale i tak poczyniono duże postępy w obrębie popularnych wśród praktyków tanich metod.
  20. Opinia publiczna sądzi, że globalne ocieplenie będzie oznaczało otwarcie Arktyki, ale to tylko część prawdy. Ułatwienia w żegludze będą szły w parze z poważnymi utrudnieniami w transporcie lądowym - mówi Laurence C. Smith, profesor z UCLA, współautor badań dotyczących wpływu globalnego ocieplenia na transport w Arktyce. Badanie Smitha i jego studenta, Scotta Stephensona, ukazały się właśnie w Nature Climate Change. Zdaniem obu naukowców w ciągu najbliższych 40 lat z powodu globalnego ocieplenia wiele obszarów Arktyki zostanie otwartych, podczas gdy do innych będzie znacznie trudniej się dostać niż obecnie. W miarę jak roztapia się lód, otwierają się drogi morskie, ale sieć drogowa, która jest zależna od mroźnego klimatu, jest zagrożona - stwierdził Stepehnson. Uczeni uważają, że na zmianie klimatu zyskają społeczności żyjące na wybrzeżach, turystyka, rybołówstwo, żegluga oraz przemysł wydobywczy na wybrzeżu. Stracą natomiast przemysł drzewny, przemysł wydobywczy i małe społeczności w głębi lądu. Nawet słynna „diamentowa droga" Tibbitt-Contwyoto będzie zagrożona. Stephenson, Smith i geograf z UCLA (University of California, Los Angeles) wykorzystali różne modele klimatyczne i za ich pomocą sprawdzili, jaka będzie dostępność do szlaków komunikacyjnych miesiąc po miesiącu dla lat 2010-2014 oraz 2045-2059. Obecnie szacuje się, że do roku 2050 w Arktyce średnie temperatury wzrosną o 3,6-6,2 stopnia Fahrenheita, a w zimie wzrost ten sięgnie od 7,2 do 10,8 stopnia Fahrenheita. Arktyka odczuje ocieplenie znacznie bardziej niż jakikolwiek obszar na planecie. Najbardziej ucierpią sezonowe drogi po lodzie, które obecnie umożliwiają dostęp do wielu obszarów, gdzie nie opłaca się budować zwykłych dróg. W związku z tym wszystkie kraje, których część terenów leży w Arktyce, utracą w zimie dostęp, w zależności od obszaru, do 11-82 procent terenu. Rosja i Kanada, które w miesiącach zimowych utracą łączność lądową z ponad milionem kilometrów kwadratowych swoich terytoriów. Do roku 2020 droga Tibbitt-Contwoyto, która jest obecnie dostępna przez 8-10 tygodni w roku, będzie dostępna przez około 17% czasu krócej. Czasy podróży ulegną znacznemu wydłużeniu, a sama podróż stanie się droższa i mniej wygodna, gdyż trzeba będzie łączyć różne środki transportu. Przykładowo podróż z Yellowknife do Bathurst Inlet, która obecnie zajmuje 3,8 doby, w połowie wieku wydłuży się do 6,5 doby. Naukowcy podkreślają, że badania przeprowadzali dla dwutonowego pojazdu, zatem dla standardowego samochodu osobowego z pasażerami i ładunkiem. Dla cięższych pojazdów straty będą jeszcze większe. Odległe społeczności, które są uzależnione od zimowych dróg, szczególnie te położone w głębi lądu, będą musiały porzucić transport lądowy na rzecz lotniczego, co znacząco podniesie koszty i pogorszy warunki życia w tych społecznościach - mówi Stephenson. Z drugiej jednak strony dotarcie do społeczności zamieszkujących wybrzeża stanie się łatwiejsze i tańsze. Pojawią się tam bowiem nie tylko duże lodołamacze, ale również mniejsze lżejsze jednostki. Uczeni ocenili, że do roku 2050 trzy z czterech głównych dróg będą dostępne dla mniejszych jednostek od czerwca do września. Ironią losu wydaje się fakt, że z symulacji wynika, iż niedostępne pozostanie Przejście Północno-Zachodnie, z którym wiąże się największe nadzieje. Jednak nawet i w jego przypadku czas, w którym będą mogły z niego korzystać mniejsze jednostki ulegnie wydłużeniu o 30%. Zyska cały światowy handel, gdyż statki nie będą skazane na korzystanie z Kanału Panamskiego, Suezkiego i cieśniny Malakka.
  21. Grafen to niezwykle obiecujący materiał, jednak jest bardzo wrażliwy na działanie czynników zewnętrznych, które mogą negatywnie wpływać na jego użyteczne właściwości. Dlatego też niezwykle ważnym jest znalezienie podłoża pozwalającego na pracę z grafenem i zachowanie jego interesujących nas cech. Nawet samo podłoże może niekorzystanie wpłynąć na grafen. Naukowcy z Wydziału Nauk materiałowych Lawrence Berkeley National Laboratory oraz profesorowie z University of California, Berkeley, połączyli siły w celu znalezienia najlepszego substratu dla grafenu. Każdy substrat wpływa na właściwości grafenu, zatem najlepszą metodą jego badania jest nałożenie go na substrat. Problem jednak w tym, że taki grafen jest niestabilny gdy zostanie poddany badaniu skaningowym mikroskopem tunelowym, gdyż grafenowa membrana może zacząć drgać pod wpływem końcówki mikroskopu - mówi Regis Decker z uniwersytetu w Hamburgu. W listopadzie ubiegłego roku naukowcy z Columbia University poinformowali, że grafen osadzony na podłożu z azotku boru cechuje się znacznie lepszą mobilnością elektronów niż grafen na dwutlenku krzemu. Dobry substrat dla grafenu powinien mieć szerokie pasmo wzbronione i nie powinien mieć wolnych wiązań, by nie zmieniać struktury elektronicznej grafenu. Musi być też bardzo płaski. Azotek boru to dobry kandydat - dodaje Decker. Związek ten ma i tę pożądaną cechę, że ułożenie atomów azotu i boru jest bardzo podobne do ułożenia węgla w grafenie. W celu połączenia grafenu z azotkiem boru najpierw za pomocą taśmy klejącej pobrano z azotku boru cienkie płatki, które osadzono na dwutlenku krzemu wyhodowanym na krzemie wzbogaconym innym pierwiastkiem. Działał on jak bramka. Grafen uzyskano metodą chemicznego osadzania z fazy gazowej na miedzi. Dzięki zastosowaniu Cu atomy węgla samodzielnie uformowały dwuwymiarową strukturę. Następnie grafen przeniesiono za pomocą miękkiego plastiku na azotek boru i uziemiono za pomocą elektrody z tytanku złota. Stworzono w ten sposób trzy próbki grafenu na azotku boru, który porównywano z grafenem na dwutlenku krzemu. Michael Crommie, szef jednej z grup badawczych wspomina, że już poprzednio testowano grafen na SiO2 i udowodniono, że gorsze od możliwych właściwości elektryczne grafenu nie wynikają z niedoskonałości czy uszkodzeń węglowej struktury, ale z zanieczyszczeń występujących w krzemie. Jednym z ich źródeł są zanieczyszczenia uwięzione pomiędzy grafenem a krzemem, podczas nakładania grafenu. Są wśród nich bąbelki powietrza czy molekuły wody. Gdy nakładaliśmy grafen na azotek boru szukaliśmy tych atmosferycznych zanieczyszczeń, ale nie stwierdziliśmy, by wywierały one jakiś wpływ. To dobra wiadomość, bo oznacza ona, że grafenowe urządzenia nie muszą być wykonywane w próżni - stwierdza Victor Brar. Szczegółowe badanie ujawniły szereg różnic pomiędzy grafenem na azotku boru i na dwutlenku krzemu. Grafen osadzony na pierwszym z tych materiałow jest znacznie bardziej płaski, a różnice w wysokości poszczególnych fragmentów nie przekraczają 40 pikometrów, gdy tymczasem w grafenie na dwutlenku krzemu sięgają one 1200 pikometrów. Pod względem elektronicznym różnice w gęstości ładunku w grafenie na azotku boru są niemal niezauważalne. Jak widać na załączonych grafikach, wyniki obu pomiarów - topograficznego i elektronicznego - są znacznie bardziej jednorodne w przypadku grafenu na azotku boru. W końcu bardzo istotna cecha, jaką jest pasmo wzbronione, które, przypomnijmy, naturalnie w grafenie nie występuje. Jako że siatka krystaliczna [azotku boru - red.] jest bardzo podobna do siatki grafenu, teoretycy przewidują, że powoduje ona pojawienie się pasma wzbronionego w grafenie - mówi Decker. System złożony z grafenu i azotku boru jest w wielu zastosowaniach znacznie lepszy od każdego innego systemu. Charakteryzuje się mniejszą liczbą zanieczyszczeń, znacznie bardziej równomiernym rozłożeniem ładunku, mniejszymi różnicami w wysokości i dużo lepszą stabilnością. Podsumowując, jest czystszym środowiskiem do badania właściwości grafenu. Azotek boru to naprawdę cudowny materiał dla praktycznych zastosowań grafenu - powiedział Michael Crommie.
  22. Nvidia zaprezentowała swój pierwszy GPU z rodziny GeForce 500M przeznaczony dla graczy korzystających z notebooków. Procesor GeForce GTX 560M zapewnia rozdzielczość 1080p i jest kompatybilny z bibliotekami DirectX11 oraz korzysta z technologii Optimus. Technologia ta przedłuża czas pracy na bateriach, wyłączając i włączając w razie potrzeby procesor graficzny. Układ 560M korzysta z tej samej platformy co desktopowy GeForce GTS TXS 550 Ti. Procesor wyposażono w 192 rdzenie CUDA, pracuje z szyną pamięci do 192 bitów. Rdzenie taktowane są zegarem o częstotliwości 775 MHz, a shadery - 1550 MHz. Układ współpracuje z kośćmi pamiędi GDDR5 taktowanymi 2,5-gigahercowym zegarem. Całość jest o okoł0o 15% bardziej wydajna niż układ GTX 460M. Zaprezentowano też układ GeForce GT 520MX, który powstał z myślą o lżejszych, mniej wydajnych maszynach. Kość ta współpracuje z 64-bitową szyną pamięci, wyposażona jest w 48 rdzeni CUDA. Wykorzystuje ona pamięci DDR3 i jest taktowana 900-megahercowym zegarem. Układ GeForce GTX 560M znajdziemy w notebookach Toshiby, Alienware'a, ASUSA i MSI.
  23. Po wieloletnich badaniach naukowcy ze Szkoły Medycznej Indiana University potwierdzili, że podawanie myszom z chorobą afektywną dwubiegunową pewnego kwasu tłuszczowego typu omega-3, kwasu dokozaheksaenowego (DHA), normalizuje ich zachowanie. Co ciekawe, zmniejsza także ich pociąg do alkoholu. Pracami zespołu kierował dr Alexander B. Niculescu. Artykuł na temat wyników studium ukazał się w piśmie Translational Psychiatry. Amerykanie posłużyli się zmodyfikowanymi genetycznie gryzoniami z typowymi objawami choroby dwubiegunowej: epizody depresji przeplatały się u nich z wywołanymi stresem epizodami manii. Myszy, którym podano DHA, normalizowały swoje zachowanie - nie były depresyjne ani nie przejawiały manii. Kiedy wykorzystując kompleksowe badania ekspresji genów, przyjrzeliśmy się ich mózgom, byliśmy zaskoczeni, widząc, że geny będące znanymi celami leków psychiatrycznych zostały poddane modulowaniu i normalizacji przez DHA [bazując na poziomie markerów we krwi, stwierdzono dodatkowo, że DHA działa na mózg tak samo jak psychotropy również na poziomie molekularnym]. Co ciekawe, zmniejszył się również pociąg zwierząt do alkoholu. Dwubiegunowe myszy, tak jak niektórzy ludzcy pacjenci z chorobą afektywną dwubiegunową, uwielbiają alkohol. Gryzonie na DHA piły o wiele mniej; kwas tłuszczowy zdławił zachowanie związane z nadużywaniem alkoholu. Amerykanie sądzą, że dieta bogata w kwasy omega-3 może pomóc w leczeniu i zapobieganiu zaburzeniu afektywnemu dwubiegunowemu oraz alkoholizmowi. Ponieważ nie wywołują one znaczących skutków ubocznych, niewykluczone, że w przyszłości będą podawane chorym w ramach terapii dodatkowej. Dzięki temu można by zmniejszyć dawki leków, nadal osiągając ten sam pożądany terapeutycznie efekt. Opisywany model sprawdziłby się zwłaszcza u kobiet w ciąży lub planujących ciążę.
  24. Windows Phone 7 zdobył dotychczas tak niewielki odsetek rynku, że Microsoft zarabia na nim kilkukrotnie mniej niż na... systemie Android. Analityk Horace Dediu pokusił się o porównanie korzyści finansowych, jakie koncern z Redmond odnosi z obu systemów operacyjnych. W pierwszym kwartale bieżącego roku do WP7 należało zaledwie 1,6% rynku. Microsoft informuje, że dotychczas sprzedał dwa miliony licencji na ten system operacyjny. Dediu szacuje, że pojedyncza licencja jest sprzedawana w cenie 15 dolarów, co oznacza, że licencje Windows Phone 7 przyniosły koncernowi Ballmera 30 milionów dolarów. Tymczasem koreańska firma HTC płaci Microsoftowi za opatentowane przez koncern technologie, które są wykorzystywane w smartfonach HTC. Dediu twierdzi, że opłata za każde urządzenie wynosi 5 dolarów. Biorąc pod uwagę fakt, że HTC sprzedało już około 30 milionów telefonów z Androidem, koncern z Redmod zyskał 150 milionów USD. System Google'a zapewnia zatem Microsoftowi pięciokrotnie większe przychody niż Windows Phone 7. To jednak nie koniec. Jak donosi Business Insider, Microsoft pozywa innych producentów telefonów z Androidem o naruszenie swojej własności intelektualnej i domaga się opłat licencyjnych w wysokości od 7,5 do 12,5 USD od urządzenia. W marcu 2010 roku Steve Ballmer mówił: W Androidzie nie ma niczego darmowego.
  25. Testy wykazały, że arktyczne renifery reagują na bodźce świetlne z zakresu ultrafioletu. Biolodzy uważają, że ta niezwykła umiejętność pozwala im znajdować pokarm i unikać drapieżników w specyficznej atmosferze Arktyki, gdzie promieniowania UV nie brakuje, a widoczność często bywa bardzo ograniczona (Journal of Experimental Biology). Naukowcom po raz pierwszy przeszło przez myśl, że renifery mogą widzieć ultrafiolet, kiedy ustalono, że promienie UV przechodzą przez soczewkę i rogówkę zwierzęcia. Podczas eksperymentów przepuszczano światło przez próbki tkanek. Okazało się, że oko renifera radzi sobie ze światłem o minimalnej długości fali ok. 350 nanometrów. Wyposażeni w tę wiedzę brytyjscy akademicy postanowili sprawdzić, czy u znieczulonego renifera wystąpi reakcja elektryczna siatkówki na promienie UV (gdyby wystąpiła, oznaczłoby to, że ssak widzi ultrafiolet). Posłużyliśmy się ERG (elektroretinografią), dzięki której umieszczając na wewnętrznej stronie powieki niewielki kawałek złotej folii, utrwaliliśmy elektryczną reakcję siatkówki na światło - wyjaśnia prof. Glen Jeffery z Uniwersyteckiego College'u Londyńskiego. W ten sposób udowodniono, że czopki, światłoczułe receptory siatkówki oka, rzeczywiście reagują na UV. Renifery żywią się porostami. Ponieważ organizmy te pochłaniają ultrafiolet, pasącym się zwierzętom mogą się one wydawać czarne. Dzięki tej samej umiejętności wilki, których futra także absorbują promienie UV, jawią się na tle śniegu jako ciemniejsze. Biolodzy podkreślają, że na tym nie koniec korzyści, bo w ramach widzenia UV i mocz staje się bardziej widoczny, co pozwala stwierdzić, że w pobliżu znajduje się inny renifer lub drapieżnik. Wszystko wskazuje na to, że widząc ultrafiolet, renifery nie doświadczają żadnego uszerbku na zdrowiu, nie cierpią np. na typową dla ludzi ślepotę śnieżną (jest to oparzenie siatkówki w okolicach plamki żółtej, wywołane promieniami światła widzialnego oraz światłem ultrafioletowym). W niedalekiej przyszłości ten sam zespół chce przeprowadzić testy na fokach. Prof. Jeffery sądzi bowiem, że wiele arktycznych zwierząt widzi ultrafiolet. W końcu nie ma dowodów na to, że niedźwiedzie polarne muszą się zmagać ze skutkami ślepoty śnieżnej...
×
×
  • Dodaj nową pozycję...