Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37670
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    250

Zawartość dodana przez KopalniaWiedzy.pl

  1. Intel oficjalnie potwierdził informacje o zamiarze budowy nowej fabryki w stanie Oregon. Koncern ogłosił, że przeznaczy od 6 do 8 miliardów dolarów na rozwój procesu produkcyjnego w technologii 22 nanometrów. Pieniądze zostaną wydane zarówno na udoskonalenie czterech z już istniejących fabryk, jak i na budowę nowego zakładu, w którym znajdzie pracę od 800 do 1000 osób. Nowa fabryka, o nazwie D1X, będzie zakładem badawczo-rozwojowym i rozpocznie pracę w 2013 roku. Udoskonalone zostaną natomiast linie produkcyjne w fabrykach w Arizonie (Fab 12 i Fab 32) oraz w Oregonie (D1C i D1D).
  2. Hitachi Global Storage Technologies jest twórcą najbardziej wydajnego dysku twardego przeznaczonego na rynek przedsiębiorstw. Urządzenie Ultrastar C10K600 to 2,5-calowy dysk, którego prędkość obrotowa wynosi 10 000 obrotów na minutę. Rodzina Ultrastar C10K600 składała się dotychczas z urządzeń o pojemności 300 i 450 gigabajtów. Teraz wzbogaciła się ona o 600-gigabajtowy HDD. Hitachi twierdzi, że jest on o od 15 do 18 procent szybszy od analogicznych produktów konkurencji, a przy tym zużywa o co najmniej 22% mniej energii. Dyski Ultrastar C10K600 wyposażono w 64 megabajty pamięci cache oraz interfejs SAS-600.
  3. Zachodnia dieta obfitująca w nasycone tłuszcze, cukier i cholesterol wiąże się z nadmierną reakcją układu odpornościowego na sepsę, prowadząc do zaostrzenia ogólnoustrojowej reakcji zapalnej organizmu na zakażenie (BMC Physiology). Szacuje się, że w porównaniu do szczuplejszych jednostek, wśród osób z otyłością olbrzymią śmiertelność związana z sepsą jest 7-krotnie wyższa. Dużo wyższe są również wskaźniki dotyczące samej zapadalności na sepsę. Wyniki naszych ostatnich badań sugerują, że te niekorzystne zjawiska mogą być skutkami wysokotłuszczowej diety, która predysponuje układ odpornościowy do silniejszej reakcji na infekcję – tłumaczy dr Chantal Rivera z Uniwersytetu Stanowego Luizjany. Zespół Rivery chirurgicznie wywoływał sepsę u myszy, które przez 3 tygodnie żywiły się zwykłą paszą lub karmą wzorowaną na diecie zachodniej (wzbogacono ją tłuszczami nasyconymi). Okazało się, że w tej drugiej grupie reakcja zapalna uległa zaostrzeniu za pośrednictwem szlaku receptora Toll-podobnego 4 (ang. Toll-like receptor 4, TLR4). TLR4 wykazują powinowactwo do bakterii, wirusów RNA oraz taksolu. Stanowią one ważny element pobudzania odporności naturalnej i nabytej. Po połączeniu z różnymi ligandami aktywują m.in. syntezę oraz indukcję wydzielania cytokin prozapalnych oraz nasilają ekspresję antygenów zgodności tkankowej (MHC). Wyniki wskazują, że obranie na cel szlaku transmisji sygnałowej TLR w ramach leczenia sepsy może być szczególnie użyteczne w przypadku otyłych pacjentów – podsumowuje Rivera.
  4. Steve Ballmer w e-mailu do pracowników Microsoftu poinformował, że z pracy w firmie zrezygnował jeden z jej najważniejszych i najbardziej znanych menedżerów - Ray Ozzie. Obecnie pełni on funkcję głównego architekta oprogramowania. Nie wiadomo, kiedy Ozzie zakończy pracę. Ballmer zapowiedział, że firma nie będzie szukała jego następcy. Jak wyjaśnił, stanowisko głównego architekta oprogramowania jest zupełnie wyjątkowe. Ray Ozzie objął je w 2006 roku. W okresie przejściowym, przed odejściem z pracy, Ozzie będzie zajmował się działem rozrywki. Ozzie rozpoczął pracę w Microsofcie w 2005 roku, gdy koncern przejął jego firmę - Groove Networks. Jego najbardziej znanym dziełem jest zestaw Lotus Notes. To już kolejny wysoki rangą menedżer koncernu z Redmond, który opuści firmę. We wrześniu odszedł szef wydziału biznesowego Stephen Elop, który objął stanowisko prezesa Nokii. Rezygnację z pracy planuje też Robbie Bach, odpowiedzialny za wydział rozrywki i urządzeń.
  5. Standardem w ocenie skuteczności i bezpieczeństwa nowych leków są badania z placebo, jednak jak podkreślają naukowcy z Uniwersytetu Kalifornijskiego w San Diego, nie ma standardów dotyczących samego placebo i tak naprawdę nikt nie wie, jaki dokładnie ma ono skład. Specjaliści odwołują się do badań metodą podwójnie ślepej próby z placebo w grupie kontrolnej, ponieważ sądzą, że aby mieć pewność, że to lek działa i jest skuteczny, trzeba dokonywać porównań między grupami ludzi, w przypadku których jedyną różnicą jest to, czy zażywają, czy nie zażywają leku. Badania są podwójnie ślepe, gdyż nikt nie wie, co mu się podaje: medykament czy placebo. W ten sposób eliminuje się zaburzający wpływ różnych czynników, w tym oczekiwań. Do poszczególnych grup trafia się w wyniku losowania. Wg prof. Beatrice Golomb opisywany standard jest podstawowym problemem, jako że nauka nie zna tak naprawdę substancji, które byłyby fizjologicznie obojętne. Na domiar złego nie istnieją regulacje dotyczące składu placebo i często jest on determinowany przez wytwórców testowanych leków, którzy są żywo zainteresowani wynikami. Składu placebo się nie ujawnia i osoby zapoznające się potem ze studium mogą się tylko zastanawiać, czy składowe placebo nie wpłynęły przypadkiem na rezultaty. Golomb już od dawna zajmuje się zagadnieniami dotyczącymi placebo. Piętnaście lat temu wysyłała do Nature listy w tej sprawie. Pozytywny lub negatywny wpływ placebo może prowadzić do błędnego postrzegania negatywnego lub pozytywnego oddziaływania samego leku. Wpływ w tym samym kierunku co lek zagraża niedocenieniem i odrzuceniem badanej substancji. Obawy te nie są jedynie teoretyczne. Skoro od momentu wysyłania listów do Nature minęło 15 lat, Amerykanie postanowili sprawdzić, czy i co zmieniło się w tym czasie w kwestii placebo. Zespół Golomb analizował, jak często w artykułach nt. randomizowanych badań, które opublikowano w ciągu 2 lat w czterech najważniejszych pismach traktujących o medycynie ogólnej, ujawniano skład placebo. Okazało się, że skład pigułek placebo ujawniano w mniej niż 10% przypadków. Dużo częściej w ramach grupy kontrolnej nie podawano tabletek, lecz przeprowadzano inne zabiegi, np. iniekcje, akupunkturę bądź operacje, w przypadku których ludzie z większym prawdopodobieństwem chcą wiedzieć, czym jest placebo.
  6. Jak donosi The Oregonian, Intel ma w najbliższym czasie ujawnić plany budowy nowego zakładu w stanie Oregon. Obecnie najnowocześniejszą fabryką Intela jest D1D, które znajduje się właśnie w Oregonie. Dziennikarze twierdzą, że tereny należące do półprzewodnikowego giganta zostaną powiększone i staną na nich nowe budynki. Wciąż jednak nie wiadomo, jaką rolę będą one spełniały. Jedne spekulacje mówią o nowej fabryce układów scalonych, inne o zakładzie badawczo-rozwojowym, w którym będą prowadzone prace nad wdrożeniem linii produkcyjnych wykorzystujących 450-milimetrowe plastry krzemowe. Intel zaprzecza doniesieniom prasy, nazywając je "spekulacjami".
  7. W stanie Sabah na Borneo przygotowuje się prowizoryczne mosty ze starych węży pożarniczych dla zagrożonych wyginięciem orangutanów, by poszukując partnera czy partnerki, mogły pokonywać rzeki. Obecnie malezyjskie władze tworzą kolejne takie konstrukcje, ponieważ w zeszłym roku zauważono kilka orangutanów, które z nich korzystały – ujawnia Marc Ancrenaz, współzałożyciel francuskiej organizacji Hutan. Pomaga ona tutejszemu departamentowi ochrony przyrody (Sabah Wildlife Department, SWD) w ratowaniu tych dużych małp człekokształtnych. Szacuje się, że w stanie Sabah pozostało ok. 11 tys. orangutanów, ale wiele z nich żyje w izolacji z powodu wycinki lasów pod zabudowę czy plantacje olejowca gwinejskiego (Elaeis guineensis Jacq.). Zdecydowano się na wykorzystanie węży pożarniczych, ponieważ orangutany są znane ze swojego lęku przed wodą. Cechuje je wysoka gęstość ciała, dlatego najczęściej nie pływają, lecz toną. Z tego powodu w wielu ogrodach zoologicznych na świecie zrezygnowano z fos, by zapobiec nieszczęśliwym wypadkom. Pierwszy most utworzono przed siedmioma laty, ale dopiero w 2009 r. kamera utrwaliła przemieszczającego się w ten sposób małpiego akrobatę. Potem świadkowie wspominali o innych podobnych przypadkach. Zwierzęta potrzebują trochę czasu, aby się przyzwyczaić do mostów... Jeśli nie będziemy ich w stanie ponownie połączyć, bardzo szybko wyginą [dojdzie do tego w ciągu ok. 60 lat wskutek chowu wsobnego i utraty habitatu] – twierdzi Ancrenaz, który jednocześnie dodaje, że most to rozwiązanie na krótką metę i ostatecznym celem powinno być zalesienie przetrzebionych obszarów. Benoit Goossens z SWD zapewnia, że wkrótce mosty zawisną nad rowami na plantacjach olejowca. Wg Hutanu, liczebność orangutanów w stanie Sabah zmalała w ciągu ostatnich 15 lat 8-krotnie, choć dzięki wysiłkom różnych grup tempo wymierania udało się nieco spowolnić.
  8. Nazwy marek, w których wykorzystuje się powtarzalne dźwięki, np. coca-cola, wywołują pozytywne emocje, wpływając na decyzje dotyczące zakupu czy odwiedzania, dajmy na to, restauracji. Profesor Jennifer Argo z University of Alberta przeprowadziła wraz z zespołem sześć eksperymentów. W ramach jednego z nich ochotnikom prezentowano te same lody, którym nadano dwie różne nazwy. W jednej znalazły się powtarzalne dźwięki, w drugiej nie. Produkty wprowadzano pojedynczo, w każdym przypadku wymieniając podczas opisywania nazwę marki. Choć jak wiadomo, lody były identyczne, większość konsumentów wybierała markę z powtarzalną nazwą. W innych eksperymentach wolontariusze wybierali pomiędzy rodzajami deserów czy telefonów komórkowych. Za każdym razem uzyskiwano podobne rezultaty jak w przypadku lodów. Powtarzalne dźwięki wywoływały pozytywne emocje i tym samym oddziaływały na podejmowane decyzje. Bazując na tych wynikach, można powiedzieć, że kluczowe dla omawianej strategii są reklamy telewizyjne i radiowe. Nie mniejszą rolę odgrywają jednak pracownicy. Zanim gość coś zamówi, kelner może przypomnieć nazwę swojej restauracji, a sprzedawca wymienić podczas rozmowy z klientem nazwę marki. W każdym z sześciu eksperymentów Argo wykorzystywano nazwy różniące się bardzo nieznacznie, np. zanozan i zanovum. Niekiedy zmieniano tylko jedną literę. Mimo to obserwowano znaczny wpływ zabiegu na podejmowane decyzje i reakcje. Jednak, jak zwykle bywa, co za dużo, to niezdrowo, dlatego zbyt duża powtarzalność, która prowadzi do pogwałcenia naturalnych zasad językowych, skutkuje negatywnymi emocjami i zmniejszeniem chęci wybrania danej opcji. Prof. Argo podkreśla też, że opisywana strategia jest mniej skuteczna, jeśli dana osoba jest już pozytywnie nastawiona do marki.
  9. Jak dowiadujemy się z AllThingsDigital na reklamę Kinect i Windows Phone 7 Microsoft przeznaczył astronomiczną kwotę niemal miliarda dolarów. Kampania reklamowa obu produktów powinna ruszyć pełną parą już w ciągu najbliższych tygodni. Kinect, znany początkowo jako Projekt Natal, to rozszerzenie funkcjonalności konsoli Xbox 360, o którym informowaliśmy przed rokiem. Z kolei Windows Phone 7 to niedawno zaprezentowany system operacyjny dla smartfonów. Menedżerowie z Redmond postanowili przeznaczyć ponad 400 milionów USD na reklamę WP7 i 500 milionów na Kinect. Wiadomo, że kampania reklamowa obejmie m.in. lokale Burger Kinga, produkty Pepsi, materiały będą dodawane do płatków śniadaniowych Kellogg's, zobaczymy ją na YouTube oraz na witrynach Nickelodeon i Disneya. Reklamy obejrzą widzowie "Tańca z gwiazdami" i serialu Glee. Pojawią się one także w magazynach People oraz InStyle, a na Times Square odbędzie się specjalna impreza.
  10. Współcześnie życie na naszej planecie jest ściśle uzależnione od tlenu. Nie zawsze jednak było go tak pod dostatkiem, jak dziś. Przez większość swojej historii sięgającej 4,5 miliarda lat atmosfera ziemska zawierała jedynie śladowe ilości tlenu. W jaki sposób tlen gromadził się w atmosferze i jak ten proces wiązał się z rozwojem życia i ewolucją? Do niedawna nie było to wiadome. Przez większość ziemskiej historii w oceanach kwitło życie, ale były to jedynie bakterie i inne mikroorganizmy. Wytwarzały one tlen w procesie fotosyntezy, ale nie było go raczej wystarczająco wiele, żeby mógł gromadzić się w atmosferze i hydrosferze. Tym niemniej, około 2,3 miliarda lat temu ilość tlenu wzrosła. Czy jednak była już wtedy tak wysoka jak obecnie? Czy pierwsze wyższe organizmy miały do dyspozycji dużo tlenu, czy mało? Na pytanie to udało się odpowiedzieć naukowcom dopiero niedawno. Ariel Anbar, biogeochemik na Arizona State University i prowadzący uniwersytecki program astrobiologiczny (ASU Astrobiology Program) odkrył sposób na dokładne zmierzenie stężenia tlenu w ziemskiej prehistorii. Kluczem okazały się czarne łupki, skały osadowe powstałe z osadów na dnie dawnych oceanów. Są one bogate w molibden. Pierwiastek ten występuje w siedmiu stabilnych izotopach, których proporcje można łatwo i dokładnie zmierzyć. Izotopy molibdenu układają się w skałach frakcjami, a stopień ich frakcjonowania zależny jest od obecności tlenu. W ten sposób, wiążąc frakcje izotopów molibdenu z wiekiem osadów określono stężenie tlenu w różnych momentach historii. Okazało się, że zawartość tlenu w atmosferze porównywalna do obecnej pojawiła się niedawno, bo dopiero około 500 milionów lat temu. Naukowcy powiązali ten fakt z pojawieniem się na ziemi roślin naczyniowych, których najstarsze skamieniałości datowane są na około 400 milionów lat temu. Tkanka roślin naczyniowych jest - w porównaniu z tkanką wcześniejszych form roślinnych - dość odporna na rozkład. Organiczny węgiel pochodzący z roślin naczyniowych zatem jest bardziej skłonny do pozostawania w osadach niż wiązania się z tlenem. Dominacja roślin naczyniowych spowodowała zatem wzrost stężenia tlenu w atmosferze. Większy poziom tlenu utorował drogę do ewolucji wyższych form zwierzęcych, rozpoczynając współczesny eon fanerozoiczny. Tak zatem ewolucja nie tylko zależna jest od obecności tlenu, ale sama na tę obecność wpływa.
  11. Przeciętny amerykański nastolatek wysyła miesięcznie 3339 SMS-ów czyli średnio sześć na każdą godzinę, w której nie śpi. Z danych Nielsena wynika, że wszelkie rekordy biją pod tym względem dziewczęta w wieku 13-17 lat, które każdego miesiąca wysyłają 4050 SMS-ów. Od ubiegłego roku liczba SMS-ów wysyłanych przez nastolatków wzrosła o 8%. Analitycy Nielsena wyjaśniają też fenomen popularności SMS-ów. Rodzicom nastolatków, dla których telefon jest urządzeniem służącym do rozmawiania, zapewne trudno będzie zrozumieć, że dla 78% młodych ludzi SMS jest technologią bardziej funkcjonalną niż rozmowy głosowe. Aż 22% badanych stwierdziło, że jest łatwiejsza w użyciu, a dla 20% - szybsza - niż nawiązywanie tradycyjnego połączenia. Z kolei aż 43% amerykańskich nastolatków kupiło telefon komórkowy właśnie dlatego, że chcieli wysyłać SMS-y. To z kolei wyjaśnia, dlaczego możliwość korzystania z klawiatury QWERTY tym, na czym przede wszystkim skupiają się, gdy wybierają telefon. Wraz ze wzrostem popularności SMS-ów spada popularność połączeń telefonicznych. Co prawda przeciętny młody Amerykanin rozmawia średnio przez 646 minut w miesiącu, ale jest to o 14% krócej niż w roku 2009.
  12. „Ważenie" odległych obiektów astronomicznych to niełatwa sprawa. Stosunkowo łatwo ocenia się masę gwiazd, stosując do nich modele ewolucyjne, ale to wciąż jest jedynie przybliżone szacowanie. Nowa metoda pozwoli zważyć niektóre gwiazdy przy pomocy planety i księżyca. Metoda, na razie opracowana teoretycznie, jest dziełem astrofizyka Davida Kippinga z Harvard-Smithsonian Center for Astrophysics. Obecnie znamy blisko setkę egzoplanet w takim położeniu i na tyle masywnych, że przechodząc przed tarczą swojej gwiazdy (nazywa się to tranzytem) przysłaniają jej blask. Jest to nie tylko doskonała metoda odkrywania planet, ale także oceny masy takiego zespołu ciał niebieskich. Parametry ruchu planety pozwalają ocenić stosunek mas obu ciał, niestety, nadal tylko relatywnie. Sytuacja zmienia się, kiedy planeta posiada księżyc, który również da się zaobserwować na tle tarczy gwiazdy. Wzajemne oddziaływanie trzech mas komplikuje parametry takiego układu ciał, ale pozwala wykorzystać prawa Keplera do określenia ich masy. Wymaga to sporego nakładu sił i wielu pomiarów, bowiem potrzebne dane to: okres obiegu planety oraz księżyca, rozmiary orbit planety i księżyca względem gwiazdy, rozmiar planety i księżyca względem gwiazdy. Z trzeciego prawa Keplera można dzięki nim wyliczyć gęstość gwiazdy i planety. Ponieważ gęstość to masa podzielona przez objętość - tę ostatnią znamy z rozmiaru, możemy więc policzyć względne masy obu ciał. Wreszcie, mierząc i uwzględniając zakłócenia ruchu gwiazdy powodowane przyciąganiem planety (jej prędkością kątową) można wyliczyć dokładną masę gwiazdy. Niestety, na razie nie jest znany żaden układ planetarny, w którym można by zaobserwować tranzyt zarówno planety jak i jej księżyca, więc odkrycie pozostaje na razie rozważaniem teoretycznym. Astronomowie spodziewają się jednak rychłego odkrycia pierwszych takich układów przez sondę Kepler, a wtedy astronomowie będą mieli na podorędziu odpowiednie narzędzie do wykorzystania.
  13. Astronomowie z Harvard-Smithsonian Center for Astrophysics odkryli jedną z najcięższych znanych gromad galaktyk. Za pomocą South Pole Telescope zauważyli gromadę SPT-CL J0546-5345, która znajduje się w odległości 7 miliardów lat świetlnych od Słońca. Jej wagę oszacowano na około 800 bilionów (1012) większą od masy Słońca. W skład gromady wchodzą setki galaktyk. SPT-CL J0546-5345 zauważono w gwiazdozbiorze Malarza. Jako, że znajduje się ona w odległości 7 miliardów lat świetlnych, a zatem widzimy ją taką, jak była w czasie, gdy wszechświat był o połowę młodszy, a Układ Słoneczny jeszcze nie istniał, wiadomo, że galaktyka się powiększyła. Nasza obecna wiedza pozwala wywnioskować, iż teraz jest czterokrotnie większa, co czyni ją jedną z największych gromad we wszechświecie. Astrofizyk Mark Brodwin mówi, że SPT-CL J0546-5345 zawiera w sobie bardzo stare galaktyki, dzięki czemu nadaje się do studiowania historii wszechświata. Ponadto masywne gromady galaktyk, a w ich wyszukiwaniu specjalizuje się South Pole Telescope, pozwalają badać ciemną energię i ciemną materię.
  14. Choć wyczuwanie zapachu światła mogłoby się kojarzyć z doświadczeniami synestetyka, w rzeczywistości naukowcy zaprzęgli takie właśnie zjawisko do badania sposobów wykorzystywanych przez mózg do rozróżniania woni. Ponieważ zapachy są skomplikowane chemicznie, trudno wyodrębnić obwody neuronalne, które odpowiadają za ich detekcję czy rozróżnianie. Stąd pomysł na wykorzystanie optogenetyki. Prof. Venkatesh N. Murthy i jego zespół z Uniwersytetu Harvarda oraz Cold Spring Harbor Laboratory wbudował aktywowane przez światło kanały jonowe ChR (od ang. channelrhodopsin) w obwodową część węchomózgowia myszy. W ten sposób wyhodowano zwierzęta, u których szlaki węchowe są aktywowane przez światło, a nie przez bodźce zapachowe. Akademicy wykorzystali ChR, ponieważ w ich skład wchodzi cząsteczka retinalu. Ma ona zdolność absorbowania światła i pod jego wpływem zmienia konformację przestrzenną. Murthy podkreśla, że z pozoru członkowie jego zespołu zachowali się antyintuicyjnie. W rzeczywistości jednak odseparowanie poszczególnych wzorców aktywacji mózgu pod wpływem zapachów byłoby niezwykle trudne, jeśli nie niemożliwe, ponieważ wonie są bardzo zróżnicowane i niekiedy wyjątkowo subtelne. Zapytaliśmy więc: co by było, gdybyśmy sprawili, by nos działał jak siatkówka? Dzięki optogenetyce naukowcy mogli scharakteryzować wzorce aktywacji w opuszce węchowej, czyli rejonie otrzymującym informacje bezpośrednio z receptorów nosa. Jako że świetlne dane wejściowe można łatwo kontrolować, Amerykanie przeprowadzili serię eksperymentów ze stymulacją konkretnych neuronów czuciowych. Pierwsze pytanie dotyczyło organizacji przetwarzania oraz tego, jak podobne dane wejściowe są przetwarzane przez sąsiadujące komórki mózgu. Okazało się jednak, że organizacja przestrzenna informacji węchowej w mózgu nie wyjaśnia w pełni naszej zdolności wyczuwania zapachów. Istotna wydaje się również organizacja czasowa. Studium zespołu Murthy'ego pozwala w pewnym stopniu wyjaśnić, jaką rolę w postrzeganiu woni odgrywa timing.
  15. Badania przeprowadzone na University of South Carolina wykazały, że hasła z ograniczonym terminem ważności można łatwo złamać. Okazało się, że 40% takich haseł można złamać w ciągu 3 sekund. Administratorzy sieci bardzo często ustawiają hasła użytkowników tak, by po jakimś czasie ich ważność upływała i użytkownik musiał zastosować inne hasło. Naukowcy przetestowali takie hasła za pomocą łatwo dostępnego narzędzia John The Ripper, które przeprowadza ataki brute-force posługując się słownikiem zaledwie 50 000 wyrazów. Wykorzystano je do sprawdzenia historii haseł dla 7936 kont. Okazało się, że gdy udało już się zdobyć jedno hasło dla każdego z kont, to możliwe było zdobycie wszystkich haseł dla 54% z nich oraz co najmniej połowy dla 90%. Dzieje się tak dlatego, że około 50% użytkowników zmuszonych do zmiany hasła używa dotychczasowego hasła dodając doń cyfrę, a przy kolejnej zmianie hasła powiększają ją o jeden lub jakąś określoną wartość. Szczegółowe wyliczenia pokazały, że w wyniku takiego sposobu postępowania użytkowników atakujący, który już wcześniej wszedł w posiadanie starego hasła, jest w stanie w ciągu 3 sekund złamać 41% nowych haseł. Uczeni uważają, że lepszym wyjściem jest rezygnacja z ograniczonych czasowo haseł na rzecz wymuszenia na użytkownikach, by korzystali z dłuższych trudniejszych do odgadnięcia ciągów znaków.
  16. Superkomputer Anton został specjalnie zaprojektowany do pracy nad symulacją zaginania protein. Testy wykazały, że wykonuje on tego typu zadania stukrotnie szybciej niż dotychczas używane maszyny. Proteiny przyjmują najróżniejsze kształty, od których zależą ich właściwości. Przewidzenie w jaki sposób zagnie się białko pozwala na określenie funkcji, jaką może spełniać. Jest zatem niezwykle istotne np. podczas produkcji leków. Jednak białka są niezwykle skomplikowanymi strukturami, więc obliczenia konieczne do przewidzenia ich ostatecznego kształtu są bardzo czasochłonne. Tutaj z pomocą przychodzi Anton, który nie tylko potrafi je zagiąć, ale i obserwować jego dynamikę. Byliśmy przeświadczeni, że raz zagięta proteina jest statyczna jak skała, ale to nieprawda. Jest bardzo mobilna. Zmienia się pomiędzy poszczególnymi konformacjami - mówi David Eliezer z Weill Cornell Medical College. Anton to dzieło niezależnego instytutu badawczego D.E. Shaw Research. Jego założycielem jest były profesor Columbia University David Shaw. W 1986 roku porzucił on karierę naukową i zajął się finansami. Z czasem założył własny fundusz hedgingowy. Uczony odniósł sukces. W 2009 roku znalazł się na 123. miejscu listy 400 najbogatszych Amerykanów. Forbes oszacował jego majątek na 2,5 miliarda dolarów. Jednak wcześniej, bo w 2001 roku, profesor powrócił do nauki. Założył własny instytut badawczy i wykorzystał swój majątek by pracować nad tym, co go interesuje, i nie musieć oglądać się na dofinansowanie z budżetu federalnego. Zajął się dynamiką białek. Badania nad nią ma umożliwić Anton, superkomputer nazwany tak na cześć Antoine van Leeuwenhoeka. Maszyna jest od początku do końca dziełem pracowników D.E. Shaw Research. Sam założyciel instytutu był doradcą naukowym prezydenta Clintona, doradza też Obamie. Antona przetestowano za pomocą dwóch dobrze poznanych protein - domeny białka WW oraz inhibitora trypsyny. Superkomputer symulował, co dzieje się z białkiem podczas zginania, odginania i ponownego zginania. Uzyskano niezwykłą zgodność ze znanymi danymi eksperymentalnymi, co świadczy o przydatności Antona. Obliczenia, konieczne do pokazania tego, co dzieje się z inhibitorem trypsyny w ciągu 1 milisekundy zajęły Antonowi 100 dni. Dotychczas w tym samym czasie udawało się symulować procesy zachodzące w czasie 10 mikrosekund. Anton jest zatem 100-krotnie szybszy od poprzedników. Pomimo tak znacznego sukcesu Anton nie będzie nadawał się do każdego rodzaju symulacji. Przede wszystkim sam Shaw mówi, że konieczne jest przetestowanie go z innymi proteinami. Ponadto istnieją też białka, których proces zaginania jest liczony w sekundach. Jego symulowanie jest zatem poza zasięgiem nie tylko innych superkomputerów, ale także i Antona. Niewątpliwie jednak nowa maszyna przyczyni się do znacznego skrócenia czasu wielu badań i posłuży do stworzenia w przyszłości jeszcze szybszych superkomputerów specjalizujących się w zaginaniu białek.
  17. Botanicy odkryli nowy rodzaj drzew z rodziny Aptandraceae. Ponieważ jest on endemiczny dla Hondurasu, nadano mu nazwę Hondurodendron (drzewo z Hondurasu). Opisany w październikowym wydaniu periodyku Annals of the Missouri Botanical Garden rodzaj należy do taksonów monotypowych. Oznacza to, że obejmuje tylko jeden gatunek. Doktor Carmen Ulloa z Missouri Botanical Garden i jej zespół ujawnili w artykule, że nowo odkryta roślina ma ok. 12 metrów wysokości i niewielkie kwiaty męskie i żeńskie o średnicy nieprzekraczającej 2 mm. Kwiaty męskie i żeńskie występują na różnych osobnikach, mamy więc do czynienia z drzewem dwupiennym. Owoc osiąga średnicę 2 cm. Jest on otulony kielichem kwiatu, który znacznie się powiększa w czasie dojrzewania owocu. Ze względu na oryginalną formę owocu jedynemu przedstawicielowi rodzaju nadano nazwę Hondurodendron urceolatum (ostatni człon oznacza po łacinie "ukształtowany jak dzban lub urna"). Pierwsze okazy zostały zebrane podczas spisu roślinności Parku Narodowego El Cusuco, prowadzonego przez doktora Daniela L. Kelly'ego w latach 2004 i 2006. Owoc hondurodendronu jest przez miejscowych nazywany guajabą, ponieważ z pozoru przypomina guawę (in. gruszlę jabłkową, Psidium guajava). Z pozoru, ponieważ w tym pierwszym przypadku mamy do czynienia nie z jagodą, a orzechem, w którym gustują małe ssaki. Chociaż wielu botaników opisuje w ramach swojej pracy naukowej liczne gatunki, opisanie nowego rodzaju ma miejsce bodaj tylko raz w ciągu kariery. Tajemnicze drzewo zwróciło moją uwagę w maju 2007 r. Czterej badacze z czterech instytucji w trzech krajach rozpoczęli analizy morfologiczne i molekularne, by ostatecznie wykazać, że to nie tylko nieznany dotąd nauce gatunek, ale i nowy rodzaj z rodziny Aptandraceae. Po pierwszym spotkaniu zespół porównał okaz do gatunków uwzględnionych w Catálogo de las Plantas Vasculares de Honduras. Jak wiadomo, nie udało się go do niczego dopasować. Hondurodendron występuje wyłącznie w Parku Narodowym El Cusuco w północno-zachodnim Hondurasie. Rośnie rzadko na całym jego obszarze. Wchodzi głównie w skład podszytu, także w lasach z powalonymi drzewami i wzdłuż szlaków. Rośnie na glebach dobrze zdrenowanych (m.in. na stokach). Wiele wskazuje więc na to, że rodzaj Hondurodendron reprezentują rozrzucone populacje w obrębie jednego pasma górskiego. Jest to zalesiony obszar, otoczony przede wszystkim przez uprawy. Ponieważ w parku narodowym odbywa się wycinka i wypas bydła, zgodnie z zaleceniami Międzynarodowej Unii Ochrony Przyrody i Jej Zasobów, naukowcy a priori sklasyfikowali nowy takson jako zagrożony.
  18. Międzynarodowy zespół astronomów udowodnił, że nowa technika wykorzystująca płytę apodyzacji fazy (Apodizing Phase Plate) może zostać wykorzystana do odkrywania planet, które dotychczas były przesłaniane przez światło swojej macierzystej gwiazdy. Uczeni z University of Arizona, Szwajcarskiego Federalnego Instytutu Technologii (ETH), European Southern Obserwatory, Uniwersytetu Leiden i Instytutu Maksa Plancka wykorzystali APP do obserwowania ruchu planety Beta Pictoris b. Krąży ona wokół gwiazdy Beta Pictoris znajdującej się 63 lata świetlne od Ziemi. Szacuje się, że Beta Pictoris b jest od 7 do 10 razy większa od Jowisza. Dotychczas mogliśmy obserwować planety z obcych systemów, których odległość od gwiazdy macierzystej była nie mniejsza niż odległość Neptuna od Słońca. Bliższe planety były przesłaniane światłem gwiazdy. Wagę dokonania uświadomimy sobie, gdy weźmiemy pod uwagę fakt, iż Neptun znajduje się w odległości 30 jednostek astronomicznych od Słońca. Dotąd nie widzieliśmy niczego, co było bliżej gwiazdy. Jednak Beta Pictoris b krąży w odległości około 7 jednostek astronomicznych od gwiazdy. Możemy zatem obserwować tak bliskie obiekty. Nowa technika prawdopodobnie pozwoli na odkrycie olbrzymiej liczby planet, gdyż astronomowie przypuszczają, że najwięcej planet krąży w odległości od 5 do 10 jednostek astronomicznych od gwiazd. Nowa technika polega na wykorzystaniu niewielkiej szklanej płytki z naniesionym specjalnym wzorem. Podstawy teoretyczne wykorzystania APP i stworzenia odpowiedniego wzoru na płytce są dziełem Jonathana Codony z University of Arizona. Ten specjalny wzór częściowo blokuje światło z gwiazdy, umożliwiając dojrzenie obiektów, które emitują znacznie słabszy blask. Dodatkową zaletą systemu Codony są jego odporność na zakłócenia oraz uniwersalność. Dotychczas stosowane techniki blokowania światła z gwiazd wymagały osobnego dopasowywania filtra do właściwości każdej gwiazdy. Ponadto były niezwykle wrażliwe na zakłócenia.
  19. Czternastego października w Madrycie rozpoczęły się pierwsze narodowe zawody w sjestowaniu. Potrwają do 23 października. Zawodnicy położyli się na niebieskich kanapach, niektórzy w ubraniu, niektórzy w piżamie. Po jakimś czasie na większości stanowisk ustał ruch i zapadła cisza. Organizatorzy wydarzenia chcą w nietypowy sposób zwrócić uwagę Hiszpanów na zagrożenie, jakie stwarza dla tradycyjnej sjesty współczesny tryb życia. Wszyscy dokądś biegną i nie mają czasu na wyciszenie. By naświetlić problem, przewodniczący Narodowego Stowarzyszenia Przyjaciół Sjesty Daniel Blanco udzielił wywiadu m.in. reporterowi CNN Alowi Goodmanowi. Pięćdziesięcioosobowa grupa nakłoniła dyrekcję madryckiego centrum handlowego Islazul zarówno do udostępnienia miejsca na sofy, jak i do ufundowania nagrody na zakupy w wysokości 1000 euro. Do klatki piersiowej ochotników mocowany jest pulsometr, który pozwala jury stwierdzić, czy dana osoba naprawdę zasnęła. Podczas zawodów sjesta trwa zaledwie 20 minut, lecz na tradycyjną jej wersję trzeba przeznaczyć godzinę lub więcej. Liczba przyznanych zawodnikowi punktów zależy m.in. od czasu, jaki przespał w ciągu 20 min oraz nietypowych pozycji przyjmowanych podczas odpoczynku. Dodatkowo doceniane są też oryginalne piżamy oraz chrapanie. Sklepy w samym centrum Islazul nie są zamykane na czas popołudniowej drzemki. Zwolennicy sjesty narzekają na coraz dłuższe i bardziej wymagające dni pracy. Przeciwnicy powołują się na kryzys, problemy euro oraz 20-procentowe bezrobocie.
  20. Przeprowadzka do innego kraju może zmienić stężenie testosteronu u mężczyzn, oddziałując w ten sposób na ich popęd płciowy i ryzyko wystąpienia różnych chorób, np. raka gruczołu krokowego (Journal of Clinical Endocrinology & Metabolism). Zespół Jane Cauley z University of Pittsburgh w Pensylwanii zwrócił uwagę na dwa fakty i postanowił sprawdzić, czy mają ze sobą coś wspólnego. Po pierwsze, naukowcy przypomnieli, że hormony płciowe, takie jak testosteron czy estradiol, wpływają na różne choroby związane z wiekiem. Po drugie, częstość występowania tych chorób nie jest taka sama w poszczególnych państwach. Czy może więc być tak, że mężczyzn z różnych krajów cechuje różny poziom testosteronu? By odpowiedzieć na to pytanie, Amerykanie analizowali próbki krwi 5003 panów powyżej 65. roku życia z Hongkongu, Japonii, Szwecji, Trynidadu i Tobago oraz USA. Do zmierzenia stężenia androgenów, estrogenów oraz prekursorów/metabolitów hormonów płciowych w surowicy wykorzystali spektrometrię mas, poziom globuliny wiążącej hormony płciowe (SHBG) oceniono zaś metodą radioimmunologiczną (ang. radioimmunoassay, RIA). Biorąc poprawkę na wiek i wagę panów, ustalono, że ogólny poziom testosteronu w Stanach Zjednoczonych, Szwecji i Tobago był podobny, podczas gdy u mieszkańców Hongkongu i Japonii aż o ok. 20% wyższy niż u pozostałych badanych. U Japończyków stwierdzono jednocześnie wyższe stężenie SHBG, przez co poziom wolnego testosteronu w tkankach bardzo spadał. W wyniku tego zjawiska obywateli Kraju Kwitnącej Wiśni cechował najniższy poziom aktywnego testosteronu. Co ciekawe, u Azjatów, którzy przeprowadzali się do USA, poziom testosteronu upodabniał się do wskaźników typowych dla Amerykanów pochodzenia europejskiego. Jak tłumaczy Cauley, wskazuje to na rolę czynników środowiskowych. Kiedy z kolei akademicy skupili się na wolnym estradiolu, ustalili, że jego stężenie było od ok. 10 do 16% wyższe u mężczyzn o pochodzeniu afrykańskim, którzy żyli na Tobago lub w USA. Tego typu wzorzec wskazuje na podłoże genetyczne. W przypadku Japończyków poziom wolnego estradiolu był relatywnie niski. Uzyskane wyniki są bardzo ważne, ponieważ poziom testosteronu ma związek z ryzykiem chorób sercowo-naczyniowych i demencji, stężenie testosteronu i estradiolu łącznie kształtują popęd, a estradiol wydaje się mieć coś wspólnego z cukrzycą typu 2. W przyszłości zespół zamierza przeanalizować rozkład geograficzny innych hormonów.
  21. Bakterie potrafią sprawnie pływać w cieczach, posługując się wicią jak śrubą napędową. Na powierzchni pełzają, potrafią się też szybko poruszać, czepiając się pilami podłoża i przeciągając. Ale chodzenie wydawało się od zawsze zarezerwowane dla organizmów stojących znacznie wyżej w rozwoju. A bakterie mogły chodzić tylko w dowcipach. Ale świat właśnie stanął na głowie, a wszystko to dzięki naukowcom z University of Illinois w Urbana-Champaign, którzy odkryli, że niektóre bakterie potrafią chodzić. Dosłownie chodzić i to całkiem sprawnie. Badania pokazały, że jest to całkiem typowa forma poruszania się. Po podziale bakterii na dwie nowe, prawie 70% nowych komórek wstawało „wyprowadzało się" od swojego bliźniaka. Jak sądzą naukowcy, najprawdopodobniej również w ten sposób bakterie podążają w kierunku przyciągających je substancji, lub uciekają od niebezpieczeństwa. Umiejętność stawania na pilach i chodzenia oznacza, że bakterie mogą poruszać się nie tylko po płaskim, ale również w trzech wymiarach. To znacząco zwiększa ich zasięg i szybkość, z jaką penetrują i zajmują teren. Zespół Wonga zajmuje się badaniem, w jaki sposób bakterie tworzą biofilmy (błony, bakteryjne kolonie) odporne na działanie szkodzących im substancji, w tym środków dezynfekcyjnych i antybiotyków. Umiejętność poruszania się na pilach może mieć z tym związek, a uniemożliwienie im takiego sposobu poruszania się mogłoby utrudnić powstawania biofilmów. Od teraz dowcipy o chodzących bakteriach stały się śmieszne inaczej. Studium, które wielu naukowców określa jako przełomowe, ukazało się 8 października w czasopiśmie Nature.
  22. Pamiętacie scenę z filmu „Seksmisja", w której Lamia, obserwując Maksa i Alberta przybliża obraz, a wraz z obrazem wzmacnia się dźwięk, pozwalając podsłuchać nawet najcichszy szept? To drobnostka w porównaniu z prawdziwą technologią AudioScope, wynalezioną przez norweską firmę Squarehead Technology. Co powiecie na taki „zoom audio-wideo", przybliżanie obrazu wraz z dźwiękiem, ale pozwalające wyłowić rozmowę szeptem w hałasie stadionu sportowego? Opracowana i gotowa technologia została już wypróbowana i jest dostępna w sprzedaży. Składa się z szerokokątnej kamery oraz 325 mikrofonów umieszczonych pod sufitem boiska. Operator monitoringu może dowolnie przybliżać obraz, sprzęt i oprogramowanie ocenia odległość od obserwowanego celu i porównując natężenie i opóźnienie dźwięku ze wszystkich mikrofonów pozwala wyłowić pojedyncze dźwięki spośród skandowania i krzyku kibiców. Czułość jest tak duża, że pozwoli nie tylko zarejestrować kłótnię i obelgi pomiędzy zawodnikami, ale też zalecenia trenera wygłaszane podczas przerwy, rozmowę na trybunach. Można wyłowić nawet trzask pękającego balonu z gumy do żucia. Brzmi nieprawdopodobnie, ale to prawa: kto nie dowierza, niech obejrzy krótki film demonstracyjny pod artykułem. Całość działa w czasie rzeczywistym, ale dźwięk rejestrowany jest dla każdego z mikrofonów z osobna, można więc w dowolnej chwili wrócić do nagrań i sprawdzić co kto mówił. Morgan Kjølerbakken i Vibeke Jahr, twórcy tej technologii, chyba otworzyli puszkę Pandory. System ze zbyt dużą łatwością pozwoli na monitorowanie i podsłuchiwanie ludzi w praktycznie dowolnym miejscu. Wywiad, służby specjalne, policja, wreszcie przestępcy - nie będzie wiadomo, kiedy jesteśmy podsłuchiwani, permanentna inwigilacja, jak krzyczał w filmie Maks.
  23. Ultradźwięki, czyli fale o tak dużej częstotliwości, że są niesłyszalne przez człowieka, mają wiele zastosowań medycznych. Mogą posłużyć do masażu rozluźniającego mięśnie, do niszczenia komórek tłuszczowych, do rozbijania kamieni nerkowych, do niszczenia tkanki nowotworowej, wreszcie najbardziej znanego zastosowania, czyli USG - techniki pozwalającej zajrzeć do wnętrze ciała, ocenić stan serca, czy zobaczyć na żywo płód w łonie matki. Elisa Konofagou, profesor inżynierii biomedycznej na Columbia University, zamierza dodać jeszcze jedno zastosowanie: otwieranie bariery krew-mózg. Bariera krew-mózg to zespół białkowych struktur oddzielający tkankę mózgową od niosących krew naczyń włosowatych. Chroni ona mózg przed szkodliwymi substancjami i zakażeniami, ale przy okazji przeszkadza również lekarzom. To właśnie przez barierę k-m tak trudne jest leczenie chorób mózgu, w szczególności alzheimera czy parkinsona, nie przepuszcza ona leków, więc nawet mając potencjalne lekarstwo, nie sposób skutecznie podawać go pacjentom. Dlatego leczenie tych chorób jest tak trudne i okupione wieloma skutkami ubocznymi. Zamiast prób sterowania barierą w sposób biologiczny, prof. Konofagou proponuje wykorzystanie ultradźwięków. Technika według jej pomysłu polega na wstrzyknięciu do krwiobiegu miniaturowych bąbelków, które z krwią docierają również do naczyń włosowatych w mózgu. Wiązka ultradźwięków kierowana jest w miejsce powyżej hipokampa - obszaru mózgu odpowiadającego m.in. za pamięć, który jest główną ofiarą chorób neurodegeneracyjnych. Tam pod wpływem fali akustycznej mikroskopijne bąbelki drgają, powodując otwieranie się bariery krew-mózg i przepływ leków, również krążących we krwi. Doświadczenia na zwierzętach wykazały skuteczność metody, jeśli próby kliniczne na ludziach również się powiodą, będzie to przełom w leczeniu wielu chorób.
  24. Rozwój nauki i technologii często zadziwia odkryciami. Ale bywa, że jeszcze większe zdumienie budzą odkrycia pojawiające się na skrzyżowaniu różnych dziedzin badań. Takim krzyżowym wynalazkiem jest termospintronika, która pozwoli być może stworzyć komputer napędzany ciepłem, zamiast prądu. Głównym celem badań technologicznych w dziedzinie elektroniki jest zwiększenie szybkości i wydajności mikroprocesorów oraz pojemności pamięci. Głównym problemem i największą zawadą jest wydzielanie się ciepła. Nie ma prądu elektrycznego bez ciepła i trudno spodziewać się „zimnych" układów. Nasze komputery mogłyby działać wielokrotnie szybciej, gdyby nie wydzielanie ciepła. Niestety, szybsza praca - większa temperatura - szybsze przegrzanie i spalenie się układu scalonego. Prace mające na celu ominięcie tego problemu toczyły się w dwóch zasadniczych kierunkach: zmniejszenia emisji ciepła lub jego szybsze odprowadzanie i wykorzystanie (na przykład, dzięki efektowi termoelektrycznemu, do produkcji prądu); bardziej ambitna droga i dalsza perspektywa to układy spintroniczne. Spintronika to nauka o spinie (momencie pędu, właściwości kwantowej) elektronów. Wykorzystanie spinu zamiast ładunku elektrycznego pozwoliłoby na budowę ultraszybkich procesorów i bardzo pojemnych pamięci. Arsenek galu jest znanym półprzewodnikiem, wykorzystywanym obok krzemu, do produkcji układów elektronicznych. Domieszkowanie go manganem tworzy materiał, który służy do eksperymentowania z kontrolą spinu elektronów przy pomocy pola magnetycznego. Naukowcy z Ohio State University: Joseph Heremans, Roberto Myers oraz Christopher Jaworski dokonali niezwykłego odkrycia. Arsenek galowo-manganowy, przygotowany w postaci cienkiej błony z pojedynczej warstwy kryształów poddawany był doświadczeniom. Podczas prac zauważono, że spin nie układa się tak, jak się spodziewano - winne okazało się ciepło. Spin w takim materiale układał się w zależności od temperatury po obu stronach błony, efekt dawał się łatwo i skutecznie kontrolować - po gorącej stronie skierowany był w górę, po zimnej w dół. Jeszcze większym zaskoczeniem był fakt, że efekt ten potrafi przenosić się pomiędzy fragmentami krystalicznej błony nie połączonymi ze sobą. Kiedy płytkę arsenku galowo-manganowego przecięto na pół, nie wpłynęło to na zachowanie całości układu. Dla elektronów przerwa jest barierą, dla ich spinu - nie. Identyczne wyniki uzyskał zespół japońskiego Tōhoku University. Mimo wielu eksperymentów źródło efektu pozostaje nadal niezrozumiałe dla teoretyków. Nie przeszkadza to jednak w przewidywaniu zastosowań dla termospintroniki, jak nazwano nową dziedzinę badań. Niewykluczone, że możliwe stanie się zbudowanie mikroprocesorów, które nagrzewając się podczas intensywnej pracy, uruchamiały będą dodatkowe moce obliczeniowe i pamięć oparte na efekcie spin-Seebecka, a być może układy scalone wykorzystujące jako źródło zasilania nie prąd, lecz ciepło.
  25. Naukowcy z amerykańskiego National Institute of Standards and Technology (NIST) i niemieckiego Physikalisch Technische Bundesanstalt (PTB) ocenili w warunkach bardzo zbliżonych do wymaganych podczas testów klinicznych przydatność atomowego czujnika magnetycznego do śledzenia pracy ludzkiego serca (Applied Physics Letters). Dotąd czujnik badano głównie w laboratoriach. Najnowszy eksperyment miał miejsce w berlińskiej siedzibie PTB, w budynku z najlepszym na świecie ekranowaniem magnetycznym. Umożliwia ono zablokowanie pola magnetycznego Ziemi oraz innych zewnętrznych źródeł. Gwarantuje to uzyskanie wiarygodnych i precyzyjnych pomiarów. Czujnik stworzony przez specjalistów z NIST to de facto niewielkie pudełko, w którym znajduje się ok. 100 mld atomów rubidu w stanie gazowym (laser podczerwieni małej mocy) oraz elementy optyczne. Urządzenie zmierzyło unikatową sygnaturę magnetyczną serca w pikoteslach. Podczas przełomowego badania naukowcy umieszczali czujnik 5 mm nad lewą częścią klatki piersiowej leżącej na plecach osoby. Sensor wychwycił słaby, ale regularny wzorzec cyklu pracy serca. Utrwalono go także dzięki nadprzewodnikowemu interferometrowi kwantowemu SQUID (ang. superconducting quantum interference device) i następnie porównano oba zapisy. Okazało się, że miniczujnik NIST poprawnie zmierzył cykl i zidentyfikował wiele typowych cech. Choć wygenerował więcej zakłóceń interferencyjnych, zdobywa przewagę dzięki temu, że może pracować w temperaturze pokojowej. SQUID potrzebuje zaś temperatury -296 °C i drogiej aparatury wspierającej. Czujnik magnetyczny skonstruowano w 2004 r., jednak dopiero 3 lata temu dodano do niego światłowód, który wykrywa sygnały świetlne pozwalające wnioskować o natężeniu pola magnetycznego. W okresie tym udało się również zminiaturyzować układ kontrolny. Najnowsze badania wskazują, że minisensory znajdą zastosowanie w magnetokardiografii, stanowiącej uzupełnienie bądź alternatywę dla tradycyjnego ekg. Zapewniają one stabilność pomiaru na czas dziesiątych części sekundy, co bez wątpienia przyda się w rozwijanej dopiero magnetorelaksometrii (ang. magnetorelaxometry, MRX), mierzącej odmagnesowanie magnetycznych nanocząstek. MRX jest wykorzystywana do lokalizowania, zliczania i obrazowania tego typu nanocząstek, które wprowadzono do tkanek w celach medycznych.
×
×
  • Dodaj nową pozycję...