Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37579
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    246

Zawartość dodana przez KopalniaWiedzy.pl

  1. Organizacje ekologiczne często obawiają się, by lokalna społeczność sprawowała władzę nad przyrodniczo cennym terenem. Dlatego też nie zawsze popierają żądania takich plemion jak żyjące w Gujanie Wapichan, którego członkowie chcą, by rząd przekazał im kontrolę nad 14 000 km2 lasu, który miałby być chroniony jako las lokalnej społeczności. Badania przeprowadzone przez World Resources Institute oraz Rights and Resources Initiative wykazały, że społeczności lokalne najczęściej znacznie lepiej niż rządy chronią swój teren. Specjaliści przejrzeli 130 badań, które przeprowadzono na terenie 14 krajów. Okazało się, że rdzenni mieszkańcy cennych terenów bardzo o nie dbają. Z przygotowanego raportu dowiadujemy się na przykład, że od 2000 roku w brazylijskiej części Amazonii którą kontrolują plemiona Yanomami i Kayapo średni odsetek wylesiania wynosi 0,6%, podczas gdy poza ich terenami jest to 7%. Z kolei w Gwatemali, w regionie Peten, na terenie którego znajduje się m.in. Maya Biosphere Reserve, wylesianie na terenach kontrolowanych przez rząd postępuje 20-krotnie szybciej niż na terenach kontrolowanych przez lokalne społeczności. Autorzy raportu zauważają, że w Indonezji tylko 2% lasów deszczowych zostało przekazane pod kontrolę zamieszkujących je społeczności i Indonezja prześcignęła ostatnio Brazylię w niechlubnej statystyce tempa wylesiania. Okazuje się zatem, że lokalne społeczności bardzo dobrze zarządzają wspólnymi zasobami. Potwierdza to prace noblistki Elinor Ostrom, która stwierdziła, że do tzw. tragedii wspólnego pastwiska (czyli sytuacji, w której wspólne dobro jest niszczone, gdyż każdy stara się osiągnąć z niego jak najwięcej korzyści, łamiąc przy tym zasady) rzadko dochodzi, gdy społeczności same kontrolują swoje zasoby i mogą porozumieć się z sąsiadami. To właśnie lokalnym społecznościom najbardziej zależy na dobrym zarządzaniu własnymi zasobami. Problemy zaczynają się wówczas, gdy w życie takich lokalnych społeczności zaczynają wtrącać się rządy czy organizacje ekologiczne. Wzmocnienie władzy lokalnych społeczności nad lasami wydaje się niezwykle ważne w walce z globalnymi zmianami klimatu - mówi Jennifer Morgan z World Resources Institute. W bardzo prosty sposób możemy zwiększyć ilość dwutlenku węgla wychwytywanego z atmosfery. Wystarczy, że przekażemy władzę nad lasami z rąk rządów w ręce lokalnych społeczności - wtóruje jej Ashwini Chhatre z University of Illinois. Wiele osób myśli, że jeśli rząd przekaże lokalnym mieszkańcom prawa do lasu, to ci go wytną. Jednak dowody pokazują, że przekazanie kontroli społecznościom lokalnym to najlepszy sposób na ochronę lasów - stwierdził David Kaimowitz z Ford Foundation. Obecnie lokalne społeczności kontrolują około 12% lasów. Reszta znajduje się pod kontrolą rządów, które często udzielają zgody na ich wycinanie. Tymczasem to właśnie lokalne społeczności są najbardziej zainteresowane w zachowaniu lasu, od którego zależy ich byt. « powrót do artykułu
  2. Zdaniem australijskich naukowców, to ogrzewający się Atlantyk jest prawdopodobnie odpowiedzialny za wzrost siły pasatów na Pacyfiku. Obecnie pasaty te są najsilniejsze od czasu, gdy ludzkość dokonuje ich pomiarów, czyli od lat 60. XIX wieku. Z kolei silniejsze pasaty doprowadziły do ochłodzenia się wschodnich części Pacyfiku, wydłużenia okresu susz w Kalifornii, spowodowały, że na Zachodnim Pacyfiku poziom wody wzrasta trzykrotnie szybciej niż średnia światowa oraz przyczyniły się do obserwowanego od 2001 roku spowolnienia wzrostu globalnych temperatur powierzchni planety. Niewykluczone też, że odpowiadają one za rzadsze pojawianie się zjawiska El Nino. Zdumiało nas, że od 20 lat główną przyczyną takich a nie innych trendów klimatycznych na Pacyfiku jest to, co się dzieje na Atlantyku. To pokazuje tylko, jak wielki wpływ na cały glob mają zmiany w jednej jego części - mówi współautor badań Shayne McGregor z University of New South Wales. Specjaliści od 20 lat obserwują rosnącą siłę pasatów. Początkowo sądzili, że mamy do czynienia z dekadową zmiennością. Jednak badania wykazały, że siła wiatrów zwiększa się nieproporcjonalnie do zmian w temperaturze powierzchni oceanu. Zjawisko było tym bardziej zagadkowe, że wcześniejsze badania wykazywały, iż wraz z globalnym ociepleniem pasaty będą słabły. Teraz okazuje się, że winny jest wzrost temperatury wód Atlantyku. Doprowadził on do pojawienia się dużej różnicy ciśnień pomiędzy oboma oceanami, co nadało nowej energii pasatom. Wskutek szybkiego ogrzewania się Atlantyku w górnej atmosferze pojawił się obszar wysokiego ciśnienia, a blisko powierzchni – obszar niskiego ciśnienia. Powietrze unoszące się znad Atlantyku opada nad tropikalnymi obszarami wschodniego Pacyfiku, podnosząc tam ciśnienie przy powierzchni. Mamy zatem do czynienia z naprzemiennymi obszarami wysokiego ciśnienia nad Pacyfikiem i niskiego nad Atlantykiem, co napędza pacyficzne pasaty, zwiększając ich siłę - wyjaśnia profesor Axel Timmermann z University of Hawaii. Mamy do czynienia z sytuacją, której nie uwzględnia wiele modeli klimatycznych. Nie doszacowują one sprzężenia pomiędzy Atlantykiem i Pacyfikiem. Silniejsze pasaty wtłaczają do zachodnich części Oceanu Spokojnego dodatkowe ilości ciepła, co wyjaśnia spowolnienie globalnego ocieplenia. Uczeni uważają jednak, że taka sytuacja nie będzie trwała wiecznie. Gdy różnice ciśnień pomiędzy oboma oceanami się zmniejszą, pasaty osłabną i wówczas może dojść do gwałtownego przyspieszenia wzrostu globalnych temperatur. Zdaniem profesora Matthew Englanda z Uniwersytetu Nowej Południowej Walii, zjawiskiem, które może doprowadzić do ponownego lepszego zsynchronizowania sytuacji nad Atlantykiem i Pacyfikiem może być silne El Nino. « powrót do artykułu
  3. Szpital w Clermont-Ferrand przygotowuje pierwszy we Francji bar z winami, gdzie pod nadzorem medycznym terminalnie chorzy będą mogli wypić z najbliższymi lampkę alkoholu. Zanim bar otworzy we wrześniu swoje podwoje, personel zostanie przeszkolony przez antropologa społecznego. Czemu mielibyśmy odmawiać ziemskich uciech tym, którzy dożywają swego końca? Nic nie usprawiedliwia takich ograniczeń - napisano w oświadczeniu prasowym Centrum Szpitalnego Uniwersytetu Clermont-Ferrand. Jak powiedziała AFP dr Virginie Guastella, celem jest 'uczłowieczenie' pacjentów dzięki poprawie jakości codziennego życia oraz zapewnieniu im przyjemności wynikającej z możliwości dawania i otrzymywania. Bar z centrum paliatywnego oferować będzie nie tylko wino, ale i piwo, whisky czy szampana. Guastella podkreśla, że wino może pomóc chorym i ich rodzinom czy przyjaciołom rozluźnić się i porozmawiać. Sytuacja może być paliatywna przez parę tygodni, a nawet miesięcy, a ponieważ życie jest tak cenne i prawdziwe do końca, zdecydowaliśmy się kultywować wszystko, co dobre. Enologiczny projekt zaproponowano, bazując na studium antropolog Catherine Legrand Sebille, która wykazała, że jedzenie i picie ma pozytywny wpływ na czyjeś ostatnie chwile (z doniesień medialnych wynika, że to właśnie Legrand Sebille przeszkoli francuski personel).
  4. Mniej niż godzina gier wideo dziennie ma niewielki pozytywny wpływ na rozwój: skutkuje lepszym przystosowaniem zarówno u dzieci, jak i nastolatków (psycholodzy z Uniwersytetu Oksfordzkiego dokonywali porównań do osób, które nigdy nie grały lub grały 3 godziny dziennie i więcej). Brytyjczycy sądzą, że studium, którego wyniki opublikowano w piśmie Pediatrics, to pierwsze badanie oceniające zarówno pozytywne, jak i negatywne skutki gier wideo w reprezentatywnej próbie blisko 5 tys. dzieci i młodzieży. Uczestników w wieku 10-15 lat pytano o czas spędzany na grach wideo (na konsolach i pecetach), poziom nadpobudliwości i nieuwagi, empatię oraz kontakty z rówieśnikami. Zespół dr. Andrew Przybylskiego ustalił, że w Wielkiej Brytanii 3 na 4 dzieci gra codziennie w gry wideo. Osoby, które spędzają w ten sposób ponad połowę wolnego czasu, nie są zbyt dobrze przystosowane (przy umiarkowanym graniu - 1-3 godz. na dobę - nie odnotowywano jeszcze żadnego wpływu). Naukowcy spekulują, że to skutek nieangażowania się w inne potencjalnie wzbogacające czynności oraz wystawienia na oddziaływanie kontentu przeznaczonego dla dorosłych. W porównaniu do niegrających i grających bardzo często, dzieci grające mniej niż godzinę dziennie (czyli przez mniej niż 1/3 wolnego czasu) były najbardziej towarzyskie i najczęściej wspominały o satysfakcji z życia. Występowało u nich mniej problemów z przyjaciółmi i emocjonalnych, odnotowywano także niższy poziom nadruchliwości. Uzyskane wyniki stanowią poparcie dla ostatnich eksperymentów laboratoryjnych, które wskazały na minusy korzystania z gier elektronicznych, jednak wysokie natężenie grania wydaje się tylko słabo związane z dziecięcymi problemami behawioralnymi w realnym świecie. Na podobnej zasadzie niewielki pozytywny wpływ grania o nieznacznym natężeniu nie wspiera idei, że gry wideo pomagają dzieciom rozwijać się w coraz bardziej cyfrowym świecie. Choć niektóre z pozytywnych skutków odkrytych we wcześniejszych studiach znalazły odzwierciedlenie w danych, to efekty były dość słabe, co sugeruje, że korzyści ograniczają się do wąskiego zakresu gier akcji. Trzeba przeprowadzić kolejne badania, które pokażą, jakie cechy gier sprawiają, że są one korzystne lub szkodliwe. Ważne też może być ustalenie, jak środowiska społeczne, takie jak rodzina czy rówieśnicy [...], kształtują wpływ gier na młodych ludzi. « powrót do artykułu
  5. Po raz pierwszy w historii udziały przeglądarki Chrome na rynku desktopów przekroczyły 20%. W lipcu bieżącego roku należało doń 20,37% rynku. Liderem pozostaje Internet Explorer, z którego korzystało w lipcu 58,01% użytkowników pecetów. Udziały Explorera utrzymują się na stałym poziomie, z niewielkimi wahaniami. Przez ostatnie trzy miesiące rosły, obecnie spadają. Podobne tendencje widać na przestrzeni dłuższego czasu. Na trzeciej pozycji uplasował się Firefox. W przypadku przeglądarki Mozilli widać jednak wyraźny trend spadkowy. We wrześniu ubiegłego roku należało doń 18,60% rynku, w październiku 18,70%, a od tamtej pory jej udziały ciągle spadają i wynoszą obecnie 15,08%. Spadki notuje też czwarta na rynku Safari, z której korzysta obecnie 5,16% użytkowników komputerów stacjonarnych oraz Opera. Do norweskiej przeglądarki należy obecnie 0,99% rynku. Wydaje się, że Chrome jest obecnie jedyną przeglądarką, która zdecydowanie zdobywa rynek. I, co ważne, czyni duże postępy na urządzeniach stacjonarnych i mobilnych. Na urządzeniach mobilnych wciąż króluje Safari, jednak jej udziały spadły od września 2013 aż o 10 punktów procentowy i wynoszą obecnie 44,83%. Drugą pozycję zajmuje Android Browser z udziałami wahającymi się w przedziale 21-24 procent, jednak niewykluczony jest trend spadkowy w ciągu najbliższych miesięcy. Wspomniana na wstępie Chrome notuje duże wzrosty. We wrześniu 2013 do przeglądarki tej należało 6,34% rynku mobilnego, a obecnie jest to już 18,03%. Opera Mini utrzymuje swój stan posiadania w granicach 7-8 procent. Pewną tendencję wzrostową widać w przypadku Internet Explorera, lecz na urządzeniach mobilnych przeglądarka ta ma jedynie 2,50% udziałów. « powrót do artykułu
  6. Naukowcy opisali nowy gatunek nietoperza, który występuje wyłącznie w Boliwii. Myotis midastactus, bo o nim mowa, był wcześniej mylony z Myotis simus, ale naukowcy zbadali okazy muzealne i wykazali, że istnieją różnice m.in. w wyglądzie futra oraz budowie czaszki. Najbardziej charakterystyczną cechą wydaje się złotożółte, bardzo krótkie i wełniste futro. Jaskrawe ubarwienie, tak typowe dla przedstawicieli rodzaju Myotis z Nowego Świata, zainspirowało zresztą biologów przy tworzeniu nazwy: midastactus nie bez powodu kojarzy się z królem Midasem. Jak ujawniają doktorzy Ricardo Moratelli i Don E. Wilson, autorzy artykułu z Journal of Mammalogy, M. midastactus żyje na boliwijskiej pampie i żywi się drobnymi owadami. Za dnia kryje się w norkach w ziemi, dziuplach i pod krytymi strzechą dachami. Duet z Fundacji Oswalda Cruza oraz Instytutu Smithsona przeprowadził szczegółowe analizy morfologiczne i morfometryczne 27 okazów z kilku brazylijskich i amerykańskich muzeów. Moratelli przyznał, że mimo 2-miesięcznych prób nie udało mu się schwytać żywego M. midastactus. Zaznaczył przy okazji, jak dużą, wg niego, rolę spełniają kolekcje muzealne: Mogę z dużym przekonaniem powiedzieć, że w gablotach z całego świata znajduje się wiele gatunków czekających na rozpoznanie i formalny opis [...]. Za holotyp uznano dorosłego samca, schwytanego 9 września 1965 r. przez S. Andersona. Wszystkie wzmianki na temat gatunku pochodzą z departamentów Beni i Santa Cruz (większość z Beni). Nie ma pewności co do statusu nowego nietoperza, lecz naukowcy przypominają, że wcześniej twierdzono, że M. simus z Boliwii (czyli dzisiejszy M. midastactus) jest bliski zagrożenia. Najnowsze studium sugeruje, że prawdziwy M. simus w ogóle nie występuje w Boliwii, można go za to spotkać w Argentynie, Brazylii, Ekwadorze, Paragwaju i Peru.
  7. Microsoft wystąpił do sądu przeciwko Samsungowi. Koncern z Redmond twierdzi, że koreańska firma nie wywiązuje się z umowy dotyczącej licencjonowania własności intelektualnej Microsoftu, którą Samsung wykorzystuje w systemie Android. We wrześniu 2011 roku Microsoft i Samsung podpisały umowę o udzielaniu sobie nawzajem licencji na patenty. W jej ramach Samsung miał płacić firmie z Redmond. Jednak,jak twierdzi Microsoft, w ubiegłym roku Samsung zaczął skarżyć się na warunki umowy i przestał płacić, a później zaczął wykorzystywać przejęcie Nokii przez Microsoft jako uzasadnienie łamania umowy. Po jakimś jednak czasie Samsung zdecydował się na wniesienie opłaty i w listopadzie ubiegłego roku pieniądze wpłynęły na konto Microsoftu, jednak bez odsetek za zwłokę. Microsoft skarży się też, że Samsung naciska na koreański urząd ds. konkurencji, by ten odgórnie zmienił umowę tak, by koreańska firma musiała wnosić mniejsze opłaty na rzecz Microsoftu lub by nie musiała w ogóle płacić. Analityk Rick Sherlund z Nomura Securities szacuje, że każdego roku firmy wykorzystujące Androida płacą Microsoftowi około 2 miliardów dolarów tytułem opłat licencyjnych. « powrót do artykułu
  8. Chiński Dziennik Ludowy poinformował, że rządowa agencja zajmująca się zakupami dla administracji wydała urzędom zakaz kupowania oprogramowania antywirusowego od firm Symantec i Kaspersky. Decyzję podjęto podobno w trosce o bezpieczeństwo rządowych komputerów. Dziennikarze poinformowali również, że rząd zatwierdził wykorzystywanie programów antywirusowych pięciu firm. Wszystkie to chińskie przedsiębiorstwa: Qihoo 360 Technology Co, Venustech, CAJinchen, Beijing Jiangmin oraz Rising. Symantec i Kaspersky chcą przekonać chińskich urzędników do zmiany decyzji. Nie są one jednak jedynymi zachodnimi firmami, które przeżywają kłopoty w Państwie Środka. Rząd w Pekinie stwarza też problemy Microsoftowi, IBM-owi czy SAP-owi.
  9. Niemieccy naukowcy znaleźli komórki raka mózgu krążące we krwi. Odkrycie to każe poddać w wątpliwość przekonanie, że agresywny glejak wielopostaciowy ogranicza się tylko do mózgu. Niewykluczone, że nowotwór może się rozsiewać do innych miejsc w organizmie. Naukowcy z Uniwersyteckiego Centrum Medycznego Hamburg-Eppendorf mają nadzieję, że dzięki ich pracom łatwiej będzie śledzić rozwój nowotworu, co przełoży się na skuteczniejsze leczenie. Dotychczas sądzono, że glejak nie wykracza poza mózg. Takie przekonanie wzięło się z faktu, że u pacjentów z tym nowotworem bardzo rzadko pojawiały się guzy w innych częściach ciała. Uczeni od dawna zastanawiali się, dlaczego tak się dzieje. Niektórzy sugerowali, że komórki nowotworowe nie są w stanie przekroczyć bariery krew-mózg. Inni z kolei uważają, że komórki glejaka nie mogą rozwijać się w innych organach lub też guzy nimi spowodowane nie zdążą się rozwinąć zanim glejak w mózgu nie zabije pacjenta. Zespół pracujący pod kierunkiem Carolin Müller przebadał próbki krwi 141 osób cierpiących na glejaka i odkrył, że u 20,6% komórki nowotworu krążą we krwi. Odkrycie będzie miało znaczenie dla przyszłych badań nad glejakiem. Niemieccy uczeni sądzą, że może też ono wyjaśniać, dlaczego u części osób, którym przeszczepiono organy osób zmarłych na raka mózgu, doszło do rozwoju nowotworów. Inni naukowcy zwracają też uwagę na dodatkowy, niezwykle ważny aspekt odkrycia. Pojawiają się bowiem terapie przedłużające życie pacjentów z glejakiem. Należy się zatem spodziewać, że – w związku z przedłużeniem życia – u części z nich nowotwory zdążą rozwinąć się tez w innych organach. Ważne jest zatem, by lekarze zdawali sobie sprawę z ryzyka i podjęli odpowiednie środki zaradcze. « powrót do artykułu
  10. Naukowcy ze SLAC National Accelerator Laboratory przeanalizowali dane zebrane w ciągu czterech lat przez Fermi Gamma-ray Space Telescope oraz z innych instrumentów. Chcieli się w ten sposób dowiedzieć jak najwięcej na temat tajemniczych bąbli o średnicy dziesiątków tysięcy lat świetlnych, które znajdują się nad i pod Drogą Mleczną. Bąble Fermiego odkryto przed czterema laty i natychmiast stały się one sensacją naukową. Dzięki najnowszej analizie zdobyto wiele interesujących informacji na temat bąbli. Okazało się na przykład, że krawędzie bąbli są dość ostre. Same bąble Fermiego – bo tak się nazywają - równomiernie emitują promieniowanie gamma. Inną zagadką są rozmiary bąbli. Ich najdalsze fragmenty są źródłem bardzo silnego promieniowania gamma, jednak nie wiadomo, dlaczego bąble są tak wielkie. Jest i kolejna zagadka. Część bąbli znajdująca się blisko płaszczyzny galaktyki emituje promieniowanie mikrofalowe oraz gamma. Jednak w odległości około 2/3 wysokości bąbli promieniowanie mikrofalowe zanika i wykrywalne jest tylko promieniowanie gamma. Właściwość ta wyróżnia bąble Fermiego od innych podobnych znanych struktur. Środowisko naukowe wciąż nie wie, w jaki sposób powstały bąble. Istnieje wiele modeli, które próbują to wyjaśnić, ale żaden z nich nie jest doskonały. Bąble wciąż pozostają tajemnicą - mówi Dmitry Malyshev z Kavli Institute for Particle Astrophysics and Cosmology.
  11. NASA pośrednio potwierdziła, że „niemożliwy” relatywistyczny silnik elektromagnetyczny EmDrive ma prawo działać. Jeśli eksperci Agencji nie popełnili błędu to możemy być świadkami znacznego przełomu na polu badania i wykorzystania przestrzeni kosmicznej. Eksperci NASA przetestowali bowiem silnik podobny do EmDrive i uznali, że wytwarza on ciąg. Koncepcja EmDrive, opracowana przez brytyjskiego naukowca Rogera Shawyera, od wielu lat nie może się przebić w świecie naukowym, które odrzuca ją jako sprzeczną z prawami fizyki. Pomysł Shawyera polega na wykorzystaniu dwóch praw fizyki. Pierwsze z nich to dobrze znany fenomen ciśnienia promieniowania. Jest to ciśnienie wywierane na powierzchnię przez promieniowanie elektromagnetyczne. Jeśli teraz przypomnimy sobie II zasadę dynamiki Newtona (zmiana ruchu jest proporcjonalna do przyłożonej siły poruszającej i odbywa się w kierunku prostej, wzdłuż której siła jest przyłożona) to możemy stwierdzić, że fala elektromagnetyczna poruszająca się z prędkością światła ma pewien pęd, który może przekazać urządzeniu. Jeśli ta sama fala wędruje z prędkością, która jest jedynie ułamkiem prędkości światła, to jej pęd będzie odpowiednio mniejszy. Shawyer zauważa, że już w latach 50. ubiegłego wieku dowiedziono, że prędkość i siła wywierana przez falę elektromagnetyczną mogą być różne, w zależności od geometrii falowodu. Doszedł on w ten sposób do wniosku, że jeśli fala elektromagnetyczna będzie wędrowała po stożkowym falowodzie umieszczonym pomiędzy dwoma odbijającymi ją lustrami i będzie charakteryzowała się dużą różnicą prędkości na obu końcach falowodu, to różnica sił wywieranych przez nią na oba lustra spowoduje pojawienie się siły ciągu. Siłę tę można z kolei zwielokrotnić umieszczając lustra w odpowiedniej odległości, która musi stanowić wielokrotność połowy długości fali elektromagnetycznej. Shawyer wyjaśnia dalej, że - jak widać na diagramie - jego system jest zamknięty, więc można dojść do wniosku, że ciąg się nie pojawi. Jednak, zauważa, powinniśmy wziąć pod uwagę szczególną teorię względności, zgodnie z którą przy prędkościach dochodzących do prędkości światła musimy używać osobnych układów odniesienia. Tym samym jego system należy rozważać jako otwarty, z falą elektromagnetyczną i falowodem posiadającymi różne układy odniesienia. Pojazd napędzany przez EmDrive nie musi zabierać ze sobą paliwa. Wystarczy mu energia elektryczna. Po tym, jak Shawyer opublikował swoją teorię, posypały się na jego głowę gromy krytyki. John Costella, australijski fizyk, napisał: Powszechnie wiadomo, że relatywistyczny napęd elektromagnetyczny Rogera Shawyera narusza prawo zachowania pędu, jest więc kolejnym z całej rzeszy 'perpetum mobile', które pojawiały się przez setki lat i które nie działały. Jego analizy są nic niewarte, a jego silnik nie może istnieć. Pomimo tego, pomysłem Shawyera zainteresowali się Chińczycy, którzy w 2013 roku donieśli, że uzyskali ciąg w silniku zbudowanym według koncepcji Brytyjczyka. Była to bardzo dobra wiadomość, jednak to potwierdzenie ze strony NASA jest tym, na co czekali zwolennicy koncepcji EmDrive. Wydaje się bowiem, że na Zachodzie nie przywiązano wagi do doniesień napływających z Politechniki Północnozachodniej w Xi'an. Amerykański naukowiec Guido Fetta zbudował teraz silnik Cannae Drive, podobny do EmDrive i przekonał NASA do jego przetestowania. Przed dwoma dniami wyniki testów zostały zaprezentowane podczas 50th Joint Propulsion Conference w Ohio. Silnik był testowany przez 5 naukowców z Johnson Space Center. Przez sześć dni przygotowywali oni sprzęt, a później przez dwa dni prowadzili testy silnika w różnych konfiguracjach. Wśród przeprowadzonych testów był też i taki, podczas którego silnik zmodyfikowano tak, by nie mógł działać. Użyto przy tym urządzenia, które wywierało na silnik takie siły, jakie działają podczas jego pracy. W ten sposób sprawdzano, czy w Cannae Drive napędzające go siły nie pojawiają się niezależnie od pracy samego silnika. Podczas innego testu odwracano działanie Cannae Drive, sprawdzając, jaki ma to skutek. Ostrożność specjalistów z NASA jest zrozumiała. W latach 90. Agencja testowała napęd antygrawitacyjny, a testy dawały dobre wyniki. Do czasu, aż okazało się, że aparatura testowa wpływa na napęd, zafałszowując odczyty. W czasie testów NASA używała aparatury pozwalającej na wykrycie ciągu mniejszego niż 10 mikroniutonów. Testowane urządzenie wytwarzało ciąg rzędu 30-50 mikroniutonów. To ponadtysiąckrotnie mniej niż silnik testowany w Xi'an. Mimo to, eksperymenty są empirycznym potwierdzeniem prawdziwości koncepcji tego typu napędów.. Testy wykazały, że projekt napędu z radiową komorą rezonansową, który jest unikatowym napędem elektrycznym, wytwarza siłę, której nie można odnieść do żadnego klasycznego fenomenu elektromagnetycznego, a zatem jest potencjalnym dowodem na interakcję z wirtualną plazmą próżni kwantowej - oświadczyli uczeni z NASA. Oznacza to, ni mniej ni więcej, że silnik może pracować dzięki odpychaniu się od cząstek i antycząstek pojawiających się spontanicznie w próżni. Naukowcy z NASA nie posunęli się jednak tak daleko. Nie próbowali zgadywać, dlaczego napęd działa. Celem ich eksperymentów było sprawdzenie, czy działa. Celem naszej pracy nie jest badanie fizyki napędu korzystającego z plazmy próżni kwantowej, ale opisanie sposobu przeprowadzenia testów i ich wyników - czytamy w artykule „Anomalous Thrust Production from an RF Test Device Measured on a Low-Thrust Torsion Pendulum”. Guido Fetta oparł swój silnik na innej teorii niż EmDrive Shawyera. Jednak sam Shawyer, który od 2009 roku stara się o przetestowanie jego silnika, widzi w obu teoriach duże podobieństwa. O ile dobrze rozumiem prace NASA i Cannae, napęd radiowy działa podobnie jak EmDrive, z tym wyjątkiem, że różnice w sile uzyskuje się dzięki zredukowanemu odbiciu na końcu falowodu.
  12. Peptyd ceruleina przekształca wydzielające glukagon komórki alfa trzustki w wytwarzające insulinę komórki beta. Odkryliśmy obiecującą metodę dla chorych z cukrzycą typu 1. [...] Wprowadzając ceruleinę do trzustki, byliśmy w stanie uzyskać nowe wytwarzające insulinę komórki beta. Potencjalnie mogłoby to uwolnić pacjentów od codziennych dawek insuliny, które pomagają im regulować poziom cukru we krwi - opowiada dr Fred Levine z Sanford-Burnham Medical Research Institute. Na początku studium naukowcy sprawdzali, jak myszy ze zniszczonymi niemal wszystkimi komórkami beta (stanem podobnym do ludzkiej cukrzycy typu 1.) zareagują na zastrzyki z ceruleiny. U tych gryzoni, lecz nie u zdrowych, peptyd powodował, że komórki alfa różnicowały się w produkujące insulinę komórki beta. Choć oba rodzaje komórek współwystępują w wyspach trzustkowych i spełniają funkcje endokrynne, normalnie komórki alfa nie przekształcają się w beta. W drugim etapie autorzy raportu z Cell Death and Disease badali tkankę trzustki pobraną od osób z cukrzycą typu 1. Odkryli, że ceruleina uruchamiała ten sam proces, co myszy. Wydaje się, że nie ma tu ograniczeń wiekowych, bo różnicowanie komórek alfa do beta zachodziło u młodych i starszych pacjentów, w tym chorujących od dziesięcioleci. Podawana ludziom, ceruleina może powodować zapalenie trzustki, dlatego naszym kolejnym krokiem będzie ustalenie, na jaką cząsteczkę bądź cząsteczki komórek alfa działa peptyd, uruchamiając przekształcanie w komórki beta. Musimy to wiedzieć, by opracować bardziej specyficzny lek. Jedną kwestią jest uzyskanie nowych komórek beta, a drugą zabezpieczenie ich przed atakami układu immunologicznego. W tym celu Levine nawiązał współpracę z prof. Lindą Bradley. « powrót do artykułu
  13. Przedstawiciele Della mają nadzieję, że w przyszłym roku wzrośnie sprzedaż serwerów. Ma to być spowodowane końcem rozszerzonego wsparcia dla systemu Windows Server 2003. Właściciele centrów bazodanowych znacznie bardziej dbają o bezpieczeństwo niż przeciętny użytkownik peceta, zatem koniec wsparcia dla systemu operacyjnego oznacza w praktyce, że wielu z nich kupi nowy sprzęt. Forrest Norrod, menedżer wydziału serwerów Della szacuje, że Windows Server 2003 pracuje na około 12 milionach komputerów. To spora część rynku, dlatego też już w najbliższym czasie producenci serwerów mogą liczyć na wzrost zamówień, gdyż wsparcie dla Windows Server 2003 kończy się w połowie przyszłego roku. To dla nich bardzo ważne, ponieważ rynek rozpędza się bardzo anemicznie. W pierwszym kwartale bieżącego roku sprzedano 2,3 miliona serwerów, czyli o 1,4% więcej niż w analogicznym okresie roku ubiegłego. Wzrost napędzany jest przede wszystkim dzięki chińskiemu rynkowi. Właściciele Windows Server 2003 najprawdopodobniej przejdą na Windows Server 2012. Nowe oprogramowanie lepiej obsługuje pamięci masowe, wirtualizację, sieci, wyposażono je w doskonalsze mechanizmy bezpieczeństwa, dobrze współpracuje z chmurą Azure, lepiej radzi sobie z przetwarzaniem rozproszonym. Operatorzy serwerów wymienią jednocześnie sprzęt na bardziej wydajny, energooszczędny i mniejszy. Właśnie na to liczą takie firmy jak Dell. « powrót do artykułu
  14. Amerykańskim naukowcom udało się uzyskać przezroczyste narządy, a nawet całe organizmy. Dotąd było to możliwe wyłącznie w odniesieniu do mózgów czy embrionów. Nowa technika powinna pomóc w obrazowaniu i badaniu połączeń między komórkami, drobnych struktur komórkowych czy interakcji mózg-ciało. Autorzy artykułu z pisma Cell wspominają też o dokładniejszych diagnozach oraz monitorowaniu chorób. Chociaż idea uzyskiwania przezroczystych tkanek jest znana od ok. 100 lat, zgodnie z naszą wiedzą, to pierwsze studium dot. 'oczyszczania' całego organizmu, a więc przeciwieństwa ekstrahowania i obrabiania narządów poza ciałem dorosłego osobnika - wyjaśnia Viviana Gradinaru z California Institute of Technology. Wcześniej zespół Gradinaru opracował technikę uzyskiwania przezroczystego mózgu CLARITY. Polega ona na osadzeniu tkanki w hydrożelach (pomaga to zachować trójwymiarową strukturę oraz ważne cechy komórkowe) i wykorzystaniu wypłukujących lipidy detergentów. W ramach najnowszego studium naukowcy przystosowali technikę do całych narządów oraz organizmów. Udało im się to m.in. dzięki przyspieszeniu procesu. Najpierw zidentyfikowali oni hydrożel, który pozwala detergentom jak najszybciej wykonać zadanie. By usprawnić proces, nie uszkadzając przy okazji tkanek, akademicy odwołali się też do nowej procedury, zwanej wspomaganym perfuzją uwalnianiem czynnika in situ (ang. perfusion-assisted agent release in situ, PARS). Hydrożel i reagenty oczyszczające podaje się tu do krwiobiegu gryzoni. Rozpraszają się one po tkankach i w ciągu 2-3 dni prowadzą do uzyskania przezroczystych narządów. Oczyszczanie mózgu i całego ciała zajmuje 2 tygodnie. Zespół opracował także przepis na roztwór dopasowany do współczynnika załamania (ang. refractive index matching solution, RIMS), który pozwala na długoterminowe przechowywanie oraz obrazowanie grubych tkanek za pomocą mikroskopu konfokalnego. « powrót do artykułu
  15. NASA zdecydowała, jakie instrumenty naukowe trafią na pokład nowego marsjańskiego łazika. Na potrzeby misji Mars 2020 wybrano 7 spośród 58 instrumentów zaproponowanych przez naukowców i inżynierów z całego świata. Propozycji było dwukrotnie więcej niż dla wcześniejszych łazików, co świadczy o niezwykłym zainteresowaniu eksploracją Czerwonej Planety. Budowa 7 wybranych instrumentów będzie kosztowała łącznie około 130 milionów dolarów. Łazik wysłany w ramach misji Mars 2020 będzie w dużej mierze bazował na bardzo udanej – jak się okazało – konstrukcji łazika Curiosity, który od niemal 2 lat bada Marsa. Głównym zadaniem misji będzie prowadzenie badań geologicznych i poszukiwanie śladów życia. Nowy łazik nie tylko zbada próbki gruntu, ale będzie je także przechowywał, gdyż NASA nie wyklucza, że ostatecznie zostaną one przysłane na Ziemię. Łazik Mars 2020, który zostanie wyposażony w nowe zaawansowane instrumenty naukowe, w tym i te dostarczone przez naszych zagranicznych partnerów, daje nadzieję na odkrycie kolejnych tajemnic dotyczących przeszłości Marsa. Misja ta posunie naprzód nasze poszukiwania życia pozaziemskiego i będzie okazją do udoskonalenia technik eksploracji kosmosu - mówi John Grunsfeld, jeden z dyrektorów w Science Mission Directorate. Instrumenty, które znajdą się na pokładzie Mars 2020 to: Mastcam-Z – zaawansowany system kamer panoramicznych i stereoskopicznych z zoomem. Jego zadaniem będzie wstępne określenie składu powierzchni Marsa i pomoc przy innych czynnościach. Za rozwój Mastcam-Z odpowiedzialny jest James Bell z Arizona State University; SuperCam – instrument odpowiedzialny za wykonywanie zdjęć, przeprowadzenie analizy chemicznej i mineralogicznej. Jego zadaniem będzie też wykrywanie na odległość składników organicznych skał i regolitu. Za prace nad nim odpowiada Roger Wiens z Los Alamon National Laboratory, duży wkład w powstanie SuperCam będą mieli specjaliści z francuskiego Centre National d’Etudes Spatiales,Institut de Recherche en Astrophysique et Plane’tologie Planetary Instrument for X-ray Lithochemistry (PIXL) – to spektrometr fluorescencji rentgenowskiej, który zostanie wyposażony w urządzenie do obrazowania w wysokiej rozdzielczości. PIXL pozwoli na przeprowadzenie najdokładniejszych w historii analiz chemicznych materiału z Marsa. Za jego skonstruowanie odpowiada Abigail Allwood z Jet Propulsion Laboratory, Scanning Habitable Environments with Raman & Luminescence for Organics and Chemicals (SHERLOC) – czyli pracujący w wysokiej rozdzielczości spektrometr połączony z laserem UV. Wspólnie pozwolą na obrazowanie w wysokiej rozdzielczości, prowadzenie szczegółowych badań mineralogicznych i wykrywanie komponentów organiczncyh. SHERLOC będzie pierwszym ultrafioletowym spektrometrem ramanowskim, który wyląduje na Marsie. Wspomoże pracę innych instrumentów. Odpowiada zań Luther Beegle z Jet Propulsion Laboratory, The Mars Oxygen ISRU Experiment (MOXIE) – jest urządzeniem, które będzie wytwarzało tlen z dwutlenku węgla obecnego w marsjańskiej atmosferze. Jego głównym konstruktorem będzie Michael Hecht z Massachusetts Institute of Technology, Mars Environmental Dynamics Analyzer (MEDA) – czyli zestaw czujników dostarczających informacji na temat wiatru, temperatury, ciśnienia, wilgotności względnej oraz wielkości i kształtu ziarenek pyłu. Na czele zespołu,który go skonstruuje, stoi Jose Rodriguez-Manfredi z hiszpańskiego Centro de Astrobiologia w Instituto Nacional de Tecnica Aerospacial, The Radar Imager for Mars' Subsurface Exploration (RIMFAX) – jest radarem penetrującym obszar pod powierzchnią planety. Pozwoli on na obejrzenie struktur geologicznych o wielkości centymetra. RIMFAX zostanie zbudowany przez zespół kierowany przez Sveina-Erika Hamrana z norweskiego Forsvarets Roskning Institute. Łazik Mars 2020 to część Mars Exploration Program, tego samego, w ramach którego powstały łaziki Opportunity i Curiosity oraz satelity Odyssey, Mars Reconnaissance Orbiter i MAVEN, który we wrześniu trafi na orbitę Marsa. NASA bardzo intensywnie pracuje nad eksploracją Marsa. Już w 2016 roku wystaruje misja InSight, o której pisaliśmy przed dwoma laty. Agencja bierze też udział w dwóch misjach Europejskiej Agencji Kosmicznej, które będą miały miejsce w roku 2016 i 2018. « powrót do artykułu
  16. Władze Delhi wynajęły 40 mężczyzn, którzy mają się przebierać za langury hulmany i wydawać charakterystyczne dla nich dźwięki, by odstraszać makaki od budynków parlamentu i rządu. W stolicy Indii makaki wdzierają się do kuchni, jadalni oraz biur, kradną jedzenie ze stoisk, czasami atakują też ludzi. Ponieważ wokół Delhi nie ma już prawie lasów, miasto stało się dla tysięcy małp dżunglą. Kilka lat temu zatrudniano prawdziwe langury, które miały m.in. ochraniać ogrody pałacu prezydenckiego i rezydencje parlamentarzystów. Z pomysłu zrezygnowano jednak po protestach obrońców zwierząt i orzeczeniu sądu, że trzymanie małp w niewoli to okrucieństwo. Jak poinformował w czwartek minister rozwoju miejskiego Muppavarapu Venkaiah Naidu, podjęto różne środki, by zaradzić zagrożeniu ze strony małp oraz psów w i na zewnątrz budynku parlamentu [...]. Wynajęci mężczyźni kryją się za drzewami, noszą maski langurów oraz naśladują wydawane przez nie dźwięki. « powrót do artykułu
  17. Niemieccy specjaliści informują o odkryciu luki w USB. Błąd występuje w każdym urządzeniu z tym portem i nie może być obecnie poprawiony. Do portu USB można podłączyć wiele różnych urządzeń. To jego olbrzymia zaleta, a z drugiej – pięta achillesowa. Kiedy bowiem podłączamy różne urządzenia chip USB musi zostać przeprogramowany. Obecnie nie istnieje żadna ochrona przed tym przeprogramowaniem, a to oznacza, że atakujący może programowo zmienić jedno urządzenie w inne. Teoretycznie możliwa jest np. zmiana podłączonego urządzenia w klawiaturę, która, w imieniu zalogowanego użytkownika, będzie wydawała komputerowi polecenia, takie jak przesłanie plików czy zainstalowanie szkodliwego oprogramowania. Przeprogramowane urządzenie może też np. zmienić konfigurację karty sieciowej i przekierować ruch z komputera. Zmodyfikowany klips USB czy zewnętrzny dysk twardy mogą, wykrywając, że komputer jest właśnie uruchamiany, wgrać wirusa jeszcze zanim wystartuje system operacyjny i uruchomią się zabezpieczenia. Obecnie nie jest znany żaden sposób ochrony przed takim atakiem. Oprogramowanie antywirusowe nie ma dostępu do firmware'u USB, nie istnieją firewalle USB, które np. blokowałyby urządzeniom konkretnej klasy dostęp do portu. Wykrywanie behawioralne, czyli bazujące na podejrzanym zachowaniu, także nie sprawdzi się w tym przypadku, gdyż przeprogramowane USB wygląda tak, jakby użytkownik podłączył doń inne urządzenie. Specjaliści ostrzegają, że usunięcie błędu BadUSB po infekcji jest niezwykle trudne. Nawet przeinstalowanie systemu operacyjnego może być nieskuteczne, gdyż infekcji mogło ulec całe oprogramowanie USB na maszynie, w tym oprogramowanie odpowiedzialne za kamerę internetową i inne wbudowane komponenty. Urządzenie BadUSB może być nawet w stanie zastąpić BIOS własną, zarażoną wersją. Innymi słowy, jak mówią odkrywcy luki, jeśli nasz sprzęt został zainfekowany, już nigdy nie będziemy mieli pewności czy jest bezpieczny. Szczegóły luki oraz prototypowe narzędzia ją wykorzystujące zostaną zaprezentowane 7 sierpnia podczas konferencji BlackHat 2014. « powrót do artykułu
  18. Przedstawiciele Tor Project ostrzegli, że nieznani sprawcy mogli zdobyć przynajmniej część informacji pozwalających na zidentyfikowanie użytkowników sieci Tor. Na początku lipca odkryto i zlikwidowano atak na Tor. Wiadomo, że trwał on od końca stycznia. Atakujący uruchomili rutery, przez które przechodził ruch i go nadzorowali. Rutery te zostały już odłączone, a Tor Projekt wprowadził poprawki do kodu, by uniemożliwić przeprowadzenie takiego ataku w przyszłości. W dniu 4 lipca 2014 roku odkryliśmy grupę ruterów, które, naszym zdaniem, próbowały zdobyć dane na temat użytkowników. Wydaje się, że brały one na cel ludzi, którzy korzystają z ukrytych usług Tor-a. Atak polegał m.in. na modyfikowaniu nagłówków protokołu Tor. Wspomniane urządzenia zostały dołączone do sieci 30 stycznia 2014 roku. Nie wiemy, kiedy rozpoczęto atak, ale użytkownicy, którzy w tym czasie korzystali z ukrytych usług Tora powinni przyjąć, że zostali zaatakowani. Niestety, wciąż nie wiemy, w jakim stopniu. Wiemy, że celem byli użytkownicy pobierający deskryptory ukrytych usług, jednak napastnicy prawdopodobnie nie byli w stanie monitorować ruch na poziomie aplikacji. Prawdopodobnie próbowali się też dowiedzieć, kto publikuje deskryptory ukrytych usług, co pozwoliłoby napastnikom na określenie lokalizacji tych usług. Teoretycznie atak taki mógł być wykorzystany również do powiązania użytkownika z jego lokalizacją, ale nie znaleźliśmy żadnych dowodów, by pod kontrolą napastników znalazł się jakiś ruter wychodzący, więc prawdopodobieństwo skutecznego ataku jest mniejsze. Informacje o ataku ukazały się kilka dni po tym, jak rząd Rosji wyznaczył nagrodę w wysokości 110 000 dolarów za złamanie zabezpieczeń sieci Tor. O nagrodę mogą starać się tylko firmy akredytowane przez Moskwę. « powrót do artykułu
  19. Amerykańscy inżynierowie zaproponowali nową metodę trwałego zmieniania koloru włosów bez uciekania się do substancji chemicznych. Za pomocą urządzenia przypominającego prostownicę, które wykorzystywałoby skupioną wiązkę jonową (ang. Focused Ion Beam, FIB), na włosach wytrawiano by wzór (siatkę dyfrakcyjną). Dzięki temu odbijałyby one fale o określonej długości. Projekt rozpoczął się pod koniec 2009 r., gdy prof. Bruce C. Lamartine z Uniwersytetu Nowego Meksyku przedstawił Los Alamos National Laboratory (LANL) pomysł na niechemiczne kierunkowe zmienianie koloru włosa za pomocą wytrawianych lub wyciskanych nanowzorów. Mając nadzieję na przyciągnięcie uwagi dużej firmy, LANL zdecydowało się na finansowanie zalążkowe (ang. seed funding), co pozwoliło Lamartine'owi i prof. Zaydowi C. Lesemanowi z tej samej uczelni eksplorować potencjał strumienia jonów. Posługując się programami kontroli wiązki jonowej Lamartine'a, Leseman oraz Khawar Abbas i Drew Goettler zaczęli eksperymentować z wytrawianiem siatek dyfrakcyjnych. Pozwoliło im to stworzyć wzory odbijające fale z określonego pasma (zależało to od odległości dzielącej linie, ich szerokości, a także od głębokości rowków). Finansując projekt, Procter & Gamble (P&G) chciało zobaczyć wyniki zastosowania FIB na różnych rodzajach włosów: blond, brązowych europejskich i azjatyckich czarnych. Okazało się, że technika była najskuteczniejsza w odniesieniu do włosów brązowych. Leseman i Lamartine złożyli raport i na tym teoretycznie projekt się zakończył. Mając jednak na uwadze, że tworzenie wzorów na włosach za pomocą wartej miliony dolarów aparatury w żadnym razie nie jest praktyczne, panowie dywagowali, że gdyby ktoś chciał trwale zmienić kolor włosów, można by zastosować urządzenie przypominające prostownicę. Uzyskiwana barwa zależałaby od długości fali odbijanej przez "nanowzorkowane" pasma. By zmienić nadawany kolor, wystarczyłoby przełożyć wkładki. Leseman mówi, że wzór można by tworzyć bezpośrednio na włosie albo opracować pewien rodzaj odżywki, polimerowej powłoki, na którą działano by za pomocą dostosowanej do niej prostownicy. Później łatwo by ją było zmyć [...]. Amerykanie uważają, że technologia znajdzie zastosowanie nie tylko w kosmetyce, ale i w filtrowaniu wirusów/bakterii z płynów ustrojowych czy zabezpieczaniu samolotów pasażerskich przed atakami terrorystycznymi (wytrawiony na polimerze wzór mocowano by na spodzie jednostki, przez co stawałaby się ona niewidzialna dla laserowego naprowadzania rakiet). « powrót do artykułu
  20. Magnesy z lodówkami łączy głównie fakt, że wykorzystujemy je do przyczepiania różnych rzeczy na drzwiczkach. Jednak dzięki pracom badaczy z MIT-u magnesy mogą stać się głównymi elementami chłodzącymi lodówek. Studenci Bolin Liao i Jiawei Zhou pracujący pod kierunkiem dziekana Wydziału Inżynierii Magnetycznej, opublikowali teorię opisującą ruch magnonów. To kwazicząsteczki, które są wynikiem wzbudzeń spinowych. Magnony przechowują moment magnetyczny i przewodzą ciepło. Naukowcy z MIT-u obliczyli, że magnonami można sterować za pomocą gradientu pola magnetycznego, przesuwając je z jednego końca magnesu do drugiego. Wraz z magnonami wędrowałoby ciepło i powstawałby efekt chłodzący. Skoro możesz przepompować ciepło z jednej strony na drugą, to możesz użyć magnesu w roli lodówki - mówi Bolin Liao. Taka teoretyczna lodówka nie posiadałaby ruchomych części. W obecnych lodówkach konieczne jest przepompowywanie płynu chłodzącego. Naukowcy zyskali teraz teoretyczne podstawy pozwalające na badanie ruchu magnonów w polu magnetycznym i gradiencie temperatury. Opracowane przez nas równania opisują transport magnonów - dodaje Liao. W ferromagnetykach momenty magnetyczne poruszają się w różnych kierunkach. W temperaturze zera absolutnego dochodzi do uporządkowania momentów magnetycznych i magnes wykazuje najsilniejsze właściwości. W miarę wzrostu temperatury siła magnesu słabnie, gdyż coraz więcej lokalnych momentów magnetycznych „wyłamuje się” ze wspólnego uporządkowania. Pojawia się zatem duża liczba magnonów. Magnony są nieco podobne do elektronów. Te drugie mogą jednocześnie przenosić ładunek i przewodzić ciepło. Elektrony poruszają się w odpowiedzi albo na pole elektryczne, albo na gradient temperatury. Tę drugą właściwość znamy pod nazwą zjawiska termoelektrycznego. Od niedawna trwają badania, których celem jest stworzenie generatorów termoelektrycznych, które zmieniałyby ciepło bezpośrednio w prąd elektryczny. Liao i jego koledzy postanowili wykorzystać podobne zjawisko występujące w magnesach. Magnony również poruszają się w odpowiedzi na dwie siły – gradient temperatury lub pole magnetyczne. Młodzi uczeni wykorzystali więc równanie transportu Boltzmanna, które jest często używane do obliczania transportu elektronów w termoelektrykach. Z niego wywiedli dwa nowe równania, opisujące transport magnonów. Na ich podstawie opisali efekt chłodzący magnonów poruszających się pod wpływem gradientu pola magnetycznego. Z równań wynika, że im niższa temperatura, tym silniejszy efekt chłodzący. Dlatego też nowa teoria może po raz pierwszy znaleźć zastosowanie w laboratorium naukowym, tam, gdzie potrzebne jest bezprzewodowe schłodzenie jakiegoś elementu. Na obecnym etapie rozwoju sądzimy, że wchodzą tutaj w grę zastosowania kriogeniczne, na przykład schładzanie czujników podczerwieni. Musimy jednak potwierdzić to eksperymentalnie i poszukać materiałów, w których efekt ten będzie silniejszy. Mamy nadzieję, że to zmotywuje inne zespoły naukowe do prowadzenia własnych eksperymentów - mówi Chen. « powrót do artykułu
  21. Rodzina poszukiwaczy skarbów znalazła we wraku statku u wschodnich wybrzeży środkowej Florydy brakującą część złotej XVIII-wiecznej puszki - naczynia na komunikanty. Eric Schmitt przeszukiwał w zeszłym miesiącu wrak z konwoju statków, zatopionych 30 lipca 1715 r. przez huragan (siedem dni po opuszczeniu Hawany zatonęło 11 z 12 okrętów). W pewnym momencie natknął się na wygięty kwadratowy element. Grupa hiszpańskich historyków stwierdziła, że pasuje on do artefaktu znalezionego przed ćwierćwieczem. Po połączeniu tworzą one wspomnianą na początku puszkę. Brent Brisben, dyrektor ds. operacyjnych firmy 1715 Fleet - Queens Jewels, która odkupiła prawa do mienia uratowanego z wraków od spadkobierców słynnej poszukiwaczki skarbów Mel Fisher, uważa, że nie da się przecenić wartości obiektu. Zgodnie z prawem, zabytek znajdzie się pod kuratelą sądu okręgowego Florydy Południowej. Stan może wejść w posiadanie do 20% znaleziska. Resztą podzielą się równo 1715 Fleet oraz Schmittowie. « powrót do artykułu
  22. Doniesienia dot. przeżywania doświadczeń z pogranicza śmierci (DPŚ) pojawiały się już w starożytnych cywilizacjach, jednak autorem najstarszego medycznego opisu tego zjawiska (z ok. 1740 r.) jest francuski lekarz wojskowy Pierre-Jean du Monchaux, autor książki pt. Anecdotes de Médecine. Medyk wyjaśniał mistyczne przeżycia DPŚ dopływem dużej ilości krwi do mózgu. Na opis natknął się ostatnio przypadkowo dr Philippe Charlier - kryminolog znany z badań dotyczących domniemanych szczątków postaci historycznych, w tym Joanny d'Arc czy Henryka IV Burbona - który za euro kupił Anegdoty w antykwariacie. Interesowała mnie po prostu historia medycyny i medyczne praktyki z przeszłości, zwłaszcza z tego okresu [XVIII w.] - opowiada Charlier. Zmarły na Haiti w wieku zaledwie 33 lat Monchaux oparł się na przypadku L.T., znamienitego aptekarza z Paryża, który we Włoszech zapadł na gorączkę z majaczeniem. Zajmowali się nim francuscy lekarze, w tym chirurdzy. Pacjentowi wielokrotnie upuszczano krew. Po jednym z takich zabiegów mężczyzna zemdlał i długo pozostawał w tym stanie. Wspominał, że utraciwszy wszystkie zewnętrzne doznania, widział tak czyste i silnie światło, że myślał, że jest w niebie. Pozytywnie zapamiętał to doświadczenie i zaręczał, że nigdy nie przeżył niczego lepszego. Inni ludzie, w różnym wieku, w dodatku obojga płci, wspominali o bardzo podobnych wrażeniach [...]. W dalszej części wywodu Monchaux wyjaśniał, że porównawszy z L.T. przypadki tonięcia, hipotermii i wieszania, doszedł do wniosku, że wskutek więzów, zimna, ciśnienia wody czy flebotomii w naczyniach skórnych pozostawało niewiele krwi bądź nie było jej w ogóle. Wszystkie płyny ciała płynęły spokojnie wewnętrznymi naczyniami, głównie mózgowymi [...] i to właśnie napływ krwi pobudzał żywe i silne wrażenia. Teoria pozostaje w oczywistej sprzeczności z rzeczywistymi zachodzącymi w mózgu zjawiskami, ale wg Charliera, można to usprawiedliwiać ówczesnym stanem wiedzy. Na łamach pisma Resuscitation Charlier wylicza, że mimo ograniczonego materiału dowodowego, można stwierdzić, że XVIII-wieczny pacjent uzyskiwał 12 na 32 punkty w skali Greysona (skali tej używa się do oceny głębokości DPŚ; wynik powyżej 7/32 uznaje się za prawdziwie dodatnie DPŚ). « powrót do artykułu
  23. Inżynierowie z MIT-u i Uniwersytetu Kalifornijskiego w Berkeley, pracujący pod kierunkiem Gordona Wetzsteina i Ramesha Raskara, skonstruowali wyświetlacz, który uwzględnia wady wzroku. Nowa technologia może przydać się np. w samochodowych urządzeniach GPS, gdzie dalekowzroczny kierowca nie będzie musiał zakładać okularów, by dobrze widzieć wyświetlaną mapę. Nowe urządzenie to odmiana wyświetlacza 3D, który można oglądać bez specjalnych okularów. Jednak tam, gdzie wyświetlacz 3D pokazuje nieco inny obraz dla każdego oka, wyświetlacz korygujący pokazuje różne obrazy dla różnych części źrenicy. Wady wzroku polegają w znacznej części na różnicy pomiędzy ogniskową oka, a rzeczywistym położeniem obiektu, na którym próbujemy skupić wzrok. Nowy wyświetlacz koryguje problem symulując obraz w odpowiedniej odległości od oka. Główna trudność polega tutaj na tym, że symulowanie pojedynczego piksela na wirtualnym obrazie wymaga wykorzystania wielu pikseli na wyświetlaczu. Kąt, pod którym światło powinno pozornie dochodzić do oka jest ostrzejszy niż kąt, pod którym dochodzi z wyświetlacza. Zatem piksele wyświetlające obraz po prawej stronie muszą być „nachylone” w lewo, a te po lewej stronie – w prawo. Wykorzystanie wielu pikseli wyświetlacza do symulowania jednego wirtualnego piksela znacząco zmniejsza rozdzielczość obrazu. Jednak problem ten eksperci napotkali już podczas konstruowania wspomnianego wcześniej wyświetlacza 3D, który można oglądać bez specjalnych okularów. Odkryli wówczas, że gdy wyświetlamy liczne obrazy pod różnymi kątami tak, by symulować różne kąty widzenia i tym samym oddać obraz 3D, to w obrazach tych mamy do czynienia z olbrzymią ilością powtórzonych informacji. Opracowali zatem specjalny algorytm, który wykorzystuje te powtórzone informacje tak, iż za pomocą pojedynczego piksela na wyświetlaczu można reprezentować różne kąty widzenia. Specjaliści z MIT-u i Berkeley zaadaptowali swój algorytm do wyświetlaczy korygujących, dzięki czemu doszło jedynie do niewielkiej utraty rozdzielczości. Prototypowy wyświetlacz ma też dodatkową wadę. Otóż piksele na wyświetlaczu muszą być maskowane przed tymi częściami źrenicy, dla których nie są przeznaczone. Wymaga to zastosowania dodatkowej warstwy wyświetlacza, która blokuje ponad połowę emitowanego przezeń światła. Eksperci z MITu i Berkeley są jednak optymistami. Wczesna wersja ich wyświetlacza 3D borykała się z tym samym problemem, który rozwiązano przez użycie dwóch wyświetlaczy ciekłokrystalicznych. Precyzyjne dobranie obrazów wyświetlanych przez każdy z wyświetlaczy pozwoliło na maskowanie pewnych jego części, przepuszczanie innych i lepsze wykorzystanie światła. Twórcy nowego wyświetlacza sądzą, że w przyszłości uda im się połączyć obie techniki i stworzyć wyświetlacz 3D, który będzie jednocześnie uwzględniał wadę wzroku. Większość specjalistów od optyki powie, że to niemożliwe. Jednak grupa Ramesha pokazała już, że potrafią wykonać rzeczy, które na pierwszy rzut oka są niemożliwe - mówi profesor Chris Dainty z University College London i Szpitala Okulistycznego Moorfields. Kluczowy jest fakt, że, jak się wydaje, udało im się rozwiązać problem z kontrastem. Tam, gdzie przetwarzasz obraz tworzony za pomocą niespójnego światła – czyli takiego, jakie nas otacza – zawsze pojawia się problem jego intensywności. A intensywność jest zawsze dodatnia lub wynosi zero. Z tego też powodu zawsze mamy do czynienia z dodawaniem, zatem tło robi się coraz większe i większe. Z kolei stosunek sygnału do tła robi się, w miarę przetwarzania, coraz mniejszy. To fundamentalny problem - dodaje Dainty. « powrót do artykułu
  24. Ośmiornica Graneledone boreopacifica, która opiekowała się zapłodnionymi jajami przez 53 miesiące, ustanowiła rekord długości takiego zachowania u zwierząt. Od kwietnia 2007 r. naukowcy obserwowali ją za pomocą zdalnie sterowanego pojazdu podwodnego (ROV) na głębokości 1397 m przy skale w rowie tektonicznym Monterey. Jak tłumaczą biolodzy, wcześniej kilkakrotnie odwiedzali to miejsce i wiedzieli, że samice G. boreopacifica przyczepiają tu i opiekują się zapłodnionymi jajami. O ile w kwietniu 2007 r. na samej skale niczego nie zauważono, o tyle na pobliskich osadach widać było samotną wolno przemieszczającą się ośmiornicę. Gdy autorzy artykułu z PLoS ONE wrócili 38 dni później, znaleźli tę samą samicę (można to było stwierdzić na podstawie charakterystycznych blizn). Ponieważ grzechem byłoby nie wykorzystać okazji, by po raz pierwszy w historii nauki obserwować w naturze okres opieki nad jajami u ośmiornic zamieszkujących głębiny, w ciągu 4,5 roku zespół powracał na stanowisko jeszcze 18-krotnie. Za każdym razem ta sama samica przywierała do skały, otaczając jaja podwiniętymi ramionami. Stale powiększające się rozmiary jaj potwierdzały, że to ten sam lęg. Naukowcy tłumaczą, że nie chcieli przeszkadzać ośmiornicy, mierzyli więc tylko jaja na obrzeżach zbitki. Zespół doktora Bruce'a Ronisona z Monterey Bay Aquarium Research Institute (MBARI) dokonał bardzo ważnego odkrycia. Dotąd wiedziano tylko, że u ośmiornic, które są przeważnie zwierzętami semelparycznymi (rozmnażają się raz w życiu), w przypadku gatunków z płytkich wód opieka rodzicielska trwa 1-3 miesiące. Niestety, naukowcy dysponowali zaledwie garstką informacji nt. rozrodu ośmiornic głębinowych. Ekstrapolacja danych dla gatunków z płytkich wód na gatunki głębinowe sugerowała, że niższe temperatury wydłużą okres rozwoju embrionalnego (w zimnych, ciemnych wodach oceanu procesy metaboliczne są często wolniejsze). Choć badania laboratoryjne na głowonogach to potwierdziły, brakowało bezpośrednich dowodów. Samica z kanionu Monterey pozwoliła je zdobyć. Za każdym razem, gdy przybywaliśmy, byliśmy coraz bardziej zaskoczeni, ponieważ stwierdzaliśmy, że ona nadal tam jest, przekraczając granice przypisywanej jej wytrwałości. Przypominało to trochę kibicowanie drużynie sportowej. Pragnęliśmy, by przeżyła i by się jej udało. We wrześniu 2011 r. ośmiornica i jaja nadal tkwiły na skale, lecz gdy zespół powrócił miesiąc później, na stanowisku pozostały tylko puste kapsuły jajowe. Ośmiornica zapewne umarła szybko po wypełnieniu swojej powinności. Opieka nad jajami stanowiła ostatnią ćwiartkę jej życia. Wszystko, co wiemy, sugeruje, że [przez 53 miesiące] nie jadła. Kiedy byśmy się nie zanurzali, nigdy nie widzieliśmy, by jaja były pozbawione opieki. Samica raz zwróciła uwagę na będące jej pokarmem kraby i krewetki, tyle tylko, że w tym konkretnym przypadku próbowała je odpędzić od jaj. Gdy naukowcy podawali jej przekąskę za pomocą wysięgnika ROV, zupełnie to zignorowała. « powrót do artykułu
  25. Rosyjskie władze zażądały od Apple'a i SAP'a kodów źródłowych ich oprogramowania twierdząc, że chcą się w ten sposób upewnić, iż nie zawiera ono narzędzi szpiegujących. Żądanie takie pojawiło się podczas spotkania rosyjskiego ministra komunikacji Mikołaja Nikiforowa z szefami rosyjskich oddziałów obu firm. Warto tutaj wspomnieć, że wiele rządów sprawdza oprogramowanie pod kątem ewentualnych mechanizmów szpiegowskich, jednak zwykle nie żądają one udostępnienia kodów źródłowych. Rosjanie argumentują jednak, że ich przekazanie nie powinno być problemem, gdyż od 2003 roku robi tak Microsoft. Koncern z Redmond udostępnia kod źródłowy Windows i innych programów instytutowi Atlas, który sprawdza kod na zlecenie Ministerstwa Komunikacji. Nie wiadomo, czy Apple lub SAP mają zamiar spełnić żądanie rosyjskich władz. « powrót do artykułu
×
×
  • Dodaj nową pozycję...