Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    227

Zawartość dodana przez KopalniaWiedzy.pl

  1. Studium światowego poziomu sprawności fizycznej pokazało, że wiele dzieci nie potrafi biec tak szybko, jak rodzice za młodu. Wyniki zaprezentowano na dorocznym spotkaniu American Heart Association. Naukowcy przeanalizowali dane z 46 lat. Objęły one ponad 25 mln dzieci z 28 państw. Okazało się, że średnio współczesne dzieci przebiegają milę (1,609 km) z czasem o 90 s gorszym niż rówieśnicy sprzed 30 lat. W uwzględnionych krajach wydolność sercowo-naczyniowa (mierzona odległością, jaką dziecko jest w stanie pokonać w wyznaczonym czasie) systematycznie spadała o ok. 5% w ciągu dekady. Pogorszenie wyników widać u obu płci we wszystkich grupach wiekowych od 9 do 17 lat. Wiąże się ono z otyłością. Problem dotyczy głównie Zachodu, ale opisane zjawisko występuje także w niektórych częściach Azji, np. Korei Południowej, kontynentalnych Chinach czy Hongkongu. [...] Od 30 do 60% spadków w osiągnięciach w zakresie biegu wytrzymałościowego można wyjaśnić wzrostem masy tłuszczowej - podkreśla dr Grant Tomkinson z Uniwersytetu Południowej Australii, dodając, że najmłodsze pokolenie trzeba zachęcać do wzmożonej aktywności (co najmniej 1 godz. dziennie, najlepiej w kilku "rzutach", a nie jednej sesji). Inaczej konsekwencje dla zdrowia publicznego będą tragiczne. Jeśli młoda osoba jest teraz niesprawna fizycznie, rośnie ryzyko, że na późniejszych etapach życia zapadnie np. na chorobę serca. Specjaliści tłumaczą, że by zwiększyć wydolność sercowo-naczyniową, trzeba się spocić, a ruch powinien być dynamiczny. « powrót do artykułu
  2. Badania przeprowadzone na zlecenie amerykańskiej Federalnej Administracji Lotnictwa wykazały, że piloci tak bardzo polegają na automatycznych systemach pokładowych, iż większość z nich nie wie, co robić, gdy trzeba przejąć stery. Oni przyzwyczaili się do obserwowania rzeczy, które dzieją się same, zamiast aktywnie działać - czytamy w raporcie. Zdaniem jego autorów pilot współczesnego samolotu pasażerskiego jest w coraz większym stopniu menedżerem systemu. Obecne studium było zakrojone na wyjątkowo szeroką skalę. Wzięło w nim udział więcej ekspertów niż zwykle, autorzy studium otrzymali ankiety od dużej liczby pilotów oraz skorzystali z informacji od obserwatorów, którzy przyglądali się pracy pilotów podczas ponad 9000 rejsów na całym świecie. Zdaniem autorów badań największym obecnie zagrożeniem dla bezpieczeństwa ruchu lotniczego jest słabe wyszkolenie pilotów. Mają oni problemy z ręcznym sterowaniem maszyną, a wynika to z faktu, że podczas szkoleń nie kładzie się odpowiedniego nacisku na doskonalenie obsługi coraz bardziej zautomatyzowanych maszyn. Wynikające stąd problemy objawiają się zarówno słabymi umiejętnościami ręcznego pilotażu, podejmowaniem złych decyzji oraz możliwym spadkiem zaufania pomiędzy członkami załogi, do którego dochodzi w sytuacji, gdy komputery zawiodą. Studium wykazało, że w większości przypadków, gdy pojawiają się problemy z automatycznymi systemami, piloci potrafią je zidentyfikować i naprawić, zanim jedna awaria pociągnie za sobą kolejne. Kłopoty zaczynają się, gdy trzeba przejąć stery. Piloci tracą wówczas kontrolę, gdyż albo nie wiedzą, co robić, albo też są słabo zaznajomieni z urządzeniami i nie wiedzą, co one im wskazują. Takie sytuacje są obecnie główną przyczyną katastrof lotniczych. To właśnie błędy pilotów podczas wystąpienia awarii były przyczyną katastrofy Airbusa A330 Air France, który w 2009 roku wpadł do Atlantyku. Autorzy raportu podejrzewają, że podobna sytuacja miała miejsce w ubiegłym roku, gdy Boeing 777 Asiana Airlines lądował awaryjnie w San Francisco. Jedną z przyczyn takiego stanu rzeczy są... coraz doskonalsze samoloty. Silniki i systemy pokładowe są coraz bardziej niezawodne, a to powoduje, że piloci praktycznie cały lot spędzają na biernym obserwowaniu urządzeń. Po podręcznik pilotażu sięgają tylko na kilka minut przed startem i lądowaniem. « powrót do artykułu
  3. Bazując na poziomym transferze genów, bakterie glebowe Acinetobacter baylyi mogą asymilować bardzo krótkie i uszkodzone DNA, np. ze skamieniałej kości mamuta sprzed 43 tys. lat. Gdyby bakteria z epoki lodowej była w stanie przekazać DNA żyjącemu mikrobowi, pokolenia z bardzo odległej przeszłości mogłyby wpływać na ewolucję przyszłych generacji - podkreśla Soren Overballe-Petersen z Uniwersytetu Kopenhaskiego. Duńczyk nazywa to ewolucją anachroniczną i dodaje, że to coś, czego nie rozważaliśmy wcześniej i co nie znalazło się w [...] naszych modelach ewolucji bakterii. Hendrik Poinar z McMaster University porównuje koncepcję kolegi po fachu do pojęcia "recyklingu genowego". Pomysł, że DNA z różnych okresów w dziejach [w tym starożytne] potrafi ponownie utorować sobie drogę do ewolucyjnego światła dziennego, jest fascynującą możliwością. Naukowcy od dawna wiedzieli, że bakterie skutecznie wychwytują DNA z otoczenia, lecz zazwyczaj takie fragmenty materiału genetycznego składają się z wielu tysięcy zasad. Gdy stają się one krótsze, efektywność [wyłapywania] bardzo szybko spada. Ostatnio zespół Eske Willersleva, do którego trafił m.in. Overballe-Petersen, wykazał jednak, że A. baylyi radzą sobie nawet z odcinkami 20-120-literowymi. Większość DNA ulega strawieniu, ale część ulega zintegrowaniu z genomem. To konsekwencja żerowania na rzeczach znalezionych wokół. Porównuję to do przetrząsania śmieci. W większości przypadków do niczego to nie prowadzi, ale można także znaleźć wyrzucone przez innych perełki [...]. Autorzy artykułu z PNAS odkryli, że mechanizm działa nawet w przypadku poważnie uszkodzonego środowiskowego DNA. Pod wpływem tego spostrzeżenia zaczęli się zastanawiać, czy bakterie zasymilowałyby również bardzo stare i wysłużone DNA. Ponieważ niezwykle trudno znaleźć niezanieczyszczony materiał genetyczny, który z pewnością pochodziłby od starożytnych mikrobów, zespół posłużył się czymś o niekwestionowanej "starości" - kością mamuta sprzed 43 tys. lat. W ten sposób potwierdzono, że mamut poniekąd odżył we współczesnej bakterii. Choć magia odkrycia działa właściwie na wszystkich, niektórzy komentatorzy podkreślają, że nie ma dowodu, że podobne zjawiska zachodzą w naturze i że transfer horyzontalny z żyjących źródeł ma o wiele większy wpływ na ewolucję bakterii. Nawet jeśli założymy, że takie zjawiska się zdarzają, nie wiemy jak często (mimo że Overballe-Petersen argumentuje, że w środowisku nie brakuje wolnego DNA i choć bakterie nie są specjalistkami w zakresie wychwytu krótkich fragmentów, sama obfitość "surowca" sprawia, że okazje nadarzają się dość często) i w ilu przypadkach inkorporacja prowadzi do znaczących zmian (w końcu kawałki DNA są zbyt małe, by zawierać całe geny). Willerslev i inni przekonują jednak, że nie trzeba wielu takich sytuacji, by np. przekształcić podatną bakterię w organizm lekooporny. W pomieszczeniach szpitalnych skupiamy się na zabiciu żywych bakterii, ale to nie wystarczy, by zniszczyć DNA, które może się pofragmentować i zostać ponownie wyłapane. [Potencjalnie] możemy więc mieć do czynienia z błędnym kołem ponawianej lekooporności - podsumowuje Overballe-Petersen. « powrót do artykułu
  4. Przewodniczący rady nadzorczej Nokii stwierdził podczas nadzwyczajnego zgromadzenia akcjonariuszy, że firmowa strategia dotycząca smartfonów nie dawała nadziei na zmianę sytuacji firmy. Nokia zwołała nadzwyczajne zgromadzenie, które ma zatwierdzić sprzedanie Microsoftowi wydziału produkcji telefonów. W zgromadzeniu bierze udział rekordowo duża liczba około 5000 akcjonariuszy. Nokia co prawda powoli odzyskuje rynek telefonów komórkowych, jednak jest to niezwykle kosztowne przedsięwzięcie i mimo dużego wsparcia finansowego ze strony Microsoftu fińskiej firmy nie stać na kontynuowanie tej strategii. Gdy przed dwoma laty Nokia została głównym partnerem Microsoftu szybko okazało się, że urządzenia tej firmy mają 90-procentowe udziały na rynku Windows Phone. Sytuacja nie była komfortowa dla Microsoftu, gdyż ewentualna zmiana strategii przez Nokię byłaby katastrofą dla koncernu z Redmond. W takiej sytuacji, gdy Nokia zdecydowała się na sprzedaż wydziału naszym celem było uzyskanie od Microsoftu najwyższej możliwej ceny, stwierdził tymczasowy dyrektor fińskiego koncernu. « powrót do artykułu
  5. W Proceedings of the National Academy of Sciences ukazał się artykuł, w którym specjaliści z Roswell Park Cancer Institute sugerują, że niskie temperatury sprzyjają wzrostowi nowotworów. Zjawisko takie występuje przynajmniej w przypadku myszy. Elizabeth Repasky i jej koledzy stwierdzili, że u myszy żyjących w temperaturze około 22 stopni Celsjusza guzy nowotworowe rosną szybciej i są bardziej agresywne niż u zwierząt przebywających w temperaturze około 30 stopni Celsjusza. Nie ma przy tym znaczenia, w jakiej temperaturze zwierzęta przebywały wcześniej. Nawet jeśli przeniesiono je w chłodniejsze miejsce już po pojawieniu się guzów, to obserwowano niekorzystny rozwój sytuacji. Do obrony przed nowotworem organizm wykorzystuje limfocyty T. Guzy nowotworowe są przez nie rozpoznawane na podstawie produkowanych przez siebie białek. Guzy, broniąc się, wysyłają sygnały, które osłabiają odpowiedź immunologiczną. W końcu jedna ze stron wygrywa. Okazało się, że zarówno u myszy przebywających w chłodniejszych pomieszczeniach jak i u tych, które mieszkały w wyższych temperaturach, liczba limfocytów T była taka sama. Jednak tam, gdzie było cieplej, limfocyty T szybciej identyfikowały guzy i lepiej radziły sobie z ich zwalczaniem. Wydzielały też więcej zwalczających guzy substancji niż limfocyty myszy żyjących w chłodniejszych warunkach. Myszy, podobnie jak ludzie, gdy czują chłód starają się zapewnić sobie ciepło. Gdy da się zwierzętom wybór i umożliwi im zamieszkanie w pomieszczeniu o temperaturze 22, 28, 30, 34 lub 38 stopni Celsjusza, zwierzęta wybiorą to z temperaturą o 30 stopniach. Myszy cierpiące na nowotwory przeprowadzają się do pomieszczenia, gdzie panuje temperatura 38 stopni Celsjusza. Warto tutaj zauważyć, że pacjenci nowotworowi często skarżą się, że czują zimno. Niewykluczone, że rosnące guzy nowotworowe celowo wywołują u pacjenta uczucie chłodu, gdyż może to ułatwiać ich wzrost. Eksperci z Roswell Park Cancer Institute nie wiedzą, jak mechanizm ten działa. Jednak ich odkrycie może mieć istotne implikacje w przyszłości. Być może zwiększenie temperatury w pomieszczeniach, w których leczeni są pacjenci nowotworowi pozwoli na uzyskanie lepszych efektów. Prowadzono już testy na niewielkich grupach pacjentów cierpiących na raka piersi, naczyniakomięsaki i mięsaki. Wykazały one, że podniesienie temperatury organizmu na kilka godzin zwiększa efektywność radioterapii. « powrót do artykułu
  6. Choroby nerek to jeden z najpoważniejszych problemów, z jakimi boryka się medycyna. Nerki bardzo rzadko odzyskują sprawność po uszkodzeniu czy schorzeniach. Jako że są organem niezbędnym do życia, lepsze poznanie ich fizjologii pozwoli na pomoc i uratowanie życia wielu ludziom. Uczonym z Salk Intitute for Biological Studies udało się utworzyć z ludzkich komórek macierzystych trójwymiarową strukturę nerek, co pozwoli na zbudowanie platformy do badania nerek i opracowywania nowych leków oraz terapii. Co prawda nieco wcześniej inna grupa uczonych uzyskała komórki nerek z komórek macierzystych, jednak specjaliści z Salk są pierwszymi, którzy stworzyli z takich komórek trójwymiarową strukturę. Próby zamiany ludzkich komórek macierzystych w komórki nerek nie przyniosły zbyt dobrych wyników. Opracowaliśmy prostą, efektywną metodę różnicowania ludzkich komórek macierzystych w dobrze zorganizowane trójwymiarowe struktury, które mogą rozwinąć się w układ zbiorczy - mówi jeden z autorów badań, profesor Juan Carlos Izpisua Belmonte. Co więcej naukowcy przetestowali swoją metodę na pacjencie cierpiącym na wielotorbielowatość nerek. Wykazali, że pozwala ona na stworzenie struktur nerek z komórek macierzystych pacjenta. « powrót do artykułu
  7. Z Przylądka Canaveral wystartowała misja MAVEN (Mars Atmosphere and Volatile Evolution). To pierwszy pojazd, którego zadaniem jest zebranie szczegółowych danych na temat górnych warstw atmosfery Marsa. Naukowcy mają nadzieję, że dostarczone przez niego informacje pozwolą wyjaśnić historię klimatu Czerwonej Planety. Uczeni chcą się dowiedzieć, jak to się stało, że Mars jest obecnie zimną, pustynną planetą. Podróż na Czerwoną Planetę potrwa 10 miesięcy. Pojazd na orbicie planety znajdzie się we wrześniu i rozpocznie swój program badawczy. Dotarcie do Marsa nie jest proste. Trzeba się tam znaleźć i wejść na odpowiednią orbitę. Trzeba mieć paliwo i nawiązać łączność z Ziemią oraz innymi pojazdami. Dużo rzeczy trzeba wykonać prawidłowo - mówi profesor John Clarke z Boston University, jeden z członków zespołu naukowego Mavena. Jedna z teorii dotyczących Marsa mówi, że planeta utraciła pole magnetyczne, które chroniło jej powierzchnię przed wiatrem słonecznym. Utrata pola magnetycznego doprowadziła do utraty wody. Jeśli Mars miał niegdyś grubą atmosferę oraz wodę na powierzchni, a potem w wyniku ewolucji je stracił. Woda mogła zamarznąć na powierzchni lub wyparować. Chcielibyśmy wiedzieć, w jakim kierunku zmierza Ziemia. Jaka jest rola zmian klimatycznych? Co zmieni się w krótkiej i długiej perspektywie czasowej? - mówi Clarke. « powrót do artykułu
  8. Chodzenie spać i wstawanie o tej samej porze wiążą się z mniejszym otłuszczeniem ciała - twierdzi prof. Bruce Bailey z Brigham Young University. Naukowiec badał ponad 300 kobiet w wieku 17-26 lat z 2 amerykańskich uniwersytetów. W ramach studium na początku oceniano skład organizmu. Później uczestniczkom dawano sprzęt do nagrywania ruchów w ciągu dnia oraz wzorców snu w nocy. Wzorce snu utrwalano na przestrzeni jednego tygodnia. Autorzy artykułu z American Journal of Health Promotion podkreślają, że najbardziej zaskoczyło ich odkrycie, że istnieje związek między wagą a konsekwencją w zakresie pory kładzenia się spać i wstawania. U pań, które codziennie chodziły spać i budziły się w przybliżeniu o tej samej porze, ilość tłuszczu w organizmie była niższa. U osób z ponad 90-min zmiennością w zakresie godzin udawania się na spoczynek i wstawania otłuszczenie ciała okazało się wyższe niż u badanych ze zmiennością poniżej 60 min. Szczególny związek zaobserwowano w przypadku pory wstawania. Kobiety, które każdego ranka opuszczały łóżko w przybliżeniu o tej samej porze, miały niższą masą tłuszczową. Jak tłumaczy Bailey, szkodliwe są zarówno odwlekanie położenia się spać, jak i odsypianie. Jesteśmy wyposażeni w zegary biologiczne. Odrzucanie ich [...] ma wpływ na naszą fizjologię. Zaburzenie higieny snu oddziałuje na wzorce aktywności fizycznej i poziom hormonów kontrolujących jedzenie. Podsumowując inne ustalenia, Amerykanie dodają, że najniższą ilość tłuszczu w organizmie miały kobiety śpiące 8-8,5 godz. Zauważono także, że panie z lepszą jakością snu (dłuższym snem w zestawieniu z czasem spędzanym w łóżku) także mogły się pochwalić niższą masą tłuszczową. « powrót do artykułu
  9. Chiny odzyskały pierwsze miejsce na liście TOP500. Komputer Tianhe-2 (Droga Mleczna) osiągnął w teście Linpack wydajność 33,86 petaflopsów. Charakteryzuje się zatem niemal dwukrotnie większą mocą obliczeniową od kolejnego na liście Titana (17,59 PFlop/s). Tianhe-2 został zbudowany przez chiński Narodowy Uniwersytet Technologii Obronnych i pokazuje stopień zaawansowania chińskich inżynierów. Dziełem Chińczyków są procesory czołowe (front-end processor), kontrolery magistrali, system operacyjny oraz programowanie. Inżynierowie z Państwa Środka wykorzystali 4096 chińskich 16-rdzeniowych procesorów Galaxy FT-1500 korzystających z architektury Sparc V9. Wydajność każdego z tych procesorów czołowych wynosi 144 GFlop/s, a ich TDP to 65 watów. Dla porównania intelowski 12-rdzeniowy Ivy Bridge, zużywając tyle samo energii, dostarcza 211 GFlop/s. Superkomputer korzysta z chińskiego systemu operacyjnego Kylin Linux bazującego na chińskim modelu programistycznym OpenMC. Mózgiem maszyny jest 3,12 miliona rdzeni obliczeniowych zgrupowanych w 16 000 węzłach. Każdy z węzłów tworzą dwa procesory Xeon Ivy Bridge i trzy Xeon Phi. Wśród pierwszych 10 najpotężniejszych superkomputerów znajdziemy, obok Tianhe-2, pięć maszyn z USA, dwie z Niemiec, jedną z Japonii i jedną ze Szwajcarii. Pięć superkomputerów zbudował IBM, dwa są autorstwa Craya, a po jednym stworzyły Fujitsu i Dell. W sumie na najnowszej liście TOP500 wymieniono 31 systemów, których wydajność przekracza petaflops. Całkowita moc obliczeniowa wszystkich uwzględnionych komputerów wynosi 250 PFlop/s z czego połowa przypada na 17 pierwszych maszyn. Na najnowszym TOP500 znajdziemy 264 komputery z USA, 63 z Chin, 28 z Japonii, 23 z Wielkiej Brytanii, 22 z Francji i 20 z Niemiec. Znalazły się na niej też dwie polskie maszyny. Na pozycji 145. wymieniono Zeusa. To należąca do Cyfronetu maszyna o wydajności 266,9 teraflopsów. Na miejscu 221. widnieje BlueGene/Q z Uniwersytetu Warszawskiego. Jego wydajność to 189 TFlop/s. Najwięcej superkomputerów z TOP500 zbudowało HP. Firma ta jest autorem aż 196 maszyn. Jej główny konkurent, IBM, stworzył 164 superkomputery. Legenda branży, Cray, jest autorem 48 maszyn. Tradycyjnie już lista zdominowana jest przez systemy linuksowe, zainstalowane na 482 komputerach. Na Windows zdecydowało się jedynie dwóch właścicieli superkomputerów, a jednym z nich jest Microsoft. Polecamy zapoznanie się ze szczegółami na oficjalnej witrynie TOP500. Tym bardziej, że dodano doń interesujące narzędzie o nazwie Development over Time (w menu Statistics), które pozwala prześledzić jak zmieniała się w czasie udziały w różnych kategoriach listy. « powrót do artykułu
  10. W ogrodzie zoologicznym w Dallas lew zabił lwicę. Świadkami niezwykłego wydarzenia byli przerażeni zwiedzający. Lew ugryzł samicę w szyję, przygniótł ją do ziemi i trzymał przez 10-15 minut. Początkowo zwiedzający myśleli, że to zabawa. Gdy zdali sobie sprawę z tego, co się dzieje, było za późno. Do ataku dołączył drugi samiec. Po kilkunastu minutach Johari, która przed kilkoma dniami obchodziła 5. urodziny, była martwa. Lynn Kramer, wiceprezes ds. zwierząt w Dallas Zoo, mówi: to niezwykle rzadkie, nieszczęśliwe wydarzenie. Przez 35 lat swojej kariery weterynarza w ogrodach zoologicznych nigdy o czymś podobnym nie słyszałem. Eksperci chcą sprawdzić w specjalistycznych publikacjach, czy podobne wydarzenia miało kiedykolwiek wcześniej miejsce. Zwykle lwy nie atakują członków własnego stada. Niewykluczone, że to pierwszy tego typu przypadek w historii ogrodów zoologicznych. Lwy, które zabiły lwicę, zostały oddzielone od reszty stada, a specjaliści szukają wskazówek, które pozwolą stwierdzić, dlaczego doszło do ataku. « powrót do artykułu
  11. Wysoce rozcieńczony domowy wybielacz zapobiega zapaleniom skóry, co może chronić ją przed promieniami słonecznymi, pomagać w czasie radioterapii oraz zapewnia jej młodszy wygląd. Lekarze od dawna wiedzą, że wybielacze pomagają w ciężkich przypadkach egzemy. Do niedawna nikt nie wiedział, dlaczego tak się dzieje. Przypuszczano, że przeciwbakteryjne właściwości wybielaczy pozwalają na zachowanie higieny skóry. Nie byliśmy do końca przekonani. Roztwór używany przez lekarzy nie jest w pełni aseptyczny - mówi dermatolog Thomas Leung z Uniwersytetu Stanforda. Tym bardziej, że używany w leczeniu roztwór zawiera jedynie 0,005% wybielacza, zatem mniej niż środków odkażających w publicznym basenie. Lung zaczął podejrzewać, że dobroczynne działanie wybielaczy polega na zapobieganiu zapaleniom skóry. Co prawda zapalenie pomaga w walce z infekcją, ale jeśli wymknie się organizmowi spod kontroli, zaczynają się kłopoty. To właśnie takie niekontrolowane zapalenie jest przyczyną egzemy. Zespół Leunga zaczął podejrzewać, że korzystny proces może mieć związek z proteiną NF-kB, która odpowiada za wzywanie komórek zapalnych w miejsce infekcji. Żeby przetestować swoją hipotezę na godzinę wystawili komórki ludzkiej skóry na działanie 0,005-procentowego roztworu wybielacza. Okazało się, że całkowicie zablokowało to wysyłanie sygnałów przez NF-kB. Podchloryn, który jest aktywnym składnikiem wybielacza, utlenił molekułę aktywującą NF-kB, uniemożliwiając w ten sposób uruchomienie się aktywatora co z kolei zapobiegło powstawaniu zapalenia. Naukowcy nie zaprzestali jednak pracy i postanowili zbadać ewentualne terapeutyczne zastosowania wybielacza. Wypróbowali go na skórze myszy z zapaleniem powodowanym przez radioterapię oraz zbadali jak działa wybielacz na zdrową skórę starzejącej się myszy. Każdej z badanych grup myszy pozwolono przebywać w rozcieńczonym wybielaczu przez 30 minut dziennie. Zauważono, że u myszy, które miały kontakt z wybielaczem przed każdą z 10 codziennych dawek radioterapii zapalenie skóry było łagodniejsze i leczyło się szybciej niż u zwierząt, które kąpały się w samej wodzie. To bardzo istotne spostrzeżenie, gdyż osoby cierpiące na nowotwory muszą często przerywać radioterapię by dać skórze czas na uleczenie się. Z kolei starzejące się myszy kąpały się w wybielaczu codziennie przez dwa tygodnie. Badania skóry wykazały, że zwiększyła się produkcja komórek, dzięki czemu skóra była grubsza i wyglądała młodziej niż u myszy kąpiących się w samej wodzie. Ponadto u myszy mających kontakt z wybielaczem obniżyła się ekspresja dwóch genów związanych z procesem starzenia się. Kąpiele w wybielaczu nie dawały jednak długotrwałego efektu. Po kolejnych dwóch tygodniach skóra powróciła do poprzedniego wyglądu. Wpływ podchlorynu na NF-kB jest bowiem dość łagodny. Leung mówi, że do utrzymania młodszego wyglądu skóry konieczne byłoby powtarzanie kąpieli. Leung wiąże wielkie nadzieje ze swoimi badaniami. Uczony zauważa, że fakt, iż efekty działania wybielacza są odwracalne i nie zauważono dotychczas żadnych niepożądanych oddziaływań daje nadzieję, iż skutki uboczne podczas planowanych testów klinicznych będą minimalne. Nowością jest tutaj, że mamy niezwykle tani, szeroko dostępny środek chemiczny i badamy go pod kątem nowych zastosowań. Jako, że byliśmy w stanie dokładnie określić, w jaki sposób działa podchloryn mamy nadzieję, że rozszerzymy badania nad jego bezpiecznym korzystnym użyciem w terapii - cieszy się uczony. « powrót do artykułu
  12. W ramach projektu Short Model Coil (SMC) inżynierowie z CERN-u pracują nad niewielkimi, 30-centymetrowymi magnesami generującymi bardzo silne pole. Takie urządzenia są konieczne do udoskonalenia Wielkiego Zderzacza Hadronów czy budowy akceleratorów kolejnej generacji. Obecnie w LHC wykorzystywane są magnesy niobowo-tytanowe, jednak mają one poważne ograniczenia. Obecnie dzięki istniejącej technologii niobowo-tytanowej uzyskujemy natężenie pola rzędu 8 tesli i jest to blisko maksimum - mówi Juan Carlos Peres, który odpowiada za projekt SMC. Takie natężenie to zbyt mało, by bardziej precyzyjnie kierować wiązką w akceleratorze oraz by pracować z wyższymi energiami. Nowy materiał pozwala na uzyskanie pola o co najmniej 50% silniejszego - dodaje Perez. Tym "nowym" materiałem jest stop niobu i cyny. Mimo, że został od odkryty przed związkiem niobu i tytanu, to rzadko jest wykorzystywany w akceleratorach, gdyż praca z nim jest bardzo trudna. Stop niobu i cyny musi być poddany działaniu wysokiej temperatury - około 6500 stopni Celsjusza - by powstała w nim faza nadprzewodząca, a po takim potraktowaniu staje się niezwykle kruchy. Celem projektu SMC jest opracowanie technologii pozwalającej na udoskonalenie tego materiału. Wraz z kolegami z USA bardzo dużo w to zainwestowaliśmy - dodaje Perez. Na potrzeby udoskonalonego LHC naukowcy chcą stworzyć niobowo-cynowe magnesy generujące pole o natężeniu 12 tesli. W ciągu najbliższych 10 lat mamy zamiar zbudować nowe magnesy czteropolowe o wyższej mocy, co pozwoli na lepsze skupienie wiązek w LHC. Zwiększy to liczbę zderzeń i pozwoli na zebranie większej ilości danych. W dłuższej perspektywie 20 lat stop niobu i cyny będzie kluczową technologią. Powinien pozwolić inżynierom nawet na 10-krotne zwiększenie energii akceleratorów kołowych w porównaniu z energią LHC - dodaje. Obecny rekord natężenia pola magnetycznego w magnesach niobowo-cynowych należy do uczonych z Lawrence Berkeley National Laboratory, którzy uzyskali 16,1 tesli. Ekspertom z CERN-u udało się właśnie uzyskać 13,5 tesli. « powrót do artykułu
  13. W Zachodniej Antarktydzie, kilometr pod pokrywą lodową, formuje się nowy wulkan. Do takich wniosków doszli uczeni, którzy w styczniu 2010 roku ustawili na Ziemi Marii Byrd dwie przecinające się linie z sejsmografów. Wówczas to po raz pierwszy udało się ustawić w jednym z najzimniejszych regionów świata liczne instrumenty naukowe, które mogły pracować przez cały rok. Uczeni,którzy tego dokonali chcą poznać budowę lodu i skał Zachodniej Antarktydy i odtworzyć dzięki temu historię geologiczną tego regionu. Dane z sejsmografów są na bieżąco analizowane przez oprogramowanie, które szuka w nich wszelkich odchyleń od normy. Już w styczniu 2010, a później w Marcu 2011 zarejestrowano zwiększoną aktywność sejsmiczną. Naukowcy zaczęli szukać odpowiedzi na pytanie, co ją spowodowało. Po szczegółowej analizie specjaliści doszli do wniosku, że pod lodem powstaje właśnie nowy wulkan. Profesor Doug Wiens z Washington University w St. Louis polecił swojej doktorantce, Amandzie Lough, by bliżej przyjrzała się danym z sejsmografów. Młoda uczona szybko zdała sobie sprawę, że rejestrowana aktywność sejsmiczna nie jest aktywnością tektoniczną. Ta bowiem odbywa się z częstotliwością 10-20 cykli na sekundę, podczas gdy aparatura rejestrowała częstotliwość 2-4 Hz. Taką częstotliwość mogą powodować ruchy lodu. Młoda uczona, chcąc sprawdzić tę możliwość, uruchomiła symulację komputerową, która wykazała, że zdarzenia, których skutki rejestrowały sejsmografy, miały miejsce na głębokości 25-40 kilometrów. To bardzo głęboko, blisko granicy skorupy i płaszcza ziemskiego. To wykluczało nie tylko ruch lodu, ale również pochodzenie tektoniczne. Wydarzenie tektoniczne może mieć hipocentrum [ognisko trzęsienia ziemi - red.] położone na głębokości 10-15 kilometrów, ale 25-40 kilometrów to zdecydowanie zbyt dużo - mówi Lough. Ponadto jeden z kolegów zwrócił uczonej uwagę, że rejestrowane przez sejsmografy fale mają kształt podobny do tych, jakie powstają w związku z działalnością wulkaniczną. Wszystko do siebie pasuje - mówi Lough. Dla uzyskania pewności o dodatkowe konsultacje poproszono Duncana Younga i Dona Blankenshipa z University of Texas, którzy z powietrza tworzą radarową mapę podłoża skalnego Antarktyki. Na tej mapie widać wyniesienie skał w miejscu aktywności sejsmicznej - mówi Lough i dodaje, że widoczna jest również warstwa popiołów, która nie występuje na żadnym z pobliskich obszarów. Naukowcy są zatem pewni, że mamy do czynienia z aktywnością wulkaniczną, nie wiedzą jednak, co ją powoduje. Większość gór w Antarktyce nie jest wulkanami, ale większość w badanym przez nas regionie to wulkany. Czy dzieje się tak, bo Wschodnia i Zachodnia Antarktyka oddzielają się od siebie? Nie wiemy. Ale sądzimy, że w tym miejscu głęboko pod powierzchnią powstaje magma - mówi profesor Wiens. Pani Lough jest pewna, że wcześniej czy później dojdzie do erupcji wulkanicznej. Jej zdaniem, już w przeszłości nowy wulkan mógł wyrzucać z siebie materiał. Erupcja, która mogłaby przebić się przez kilometr lodu musiałaby być tysiące razy potężniejsza niż typowa erupcja wulkaniczna. Nawet jeśli nowy wulkan nie wybuchnie z tak wielką siłą, to jego erupcja rozpuści olbrzymie ilości lodu. Pod jego powierzchnią pojawią się gigantyczne ilości wody, która ruszy w kierunku oceanu i nasączy skały, ułatwiając spłynięcie pokrywy lodowej. Zjawisko to może przyspieszyć utratę lodu w Zachodniej Antarktyce. « powrót do artykułu
  14. W Pasie Kuipera znaleziono największe w Układzie Słonecznym ciało stałe, które mogłoby unosić się na wodzie. Obiekt 2002 UX25 ma szerokość aż 650 kilometrów, a jego gęstość jest mniejsza od gęstości wody. Jego istnienie wydaje się przeczyć temu, co wiemy o kształtowaniu się ciał stałych w Pasie Kuipera i w Układzie Słonecznym. Zgodnie ze stanem obecnej wiedzy obiekty w Pasie Kuipera niewiele się zmieniły od czasu swojego powstania, zatem dają dobry wgląd w to, jak wyglądały wczesne etapy formowania się Układu Słonecznego. Obowiązujące modele mówią, że niewielkie cząsteczki pyłu otaczającego młode Słońce zderzały się ze sobą, tworząc coraz większe i większe obiekty, w tym i planety takie jak Ziemia. Jeśli jednak proces przebiegał właśnie tak, to wszystkie obiekty, które podczas niego powstały, powinny mieć podobną gęstość. Tymczasem okazuje się, że obiekty w Pasie Kuipera, które mają średnicę mniejszą od 350 km są mniej gęste od wody, a te o średnicy większej niż 800 km są od niej bardziej gęste. Rozbieżność tę można wyjaśnić stwierdzając, że mniejsze obiekty są bardziej porowate, gdy tymczasem w większych, mających większą grawitację, materiał jest bardziej ściśnięty. Jeśli jednak przyjmiemy takie wyjaśnienie to musimy stwierdzić, że obiekty o pośredniej wielkości, mające średnicę około 600 km, powinny charakteryzować się gęstością pomiędzy mniejszymi a większymi obiektami. Obiekt 2002 UX25 to przedstawiciel licznej klasy w Pasie Kuipera. Jest pierwszym tej wielkości obiektem, którego gęstość udało się zmierzyć. Pomiary wykazały, że jego gęstość wynosi 0,82 g na centymetr sześcienny, a więc jest o 18% mniejsza od gęstości wody. To z kolei sugeruje, że zbudowany jest głównie z lodu. A jeśli tak, to trudno utrzymać obecne teorie o tworzeniu się większych obiektów z mniejszych. Andrew Youdin i jego koledzy z University of Colorado Boulder zaproponowali wyjaśnienie tego fenomenu. Ich zdaniem duże obiekty w Pasie Kuipera uformowały się wcześniej do obiektów średniej wielkości. Powstały dość szybko z ziaren skał i lodu wielkości żwiru. Później pomiędzy dużymi obiektami dochodziło do kolizji, które prowadziły do oddzielania lodu od skał. W ten sposób powstały średniej wielkości lodowe obiekty oraz duże obiekty skaliste.
  15. Od lat 50. ubiegłego wieku naukowcy obserwują, że otaczające Antaraktykę wiatry wieją coraz szybciej i kierują się bardziej na południe. Z najnowszych badań wynika, że zmiany te mogą w pewnym stopniu chronić Antarktykę przed skutkami globalnego ocieplenia. Zmiany w tempie i kierunku antarktycznych wiatrów są w głównej mierze powodowane istnieniem dziury ozonowej. Teraz, gdy stopniowo ona zanika, zmiany są napędzane ocieplaniem się klimatu. Zdaniem grupy naukowców pracujących pod kierunkiem Leeli Frankcombe z australijskiego Centre of Excellence for Climate Science, silniejsze wiejące bardziej na południe wiatry mogą spowodować, że w ciągu 70 lat nie dojdzie do podniesienia poziomu oceanów o 40 centymetrów. Wiatry znoszą aż połowę wpływy globalnego ocieplenia na Antarktykę. Z najnowszego raportu IPCC wynika, że wskutek ocieplenia się klimatu do końca bieżącego wieku poziom oceanów może wzrosnąć o 97 centymetrów. W dokumencie zaznaczono również, że kilkadziesiąt kolejnych centymetrów może przybyć, jeśli dojdzie do nagłego załamania pokryw lodowych zachodniej Antarktyki. Obiegający Antarktykę Prąd Wiatrów Zachodnich niesie ze sobą ok. 125 000 000 metrów sześciennych wody na sekundę. Kształtuje on i stabilizuje klimat na naszej planecie oraz izoluje Antarktykę od ciepłych wód z północy. W połączeniu z siłą Coriolisa powoduje on zwiększenie poziomu wody na północy i zmniejszenie na południu. Wraz z rosnącą siłą wiatru rośnie różnica w poziomach pomiędzy różnymi obszarami wód. Co więcej, jak wynika z najnowszych badań, zmiana kierunku wiatru zmniejsza transfer ciepła pomiędzy północą a południem. To oznacza, że ciepłe wody z północy będą w znacznie mniejszym stopniu ogrzewały wody na południu. Gdyby nie globalne ocieplenie to mechanizm ten spowodowałby spadek poziomu oceanów o około 5 centymetrów. Nie tylko zmiany kierunku wiatrów łagodzą skutki globalnego ocieplenia. Jak wykazano, utrata pokryw lodowych na biegunach powoduje, że znajduje się tam mniejsza masa, przez co zmniejsza się oddziaływanie grawitacyjne biegunów. A to z kolei oznacza, że woda płynie od biegunów w kierunku równika. Dzięki temu około roku 2100 poziom oceanu w pobliżu Półwyspu Antarktycznego. Naukowcy próbują odpowiedzieć na pytanie, czy opisane powyżej zjawiska uchronią pokrywy lodowe. Sridhar Anandakrishanan, glacjolog z Pennsylvania State University uważa, że czynnikiem, który ma największy wpływ na pokrywy lodowe nie jest poziom oceanu, a temperatura wody. Sam względny wzrost poziomu oceanu nie spowoduje, że pokrywy lodowe znikną w ciągu 200 lat - stwierdza. Jego zdaniem spowolnienie wymiany ciepła pomiędzy Oceanem Południowym a wodami na północy może mieć pewien wpływ, jednak wszystko zależy od tego, w którym miejscu chłodniejsza woda spotka się z lodem. Nie sądzę, by to zbyt pomogło - dodaje. « powrót do artykułu
  16. Google coraz bardziej angażuje się w przemysł energii odnawialnej. Koncern ogłosił właśnie, że zainwestuje 80 milionów dolarów w budowę sześciu kolejnych farm słonecznych. Dotychczas firma zainwestowała miliard USD z elektrownie słoneczne i wiatrowe. Jak zapewnia, inwestycje te dają "atrakcyjny zwrot". Teraz wraz z firmą KRK (Kohlberg Kravis Roberts & Comp. L.P.) wyszukiwarkowy koncern zbuduje sześć farm. Inwestycja pochłonie w sumie 400 milionów dolarów. Tyle będzie kosztowało stworzenie zakładów o łącznej mocy szczytowej 132 MW, które dostarczą odbiorcom 106 MW. Wystarczy to do zasilenia 17 000 gospodarstw domowych. Elektrownie powstaną w Kalifornii i Arizonie. Inwestorzy mają niezwykle ambitne plany. Chcą, by rozpoczęły one pracę już w przyszłym roku. Farmy zbuduje należąca do japońskiego Sharpa firma Recurrent Energy. Sharp to największy japoński i szósty na świecie producent ogniw fotowoltaicznych. W roku 2012 firma sprzedała ogniwa o łącznej mocy 1 GW, a w roku bieżącym jej sprzedaż wzrosła o niemal 81%. Już 12,6% przychodów japońskiego koncernu pochodzi z rynku energetyki słonecznej. W ubiegłym roku Google zainwestowało 200 milionów dolarów w farmę wiatrową o mocy 161 MW, która stoi w Oldham County w Teksasie. Dwa lata temu firma przeznaczyła 280 milionów USD na stworzenie funduszu, dzięki któremu dostawca systemów do produkcji energii słonecznej - SolarCity - mógł zaoferować swoje usługi większej liczbie klientów indywidualnych. Po wybudowaniu farm w Arizonie i Kalifornii łączna moc energii odnawialnej produkowanej m.in. dzięki inwestycjom Google'a wyniesie 2 GW. Google, obok Apple'a i Microsoftu, to jeden z wielkich koncernów technologicznych, który sam w coraz większym stopniu korzysta z niekonwencjonalnych źródeł energii. Już 20% energii zużywanej przez Google'a pochodzi ze Słońca. Energetyka słoneczna to druga, po gazowej, najszybciej rozwijająca się gałąź przemysłu energetycznego w USA. Z odnawialnych źródeł energii korzystają też m.in. Intel, Walmart, Kiea, Toyota, Lockheed Martin czy FedEx. Obecnie na terenie USA produkowanych jest 6,4 GW energii słonecznej. W bieżącym roku liczba nowy instalacji ma być większa niż w latach poprzednich. Rozwija się też energetyka wiatrowa, z której Amerykanie pozyskują już 47 GW. Dla porównania, łączna moc polskich elektrowni i innych systemów produkcji energii nie przekracza obecnie 36 GW. « powrót do artykułu
  17. Analizy DNA wykazały, że to europejscy łowcy-zbieracze udomowili wilki i doprowadzili do pojawienia się psów przed 20-30 tysiącami lat. Takie wnioski wynikają z najszerzej zakrojonych badań DNA psów i wilków. Debata nad czasem i miejscem udomowienia psów trwa od dziesięcioleci. Najstarsze znane szczątki zwierząt przypominających psy pochodzą z terenów Europy i Syberii i są datowane na ponad 30 000 lat wstecz. Różne analizy genetyczne wykazywały, że udomowione psy pojawiły się w Europie, Chinach i na Bliskim Wschodzie pomiędzy 10 a 30 tysiącami lat temu. Jednymi z uczonych, którzy szukają odpowiedzi na pytanie o udomowienie psów są Olaf Thalmann z fińskiego Uniwersytetu w Turku oraz Robert Wayne z Uniwersytetu Kalifornijskiego w Los Angeles. Naukowcy wraz ze swoim zespołem zsekwencjonowali mitochondrialne DNA pochodzące od 18 psów i wilków. Wiek badanego materiału wynosił od tysiąca do trzydziestu sześciu tysięcy lat. Na podstawie tych danych oraz DNA współcześnie żyjących psów i wilków z całego świata uczeni stworzyli drzewo genealogiczne zwierząt. Wykazało ono, że psy pochodzą z terenu Europy. Niemal wszystkie współcześnie żyjące psy są spokrewnione z dawnymi psami i wilkami ze Starego Kontynentu. Naukowcy stwierdzili, że wspólny przodek psa i wilka żył 18 800 - 32 100 lat temu na terenie Europy. Uczeni zauważyli też, że szczątki dwóch zwierząt podobnych do psów - jednego z terenu Belgii, drugiego z terenu Rosji - są w niewielkim stopniu spokrewnione z współczesnymi i żyjącymi dawniej wilkami oraz psami. Szczątki te liczą sobie więcej niż 30 000 lat i są jednymi z najstarszych tego rodzaju. Thalmann uważa, że być może ludzie kilkukrotnie próbowali udomowić wilka i dwa powyższe przykłady to rezultaty nieudanych prób. Z takim wnioskiem zgadza się archeozoolog Jean-Denis Vigne z Narodowego Muzeum Historii Naturalnej w Paryżu. Dodaje jednak, że naukowcy wciąż spierają się, czy zagadkowe szczątki należą do psa czy wilka. Wiadomo, że zwierzęta były znacznie większe niż współczesne psy. Vigne, który od dawna jest zwolennikiem tezy o europejskim pochodzeniu psów mówi, że najnowsze badania nie są rozstrzygające. Nie brano podczas nich pod uwagę szczątków psów, które dawno temu zamieszkiwały Chiny czy Bliski Wschód. Zespół Thalmanna i Wayne'a ma nadzieję, że będzie mógł zbadać również zwierzęta z tych obszarów. « powrót do artykułu
  18. Toyota poinformowała o znacznym obniżeniu kosztów produkcji wodorowych ogniw paliwowych. Obniżka jest tak duża, że firma już w 2015 roku - na całe lata przed konkurencją - rozpocznie sprzedaż samochodów z ogniwami. Pojazdy będą kosztowały pomiędzy 50 a 100 tysiącami dolarów. To sporo, jednak trzeba wziąć pod uwagę, że prototypowe pojazdy z ogniwami paliwowymi kosztowały ponad milion USD. Jednym z wprowadzonych przez Toyotę usprawnień jest zmniejszenie rozmiarów ogniw oraz ilości platyny potrzebnej do ich wyprodukowania. Koncepcyjna Toyota z ogniwami zostanie zaprezentowana w ciągu najbliższych dni podczas Tokyo Motor Show. Ogniwa paliwowe są zasilane wodorem. Platyna pełni rolę katalizatora reakcji wodoru z tlenem. W jej wyniku powstaje prąd elektyczny, a materiał odpadowy - para wodna - jest wydalany przez rurę wydechową. Konkurenci Toyoty, tacy jak np. General Motors, zapowiadają, że rozpoczną sprzedaż samochodów z ogniwami paliwowymi około roku 2020. Do tego czasu cena takich pojazdów powinna jeszcze bardziej spaść. Samochody z ogniwami paliwowymi mają poważne zalety w porównaniu z pojazdami elektrycznymi. Pozwalają nie tylko na zatankowanie zbiornika wodorem w ciągu kilku minut, ale również mają większy zasięg na pojedynczym tankowaniu niż pojazdy elektryczne na pojedynczym ładowaniu baterii. Ponadto wodór można produkować z bardzo taniego obecnie gazu naturalnego. Oczywiście w procesie produkcji powstaje dwutlenek węgla, jednak nawet biorąc to pod uwagę, na tej samej trasie samochód z ogniwami paliwowymi wyemituje dwukrotnie mniej CO2 niż pojazd z silnikiem spalinowym. « powrót do artykułu
  19. Grupie uczonych udało się przez 39 minut utrzymać stan kwantowy w temperaturze pokojowej. W skład międzynarodowego zespołu wchodziła Stephanie Simmons z Oxsford University oraz Mike Thewalt z kanadyjskiego Simon Fraser University. Podczas eksperymentów uczeni najpierw uzyskali stan kwantowy, czyli superpozycję, w atomach fosforu umieszczonych w krzemie, a następnie podnieśli temperaturę całego systemu z -269 do 25 stopni Celsjusza. Superpozycja przetrwała w niej przez ponad pół godziny. Uczeni dowiedli też, że mogą manipulować kubitami w miarę jak temperatura rośnie. Mimo, że wspomniane 39 minut to pozornie niezbyt długo, trzeba wziąć pod uwagę, że zmiana spinu jonu fosforu trwa 1/100 000 sekundy, zatem przed utratą stanu kwantowego można dokonać dziesiątków milionów operacji. Taki system może być użyteczny dla budowniczych komputerów kwantowych. Specjaliści rozpoczęli swoje prace od domieszkowania krzemu niewielkimi ilościami innych pierwiastków, w tym fosforem. W jądrach atomów fosforu zakodowano informację, wykorzystując przy tym ich spin. System został przygotowany w temperaturze -269 stopni Celsjusza, a następnie umieszczono go w polu magnetycznym. Za pomocą impulsów z dodatkowych magnesów manipulowano spinem atomów. W temperaturze -269 stopni udało się przez dwie godziny utrzymać w superpozycji spin około 37% jonów. Po podniesieniu temperatury do 25 stopni Celsjusza superpozycję zachowano przez 39 minut. Uzyskany przez nas czas trwania superpozycji jest co najmniej 10-krotnie dłuższy niż we wcześniejszych eksperymentach. Uzyskaliśmy przy tym system, w którym praktycznie nie występują zakłócenia. To kubity o wysokiej jakości" - cieszy się Simmons. Zdaniem uczonej ostatnim wielkim wyzwaniem stojącym przed specjalistami jest stworzenie systemu, w którym różne kubity znajdują się w różnych stanach kwantowych i w sposób kontrolowany wymieniają się informacjami. « powrót do artykułu
  20. Mieszkające w amerykańskich miastach bezdomne koty są nie tylko zdrowsze, niż dotychczas sądzono, ale również nie powodują tak wielkich szkód na terenach zielonych. Wszystko dzięki... kojotom, które redukują liczbę kotów i których koty muszą unikać. Dzięki temu ograniczają swoją aktywność. Działa tutaj mechanizm "ekologii strachu", o którym już wcześniej pisaliśmy, a który wydaje się niezbędnym elementem zachowania równowagi w przyrodzie. Bezdomne koty nie używają terenów zielonych w miastach zbyt intensywnie, gdyż obawiają się kojotów. Z jednej strony chroni to je przed kojotami, a z drugiej oznacza, że kojoty chronią te tereny przed kotami - mówi profesor Stan Gehrt z Ohio State University. Gehrt wraz z kolegami opublikowali w PLOS One wyniki pierwszego studium opisującego interakcje pomiędzy kotami a kojotami na terenach miejskich. Uczeni monitorowali zdrowie, zasięg i wybór habitatów 39 dzikich i bezdomnych kotów zamieszkujących okolice 6 parków i obszarów zielonych na terenie Chicago. Wybór padł na to miasto, gdyż w niektórych obszarach charakteryzuje je wyjątkowo gęsta populacja kojotów. Badania wykazały, że większość kotów unikało tych terenów, na których kojoty były wyjątkowo aktywne. A to oznacza, że przede wszystkim unikały dużych terenów zielonych. Koty ograniczały swoją obecność do obszarów gęściej zaludnionych, w pobliżu dzielnic mieszkalnych i handlowych. Kojoty wypychały koty z terenów zielonych na obszarach miejskich - mówi profesor Gehrt. Kojoty są znane z polowania na koty, zarówno dzikie, bezdomne jak i domowe. Z kolei koty dziesiątkują ptaki, gryzonie i płazy. Oczywiście obecność zarówno kojotów jak i kotów może być uciążliwa dla ludzi. Zwierzęta hałasują, rozgrzebują śmieci, koty mogą roznosić toksoplazmozę, a sporadycznie zdarza się ugryzienie człowieka przez kojota. Jednak badania uczonych OSU wykazały, że sytuacja jest lepsza niż sądzono. Bezdomne i zdziczałe koty są zdrowsze i żyją dłużej niż się uważa. Nie są też tak niebezpieczne dla innych gatunków, przynajmniej nie na terenach miejskich - mówią uczeni. Kojoty zaś chronią miejską przyrodę przed kotami. Czasem zdarza się, że kojoty pojawiają się w gęściej zaludnionych obszarach, jednak nie są to tereny ich głównej aktywności. Sposób, w jaki kojot używa obszarów gęsto zaludnionych jest odmienny od tego, w jaki używa go kot. Kojoty poruszają się po dzielnicach mieszkaniowych czy handlowych bardzo szybko, wykorzystując każe możliwe schronienie. Przechodzą nimi od jednego obszaru polowań do drugiego. Tymczasem koty trzymają się takich dzielnic i w nich żyją - mówi Gehrt. Koty próbują być możliwie blisko ludzi, kojoty starają się ich unikać. To, co próbują zrobić kojoty jest zadziwiające. Muszą żyć w miastach unikając jednocześnie ludzi. To niezwykle trudne zadanie - dodają uczeni. Naukowcy podkreślają, że nie monitorowali wpływu kotów na ekosystem gęsto zaludnionych obszarów. Nawet jeśli odkryliśmy, że ich wpływ na tereny zielone miast jest niewielki, to nie znaczy, że równie mały jest na terenach zaludnionych, gdzie spędzają większość czasu. Potencjalnie mogą wywierać na te obszary silny wpływ, ale jego badanie nie było celem naszego studium. Dodatkowo, co jest niezwykle cennym spostrzeżeniem, naukowcy zauważyli, że wysterylizowane koty były w lepszym stanie niż zwierzęta niesterylizowane. To pokazuje, że sterylizacja nie tylko zapobiega rozrostowi populacji kotów, ale zachowuje ją też w lepszym zdrowiu. Uczonych zdziwił też fakt, że w czasie trwających 2 lata badań zginęło jedynie 20% kotów. Padły one ofiarami wypadków komunikacyjnych oraz, prawdopodobnie, zostały zabite przez kojoty. Specjaliści byli przekonani, że odsetek przypadków śmierci będzie znacznie wyższy. Stan zdrowia i możliwości przeżycia wśród kotów są znacznie lepsze niż ludzie sądzą - dodaje Gehrt. « powrót do artykułu
  21. Microsoft powołał do życia Cybercrime Center. Siedzibą grupy skupiającej inżynierów, ekspertów ds. bezpieczeństwa i prawników jest główny kampus koncernu w Redmond. Cybercrime Center będzie zajmowało się zwalczaniem cyberprzestępczości, piractwa i wykorzystywania dzieci online. Microsoft Cybercrime Center to miejsce, w którym eksperci wspólnie z naszymi klientami i partnerami będą pracowali nad jedną rzeczą: zapewnieniu ludziom bezpieczeństwa w sieci. Dzięki połączeniu zaawansowanych narzędzi i technologii z odpowiednimi umiejętnościami możemy uczynić internet bezpieczniejszym dla wszystkich - powiedział David Finn, główny prawnik w Microsoft Digital Crimes Unit. Osoby pracujące w Cybercrime Center będą mogły wizualizować i śledzić zagrożenia. Do dyspozycji będą miały takie narzędzia jak m.in. Site Print, które pozwala na tworzenie map aktywności grup cyberprzestępczych czy PhotoDNA - oprogramowanie do rozpoznawania materiałów pedofilskich. W siedzibie Cybercrime Center znajdują się specjalnie zabezpieczone pomieszczenia, w których eksperci z całego świata będą mogli współpracować ze specjalistami z Microsoftu.
  22. Już wkrótce amerykańskim żołnierzom patrolującym niebezpieczne ulice mogą towarzyszyć autonomiczne roboty skanujące okolicę w podczerwieni i wysyłające obraz do dowództwa. W tym samym czasie oddziały przemieszczające się w górach będą korzystały z mechanicznych tragarzy niosących dodatkowe wyposażenie, żywność i wodę. Dzięki robotom nasi żołnierze będą bardziej niebezpieczni i lepiej rozpoznają teren. Wymaga to jeszcze dużo pracy, ale w końcu do tego dojdziemy - mówi podpułkownik Willie Smith dowódca Unmanned Ground Vehicles z Fort Benning. Zdaniem inżynierów i wojskowych wizja robotów na stałe towarzyszących oddziałom może ziścić się w ciągu najbliższych 10 lat. W ubiegłym miesiącu w Fort Benning odbyły się pokazy robotów, które pokonywały przeszkody wodne, poruszały się po piasku, terenie skalistym, przenosiły kilkusetkilogramowe ładunki, samodzielnie podążały za żołnierzami, poszukiwały min czy ewakuowały rannych żołnierzy. Za 10 lat na każdego żołnierza będzie prawdopodobnie przypadało 10 robotów - mówi inżynier Scott Hartlye z firmy 5D Robotics. Każdy z żołnierzy będzie miał do dyspozycji od 1 do 5 robotów, które będą go zabezpieczały, rozglądały się w poszukiwaniu wroga czy min. Roboty będą ratowały życie - dodaje inżynier. Wiele modeli było już testowanych w warunkach polowych i wiele jest wykorzystywanych. Armia brytyjska używa ważącego 5 kilogramów Dragon Runnera. To niewielki urządzenie może zostać przeniesione w plecaku, a następnie jest wpuszczane do budynku skąd przekazuje oddziałowi obraz na żywo. Roboty dokonują też wstępnego rozpoznania podejrzanych przedmiotów, które mogą być ładunkami wybuchowymi umieszczonymi przy drogach w Iraku czy Afganistanie. Sierżant Douglas Briggs z Maneuver Battle Lab pracował z robotami w Iraku. Mówi, że mogą one zrobić wiele dobrego, ale żołnierze będą musieli się do nich przyzwyczaić. Sam niechętnie powierzyłby swój plecak robotowi. Jestem przyzwyczajony do noszenia plecaka. Wiem, że z czasem będzie go nosił robot i będę musiał się przystosować. Tak jak wtedy, gdy zaczynaliśmy używać GPS-a zamiast kompasu. Ufałem mojemu kompasowi, ale musiałem przyzwyczaić się do GPS-a. Najważniejszym zadaniem stojącym przed konstruktorami robotów jest przekonanie dowództwa, że maszynom można zaufać. Wykazanie, że nie wystraszą czy nie zmylą własnych żołnierzy. Niezwykle ważne jest też, by były autonomiczne, ale by w każdej chwili można było przejąć nad nimi kontrolę. Eksperci pracują też nad wbudowaniem w roboty mechanizmów zapamiętania przebytej drogi. Taka umiejętność może się przydać w sytuacji, gdy oddział będzie zaangażowany w walkę. Wówczas robota będzie można wysłać do bazy po dodatkową amunicję czy wodę. « powrót do artykułu
  23. Zdaniem antropologa Jamiego Tehraniego z Durham University, Bajka o Czerwonym Kapturku może poszczycić się drzewem genealogicznym sięgającym wielu wieków. W piśmie PLOS One Tehrani przedstawił dowody, że opowieść o dziewczynce, babci i podstępnym wilku pochodzi z tego samego źródła co wciąż popularna w Europie i na Bliskim Wschodzie Bajka o wilku i siedmiu koźlątkach. Na potrzeby swoich badań Tehrani wykorzystał analizę filogenetyczną. Metoda ta pozwala śledzić związki pomiędzy gatunkami. Jednak jej użycie do opowieści ludowych jest, jak przekonuje uczony, w pełni zasadne. Opowieści takie są przecież niczym innym jak potomkami wcześniejszych opowieści. Kolejne pokolenia zmieniają je dodając jedne rzeczy, a zapominając o innych. Tehrani skupił się na 72 zmiennych, takich jak np. charakter głównego bohatera i jego przeciwnika, sztuczki, jakich używa przeciwnik by podejść bohatera czy ostateczne zakończenie opowieści. Dzięki temu był w stanie określić, w jaki sposób opowieść zmieniała się wraz z upływem czasu. Bajka o wilku i siedmiu koźlątkach opowiada o kozie, która miała siedmioro młodych. Pewnego dnia musiała wyjść z domu i przykazała dzieciom, by nie otwierały drzwi, gdyż może zjeść je wilk. Ten podsłuchał rozmowę i użył całego zestawu sztuczek, by nakłonić koźlątka do otwarcia drzwi. Opowieść wyewoluowała z jednej z bajek Ezopa i została zapisana około 400 roku naszej ery. Z kolei najstarszy znany pisemny przekaz bajki o Czerwonym Kapturku pochodzi z XI wieku, kiedy to po łacinie spisał ją pewien ksiądz w Liege. Analiza Tehraniego wykazała jednak, że obie bajki mają wspólnego znacznie starszego przodka, a drzewo genealogiczne Bajki o Czerwonym Kapturku jest niezwykle bogate. Chińczycy połączyli razem Czerwonego Kapturka, wilka i koźlątka oraz miejscowe opowieści ludowe, tworząc nową opowieść. Co interesujące, bajka ta została po raz pierwszy spisana przez chińskiego poetę Huang Zhanga, który był współczesnym Francuzowi Charlesowi Perraultowi, autorowi pierwszej opublikowanej w Europie wersji Czerwonego Kapturka. Trafiła ona do rąk europejskich czytelników w XVII wieku. Naukowiec zwraca uwagę, że te same opowieści mogą funkcjonować w odległych kulturach. Bajka o Czerwonym Kapturku i podobne przekazy posiadają takie wspólne cechy jak minimalnie antyintuicyjne koncepcje (np. mówiące zwierzęta), informacje potrzebne do przetrwania jak np. konieczność unikania drapieżników zarówno dosłownych jak i metaforycznych czy wagę postępowania według wskazań rodziców. Baki takie są zatem rodzajem przewodnika i podręcznika przetrwania dla dzieci. « powrót do artykułu
  24. Sędzia Denny Chin oddalił skargę Gildii Autorów przeciwko Google'owi. Przedstawiciele właścicieli praw autorskich skarżyli się, że Google postępuje bezprawnie skanując książki i umieszczając je w sieci w ramach usługi Google Books. Zdaniem China Google Books to nowy efektywny sposób dzięki któremu czytelnicy i badacze mogą znaleźć książkę. Dzięki temu miliony książek mogą być przeszukiwane pod kątem występowania konkretnych wyrazów czy fraz. Zdaniem sędziego Google Books zwiększa też dostępność do książek. Sędzia Chin w 2012 roku przyznał Gildii Autorów prawo do wystąpienia z pozwem zbiorowym przeciwko Google'owi. Przed kilkoma miesiącami decyzja ta została jednak zakwestionowana przez skład sędziowski Sądu Apelacyjnego dla Drugiego Okręgu. Sąd apelacyjny polecił Chinowi, by jeszcze raz ją rozważył biorąc pod uwagę wysuwane przez Google'a argumenty o fair use. Sędzia, po ponownym przyjrzeniu się sprawie, przyznał rację Google'owi. Zwrócił uwagę na liczne korzyści, jakie odnoszą użytkownicy Google Books. W wyroku podkreślił, że co prawda Google nie zwrócił się do autorów o zgodę na skanowanie książek, jednak użytkownicy Google Books mają dostęp tylko do fragmentów dzieł. W całości dostępne są tylko te książki, do których prawa autorskie wygasły lub też ich właściciele wyrazili zgodę na publikację. Google wyraziło zadowolenie z decyzji China. Cały czas podkreślaliśmy, że Google Books działa w zgodzie z prawem autorskim i przypomina katalog biblioteczny epoki cyfrowej. Daje użytkownikowi możliwość odnalezienia interesującej go książki, by mógł ją kupić lub wypożyczyć - stwierdziii. « powrót do artykułu
  25. Badacze z Washington State University przypadkowo doprowadzili do 400-krotnego zwiększenia przewodnictwa w krysztale tytanianu strontu. Doktorant Marianne Tarun zauważyła niezwykłe właściwości kryształu, który przez roztargnienie nie został właściwie zabezpieczony. Początkowo sądziła, że doszło do zanieczyszczenia materiału, jednak bliższe badania wykazały, że dzięki 10-minutowej ekspozycji kryształu na światło jego przewodnictwo uległo dramatycznemu zwiększeniu. Efekt taki utrzymał się przez wiele dni. Młodzi naukowcy przypadkiem wykorzystali znane zjawisko stałego fotoprzewodnictwa. Dotychczas uzyskiwano je w innych materiałach, jednak w WSU doszło do największego znanego przypadku zwiększenia przewodnictwa. Fakt, że zjawisko to zachodzi w temperaturze pokojowej otwiera nowe możliwości na drodze ku zastosowaniu go w praktyce. W standardowej pamięci komputerowej informacja przechowywana jest na powierzchni chipa czy dysku twardego. Urządzenie korzystające ze zjawiska stałego fotoprzewodnictwa mogło by przechować informacje w całej objętości kryształu - mówi Matthew McCluskey, dziekan Wydziału Fizyki WSU.
×
×
  • Dodaj nową pozycję...