Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Już za kilka dni, 26 stycznia, w pobliżu Ziemi przeleci obiekt o średnicy 0,5 kilometra - asteroida 2004 BL86. Minie naszą planetę w odległości 1,2 miliona kilometrów i będzie to najbliższe spotkanie z równie dużym obiektem przez kolejne 12 lat. Odległość pomiędzy Ziemią a asteroidą będzie około 3-krotnie większa niż pomiędzy Ziemią a Księżycem. To na tyle blisko, że asteroida będzie widzialna za pomocą małego teleskopu lub silnych lornetek. Dla astronomów to dobra okazja by przyjrzeć się bliżej asteroidom, a dla NASA to możliwość zebrania dodatkowych informacji przed planowanym przechwyceniem asteroidy. W przeszłości ludzkość straciła jednak znacznie lepszą okazję. W 1967 roku w pobliżu Ziemi, również w odległości około 1,2 miliona kilometrów, pojawiła się asteroida dziesięciokrotnie większa od 2004 BL86. Niestety, wówczas nikt nie miał o tym pojęcia. Obiekt został odkryty dopiero w 1999 roku – nadano mu wówczas oznaczenie 1999 RD32 - i dopiero obliczenia jego trajektorii wykazały, że 30 lat wcześniej przelatywał w pobliżu. Warto tutaj wspomnieć, że asteroida, która zabiła dinozaury, była prawdopodobnie tylko dwukrotnie większa od 1999 RD32. Asteroidy to bardzo interesujące obiekty, o których jednak niewiele wiemy. Dlatego też NASA planuje przyciągnięcie takiego obiektu w pobliże Ziemi i jego szczegółowe badania. « powrót do artykułu
  2. Turecki ekspert ujawnił dwie dziury zero-day w bibliotece używanej m.in. przez odtwarzacz plików multimedialnych VLC. Jak poinformował Veysel Hatas luki pozwalają napastnikowi na wykonanie dowolnego kodu. Ataku można dokonać za pomocą odpowiednio spreparowanych plików FLV i M2V. Na szczęście są to mniej popularne typy plików, zatem nie powinniśmy spodziewać się ataków na masową skalę. Z nieoficjalnych informacji wynika, że błąd występuje w najnowszej stabilnej wersji VLC - 2.1.5. Edycja 2.2.0-rc2 jest bezpieczna. Wiadomo, że luka została znaleziona w bibliotece libavcodec, używanej też przez Mplayera i inne opensource'owe odtwarzacze. « powrót do artykułu
  3. Szóstego listopada ubiegłego roku w Parku Narodowym Wielkiej Kotliny przeprowadzający spis archeolodzy odkryli oparty o pień jałowca nienaładowany karabin Winchester M1873 z 1882 r. Nie wiadomo, ile czasu tam stał, ale dość długo, bo drewno kolby spękało i zostało zasypane ziemią, a lufa zardzewiała. Na terenie dzisiejszego parku na przełomie XIX i XX w. znajdowały się rancza i kopalnie, a tutejsi mieszkańcy chętnie sięgali po Winchestery. Na razie na podstawie numeru seryjnego i dokumentacji przechowywanej w Buffalo Bill Center of the West ustalono, że ten konkretny egzemplarz wyprodukowano i dostarczono w 1882 r., ale eksperci nie byli dotąd w stanie wyśledzić, co się z nim dokładnie działo, tzn. kto był nabywcą ani gdzie karabin przetransportowano. Rzeczniczka parku Nichole Andler jest przekonana, że kryje się za tym jakaś interesująca historia, która jednak mogłaby się przydarzyć prawie każdemu, kto żyje na pustyni Wielkiej Kotliny. Broń ma być zakonserwowana w obecnym stanie i trafi na wystawę organizowaną w ramach obchodów 30-lecia parku. Prawdopodobnie nikt jej wcześniej nie zauważył, bo zszarzałe od słońca i wody drewno oraz zardzewiały metal idealnie wtopiły się w tło. Próbując odpowiedzieć na pytania, kim był właściciel karabinu, kiedy i czemu oparł go o drzewo i dlaczego po niego nie wrócił, zespół ds. kulturalnych ma nadal przeglądać stare gazety i historie rodzin. Winchester M1873 zajmuje ważne miejsce w historii, opisuje się go jako "broń, która wygrała Zachód". Między 1873 a 1916 r. wyprodukowano aż 720.610 takich karabinów (w samym 1882 r. wykonano ich ponad 25 tys.). Na początku sprzedawano je po 50 dol., lecz w 1882 r. cenę opuszczono do 25 dol. « powrót do artykułu
  4. Amerykańsko-francuski zespół naukowy odkrył, że istnieje korelacja pomiędzy odsetkiem udanych wypraw himalaicznych, przypadkami śmierci w górach, a typem społeczeństwa, w jakim żyją wspinacze. Wyprawy, w których biorą udział przedstawiciele społeczeństw silnie ceniących hierarchię, częściej odnoszą sukces, ale i częściej dochodzi tam do przypadków śmierci niż w przypadku wypraw organizowanych przez przedstawicieli społeczeństw przywiązujących mniejszą wagę do hierarchii. Eric Anicih, Roderick Swaab i Adam Galinsky skorzystali z wcześniejszych badań, podczas których utworzono ranking krajów pod względem przywiązania społeczeństwa do hierarchii i posłuszeństwa autorytetowi. Chcieli sprawdzić, czy istniej związek pomiędzy sukcesami i wypadkami w himalaizmie (lub innych ryzykownych przedsięwzięciach), a typem społeczeństwa. Dane dotyczące typów społeczeństwa porównali z danymi dotyczącymi ponad 5000 wypraw, w których brało udział ponad 30 000 wspinaczy z 56 krajów. Analiza wykazała, że wspinacze z krajów, gdzie hierarchia ma większe znaczenie, częściej osiągają szczyt, ale i częściej giną. Badania tego typu są istotne nie tylko dla wspinaczy. Uczeni przypominają wypadek lotniczy z lat 90. kiedy to, pochodzący ze społeczeństwa bardzo ceniącego hierarchię, pilot samolotu pasażerskiego ślepo słuchał kontrolerów lotu, którzy kazali mu czekać na lądowanie. W końcu doszło do katastrofy. Niewykluczone, że gdyby pilot był z kraju o innej kulturze, sprzeciwiłby się kontrolerom i zażądał pozwolenia na lądowanie. Podobnie może być i w górach, gdy wspinacze ze społeczeństw wysoce ceniących hierarchię podążają za liderem, mimo że wiedzą, iż naraża on ich za zbytnie niebezpieczeństwo. « powrót do artykułu
  5. Wg naukowców, upadek Związku Radzieckiego pomógł w rozprzestrzenianiu wielolekoopornych prątków gruźlicy (Mycobacterium tuberculosis). By odkryć biogeograficzną strukturę i historię ewolucyjną najpowszechniejszej formy takich bakterii, tzw. linii czy grupy pekińskiej, Thierry Wirth z École pratique des hautes études (EPHE) badał próbki pobrane od 4987 chorych na gruźlicę z 99 krajów. W 110 reprezentatywnych przypadkach zsekwencjonowano cały genom. Zabieg pozwolił odtworzyć drzewo filogenetyczne. Przyglądając się wzorcowi rozgałęziania i długości poszczególnych odnóg, a także biorąc pod uwagę różne czynniki, takie jak tempo mutowania, autorzy publikacji z pisma Nature Genetics odtworzyli wielkość globalnej populacji patogenu na przestrzeni ostatnich 600 lat. Analiza danych pokazała, że rozmiar populacji nielekoopornej postaci utrzymywał się na mniej więcej stałym poziomie przez kilkaset lat. Później, od wczesnych lat 20. do połowy lat 40. XIX w., miał miejsce ostry wzrost. Naukowcy wiążą to zjawisko z rewolucją przemysłową, która sprawiła, że duże grupy ludzi zaczęły ze sobą mieszkać w niehigienicznych warunkach. Wszystko to pomagało w rozprzestrzenianiu patogenu. Kolejny ostry wzrost pokrywał się z pierwszą wojną światową. Jeśli ludzie są osłabieni, zmęczeni lub głodni, organizm podupada, a podatność na zachorowanie rośnie. Circa w latach 60. XX w. populacja zmniejszyła się po wprowadzeniu antybiotyków na gruźlicę, jednak niedługo potem pojawiły się geny lekooporności. W latach 90. trend spadkowy się odwrócił. Odnosząc się do tego, akademicy wskazują na epidemię HIV i rozpad Związku Radzieckiego, który doświadczał problemów z prątkami gruźlicy typu MDR (od ang. multidrug-resistant). Ludzie mieli utrudniony dostęp do długich i kosztownych kuracji, a więzienia stanowiły siedliska antybiotykooporności. Po upadku sowieckiego systemu opieki zdrowotnej w środkowej Azji i Rosji zaczęły się rozprzestrzeniać dwa wielolekooporne klony z grupy pekińskiej. Jak podsumowują naukowcy, szczepy M. tuberculosis z linii pekińskiej występują na całym świecie i wiążą się z silnym rozprzestrzenieniem gruźlicy typu MDR w Eurazji. Zespół wykazał, że pochodząca z Dalekiego Wschodu linia rozeszła się po świecie w kilku falach. Jak wcześniej wspomniano, odkryto sukcesywne wzrosty wielkości populacji na przestrzeni ostatnich dwóch wieków. Gruźlicza sytuacja epidemiologiczna jest w Europie zróżnicowana. O ile w krajach Europy Zachodniej należy ją uznać za bardzo dobrą, o tyle na wschodzie już za złą. Polska należy do krajów o średniej zapadalności. « powrót do artykułu
  6. Inżynierowie chcą wykorzystać drony do czegoś więcej niż tylko obserwacja z powietrza. Dotychczas tego typu urządzenia są bowiem używane głównie przez policję czy farmerów do obserwowania wyznaczonych obszarów. Firma PrecicionHawk testuje właśnie drony, które na zlecenie przemysłu naftowego pobierają próbki wody. Urządzenia takie wyposażono w pompę, wąż oraz zbiornik, do którego trafia woda. Dron przewozi ją do laboratorium, gdzie jest analizowana pod kątem ewentualnych wycieków ropy czy innych zanieczyszczeń. Na północy Kanady czy Alasce znajdują się tysiące niewielkich jezior i innych zbiorników wodnych. Pobranie z nich próbek wody tradycyjnymi metodami jest niemal niemożliwe - mówi Ernest Earon, dyrektor PrecisionHawk. Inny pomysł testuje profesor YangQuan Chen z University of California w Merced. Jego drony są wyposażone w pływaki, lądują na powierzchni wody i wówczas pobierają próbki. Są one analizowane w laboratorium pod kątem tzw. środowiskowego DNA (eDNA), czyli śladów pozostawionych przez zwierzęta, rośliny i inne organizmy. Analiza taka pozwala np. na wykrywanie gatunków inwazyjnych, chorób czy obecności gatunków zagrożonych. Badania takie są obecnie wykorzystywane do badania populacji inwazyjnego karpia azjatyckiego w Wielkich Jeziorach. Profesor Chen mówi, że największym problemem było lądowanie dronem na płynącej wodzie lub podczas złej pogody. Genetyk Mike Miller, który współpracuje z Chenem, mówi, że w przyszłości miniaturyzacja dojdzie do tego stopnia, iż drony będą mogły samodzielnie analizować pobrane przez siebie próbki. Być może już niedługo w całej Kalifornii będą latały drony na bieżąco pobierające próbki wody, sekwencjonujące DNA i przesyłające dane do centrum - mówi Miller. Drony mogą znacząco przyspieszyć prace i zmniejszyć ich koszty. Profesor Carrick Detweiler z University of Nebraska-Lincoln stworzył drona, który bada niewielkie stawy pod kątem obecności toksycznych glonów. Zadanie, które zespołowi ludzi zajmuje 12-14 godzin wymaga jedynie 2 godzin pracy drona. Detweiler prognozuje, że drony, jakie powstaną w ciągu najbliższych 10 lat, będą w stanie pobierać nie tylko próbki wody, ale np. gleby czy roślin. « powrót do artykułu
  7. Po ostatnim spisie tygrysów minister ochrony środowiska Prakash Javadekar oświadczył, że ich populacja w Indiach zwiększyła się z 1706 osobników w 2011 r. do 2226 w roku 2014. Javadekar określił uzyskane rezultaty jako duży sukces. Przypisał go różnym inicjatywom rządowym. Podczas gdy na świecie populacja tygrysów się zmniejsza, w Indiach rośnie. To wspaniała wiadomość. Urzędnik zasugerował nawet, że zastosowane w Indiach metody można by zastosować gdzie indziej, a jego kraj jest skłonny przekazać kocięta społeczności międzynarodowej i odgrywać wiodącą rolę w ochronie tygrysów na świecie. Na konferencji prasowej minister poinformował dziennikarzy, że wykonano unikatowe zdjęcia 80% indyjskich tygrysów. « powrót do artykułu
  8. W rywalizacji ludzki mózg kontra algorytmy analizujące duże zestawy danych, algorytmy odniosły kolejne zwycięstwo. Tym razem pokonały ludzi na polu... krytyki filmowej. A raczej jej szczególnej odmiany. Biblioteka Kongresu to niezwykle ważna instytucja kulturalna w USA. Jednym z jej zadań jest prowadzenie Narodowego Rejestru Filmów, czyli tworzenie listy filmów, które wywarły znaczący wpływ na sztukę filmową. Każdego roku widzowie nominują filmy, a decyzję o wpisaniu konkretnego tytułu na listę podejmuje Bibliotekarz Kongresu po konsultacjach z krytykami filmowymi, naukowcami, reżyserami, scenarzystami i innym ekspertami z dziedziny filmu. Naukowcy z Northwestern University stworzyli algorytm, który bierze pod uwagę liczbę odniesień do danego filmu w filmach późniejszych. Odkryli, że jeśli film ma ponad 25 lat to liczba odwołań do niego jest świetnym wskaźnikiem, czy znajdzie się on w National Film Registry. Algorytm przewidywał wpisanie filmów do rejestru z 91% dokładnością. Co ciekawe, to właśnie liczba odwołań do filmu była znacznie lepszym wskaźnikiem jego znaczenia dla kultury niż np. opinie krytyków, Oscary czy liczba widzów, którzy poszli na film do kina. Klasyk sztuki filmowej „Ojciec chrzestny”, który do National Film Registry trafił w 1990 roku może pochwalić się 1323 odwołaniami w innych filmach czy odcinkach seriali. Szczególnie często przywoływana jest scena z głową konia w łóżku oraz przewodnia ścieżka dźwiękowa. Matematyk Max Wasserman, współtwórca wspomnianego algorytmu, mówi, że już sprawdził się on w praktyce. Pokazał bowiem, że do National Film Registry powinien trafić „Willy Wonka i Fabryka Czekolady” z 1971 roku. W swoim czasie film był kasową klapą. Okazało się jednak, że w późniejszych filmach znalazły się doń 52 odwołania. W grudniu ubiegłego roku, sześć miesięcy po tym, jak algorytm przewidział debiut filmu w National Film Registry, tytuł został wpisany tam przez Bibliotekarza Kongresu. Innymi filmami, które – według algorytmu – mają szansę trafić na listę są „Dumbo”, „Spartakus” i „Lśnienie”. « powrót do artykułu
  9. Drapieżne ślimaki morskie z rodzaju Conus wytwarzają insulinę, która wchodzi w skład ich jadu do unieszkodliwiania ryb. To bardzo niezwykłe, że służy do takiego celu - podkreśla główna autorka studium prof. Helena Safavi-Hemami z Uniwersytetu Utah. Jest krótsza od wszystkich insulin opisanych wcześniej u zwierząt. Stwierdziliśmy, że występuje w jadzie w dużych ilościach - dodaje prof. Baldomero M. Olivera. Kiedy danio pręgowanym wstrzykiwano syntetyczną postać ślimaczej insuliny, poziom glukozy spadał. Insulina zaburzała także pływanie u ryb stykających się z nią za pośrednictwem wody (naukowcy doszli do tego wniosku, mierząc czas spędzany na pływaniu oraz częstość ruchów). Autorzy publikacji z pisma PNAS sądzą, że uzupełnienie jadu insuliną pozwoliło ślimakom obezwładniać całe ławice ryb za pomocą wstrząsu hipoglikemicznego. W ramach badań Amerykanie szukali sekwencji genetycznych wszystkich peptydów, do ekspresji których dochodzi w gruczołach jadowych stożka geograficznego (Conus geographus). Okazało się, że dwie z nich przywodziły na myśl sekwencje kodujące insulinę (jedna była bardzo podobna do insuliny ryb). Co więcej, geny insuliny ulegały w gruczole silniejszej ekspresji niż geny znanych wcześniej toksyn jadu. Typ insuliny z gruczołów jadowych wydaje się zależeć od rodzaju ofiary ślimaka. Rybia insulina występowała w jadach stożka geograficznego i Conus tulipa (oba stożki wykorzystują tę samą metodę chwytania ofiar), ale nie znaleziono jej u 5 gatunków polujących na ryby z zasadzki za pomocą harpunopodobnego narządu. Próżno też było szukać rybiej insuliny u ślimaków żywiących się mięczakami czy robakami. Jak można się domyślić, u tych ostatnich dochodziło do ekspresji insulin mięczaków i robaków. Ślimacza insulina jest zbudowana z 43 aminokwasów. Jej okrojone rozmiary i dziwne chemiczne modyfikacje mogły wyewoluować, by skuteczniej wywoływać hipoglikemię u ofiary. « powrót do artykułu
  10. Redaktorzy serwisu The Information twierdzą, że Google chce zainwestować w firmę SpaceX. Anonimowe źródło poinformowało, że celem współpracy obu przedsiębiorstw byłoby umieszczenie na orbicie sieci satelitów zapewniających łączność z internetem. Jeśli do umowy dojdzie, wartość rynkowa SpaceX przekroczyłaby 10 miliardów USD. Przedsiębiorstwa z Doliny Krzemowej od pewnego już czasu zastanawiają się nad sposobem zwiększenia zasięgu internetu bez konieczności inwestowania w kosztowną infrastrukturę naziemną. Facebook myśli o wykorzystaniu dronów, satelitów i laserów. Firma była podobno zainteresowana przejęciem Titan Aerospaces, producenta dronów zasilanych energię słoneczną. Ma też zamiar rozmieścić 11 000 dronów w różnych częściach globu. Plany te ubiegł jednak Google, który w kwietniu ubiegłego roku przejął Titan Aerospace. Teraz załoga Titana ściśle współpracuje z google'owskim Project Loon, w ramach którego Google opracowuje koncepcję dostarczania internetu za pomocą balonów stratosferycznych. Elon Musk, właściciel SpaceX, powiedział w listopadzie, że jego przedsiębiorstwo chciałoby umieścić na orbicie około 700 niewielkich satelitów zapewniających łączność z internetem w każdym zakątku globu. Dzięki tym satelitom Musk chciałby zarobić pieniądze na budowę... miasta na Marsie. Nie zdradził, w jaki sposób chce zarobić tak olbrzymie kwoty. Wspomniał jedynie, że po stworzeniu satelitarnej sieci mógłby sprzedawać poszczególne satelity. Teraz pojawiły się informacje, jakoby Google było zainteresowane zainwestowaniem pieniędzy w SpaceX. « powrót do artykułu
  11. Dodatkowe urządzenie instalowane w komputerach samochodowych przez amerykańską firmę ubezpieczeniową Progressive Insurance zawiera błąd, przez który przestępcy mogą częściowo przejąć kontrolę nad 2 milionami pojazdów. Wspomniane urządzenie służy do badania zachowań kierowcy. Na tej podstawie firma ubezpieczeniowa podejmuje decyzję, czy podnieść czy obniżyć cenę polisy. Corey Thuen z firmy Digital Bond, który znalazł lukę, informuje, że urządzenie o nazwie Snapshot nie jest zabezpieczone. Napastnik może uzyskać dostęp do infrastruktury komunikacyjnej samochodu, otworzyć drzwi, uruchomić silnik i zebrać dane z silnika. Thuen zauważył, że Snapshot nie sprawdza aktualizacji firmware'u pod kątem jego wiarygodności, nie stosuje mechanizmu bezpiecznego uruchamiania, nie używa szyfrowania ani żadnych mechanizmów uwierzytelniania. « powrót do artykułu
  12. Naukowcy z wydziału Microsoft Research w Pekinie opracowali system ładowania smartfonów za pomocą sztucznego światła. Umieszczone na suficie urządzenie przeszukuje pomieszczenie, a gdy natrafi na smartfon, komunikuje się z nim i zaczyna go ładować. System „AutoCharge” wykorzystuje obecnie światło widzialne, ale w przyszłości może korzystać też z podczerwieni. Telefon informuje system o potrzebie doładowania błyskając diodą LED lub za pośrednictwem łącza Bluetooth. Pozycja telefonu jest następnie określana za pomocą kamery podobnej do tej zastosowanej w urządzenie Kinect i rozpoczyna się ładowanie. Po jego zakończeniu AutoCharge poszukuje kolejnych telefonów. System AutoCharge może współpracować z telefonami, które są w stanie korzystać z energii słonecznej. Nie wiadomo czy i kiedy system ten trafi na rynek. « powrót do artykułu
  13. Stosunkowo niedawno ustalono, jak piją psy czy koty, teraz przyszła kolej na pszczoły. Uciekając się do szybkiej fotografii i elektronowego mikroskopu skaningowego, prof. Shaoze Yan z Uniwersytetu Tsinghua w Pekinie przyglądał się pijącej nektar pszczole włoskiej (Apis mellifera ligustica). Języczek pszczoły (glossa) jest pokryty włoskami i przypomina mopa lub szczotkę. W stanie spoczynku złożona trąbka ssąca układa się w jamie gębowej owada w literę Z. Po rozciągnięciu języczek otaczają części aparatu gębowego, które tworzą spełniającą funkcję podporowe rurkę. Chińczycy zauważyli, że średnia długość włosków wzrasta w kierunku od części proksymalnej po dystalną, a włoski są aktywne w czasie picia. Autorzy artykułu z The Journal of Experimental Biology donoszą, że najpierw wznoszą się te u podstawy języczka, potem w segmencie środkowym, a na końcu na czubku. Naukowcy sądzą, że asynchroniczny wzorzec unoszenia włosków oraz kąt ich postawienia pozwalają zrównoważyć ilość pobieranego pokarmu i opór tarcia. Nie bez znaczenia jest też to, że najbardziej hydrofilowa okazuje się łyżeczka (flabellum), czyli rozszerzenie na końcu języczka. Warto podkreślić, że przy chowaniu języczka włoski składają się w kolejności odwrotnej niż przy wysuwaniu, a cały cykl - od wyciągnięcia języczka, przez nastroszenie włosków, po złożenie włosków i wciągnięcie języczka - trwa zaledwie 400 milisekund. « powrót do artykułu
  14. Kolejne badanie potwierdziło, że zamknięcie oczu poprawia przypominanie. Psycholodzy z University of Surrey zademonstrowali dodatkowo, że pomaga budowanie porozumienia ze świadkiem. Ochotników losowano do grup, które miały mieć otwarte lub zamknięte oczy i nawiązywać kontakt z prowadzącym wywiad bądź nie. W pierwszym eksperymencie 66 osobom (52 kobietom i 14 mężczyznom) w wieku 18-65 lat wyświetlano 6,5-min niemy film o elektryku, który wchodził na posesję, wykonywał swoją pracę, a potem kradł parę rzeczy. Później naukowcy zadawali serię 17 pytań; każde dotyczyło innego szczegółu widocznego na nagraniu, np. co było napisane z przodu ciężarówki. Pod koniec każdego wywiadu badani oceniali jakość kontaktu z prowadzącym (1 odpowiadało słabemu porozumieniu, a 7 dobremu) oraz komfort podczas rozmowy (1 - warunki niekomfortowe, 7 - komfortowe). Okazało się, że zamykanie oczu pozwoliło poprawnie odpowiedzieć na większą liczbę pytań. Pomagało również nawiązanie porozumienia, lecz zamykanie oczu okazało się skuteczne bez względu na to, czy więź została zbudowana, czy nie. Stwierdzono, że średnio zamknięcie oczu pozwalało udzielić o 23% więcej poprawnych odpowiedzi. Efekt zamknięcia oczu w warunkach nawiązywania porozumienia wynosił 21%, a przy jego braku 25%. Analizy naukowców ujawniły, że zaobserwowana różnica nie była istotna statystycznie. W drugim eksperymencie 112 studentów pytano nie tylko o rzeczy widziane, ale i słyszane. Tym razem ochotnicy oglądali fragment programu BBC pt. "Crimewatch". W klipie trwającym 6 min 35 s prezentowano włamanie, podczas którego staruszka atakowano w jego domu. Rekonstrukcją zdarzeń zajmował się policjant, a całość przeplatano krótkimi wywiadami z krewnymi i znajomymi ofiary. Na tej podstawie ułożono 20 pytań: połowa dotyczyła fonii, a połowa wizji. Psycholodzy stwierdzili, że po zamknięciu oczu badani przypominali sobie więcej szczegółów wzrokowych i akustycznych (miało to miejsce przy i bez nawiązywania porozumienia). W przypadku obu eksperymentów ochotnicy, którzy nie budowali z psychologiem porozumienia, czuli się bardziej komfortowo z otwartymi oczami, a ludzie nawiązujący nić porozumienia z "przesłuchującym" z oczami zamkniętymi. Z naszych badań jasno wynika, że zamykanie oczu i nawiązywanie porozumienia wspomagają [...] przypominanie. Ponieważ jednak zamykanie oczu wydaje się działać bez względu na wcześniejsze nawiązanie więzi, wyniki pokazują, że tworzenie porozumienia [zwyczajnie] poprawia samopoczucie świadka, który zamyka oczy [przed kimś obcym] - podsumowuje dr Robert A. Nash. « powrót do artykułu
  15. W najnowszym numerze pisma Anthropocene Review opublikowano kolejną aktualizację zestawu 24 globalnych wskaźników, które dowodzą, że obecnie to ludzka działalność jest głównym motorem zmian w całym systemie Ziemi. Autorzy tego zestawu zauważają, że od 1750 roku, czyli od początku rewolucji przemysłowej, ludzkość zaczęła wywierać coraz większy wpływ na planetę, a od niedawna jest to wpływ dominujący. W czasie jednego pokolenia działalność człowieka stała się główną siłą sprawczą zmian - mówi główny autor badań, profesor Will Steffen. Okres, który zespół Steffena nazwał Wielkim Przyspieszeniem, rozpoczął się symbolicznie w 1950 roku. Po tej dacie zmiany, na które zwracają uwagę naukowcy, są związane głównie z działalnością Homo sapiens. Wiele znaczących procesów w systemie Ziemi jest napędzanych ludzką produkcją i konsumpcją - mówi doktor Wendy Broadgate. Ze wszystkich czynników społeczno-ekonomicznych tylko spadek liczby budowanych wielkich zapór wodnych wydaje się wykazywać oznaki wpływu na spowolnienie Wielkiego Przyspieszenia. Tylko jeden z ziemskich systemów pozytywnie odbiega od wykresu Wielkiego Przyspieszenia wskutek ludzkiej interwencji – system warstwy ozonowej, która jest celowo przez człowieka chroniona. Zmiany w drugim z systemów – ekosystemie morskim i obserwowane od lat 80. zmniejszenie połowów ryb – to nie skutek celowej interwencji, a zdziesiątkowani populacji - dodaje doktor Lisa Deutsch. Wykorzystane przez naukowców wskaźniki pozwoliły im wysnuć wniosek, że obecnie zachodzące na Ziemi procesy wykazują inną zmienność, niż zmienność naturalnych procesów zachodzących od początków holocenu. Okres Wielkiego Przyspieszenia jest na tyle różny od Holocenu, że naukowcy uważają, iż weszliśmy w nową epokę geologiczną. To antropocen, okres, w którym ludzkość jest główną siłą napędową zmian na Ziemi. Termin antropocen został zaproponowany w 2000 roku, jednak część świata naukowego całkowicie go odrzuca, inni specjaliści nie mogą zgodzić się co do datowania. Dla niektórych bowiem ludzkość zostawiła trwały ślad na planecie wraz z początkiem rozwoju rolnictwa, dla innych – wraz z początkiem epoki przemysłowej. Autorzy artykułu w Anthropocene Review argumentują, że za początek epoki antropocenu należy uznać połowę XX wieku. Wtedy to bowiem rozpoczęło się Wielkie Przyspieszenie. Konkretnym zaś dniem, od którego ludzie pozostawili niezatarty ślad w historii Ziemi może być 16 lipca 1945 roku, czyli dzień detonacji pierwszej bomby atomowej. W ramach Międzynarodowej Komisji Stratygrafii pracuje grupa robocza, której celem jest ustalenie ewentualnego początku antropocenu. « powrót do artykułu
  16. Bazując na przypadku kobiety, która od urodzenia bardzo słabo widziała i jako dorosła osoba przeszła przeszczep rogówki w prawym oku (wszczepiono jej keratoprotezę bostońską), naukowcy z Uniwersytetów w Montrealu i Trydencie mogli prześledzić, jak mózg przystosowuje się do sytuacji odtworzenia zmysłu. Z jednej strony nasze wyniki pokazują, że u dorosłego, który słabo widział od urodzenia, kora wzrokowa zachowuje pewien stopień plastyczności, czyli zdolności do zmiany pod wpływem doświadczenia. Z drugiej jednak zauważyliśmy, że kilka miesięcy po operacji kora wzrokowa nie odzyskała w pełni normalnej funkcji - opowiada Giulia Dormal. Naukowcy wiedzą, że u osób niewidomych kora potyliczna, która zwykle odpowiada za wzrok, zaczyna reagować na dźwięk i dotyk. Zjawisko to stanowi wyzwanie dla pacjentów przechodzących operacje okulistyczne, ponieważ po latach spędzonych w ciemności deprywowana i przeorganizowana kora potyliczna może już nie być w stanie niczego zobaczyć. By sprawdzić, do jakiego stopnia tak jest, naukowcy zajęli się przypadkiem 50-latki z Quebecu. Przed i po operacji przechodziła ona testy behawioralne i neurofizjologiczne. W ten sposób śledzono zmiany w zakresie wzroku i anatomii mózgu, a także reakcje tego ostatniego na obrazy i dźwięki. Podczas wykonywania różnych zadań wzrokowych i słuchowych kobiecie wykonywano rezonans magnetyczny. Skany porównywano ze zdjęciami dwóch grup osób: z prawidłowym widzeniem oraz nieuleczalną ślepotą (wszyscy wykonywali te same zadania). Wykazaliśmy, że przed operacją wskutek długoterminowego upośledzenia wzrokowego u pacjentki występowała strukturalna i funkcjonalna reorganizacja kory potylicznej, lecz część reorganizacji można [było] odwrócić [...] - podkreśla Oliver Collignon. Z powodu znaczących postępów dot. technik przywracania wzroku opisywane odkrycia mają spore znaczenie kliniczne dla rokowań niewidomych pacjentów będących kandydatami do takich operacji. Choć poprawę obserwuje się nawet u osób niewidzących od urodzenia, regeneracja zachodząca w korze wzrokowej, przejawiająca się spadkiem reakcji na dźwięk i nasileniem reakcji na obraz oraz wzrostem gęstości istoty szarej, nie jest zupełna. De facto nawet 7 miesięcy po operacji w pewnych regionach kory wzrokowej wykrywa się reakcje na dźwięk, a odpowiedzi te nakładają się na reakcje wyzwalane obrazem. To nakładanie może być przyczyną, dla której mimo zauważalnej poprawy z upływem czasu, pewne aspekty widzenia nadal plasują się [...] poza normą - wyjaśnia Dormal. Nasze spostrzeżenia torują drogę przedoperacyjnemu funkcjonalnemu rezonansowi magnetycznemu, który spełnia rolę narzędzia pozwalającego wnioskować o wynikach operacji, a także rozwijaniu programów rehabilitacyjnych dla osób po zabiegach - podsumowuje Collignon. « powrót do artykułu
  17. Przedsiębiorstwa zajmujące się oczyszczaniem miejskich ścieków zmagają się z problemem zanieczyszczenia ich różnymi metalami. Naukowcy z Arizona State University zadali sobie pytanie o zawartość i wartość różnych metali w ściekach trafiających do miejskich systemów kanalizacyjnych. Pobrali więc próbki ścieków z wielu amerykańskich miast i poddali je szczegółowej analizie na obecność metali. Ich badania wykazały, że w mieście zamieszkanym przez milion osób każdego roku do ścieków trafiają metale o wartości nawet 13 milionów dolarów. Same tylko obecne w nich złoto i srebro są warte łącznie 2,6 miliona USD. Oczywiście nie są to wielkie kwoty w skali wielomilionowych miast, ale, jak mówi autor badań Paul Westerhoff, są na tyle duże, że warto zastanowić się, czy części z tych metali nie opłaca się odzyskać, rozwiązując przy okazji problem toksyczności ścieków. Westerhoff zauważa, że w japońskiej Suwie w pobliżu warsztatów wytwarzających aparaturę precyzyjną wybudowano specjalny zakład, który z każdej tony produkowanych przez nie odpadów odzyskuje około 2 kilogramów złota. Jordan Peccia z Yale University, który zapoznał się z badaniami Westerhoffa, mówi, że każdego roku w USA z miejskich ścieków powstaje około 8 milionów ton materii stałej. Warto zastanowić się więc nad odzyskiwaniem z niej metali. Tym bardziej, że znaczna jej część trafia na pola uprawne i do lasów w postaci nawozów, zatem wyeliminowanie przynajmniej części metali zmniejszyłoby jej toksyczność. Ścieków nie jesteśmy w stanie wyeliminować. Musimy przestać myśleć o nich jako o problemie, a zacząć jako o zasobie - mówi Peccia, zajmujący się zawodowo badaniem toksyczności ścieków. Podejście do ścieków powoli się zmienia. Niektóre oczyszczalnie odzyskują z nich fosfor i azot, które później są sprzedawane jako nawozy. W Szwecji prowadzi się prace nad produkcją biopolimerów ze ścieków, a instalacja promowana przez Fundację Billa i Melindy Gatesów wytwarza ze ścieków elektryczność i wodę pitną. Na razie odzyskiwanie metali ze ścieków nie byłoby opłacalne. Jednak pojawienie się technologii, która uczyni ten proces finansowo uzasadnionym jest prawdopodobnie tylko kwestią czasu. « powrót do artykułu
  18. Analizy, przeprowadzone niezależnie przez NASA i NOAA wykazały, że rok 2014 był najcieplejszy od 1880 roku. Rosnące średnie temperatury to dowód globalnego ocieplenia. Aż 9 z 10 najcieplejszych lat, jakie ludzkość zarejestrowała dzięki instrumentom pomiarowym od 1880 roku, przypada na XXI wiek. Wyjątkiem jest rok 1998, który również mieści się w pierwszej 10 najcieplejszych lat. Od 1880 roku średnia temperatura na Ziemi wzrosła o 0,8 stopnia Celsjusza. Większość z tego ocieplenia miała miejsce w ciągu ostatnich trzech dziesięcioleci. To ostatnie z serii rekordowo gorących lat w serii gorących dekad. Pozycja poszczególnych lat w rankingu może być zaburzana przez zjawiska pogodowe, ale za długoterminowe trendy odpowiadają przyczyny stojące za globalnym ociepleniem, głównie zaś antropogeniczna emisja gazów cieplarnianych - mówi dyrektor Goddard Institute for Space Studies (GISS) Gavin Schmidt. Specjaliści spodziewają się, że średnie temperatury będą nadal rosły, chociaż pomiędzy poszczególnymi latami można będzie obserwować wahania powodowane przez takie zjawiska jak El Nino czy La Nina. Ogrzewają one bądź chłodzą tropikalne obszary Pacyfiku i to prawdopodobnie one odpowiadają za obserwowane od ponad 15 lat spowolnienie wzrostu średnich temperatur. Obawy o wzrost temperatur mogą być o tyle uzasadnione, że w ubiegłym roku nie wystąpiło zjawisko El Nino, a mimo to był on rekordowo ciepły. Warto też pamiętać, że na regionalne temperatury większy wpływ mają zjawiska pogodowe niż średnie temperatury globalne. Na przykład w ubiegłym roku amerykański Midwest i Wschodnie Wybrzeże były niezwykle chłodne, podczas gdy Alaska, Kalifornia, Arizona i Nevada – niezwykle ciepłe. Należące do NASA GISS (tutaj można zapoznać się danymi) korzysta z sieci 6300 stacji pogodowych umieszczonych na lądzie i oceanach. Podczas analizy danych bierze się pod uwagę rozłożenie stacji czy istnienie miejskich wysp ciepła. Za okres bazowy GISS przyjmuje lata 1951-1980. NOAA korzysta z tych samych danych, ale używa innych metod obliczeniowych oraz innego okresu bazowego. Obie instytucje są zgodne co do tego, że ubiegły rok był najcieplejszym od ponad 130 lat. Poniższa animacja ilustruje zmiany średnich temperatur na Ziemi (w okresach 5-letnich) w latach 1880-2014 jako odchylenie od średniej temperatury z okresu bazowego 1951-1980. « powrót do artykułu
  19. Naukowcy odkryli, w jaki sposób mózg reguluje otłuszczenie ciała. Opisali mechanizm molekularny bazujący na działaniu na neurony 2 hormonów: wytwarzanej przez adipocyty leptyny oraz produkowanej przez trzustkę insuliny. Leptyna hamuje łaknienie, a poziom insuliny rośnie w odpowiedzi na wzrost stężenia glukozy we krwi. Te hormony dają mózgowi kompletny ogląd otłuszczenia ciała. Ponieważ leptyna jest produkowana przez komórki tłuszczowe, stanowi to miarę istniejących rezerw tłuszczu - im więcej tłuszczu, tym więcej leptyny. Insulina stanowi zaś miarę przyszłych rezerw tłuszczu, ponieważ poziom glukozy wzrasta, gdy jemy - wyjaśnia prof. Tony Tiganis z Monash University. Australijczycy i Amerykanie zauważyli, że insulina i leptyna oddziałują na neurony POMC w podwzgórzu (zawdzięczają one nazwę proopiomelanokortynie - białku, które jest prekursorem kilku białkowych hormonów naszego organizmu, m.in. odpowiedzialnego za hamowanie łaknienia hormonu stymulującego melanocyty). Za pośrednictwem układu nerwowego wysyłają one sygnał uruchamiający przekształcanie białej tkanki tłuszczowej w brunatną, która spala glukozę lub kwasy tłuszczowe, uzyskując w ten sposób ciepło. Podczas badań laboratoryjnych wykazano, że procesy przebiegające w neuronach są regulowane przez fosfatazy, które hamują działanie obu hormonów. Gdy stężenie tych inhibitorów spada, nasila się "brunatnienie" i spalanie tkanki tłuszczowej (innymi słowy, akademicy zademonstrowali, że delecja fosfataz PTP1B i TCPTP wzmaga sygnalizację insulinową i leptynową w neuronach POMC). Okazało się także, że łączna infuzja obu hormonów do ośrodkowego układu nerwowego lub aktywacja neuronów POMC również nasila brunatnienie białej tkanki tłuszczowej i spadek otłuszczenia. Tiganis dodaje, że proces opisany na łamach periodyku Cell służy podtrzymaniu wagi ciała, ale w otyłości wywołanej dietą ulega zaburzeniu. « powrót do artykułu
  20. Z nowych dokumentów ujawnionych przez Edwarda Snowdena dowiadujemy się, jak NSA wykorzystywała swoje możliwości zarówno do obrony Stanów Zjednoczonych, jak i do atakowania innych. Snowden zdradził, m.in., że NSA wykorzystała południowokoreańską sieć szpiegowską – oczywiście bez wiedzy południowokoreańskiego wywiadu – do szpiegowania Korei Północnej. Eksperci z NSA byli w stanie skorzystać z tylnych drzwi umieszczonych przez Koreę Południową i zainfekować cele własnym szkodliwym kodem. To najprawdopodobniej dzięki takim działaniom Amerykanie mogli bardzo szybko stwierdzić, że za ostatnie ataki na Sony odpowiada właśnie Korea Północna. Dowiadujemy się też, że NSA stworzyła Remote Operations Center, którego zadaniem jest przeprowadzanie bardzo precyzyjnych, skomplikowanych ataków. Agencja ma też możliwości uszkodzenia infrastruktury informatycznej przeciwnika. Innym z interesujących zasobów NSA jest Tutelage. To system dedykowany obronie Pentagonu. Gdy NSA wykryje, że amerykańskie sieci wojskowe są atakowane, jest w stanie zidentyfikować poszczególne elementy systemu biorącego udział w ataku, zablokować atak, przekierować go na fałszywy cel, by wykonać szczegółową analizę oraz rozpocząć aktywne działania jak np. zniszczenie infrastruktury napastnika. Co interesujące, wszystkie te operacje są prowadzone w publicznym internecie, poza sieciami wojskowymi. NSA jest również w stanie wykorzystać narzędzia stworzone przez innych. Agencja może np. przejąć już istniejący botnet czy wykorzystać technikę zwaną „fourth party collection”, czyli ukraść interesujące ją dane ludziom, którzy wcześniej ukradli je celowi będącymi w polu zainteresowań NSA. Gdy Agencja wykryje, że służby innych krajów prowadzą operację cyberszpiegowską przeciwko celowi, który interesuje też NSA, potrafi 'podpiąć' się pod tę operację i – w zależności od potrzeb – pasywnie podsłuchiwać lub zaimplementować własne oprogramowanie. A wracając do przypadku szpiegowania Korei Północnej. Jeden z pracowników NSA zdradził, że Amerykanie byli zainteresowani szpiegowaniem sieci informatycznych komunistycznego państwa. Sami nie mieli do nich dostępu, ale wiedzieli, że Korea Południowa jest w stanie infiltrować swojego północnego sąsiada. Amerykanie odkryli, że agentom Korei Południowej udało się zainstalować specjalne układy scalone w komputerach niektórych północnokoreańskich oficjeli. NSA postanowiła skorzystać z okazji i szpiegowała Koreę Północną dzięki pracy nieświadomego niczego wywiadu Korei Południowej. Od tamtej pory sytuacja uległa jednak zmianie i NSA stworzyła własną infrastrukturę pozwalającą na szpiegowanie reżimu Kimów. « powrót do artykułu
  21. Badania laboratoryjne prowadzone przez Wydział Medycyny University of Pittsburgh sugerują, że statyny - leki na obniżenie poziomu cholesterolu - mogą być obiecującymi, tanimi środkami zmniejszającymi ryzyko przerzutów guzów nowotworowych. To właśnie przerzuty, a nie oryginalne guzy, najczęściej zabijają osoby cierpiące na nowotwory. Nie planowaliśmy tego. Badaliśmy metabolizm komórek nowotworowych i sprawdzaliśmy, jaki wpływ na niego mają różne leki, w tym statyny - mówi jeden z autorów badań, Zoltan Oltvai. Wykazaliśmy jednak, że leki obniżające poziom cholesterolu przerywają wzrost niektórych linii komórek nowotworowych. Linie te są bardzo podobne do komórek nowotworowych, które opuszczają guza i kolonizują inne organy. Specjaliści od wielu lat wiedzą, że czasami wydaje się, jakby statyny zwalczały nowotwory, jednak dotychczas mechanizm ich działania był niejasny, a wcześniejsze testy kliniczne dawały mieszane wyniki. Komórki nowotworowe, aby móc opuścić guza i skolonizować organizm, potrzebują zsyntetyzowania cholesterolu i molekuł prekursorowych cholesterolu. Jak informuje doktor Oltvai, statyny mogą blokować działanie enzymu, który jest katalizatorem w zasadniczych etapach procesu syntezy cholesterolu. Zespół Oltvaia odkrył, że na działanie statyn szczególnie podatne są te linie komórek, które wewnątrz zawierają proteinę o nazwie wimentyna, ale na których powierzchni nie dochodzi do ekspresji E-kadheryny. Statyny prawdopodobnie nie okażą się efektywnym lekiem przeciwko guzom pierwotnym, mogą jednak blokować przerzuty - podkreśla doktor Oltvai. Uczony ostrzega jednak, by chorzy na nowotwory nie brali statyn an własną rękę. Podkreśla, że pozytywne wyniki uzyskano podczas badań laboratoryjnych na komórkach, co nie znaczy, że efekt będzie taki sam w ludzkim organizmie. « powrót do artykułu
  22. Zespół z New York University Polytechnic i Uniwersytetu w Pekinie pracuje nad immunochromatograficznym testem paskowym z koloidalnym złotem do wykrywania troponiny sercowej I (ang. cardiac troponin I, cTnI). Nowy pasek testowy wykorzystuje nanocząstki złota (ang. gold nanoparticles, AuNPs) generowane dzięki mikroplazmie i wykazuje o wiele wyższą wrażliwość niż tradycyjne testy kasetowe. W warunkach ciśnienia atmosferycznego amerykańsko-chiński zespół wykorzystał mikroplazmę nietermiczną do syntezy nanocząstek złota w roztworze wodnym. Naukowcy monitorowali pH i przewodnictwo cieczy. Morfologię i właściwości optyczne AuNPs oceniano za pomocą transmisyjnego mikroskopu elektronowego oraz spektroskopii w zakresie widzialnym i nadfiolecie. Naukowcy odkryli, że rozkładem rozmiarów AuNPs można manipulować, zmieniając parametry procesu, np. stężenie cytrynianu sodu w roztworze czy tryb mieszania. W porównaniu do nanocząstek złota uzyskanych tradycyjnymi metodami, powierzchnia AuNPs wyprodukowanych dzięki mikroplazmie przyciąga więcej przeciwciał. Poziom troponiny sercowej I jest u pacjentów z zawałem wielokrotnie wyższy niż u osób zdrowych. Nic więc dziwnego, że wczesne wykrycie cTnI to kluczowy element diagnozy i leczenia. Wdrożenie mikroplazmy do generowania AuNPs to kolejne zastosowanie technologii opracowanej przez Kurta H. Beckera i WeiDonga Zhu. Wcześniej z powodzeniem wykorzystano mikroplazmę w stomatologii (do odkażania kanałów zębowych i wybielania zębów, a także poprawy wiązania), dezynfekcji i konserwacji owoców i warzyw oraz do inaktywacji mikroorganizmów i biofilmów. Autorzy artykułu z pisma Plasma Processes and Polymers podkreślają, że poza tym wspomaganą mikroplazmą syntezę AuNPs będzie można m.in. wykorzystać do wykrywania guzów nowotworowych, dostarczania leków lub leczenia chorób neurodegeneracyjnych w rodzaju alzheimera. Amerykanie i Chińczycy zgodnie twierdzą, że wiele czasu jeszcze upłynie, nim światło dzienne ujrzą najpierw bioczujniki, a później aplikacje terapeutyczne. Trzeba sobie poradzić głównie z wysokimi kosztami, czaso- i pracochłonnością syntezy monodyspersyjnych nanocząstek o zadanym rozmiarze. « powrót do artykułu
  23. Należący do NASA Mars Reconnaissance Orbiter odnalazł na powierzchni Marsa brytyjski łazik Beagle 2. Pozwoliło to wyjaśnić tajemnicę nieudanej misji marsjańskiej z 2003 roku zorganizowanej przez Europejską Agencję Kosmiczną. Zdjęcia wykonane przez MRO pokazują, że łazikowi udało się wylądować 25 grudnia 2003 roku i co najmniej częściowo rozwinął panele słoneczne. „Od 2003 roku w każde Boże Narodzenie zastanawiałem się, co się stało z Beagle 2. Moje i innych Boże Narodzenie 2003 roku zostało zrujnowane, gdyż z rozczarowaniem stwierdziliśmy, że nie odbieramy sygnałów z powierzchni Marsa. Przestałem już wierzyć, że kiedykolwiek dowiem się, jaki los spotkał Beagle 2. Na zdjęciach z MRO widać, że byliśmy blisko realizacji naszych celów” - mówi Mark Sims z University of Leicester, który był menedżerem misji Beagle 2. Zdjęcia, na których znaleziono Beagle'a analizował Michael Croon z Niemiec. To były członek misji Mars Express zorganizowanej przez ESA. To właśnie on zauważył Beagle'a i inne elementy misji w obszarze, na którym miał lądować. Dalsze analizy prowadzone przez specjalistów z NASA potwierdziły, że to, co zauważył Croon odpowiada kształem, wielkością, kolorem i rozkładem Beagle'owi 2, jego spadochronom i elementom lądownika. « powrót do artykułu
  24. Liczne francuskie witryny informacyjne padły ofiarami cyberataków. Firma Oxalide, hostująca witryny Liberation, L'Express, 20 Minutes, France Inter, Mediapart i Marianne poinformowała, że przeprowadzono na nią atak DDoS. Ucierpiały nie tylko witryny informacyjne, ale również witryny innych firm hostowane przez Oxalide. Napastnicy twierdzą, że są cyberdżihadystami z tzw. Państwa Islamskiego. Wcześniej atakowali oni francuskie uniwersytety, firmy i instytucje rządowe. Tam, gdzie atak się powiódł, na witrynach pojawiał się napis „The Islamic Stat Stay Inchallah. Free Palestine. Death to France. Death to Charlie”. Wiceadmirał Arnaud Coustilliere, odpowiedzialny za cyberbezpieczeństwo Francji, poinfomował, że w ciągu ostatnich dni doszło do ponad 19 000 takich cyberataków. « powrót do artykułu
  25. Badając tresowane delfiny butlonose i dzikie foki Weddella, naukowcy zauważyli, że podczas nurkowania oba gatunki bardzo często doświadczają arytmii. Dotąd uznawano, że w ramach odruchowej odpowiedzi na nurkowanie u ssaków morskich pojawiają się bradykardia oraz inne zmiany, które pozwalają oszczędzać ograniczone zasoby tlenu. Biolodzy nie wiedzieli jednak, jak radzą sobie one z pogonią za zwierzyną, ponieważ normalną reakcją fizjologiczną na wysiłek jest przyspieszenie akcji serca, czyli tachykardia. Nowe studium prof. Terrie Williams z Uniwersytetu Kalifornijskiego w Santa Cruz pokazuje, że podczas wysiłku fizycznego na wstrzymanym oddechu do serca docierają wywołujące arytmię sprzeczne sygnały z układów sympatycznego i parasympatycznego. [...] Gdy zwierzę rusza się intensywnie na głębokościach, serce otrzymuje sprzeczne sygnały. Dzieje się tak często na początku wynurzania. Choć nie ma śmiertelnych arytmii, niestabilne serce może być podatne na [różne] problemy. Na potrzeby studium opracowano urządzenie do monitorowania tętna, częstotliwości uderzeń płetwami, głębokości, a także czasu nurkowania delfinów w basenach bądź otwartych akwenach oraz dzikich fok pod lodem McMurdo Sound na Antarktydzie. Nurkując, zwierzęta próbowały jak najwięcej pływać z niską intensywnością. Podczas polowania na ryby foki przełączały się między ślizgami a krótkimi pogoniami za ofiarami. Takie zachowanie wydaje się sprzyjać unikaniu sprzecznych sygnałów i arytmii. Generalnie naukowcy zauważyli, że tętno zmieniało się z 2 czynnikami: głębokością oraz intensywnością ćwiczeń, czasem przełączając się szybko między okresami bardy- i tachykardii. Okazało się, że arytmie występowały w ponad 70% głębokich zanurzeń. Mamy tendencję, by uznawać ssaki morskie za całkowicie przystosowane do życia w wodzie, lecz w kategoriach odruchowej odpowiedzi na nurkowanie i tętna nie jest to system idealny. Nawet 50 mln lat ewolucji nie wystarczyło, by podstawowa reakcja ssaków stała się niepodatna na problemy. Amerykanie podkreślają, że zachowania związane z anomaliami sercowymi przypominają zdarzenia występujące podczas reakcji ucieczkowej przestraszonych hałasem łodzi lub sonarami płetwali błękitnych czy wali dziobogłowych. W ten sposób można by więc wyjaśnić stranding. Autorzy artykułu z pisma Nature Communications uważają, że zebrane wyniki mają odniesienie do ludzi, u których, chociaż słabiej zaznaczony, również występuje odruch na zanurzenie. Niewykluczone, że te same sprzeczne sygnały, które widzimy u delfinów i fok, powodują arytmie u pewnych triatlonistów. « powrót do artykułu
×
×
  • Dodaj nową pozycję...