Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Gorączka jest procesem niezwykle istotnym w walce z chorobą. Pojawia się ona nie tylko wśród tych kręgowców, które mają stałą temperaturę ciała (np. ssaków), ale także wśród tych, u których zależy ona od temperatury otoczenia. W tym ostatnim przypadku nazywana jest gorączką behawioralną. Dr Krzysztof Rakus z Zakładu Immunologii Ewolucyjnej Instytutu Zoologii UJ, we współpracy z zespołem prof. Alaina Vanderplasschena z Uniwersytetu w Liège (Belgia), zajmował się właśnie gorączką behawioralną, koncentrując się na mechanizmach jej występowania u ryb. Wyniki tych badań opublikowało prestiżowe czasopismo Cell Host & Microbe. Gorączka behawioralna Gorączka, czyli wzrost temperatury ciała, jest jednym z objawów stanu zapalnego, tj. złożonej reakcji obronnej organizmu w odpowiedzi na infekcję bakteryjną czy wirusową. Po wniknięciu do naszego organizmu patogenów chorobotwórczych komórki układu odpornościowego (leukocyty) wydzielają szereg czynników, których zadaniem jest pobudzenie organizmu do rozwinięcia właściwej reakcji odpornościowej i do zwalczenia infekcji. Niektóre z tych czynników, np. cytokiny, czyli białka regulujące aktywność komórek organizmu zmagających się ze stanem zapalanym, są odpowiedzialne m.in. za rozwój gorączki. Przykładem takiej cytokiny jest tzw. czynnik martwicy nowotworów TNF-α. Cytokiny te występują nie tylko u ssaków, ale opisano je także u innych kręgowców, w tym u ryb. Ryby są organizmami zmiennocieplnymi i w większości przypadków ich temperatura ciała zbliżona jest do temperatury wody, w której żyją. Co ciekawe, ryby, podobnie jak inne kręgowce zmiennocieplne, czyli płazy i gady, w wyniku zakażenia patogenem często migrują do miejsc o wyższej temperaturze. Zjawisko to określane jest mianem gorączki behawioralnej, albowiem prowadzi do podniesienia temperatury ciała zakażonego zwierzęcia w wyniku zmiany jego zachowania. Dzięki podniesieniu temperatury ciała wiele reakcji odpornościowych przebiega w sposób bardziej efektywny, a jednocześnie może dochodzić do zahamowania namnażania się patogenów. Mimo iż gorączka jest procesem niezwykle istotnym w walce z patogenami i została utrwalona w procesie ewolucji kręgowców, jak dotąd nieznane były czynniki wywołujące i hamujące gorączkę behawioralną ryb. Karpie wyleczone Badając mechanizmy gorączki behawioralne ryb, dr Krzysztof Rakus i prof. Alain Vanderplasschen wykorzystali model zakażenia karpi wirusem CyHV-3 (cyprinid herpesvirus 3). Od lat 90. XX wieku wirus ten, nazwany także KHV (koi herpesvirus), odpowiedzialny jest za masowe śnięcia karpi, tak w Polsce, jak i na świecie. Jedną z istotnych cech tego wirusa jest to, iż może on namnażać się oraz wywoływać chorobę karpi w temperaturze od 18°C do 28°C, natomiast w temperaturze powyżej 30°C karpie nie wykazują oznak zakażenia. Obecne badania pozwoliły stwierdzić, że umożliwienie rybom swobodnego przepływu pomiędzy akwariami o różnych temperaturach wody (24°C, 28°C i 32°C) wpływa na zahamowanie choroby. Stwierdzono, że zdrowe karpie przebywały w większości w wodzie o temperaturze 24°C, natomiast karpie zakażone wirusem CyHV-3 przepływały do przedziału o temperaturze 32°C – podkreśla dr Krzysztof Rakus. Dzięki temu wszystkie karpie przeżyły infekcję wirusem CyHV-3, który w warunkach, kiedy ryby utrzymywane są w akwariach ze stałą temperaturą wody na poziomie 24°C, może prowadzić do 100% śmiertelności. Wirus modyfikuje zachowanie gospodarza Podczas badań nad gorączką behawioralną badacze zwrócili także uwagę na fakt, że zakażone karpie zaczynają przepływać do przedziału 32°C dosyć późno od wywołania zakażenia, kiedy większość pozostałych symptomów choroby jest już wyraźnie widoczna. Karpie, u których obserwowano rozwijającą się gorączkę behawioralną, są wtedy już bardzo chore. Czy zatem wirus mógł opóźniać rozwój gorączki behawioralnej? A jeśli tak, to w jaki sposób? W udzieleniu odpowiedzi na to pytanie pomogło przyjrzenie się genomowi wirusa. Znajduje się w nim gen ORF12, który najprościej rzecz ujmując, koduje białko wirusowe będące swoistą "pułapką" wiążącą TNF-α karpia. W kolejnym etapie badań naukowcy, wykorzystując metody inżynierii genetycznej, wyprodukowali zmodyfikowanego wirusa CyHV-3 pozbawionego genu ORF12. Okazało się, iż karpie zakażone tym wirusem migrują do przedziału 32°C wcześniej aniżeli karpie zakażone wirusem zawierającym gen ORF12. Wykazano w ten sposób, iż wirus faktycznie wpływa na zachowanie gospodarza i opóźnia rozwój gorączki behawioralnej. Dodatkowo, aby wykazać, że to właśnie TNF-α jest czynnikiem wywołującym gorączkę behawioralną karpia, podaliśmy rybom zakażonym wirusem CyHV-3 przeciwciała blokujące tę cytokinę. W tym przypadku ryby nie migrowały do przedziału 32°C i gorączka behawioralna w ogóle się nie rozwinęła. I co najistotniejsze, skutkowało to zwiększoną śmiertelnością zakażonych ryb – wyjaśnia dr Rakus. Badania, których rezultaty opublikowane zostały w Cell Host & Microbe, nie tylko wskazują na mocno utrwalone ewolucyjnie mechanizmy rozwoju gorączki u ryb i ssaków, ale i po raz pierwszy opisują, jak wirus przez pojedyncze białko modyfikuje zachowanie swego gospodarza, opóźniając rozwój gorączki behawioralnej. Dla wirusa jest to niezwykle istotna zdolność, albowiem zakażona ryba przebywa dłużej w temperaturze umożliwiającej jego namnażanie się, dzięki czemu może on skuteczniej rozprzestrzeniać się w populacji karpi, przenosząc się z jednego osobnika na drugiego. « powrót do artykułu
  2. Parający się doborem hodowlanym gadów Justin Kobylka z Georgii doczekał się po 8 latach starań pytona królewskiego ze wzorem z uśmiechniętych symboli emoji. Kobylka uzyskał w swojej karierze wiele interesujących okazów, jednak pyton królewski emoji to prawdziwa perełka. Na pytonie odmiany barwnej piebald-lavender albino widnieją 3 łaty w formie uśmiechniętej buźki. Unikatowe umaszczenie to skutek mutacji recesywnych. Amerykanin sądzi, że dzięki niezwykłemu wyglądowi jego wąż może być wart nawet 4500 dol. Nie ma jednak w planach jego sprzedaży. Ponieważ oglądając w Sieci zdjęcia węża, ludzie często twierdzili, że to fake i przykład sprawnego wykorzystania Photoshopa, Kobylka nagrał film z gadem w roli głównej i zamieścił go na YouTube'ie. Jak można się było spodziewać, niedowiarków i tak to nie przekonało, bo wg nich, pyton był zbyt sztywny i się nie ruszał. « powrót do artykułu
  3. Kolejne osiągnięcia SpaceX są witane z entuzjazmem przez miłośników tej firmy i przedstawiane jako dowód na jej przewagę nad NASA. Konkurencja pomiędzy przedsiębiorstwem Muska a NASA wydaje się zaostrzać, tym bardziej, że obie organizacje zapowiadają misje na Marsa i podróże wokół Księżyca. Jednak wbrew pozorom nie mamy tutaj do czynienia z konkurencją. NASA jest najważniejszym klientem SpaceX, a przedsiębiorstwo Muska potrzebuje doświadczenia i wsparcia technicznego Agencji, by zrealizować swoje plany dotyczące eksploracji dalej położonych od Ziemi obszarów Układu Słonecznego. Ścisła współpraca pomiędzy obiema organizacjami nie jest tajemnicą. Ani to, jak wiele SpaceX zawdzięcza państwowej instytucji. Bez oporów przyznaje to sam Elon Musk, który ogłaszając plan wysłania dwóch osób wokół Księżyca, stwierdzil na Twitterze: SpaceX nie osiagnęłaby tego bez NASA. Nie znam sposobu, by to wystarczająco docenić. NASA zależy na rozwoju prywatnego przemysłu kosmicznego m.in. dlatego, że chce się uwolnić od konieczności prac nad silnikami czy rakietami latającymi w pobliżu Ziemi i skupić na eksploracji głębszych części przestrzeni kosmicznej. Zgodnie z tą filozofią, NASA stanowi awangardę badań kosmosu, za którą podążają inni. Wcześniejsze lub późniejsze powstanie prywatnego przemysłu kosmicznego stało się oczywistością w roku 1984 gdy Kongres USA uchwalił Commercial Space Launch Act, przewidujący publiczno-prywatne partnerstwo w badaniu przestrzeni kosmicznej. W obliczu coraz mniejszych środków przyznawanych przez Kongres oraz wobec perspektywy przyszłego zakończenia wykorzystywania promów kosmicznych NASA szukała kolejnych prywatnych partnerów i wspomagała ich rozwój. W 2006 roku firma SpaceX wygrała swój pierwszy kontrakt z NASA. Otrzymała wówczas od Agencji 278 milionów dolarów na opracowanie rakiety Falcon 9 i kapsuły Dragon. Później NASA zainwestowała dodatkowe 118 milionów USD, a sama SpaceX wydała w sumie na ten projekt 454 miliony dolarów. Dwa lata później SpaceX wygrała kolejny kontrakt, tym razem o wartości 1,6 miliarda dolarów, przewidujący dostarczanie towarów na Międzynarodową Stację Kosmiczną. Nie bylibyśmy tą samą firmą co obecnie, bez wczesnego wsparcia udzielonego przez NASA. W końcu doszlibyśmy do tego momentu, co teraz, ale kosztowałoby to nas więcej wysiłku i zajęło nam więcej czasu – mówi prezes firmy Gwynne Shotwell. Kolejny przełomowy moment miał miejsce w 2012 roku, kiedy SpaceX, wywiązując się z umowy z NASA, jako pierwsza prywatna firma dostarczyła ładunek na ISS. Dzięki udanej misji wiarygodność SpaceX w oczach NASA natychmiast wzrosła. Dzięki temu, że NASA stała się ich podstawowym klientem, zyskali stałe źródło przychodów, uwiarygodnili się i zdywersyfikowali swoją ofertę, co pozwoliło im na zdobycie prywatnych zleceń, a z czasem mogli zacząć myśleć o wykonywaniu zleceń dla sił zbrojnych - mówi Marco Caceres, analityk z Teal Group. Obecnie SpaceX pracuje nad drugą wersją kapsuły Dragon. To ona ma zawieźć ludzi w podróż dookoła Księżyca. Środki na prace nad nią pochodzą głównie z NASA. SpaceX nie jest jedyną prywatną firmą, która korzysta ze wsparcia NASA. Jej konkurentami są m.in. Blue Origin Jeffa Bezosa założyciela Amazona i Virgin Galactic Richarda Bransona. Obie są zainteresowane suborbitalną turystyką kosmiczną, chociaż Blue Origin ma w planach opracowanie pojazdu, który ma wynosić astronautów nawet poza niską orbitę okołoziemską. Firma Bezosa chce pracować też nad pojazdem zdolnym dotrzeć i wylądować na Księżycu. Firma myśli bowiem o obsługiwaniu baz księżycowych, o powstaniu których mówi się od pewnego czasu. Sean O'Keefe, były szef NASA, mówi, że agencja od samego początku swojego istnienia postrzegała swoją rolę m.in. jako „katalizatora rozwoju”. Obecność człowieka w dalszych częściach kosmosu będzie wymagała tego co najlepsze od NASA i jej prywatnych partnerów – stwierdza Phil McAlister, dyrektor wydziału rozwoju komercyjnych lotów kosmicznych w NASA, dodając, że przez ostatnich 10 lat prywatni partnerzy NASA dokonali dużych postępów. NASA pracuje obecnie nad systemem SLS, a SpaceX nad Falcon Heavy. Oba systemy będą w stanie wynosić w przestrzeń kosmiczną ładunki o dużej masie. Niekoniecznie oznacza to, że będą ze sobą konkurowały. Oba systemy mogą się uzupełniać i zastępować w razie wystąpienia problemów z którymś z nich. Obecnie NASA czeka na powołanie nowego szefa. W agencji toczy się też dyskusja, czy należy kontynuować prace nad programem dotyczącym Księżyca, czy też należy bardziej skupić się na Marsie. O misji na Marsa mówi też SpaceX. Oczywiście firma skorzysta tutaj z 50-letnich doświadczeń NASA. Agencja wspomoże przedsiębiorstwo Muska m.in. w przekazywaniu sygnałów na Ziemię, rozwoju systemów lotu, rozwiązaniu kwestii projektowych, inżynieryjnych i nawigacyjnych. W zamian za to NASA liczy na otrzymanie danych zarejestrowanych przez pojazd SpaceX. NASA jest jedyną organizacją, która może pochwalić się udaną misją związaną z lądowaniem na Marsie. Od początku bieżącego wieku Agencja nie zanotowała jeszcze żadnej nieudanej misji marsjańskiej. « powrót do artykułu
  4. Prehistoryczny gatunek ryby z niezwykłymi łuskami i zębami z formacji Kuanti w południowo-zachodnich Chinach mógł wyewoluować przed tzw. erą ryb. Erą ryb nazywa się dewon, ponieważ w porównaniu do syluru nastąpił wtedy duży wzrost liczebności i różnorodności ryb szczękoustych. Dotąd zapis kopalny żuchwowców z syluru bazował na bardzo fragmentarycznych pozostałościach, co ograniczało rozumienie ich wczesnej ewolucji. Ostatnie odkrycia z formacji Kuanti dużo jednak wniosły do tej dziedziny. Tutejsze warstwy osadów z rybami datują się na ostatnią część syluru, czyli ludlow (ok. 423 mln lat temu). Brian Choo z Flinders University i jego zespół opisali na łamach PLoS ONE nowy rodzaj i gatunek ryby kostnoszkieletowej - Sparalepis tingi. U S. tingi, współczesnej jej prymitywnej ryby mięśniopłetwej Guiyu oneiros i nieco późniejszej Psarolepis występowała obręcz barkowa z kolcami i elementami skórnymi. Elementy skórne znajdowały się również w obręczy miednicznej. U Sparalepis zidentyfikowano też unikatowe cechy. Jej romboidalne łuski były wyniesione, grube i wąskie. Te z przodu miały mechanizmy zahaczające zarówno na zewnętrznej, jak i wewnętrznej powierzchni. Ciasno upakowana pokrywa łuskowa przywodzi na myśl mur z tarcz, co dało początek nazwie Sparalepis (jest to połączenie staroperskiego i greki, które oznacza łuskę tarczową). Sparalepis to kolejna dziwna ryba z Junnanu z przełomu syluru i dewonu. Sugeruje to, że region ten mógł być wczesnym ośrodkiem różnicowania żuchwowców. Wydaje się, że era ryb nastała w południowych Chinach jeszcze w sylurze. « powrót do artykułu
  5. Chemicy z U.S. Naval Research Laboratory opracowali i opatentowali przezroczysty termoplastyczny elastomer, który jest lżejszy niż szkło kuloodporne, a przy tym pozwala na zachowanie jego właściwości balistycznych. Termoplastyczne elastomery to elastyczne podobne do gumy polimery, które utwardza się za pomocą oddziaływań fizycznych, a nie chemicznych. Nowy materiał pozwoli na szybkie naprawianie uszkodzonych osłon balistycznych. Po pokryciu takiej osłony nowym materiałem poprawiają się jej właściwości balistyczne, a po uderzeniu pocisku łatwo jest osłonę naprawić. Wystarczy bowiem podgrzać materiał do temperatury około 100 stopni, by zniknęły wszystkie pęknięcia spowodowane przez pocisk. Co więcej, dzięki temu, że elastomer jest elastyczny, uszkodzenia ograniczają się do miejsca uderzenia, ich zasięg jest zatem ograniczony, co w przypadku np. szyb kuloodpornych nie wpływa na widoczność. Ograniczenie zasięgu szkód zwiększa też wytrzymałość osłony balistycznej na liczne następujące po sobie uderzenia. Nowe tworzywo chronione jest patentem numer 9,285,191 „Polymer coatings for enhanced and field-repairable transparent armor". « powrót do artykułu
  6. Lipokalina 2, hormon uwalniany przez komórki kości, hamuje apetyt. Wskazują na to badania na myszach, przeprowadzone przez naukowców z Centrum Medycznego Columbia University (CUMC). Naukowcy zaobserwowali, że lipokalina 2 włącza w mózgu neurony, które wcześniej powiązano z zahamowaniem (supresją) apetytu. Odkrycia Amerykanów wskazują nowy mechanizm regulacji równowagi energetycznej organizmu. Autorzy publikacji z Nature uważają, że będzie go można wykorzystać w celowanej terapii otyłości, cukrzycy typu 2. i innych zaburzeń metabolicznych. W ostatnich latach badania CUMC i nie tylko wskazywały na to, że kość to narząd endokrynny, który wytwarza hormony wpływające na rozwój mózgu, glikemię, działanie nerek, a także męską płodność. Nasze ostatnie badania uzupełniają listę ich funkcji o hamowanie łaknienia, co może utorować drogę nowemu podejściu do leczenia zaburzeń metabolicznych - zaznacza dr Stavroula Kousteni. W 2007 r. zespół z CUMC prowadzony przez dr. Gerarda Karsenty'ego po raz pierwszy zademonstrował, że kościec jest narządem endokrynnym, który reguluje metabolizm na drodze wydzielania hormonu osteokalcyny (syntetyzują ją osteoblasty, odontoblasty oraz hipertroficzne chondrocyty). Dywagowaliśmy, że muszą istnieć dodatkowe kostne hormony, bo inne narządy endokrynne wpływające na metabolizm spełniają swoją rolę za pomocą wielu hormonów - wyjaśnia Kousteni. Pierwsze wskazówki dotyczące 2. hormonu pojawiły się w 2010 r., kiedy Kousteni odkryła, że wyeliminowanie genu FOXO1 z mysich osteoblastów powoduje, że zwierzęta mniej jedzą. Dodatkowym plusem była poprawa glikemii. Ponieważ osteokalcyna nie reguluje apetytu, wiedzieliśmy, że w procesie tym musi brać udział drugi hormon kostny. W ramach obecnego studium naukowcy wykazali, że w osteoblastach pozbawionych FOXO1 zachodzi silna ekspresja lipokaliny 2. Dotąd uważano, że jej głównym źródłem są adipocyty i że przyczynia się to do otyłości. Okazało się jednak, że poziom lipokaliny 2 w osteoblastach jest 10-krotnie wyższy niż w komórkach tłuszczowych. Później akademicy wyhodowali myszy, u których hormon nie występował albo w osteoblastach, albo adipocytach. Tylko myszy bez lipokaliny w osteoblastach wykazywały zwiększony apetyt i miały problemy metaboliczne. Co ważne, lipokalina wpływała na łaknienie i tycie zarówno u gryzoni z prawidłową wagą, jak i u zwierząt otyłych wskutek braku receptora leptyny i sygnalizacji leptynowej. U obu grup myszy lipokalina 2 hamowała łaknienie, poprawiała ogólny metabolizm i zmniejszała wagę. Dr Kousteni odkryła także, że lipokalina 2 pokonuje barierę krew-mózg. W mózgu białko wiąże się i aktywuje receptory melanokortyny 4 w podwzgórzu. Mamy nadzieję, że lipokalina 2 wpływa tak samo na ludzi i że nasze odkrycia uda się przełożyć na terapie otyłości oraz innych zaburzeń metabolicznych. Wstępne wyniki z badań na ludziach są zachęcające. Analizy pacjentów z cukrzycą typu 2. pokazały, że poziom lipokaliny 2 we krwi jest odwrotnie proporcjonalny do wagi i poziomu hemoglobiny glikowanej HbA1c, która powstaje w wyniku nieenzymatycznego przyłączania glukozy do cząsteczki hemoglobiny. Innymi słowy, pacjenci z wyższym stężeniem lipokaliny 2 ważą mniej i mają lepszą glikemię. « powrót do artykułu
  7. NASA testuje technologie, które pozwolą na bezpieczne posadowienie niewielkich urządzeń na Ziemi i innych ciałach niebieskich. Testy prowadzone są za pomocą Technology Educational Satellite (TechEdSat-5), który został wystrzelony 9 grudnia ubiegłego roku i po dwóch miesiącach pobytu na Międzynarodowej Stacji Kosmicznej opuścił ją 6 marca. Niewielki satelita został wyposażony w Exo-Brake. To reagujące na ciśnienie elastyczne urządzenie hamujące przypominające spadochron o kształcie krzyża. Gdy się ono otwiera, zwiększa się opór aerodynamiczny, wywierany na satelitę przez atmosferę Ziemi. W ten sposób dochodzi do szybszej i – co ważniejsze – planowanej deorbitacji satelity. Zwykle deorbitacji dokonuje się za pomocą silnika. Nowa technologia ma umożliwić przeprowadzenie jej bez potrzeby używania silnika i paliwa. Dzięki temu, jak ma nadzieję NASA, uda się opracować sposób na tanie i precyzyjne sprowadzanie satelitów czy urządzeń z próbkami naukowymi z powrotem na Ziemię. Dzięki znacznie łatwiej byłoby np. transportować próbki z ISS. Technologia, nad którą pracuje NASA, może zostać wykorzystana również poza naszą planetą. Za jej pomocą można będzie bowiem posadowić na powierzchni np. Marsa czy innych planet niewielkie urządzenie badawcze. « powrót do artykułu
  8. Niedawno dowiedzieliśmy się, że Microsoft chce wykorzystać procesory ARM w chmurze Azure. Teraz media donoszą, że wspierany przez Saudyjczyków fundusz inwestycyjny przejmie kontrolę nad 25% udziałów w ARM. W ubiegłym roku japoński Softbank wydał 32 miliardy USD na zakup ARM-a. Niedługo później Japończycy ogłosili powstanie Softbank Vision Fund, za pośrednictwem którego chcieliby inwestować w światowy sektor IT. Zapowiedzieli, że ich fundusz zbierze 100 miliardów dolarów i stanie się jednym z największych na świecie. Sam Softbank ma wpompować w swój fundusz co najmniej 25 miliardów USD w ciągu najbliższych 5 lat. Jednak największym inwestorem funduszu stanie się saudyjski Public Investment Fund, który ma zainwestować nawet 45 miliardów dolarów. Japończycy nie chcą jednak polegać wyłącznie na jednym inwestorze i zwrócili się do funduszu Mubadala z Abu Zabi. Fundusz ten, jak pamiętamy, jest właścicielem firmy GlobalFoundries, która powstała wokół AMD. Jako, że Mubadala jest zainteresowana ARM-em, Softbank zobowiązał się przekazać do Softbank Vision Fund 25% udziałów ARM-a. W japoński fundusz, chociaż na mniejszą skalę, mają podobno zainwestować też Apple, Qualcomm, Larry Ellison i Foxconn. Wkrótce przekonamy się, jak plan sprzedaży arabskim szejkom części ARM-a będzie komentowany na rynku IT oraz wśród inwestorów. Można się też spodziewać, że Softbank Vision Fund, ze względu na jego gigantyczną skalę, będzie cieszył się olbrzymim zainteresowaniem mediów, rynku IT i rynku finansowego. Warto też zauważyć, że kraje takie jak Arabia Saudyjska czy Zjednoczone Emiraty Arabskie, które zbudowały swoje bogactwo na ropie naftowej, coraz bardziej inwestują w nowoczesne technologie czy naukę. Najwyraźniej ich władze nie mają zamiaru czekać, aż złoża „czarnego złota” ulegną wyczerpaniu i nie chcą stawiać wszystkiego na jedną kartę. « powrót do artykułu
  9. Microsoft ma zamiar wykorzystać procesory ARM w chmurze Azure. Skutki tej decyzji wykraczają daleko poza rynek chmur obliczeniowych i mogą mieć olbrzymi wpływ na przyszłość globalnego rynku IT. Chmura Azure to jedna z największych instalacji tego typu, a Microsoft to jeden z największych klientów producentów sprzętu serwerowego. O tym, jak silną pozycję ma koncern z Redmond niech świadczy chociażby fakt, że ostatnio HP opublikowało gorsze od oczekiwanych wyniki finansowe, a jako przyczynę takiego stanu rzeczy podało „znaczący spadek zamówień od dużego klienta”. Klientem tym jest najprawdopodobniej właśnie Microsoft. Obecnie koncern pracuje nad Project Olympus, w ramach którego rozwija nową architekturę serwerów dla Azure. W ramach prac testowane są m.in. procesory ARM, a Microsoft zapowiada, że na testach się nie skończy. Dlaczego ta informacja jest tak ważna? Obecnie około 99% rynku procesorów dla serwerów należy do Intela. Firma chwali się, że na jej kościach działa 98% chmur obliczeniowych. Dział Data Center Group przyniósł w ubiegłym roku 17,2 miliarda USD przychodu i zanotował 7,5 miliarda zysku operacyjnego. Wraz ze spadającym popytem na pecety, rosnącą popularnością chmur, farm danych czy serwisów społecznościowych rośnie znaczenie rynku serwerów. Decyzja Microsoftu może zaś spowodować, że układy ARM zajmą na tym rynku silną pozycję. Jeśli koncern z Redmond szeroko zastosuje ARM-y w Azure to tak samo mogą uczynić jego główni konkurenci na rynku chmur – Google i Amazon. W końcu Microsoft, jako pionier takich zastosowań ARM-ów, weźmie na siebie większość ryzyka biznesowego i technicznego związanego z wykorzystaniem w chmurach nowej architektury. Niezwykle ważny jest też fakt, że architektura tworzona w ramach Project Olympus jest udostępniana na zasadach open source. A to oznacza, że mniejsze firmy zyskają dostęp do gotowej, przetestowanej architektury serwerowej i nie będą skazane na standardowe rozwiązania oferowane przez serwerowych gigantów. Małych firm nie byłoby stać na stworzenie i sprawdzenie własnej architektury. Teraz Microsoft robi to za nie. Intel zauważa oczywiście, że pod względem wydajności ARM-y nie mogą się równać z jego Xeonami. To fakt, jednak nie zawsze liczy się moc procesora. Bardzo często wystarczy układ o mniejszej mocy obliczeniowej, ale o lepszym stosunku poboru energii do wydajności – co przekłada się na koszty użytkowania serwera – oraz tańszy w zakupie. Decyzja MS może mieć zatem brzemienne skutki dla całego rynku serwerów. Niewykluczone, że w najbliższych latach będziemy świadkami osłabienia pozycji Intela i zwiększenia konkurencyjności zarówno wśród producentów kości, jak i wśród producentów serwerów. « powrót do artykułu
  10. Jeśli przyspieszenie ocieplenia klimatu nie zostanie zahamowane, a władze nie zainstalują zabezpieczeń przeciwpowodziowych, do 2100 r. cała Wenecja zniknie pod wodą. Zabytkowe miasto zostanie zalane, bo wg prognoz, poziom Morza Śródziemnego wzrośnie o 140 cm. Ten sam los spotka obszar o długości ok. 283 km na wybrzeżu północnego Adriatyku, a także część zachodniego wybrzeża Włoch. Autorzy publikacji w piśmie Quarternary International postulują, że do końca tego stulecia morze pochłonie 5500 km2 równin przybrzeżnych. Naszą metodę, opracowaną dla wybrzeża Włoch, można odnieść do innych obszarów przybrzeżnych świata, które zgodnie z prognozami, zostaną zalane przez morze wskutek globalnego ocieplenia klimatu - podkreśla główny autor badań Fabrizio Antonioli z Agenzia nazionale per le nuove tecnologie, l'energia e lo sviluppo economico sostenibile (ENEA). Naukowcy kompilowali dane ze źródeł historycznych, zdjęć lotniczych, badań terenowych i paleomodelowania poziomu morza, by ustalić, co się stało z kamieniołomami z wybrzeża Morza Śródziemnego, z których niegdyś wydobywano materiał na żarna. W ten sposób mogli ocenić zmiany w poziomie morza, jakie zaszły od ich porzucenia (w sumie pod uwagę wzięto 13 stanowisk archeologicznych z Włoch, Hiszpanii, Francji, Grecji oraz Izraela). Okazało się, że w ostatnim tysiącleciu poziom morza wzrósł o 32 cm. W związku z przewidywanym dalszym wzrostem poziomu wód szczególnie zagrożone są 33 obszary na terenie Włoch. Dotyczy to, m.in.: linii brzegowej między Triestem i Rawenną, Parco regionale del Delta del Po Veneto, gdzie żyją setki flamingów czy Fiumicino w regionie Lacjum. Szacuje się, że we Włoszech w obrębie 10 km od brzegu żyje ok. 75% populacji. « powrót do artykułu
  11. Zdrowe życie seksualne zwiększa satysfakcję i zaangażowanie ludzi w pracę. Prof. Keith Leavitt z College'u Biznesu Uniwersytetu Stanowego Ohio analizował zachowanie w pracy i zwyczaje seksualne zamężnych/żonatych osób. Okazało się, że ci, dla których seks stanowił ważną część domowego życia, nieświadomie zapewniali sobie zastrzyk energii i szereg korzyści dla pracy w biurze następnego dnia. Podtrzymywanie zdrowego związku, który obejmuje także zdrowe życie seksualne, pozwala ludziom pozostać szczęśliwymi i zaangażowanymi w pracę, co zapewnia korzyści zarówno im samym, jak i całej firmie. Studium pokazało także, że przynoszenie do domu stresu związanego z pracą wpływa negatywnie na życie seksualne. Zespół, którego artykuł ukazał się w Journal of Management, podkreśla, że to bardzo istotne spostrzeżenie w czasach, gdy smartfony są bardzo rozpowszechnione, a pracodawcy często oczekują odpowiadania na maile po godzinach pracy. Generalnie wyniki pokazują, że gdy praca ingeruje tak mocno w sferę osobistą człowieka, że poświęca on swoje życie erotyczne, zaangażowanie w pracę może się zmniejszyć. Stosunek seksualny powoduje uwalnianie dopaminy, neuroprzekaźnika związanego z ośrodkami nagrody, a także oksytocyny, neuropeptydu odpowiedzialnego za rozwój i podtrzymanie przywiązania. Dzięki temu życie erotyczne jest naturalnym "poprawiaczem" nastroju, którego skutki i korzyści rozciągają się także na następny dzień. By zrozumieć wpływ seksu na pracę, Amerykanie śledzili przez 2 tygodnie poczynania 159 zamężnych/żonatych osób. Każdego dnia ochotników proszono o wypełnienie 2 krótkich kwestionariuszy. Ustalono, że pracownicy, którzy uprawiali seks, byli nazajutrz w lepszym nastroju, a podniesiony nastrój o poranku prowadził do bardziej trwałego zaangażowania w pracę i czerpania z niej satysfakcji. Efekt, który wydaje się utrzymywać 24 godziny, jest równie silny u mężczyzn i kobiet. Co więcej, był on widoczny nawet wtedy, gdy naukowcy wzięli poprawkę na 2 ważne prognostyki nastroju: zadowolenie z małżeństwa i jakość snu. To przypomnienie, że seks zapewnia społeczne, emocjonalne i fizjologiczne korzyści i że warto z niego uczynić kwestię priorytetową. Po prostu przeznaczmy na niego czas. Dwadzieścia lat temu dziwne mogło się wydawać monitorowanie snu czy liczenie wykonywanych dziennie kroków. Dziś ludzie robią to, chcąc prowadzić zdrowsze i bardziej produktywne życie. Może przyszedł czas, by na podobnej zasadzie przeanalizować i przewartościować kwestię seksu [...]. Bardziej świadomy wysiłek, by podtrzymać zdrowe życie seksualne, [...] da się [z powodzeniem] uznać za sposób oddziaływania na rozwój kariery. « powrót do artykułu
  12. Mimo oczywistych różnic w zakresie zdolności komunikacyjnych i społecznych, autycy i synestetycy prezentują podobną podwyższoną wrażliwość zmysłową. Dwa wcześniejsze badania wykazały zwiększoną częstość synestezji wśród autyków, co zasugerowało, że choć autyzm i synestezja nie zawsze pojawiają się łącznie, współwystępują częściej, niż wynikałoby to z przypadku. Naukowcy z Sussex i Uniwersytetu w Cambridge jako pierwsi zaprezentowali związek symptomatyczny - stwierdzili, że w obu grupach występuje zwiększona wrażliwość sensoryczna, np. awersja do pewnych dźwięków i światła. U synestetyków nie pojawiały się jednak problemy komunikacyjne. W odróżnieniu od autyzmu, synestezja jest tradycyjnie postrzegana bardziej jako dar niż niepełnosprawność. Nasze badanie sugeruje, że oba fenomeny mogą mieć ze sobą więcej wspólnego, niż wcześniej sądziliśmy i wiele cech sensorycznych autyków występuje także u osób doświadczających synestezji. Choć potrzeba dalszych badań, postrzeganie autyzmu w kontekście zdolności synestetycznych może pomóc w ujawnieniu sekretów niektórych jego pozytywnych przejawów, np. zespołu sawanta - opowiada prof. Jamie Ward, jeden z autorów publikacji w piśmie Scientific Reports. Okazuje się bowiem, że synestezja występuje szczególnie często właśnie u autyków z sawantyzmem, czyli z nad wyraz rozwiniętymi zdolnościami np. arytmetycznymi czy pamięciowymi. Choć niektóre teorie postulują związek przyczynowy między zwiększoną wrażliwością sensoryczną i upośledzonym funkcjonowaniem poznawczym osób z autyzmem, nasze badanie pokazuje, że ze zmysłowego punktu widzenia warto rozważać synestezję w ramach tego samego spektrum, co autyzm. Mamy nadzieję, że w przyszłości będziemy kontynuować badanie związków między percepcyjnymi, poznawczymi i społecznymi objawami oraz zdolnościami autyków i synestetyków. « powrót do artykułu
  13. Regularny wymagający trening interwałowy wydaje się świetnym remedium na starzenie się. Odradza on bowiem zdolność komórek do wytwarzania energii. Trening interwałowy polega na intensywnym wysiłku fizycznym przeplatanym z mniej intensywnymi ćwiczeniami. Sreekumaran Nair i jego koledzy z Mayo Clinic przeprowadzili badania ochotnikach, których podzielono na dwie grupy wiekowe: 18-30 lat oraz 65-80 lat. Badani przez trzy miesiące brali udział albo w treningach interwałowych, albo w treningach mających na celu utrzymanie prawidłowej masy ciała albo w treningach będących kombinacją dwóch poprzednich. Przed eksperymentem i po jego zakończeniu wykonano biopsje mięśni badanych, co pozwoliło na określenie wpływu treningów na komórki mięśniowe. Badania wykazały, że trening interwałowy spowodował, że u osób ze starszej grupy wiekowej wydajność mitochondriów zwiększyła się o 69%, a u tych z młodszej grupy wiekowej wzrosła o 49%. Z wiekiem aktywność mitochondriów spada, co prowadzi do poczucia zmęczenia, spadku masy mięśniowej oraz zdolności mięśni do spalania cukru. To z kolei zwiększa ryzyko wystąpienia cukrzycy. Jednak, jak wykazał powyższy eksperyment, spadek ten można powstrzymać, a nawet poprawić pracę mitochondriów. Po trzech miesiącach treningu interwałowego wszystko dążyło do stanu typowego dla młodszych osób - mówi Nair. Trening polepszył nie tylko pracę mitochondriów, ale również płuc, serca i układu krwionośnego. Ilość zużywanego tlenu wzrosła o 28% w grupie młodszej i o 17% w grupie starszej. Podobnego zjawiska nie zaobserwowano w grupie utrzymującej wagę, a w grupie o treningu mieszanym zauważono 21-procentowy wzrost wchłaniania tlenu w grupie starszej. « powrót do artykułu
  14. Matematycy z Uniwersytetu Kolorado przeprowadzili wyliczenia, co mogliby zrobić czołowi światowi maratończycy, by pokonać magiczną barierę 2 godzin. Obecny rekord Kenijczyka Dennisa Kimetty z Maratonu Berlińskiego w 2014 r. można by ponoć poprawić nawet o ok. 4,5 minuty. Punktem wyjścia były dla autorów studium możliwości fizjologiczne/wyposażenie Kimetty. Później rozważano zmiany biomechaniczne, które mogłyby zmniejszyć zużycie energii i poprawić ekonomię biegu. Ludzie od dawna myślą o przebiegnięciu maratonu w mniej niż 2 godziny. Nasze wyliczenia pokazują, że mogłoby się to wydarzyć już teraz, ale wymagałoby to konkretnych działań i sporej organizacji - podkreśla dr Wouter Hoogkamer. Autorzy publikacji z pisma Sports Medicine ujawniają, że buty powinny być o ok. 100 g lżejsze niż buty Kimetty, które ważyły 230 g. Warto przypomnieć, że wcześniejsze badanie Hoogkamera i prof. Rogera Krama pokazały, że bieg w 130-gramowych butach może "uciąć" 57 s z maratońskiego wyniku. Amerykanie doradzają również, by pierwsze 13 mil (ok. 21 km) przebiec za nadającym tempo czołem maratonu, czyli tzw. zającami. W 1971 r. pewien brytyjski naukowiec wykazał, że jeśli drugi biegacz trzyma się metr za pierwszym w tunelu aerodynamicznym, opór powietrza można zmniejszyć aż o 93%. Hoogkamer i inni podkreślają, że nawet spadek rzędu 36% poprawiłby ekonomię biegu o 2,7%. Oszczędność ta powinna zaś ułatwić osiągnięcie wyniku 1:59:59 sportowcowi, który solo byłby w stanie uzyskać czas 2:03:00. W drugiej połowie maratonu 4 najlepsi biegacze powinni się ustawić gęsiego, zmieniając się od czasu do czasu, by w ten sposób walczyć z oporem powietrza (podobnie jak draftujący kolarze szosowi). Dzięki temu można by zmniejszyć koszt metaboliczny o ok. 5,9%, a to przekładałoby się na uszczknięcie circa 3 min od obecnego rekordu. Matematycy podkreślają, że czynnikiem sprzyjającym biegaczom byłby też wiatr w plecy o prędkości ok. 21 km/h w drugiej części biegu. Nie jesteśmy pierwszymi naukowcami, którzy podsuwają pomysły przyspieszające biegaczy. Jako pierwsi wyliczyliśmy jednak konkretne zyski i zaprezentowaliśmy je w jednym artykule. Kram dodaje, że problemem dla bijących razem rekord mogą być nagrody pieniężne dla zwycięzców. Można by go jednak rozwiązać, gdyby zawodnicy przekraczający linię mety jako pierwsi porozumieli się w kwestii równego podziału kwoty. « powrót do artykułu
  15. Troje naukowców z Singapuru, USA i Hongkongu przeprowadziło badania dotyczące liczby wypadków, w których uczestniczyły żółte i niebieskie taksówki jeżdżące w Singapurze. Okazało się, że żółte taksówki rzadziej ulegają wypadkom. Największe singapurskie przedsiębiorstwo taksówkowe posiada samochody, które są pomalowane albo na żółto albo na niebiesko. To świadectwo przeszłości firmy, która powstała z połączenia dwóch innych, a władze nowego przedsiębiorstwa zdecydowały o utrzymaniu dotychczasowych kolorów pojazdów. Samochody wspomnianej firmy stanowią 60% taksówek w Singapurze, a kierowcy jeżdżą pojazdami o różnych kolorach. Dzięki temu badacze mieli okazję sprawdzić, czy kolor samochodu wpływa na liczbę wypadków. Uczeni poprosili firmę o przekazanie danych dotyczących działalności przedsiębiorstwa z ostatnich 3 lat. Szczegółowa analiza wykazała, że żółte taksówki ulegają 9% wypadków mniej niż taksówki niebieskie. Badacze przypominają, że pierwszym przedsiębiorstwem używającym żółtych taksówek było chicagowskie Yellow Cab. W 1907 roku jego właściciele zwrócili się do Uniwersytetu Chicagowskiego z prośbą o zbadanie, jaki kolor powinny mieć samochody, by pasażerowie najłatwiej mogli wyłowić je spośród innych – przeważnie czarnych – pojazdów poruszających się po ulicach miasta. Zasugerowano wówczas kolor żółty. Teraz uczeni mówią, że to właśnie kolor może przyczyniać się do mniejszej liczby wypadków. Żółte taksówki są lepiej widoczne – szczególnie w nocy – a inni kierowcy poruszają się ostrożniej w ich pobliżu. Naukowcy obliczyli też, że gdyby singapurska firma przemalowała wszystkie swoje taksówki na żółto, to w ciągu roku liczba wypadków z udziałem pojazdów przedsiębiorstwa spadłaby o 917, co oznacza oszczędności w wysokości około 1,4 miliona dolarów. « powrót do artykułu
  16. Picie koncentratu z borówek amerykańskich poprawia działanie mózgu u starszych ludzi. W studium naukowców z Uniwersytetów w Exeter i Zachodniej Anglii wzięli udział zdrowi ludzie w wieku 65-77 lat, którzy codziennie pili koncentrat z borówek amerykańskich. Okazało się, że polepszyło się u nich ogólne funkcjonowanie poznawcze, a także dopływ krwi do mózgu i jego aktywacja podczas testów poznawczych. Poza tym dowody sugerowały poprawę pamięci roboczej. Nasze funkcje poznawcze pogarszają się w miarę starzenia, ale wcześniejsze badania wykazały, że są one lepiej zachowane u zdrowych seniorów, których dieta jest bogata w pokarmy pochodzenia roślinnego. W ramach najnowszego studium wykazaliśmy, że wystarczy 12 tyg. spożywania 30 ml skoncentrowanego soku borówkowego, by poprawił się przepływ krwi przez mózg, aktywacja mózgu i pewne aspekty pamięci roboczej - opowiada dr Joanna Bowtell. Podczas eksperymentu 26 osób podzielono na 2 grupy: 12 raz dziennie podawano skoncentrowany sok borówkowy BlueberryActive, który stanowił odpowiednik 230 g owoców, a reszcie placebo. Przed i po interwencji ochotnicy przeszli serię testów poznawczych, w czasie których za pomocą rezonansu magnetycznego monitorowano działanie ich mózgu. Zmierzono także spoczynkowy mózgowy przepływ krwi. Stwierdzono, że w porównaniu do grupy placebo, u pijących koncentrat znacząco wzrosła aktywność mózgu w rejonach mających wpływ na rozwiązanie testów. Ze studium wykluczono ludzi, którzy spożywali ponad 5 porcji warzyw i owoców dziennie. Wszystkim badanym powiedziano, by nadal przestrzegali swojej zwykłej diety. Autorzy publikacji z pisma Applied Physiology, Nutrition and Metabolism przypominają, że wcześniejsze badania pokazały, że ryzyko demencji można obniżyć przez większe spożycie owoców i warzyw. Za zaobserwowany efekt odpowiadają prawdopodobnie flawonoidy z roślin. « powrót do artykułu
  17. Wikileaks ujawniło pierwszą część posiadanych przez siebie tajnych dokumentów CIA. W ramach serii „Vault 7” demaskatorski portal ujawnia największy wyciek dokumentów z Centralnej Agencji Wywiadowczej. Pierwsza część zawiera 8761 dokumentów i plików pochodzących z izolowanej sieci znajdującej się w Center for Cyber Intelligence w Langley. Jak twierdzą redaktorzy Wikileaks niedawno CIA straciła kontrolę nad większością swojego arsenału hakerskiego zawierającego szkodliwy kod, wirusy, trojany, exploity dziur 0-day, systemy zdalnej kontroli oraz związaną z tym wszystkim dokumentację. Narzędzia te, na które składają się setki milionów linii kodu, dają ich posiadaczom takie same możliwości prowadzenia cyberataków, jak ma obecnie CIA. Jak dowiadujemy się z Wikileaks ten cenny zestaw danych krąży podobno wśród nieposiadających odpowiedniej autoryzacji pracowników amerykańskich tajnych służb i firm z nimi współpracujących. To właśnie jedna z takich osób jest źródłem wycieku do Wikileaks. Z ujawnionych danych dowiadujemy się, że grupa hakerska CIA pracująca pod skrzydłami Center for Cyber Intelligence ma ponad 5000 zarejestrowanych użytkowników i do końca ubiegłego roku stworzyła ponad tysiąc systemów do prowadzenia ataków, trojnów, wirusów i innego złośliwego kodu. Źródło Wikileaks twierdzi, że możliwości CIA i jej wydatki na cyberwojnę wymagają pilnej publicznej debaty, w tym zadania pytania, czy narzędzia, jakimi dysponuje agencja, nie wykraczają poza jej uprawnienia oraz czy obywatele mają wystarczający nadzór nad CIA. Zwraca też uwagę na olbrzymie niebezpieczeństwo związane z możliwością wycieku hakerskich narzędzi CIA poza amerykańską społeczność służb specjalnych. Narzędzia hakerskie CIA są tworzone przez EDG (Engineering Development Group). To zespół programistów zatrudnionych w CCI (Center for Cyber Intelligence) wchodzącego w skład DDI (Directorate for Digital Innovation), jednego z pięciu głównych dyrektoriatów CIA. Jednym z bardziej interesujących narzędzi stworzonych przez EDG jest oprogramowanie szpiegujące za pośrednictwem telewizorów z serii Smart TV Samsunga. Stworzono je we współpracy z brytyjskim MI5. Po zarażeniu telewizora kod o nazwie WeepingAngel wprowadza urządzenie w fałszywy tryb uśpienia. Właściciel telewizora sądzi, że urządzenie jest wyłączone, tymczasem jest ono aktywne, nagrywa toczone w pokoju rozmowy i wysyła je na serwer CIA. Wiadomo też, że już pod koniec 2014 roku CIA starała się infekować systemy informatyczne samochodów i ciężarówek. Cel takiej operacji nie jest jasny, ale możemy sobie wyobrazić, że dzięki przejęciu kontroli nad pojazdem można np. dokonać zabójstwa wyglądającego jak wypadek. Z kolei wchodząca w skład EDG Mobile Devices Branch stowrzyła liczne narzędzia pozwalające na zdalne przejęcie kontroli nad różnymi modelami smartfonów. Zarażone urządzenia wysyłały do CIA informacje o lokalizacji użytkownika, przekazywały treść SMS-ów i rozmów głosowych, a Agencja miała możliwość aktywowania ich kamer i mikrofonów. Wiadomo, że CIA ma możliwość atakowania i kontrolowania wielu urządzeń Apple'a wykorzystujących system iOS. Posiada też narzędzia do atakowania dziur typu 0-day. Narzędzia takie rozwija samodzielnie, otrzymuje je od NSA, FBI, brytyjskiego GCHQ oraz zleca ich wykonanie firmom zewnętrznym, jak np. przedsiębiorstwu Baitshop. Szczególne znaczenie, jakie CIA przywiązuje do urządzeń Apple'a może wiązać się z faktem, że są one używane przez wielu polityków, biznesmenów, aktywistów czy dyplomatów na całym świecie. Urządzenia z iOS-em to nie jedyny cel hakerskich ataków CIA. Wikileaks ujawnia, że w samym tylko 2016 roku CIA dysponowało narzędziami pozwalającymi na przeprowadzenie ataków na 24 dziury 0-day występujące w Androidzie. Agencja posiada również narzędzia pozwalające na szpiegowanie takich programów jak WhatsApp, Signal, Telegram, Wiebo, Confide czy Cloackman. Nie musi przy tym martwić się szyfrowaniem. Dzięki kontrolowaniu zaatakowanych smartfonów kod CIA zbiera dane tekstowe i głosowe zanim jeszcze zostaną one zaszyfrowane przez urządzenia. Dużą uwagę przywiązuje CIA do rozwoju narzędzie służących do atakowania systemu Windows. Jest wśród nich np. „Hammer Drill” infekujący oprogramowanie rozprowadzane na nośnikach optycznych, są wyspecjalizowane narzędzia do infekowania pamięci przenośnych takich jak USB, systemy pozwalające na ukrywanie danych w obrazach czy na niedostępnych dla użytkownika obszarach HDD. Przypomina to możliwości, jakie ma Equation Group, która – zdaniem Kaspersky Lab – prowadzi najbardziej zaawansowane operacje hakerskie na świecie. Wiemy też, że CIA opracowała wieloplatformowe narzędzia hakerskie, pozwalające na przeprowadzenie ataku i przejęcie kontroli nad Windows, Mac OS X, Linuksem, Solarisem i innymi systemami. Ważną rolę w działalności CIA odgrywają nieujawnione producentom oprogramowania dziury typu 0-day. Eksperci Agencji znajdują i wykorzystują luki w oprogramowaniu m.in. Microsoftu, Apple'a czy Google'a. Warto tutaj zauważyć, że to ryzykowna strategia, gdyż jeśli dziury takie jest w stanie wykryć CIA, to prawdopodobnie mogą to zrobić agencje wywiadowcze innych państw. Nieinformowanie producentów oprogramowania o dziurach naraża wielu użytkowników na niebezpieczeństwo. Widzimy tutaj również, że CIA łamie zasady określone w Vulnerabilties Equities Process. Po długotrwałym lobbingu ze strony firm technologicznych rząd USA zgodził się, by producenci oprogramowania byli informowani o lukach wykrytych przez rządowe agendy. Wygląda na to, że CIA nie wywiązuje się z tego obowiązku. Z dostarczonych Wikileaks dokumentów wynika również, że operacje hakerskie są prowadzone przez CIA nie tylko z Langley. CIA wykorzystuje też amerykański konsulat we Frankfurcie, który jest bazą dla tajnych cyberoperacji na terenie Europy, Bliskiego Wschodu i Afryki. Wiele z opracowanych technik powstało z myślą o atakowaniu izolowanych sieci o wysokim stopniu zabezpieczeń. Taki atak wymaga jednak fizycznego dostępu do sieci docelowej. Atak przeprowadzany jest wówczas np. za pomocą umieszczonych na nośniku USB odpowiednich narzędzi, takiech jak Fine Dining, system zawierający 24 aplikacje. Osoba, która dokonuje ataku może przeprowadzić go nawet w obecności świadków. Na USB znajdują się bowiem niewinnie wyglądające narzędzia do odtwarzania wideo (np. VLC), pokazu slajdów (Prezi), gry (Breakout2, 2048) czy też skanery antywirusowe (Kaspersky, McAfee, Sopthos). Jednak w czasie, gdy widzimy pozornie nieszkodliwy program, w tle dochodzi do infekcji docelowego komputera. CIA opracowała też standardy dotyczące pisania szkodliwego kodu. Ma być on stworzony tak, by jego analiza nie wskazywała na miejsce powstania. Podobne zasady istnieją też w odniesieniu do sposobu ukrywania komunikacji szkodliwego kodu z serwerem czy opisywania celów. Dzięki Wikileaks wiemy również, że programiści CIA mają narzędzia, które radzą sobie z większością znanych programów antywirusowych. Potrafią się przed nimi ukryć, oszukać je czy wyłączyć. « powrót do artykułu
  18. Dr inż. Joanna Marnik z Katedry Informatyki i Automatyki Wydziału Elektrotechniki i Informatyki Politechniki Rzeszowskiej stworzyła zastępującą mysz komputerową aplikację BlinkMouse. BlinkMouse pozwala na pełną obsługę komputera osobom całkowicie sparaliżowanym, które poruszają jedynie powiekami. W połączeniu z klawiaturami ekranowymi aplikacja umożliwia komunikowanie się z otoczeniem. By z niej korzystać, wystarczy komputer z kamerą internetową ustawioną naprzeciw twarzy. Rozwiązanie pozwala na wybranie przez mrugnięcie wszystkich istotnych funkcji fizycznej myszki komputerowej uaktywnianych sekwencyjnie (rozpoczęcie przesuwania wskaźnika myszy w czterech podstawowych kierunkach, zatrzymanie wskaźnika myszy, kliknięcie, podwójne kliknięcie) – opowiada dr inż. Joanna Marnik, twórczyni BlinkMouse, a zarazem prezes Stowarzyszenia BRUNO. Aktualnie dostępna akcja jest prezentowana w postaci graficznej (ikonka). Istnieje możliwość dostosowania ustawień aplikacji do preferencji i możliwości użytkownika. Za swoją aplikację Marnik otrzymała srebrny medal Międzynarodowych Targów Innowacji Gospodarczych i Naukowych INTARG (Kraków 2015). Udział w nich był możliwy dzięki projektowi "Inkubator innowacyjności" PRz, z którego sfinansowano przygotowanie aplikacji do sprzedaży. Projekt ten służy wsparciu procesu zarządzania wynikami badań naukowych i prac rozwojowych, a w szczególności ich komercjalizacji. 15 lutego 2017 r. aplikacja została objęta umową licencyjną zawartą pomiędzy Politechniką Rzeszowską (licencjodawca) a Stowarzyszeniem na rzecz Dzieci z Dysfunkcjami Rozwojowymi BRUNO. « powrót do artykułu
  19. Naukowcy z Australii zakwestionowali zdolność drzew do pochłaniania dodatkowej ilości dwutlenku węgla. Odkrycie ma niezwykle istotne znaczenie dla wielu modeli klimatycznych, zgodnie z którymi dodatkowe CO2 w atmosferze napędza wzrost drzew, a te z kolei wchłaniają więcej węgla. Badacze z Western Sydney University stwierdzili, że australijskie lasy eukaliptusowe prawdopodobnie potrzebowałyby więcej składników odżywczych w glebie, by móc skorzystać ze zwiększonej ilości CO2 w atmosferze. Świat zwraca dużo uwagi na modelowanie zmian klimatycznych, w tym na przewidywania dotyczące ilości węgla, który może zostać wchłonięty przez drzewa. Modele te bazują w dużej mierze na danych z umiarkowanych szerokości geograficznych, gdzie drzewa mają do dyspozycji wystarczającą ilość składników odżywczych, a to oznacza, że modele dokonują nieprawidłowej oceny tam, gdzie zbyt mało składników odżywczych wpływa na produktywność lasu. Jako, że wiele tropikalnych i subtropikalnych obszarów leśnych występuje na glebach ubogich w składniki odżywcze, wyniki naszych badań wskazują, że modele klimatyczne zawyżają zdolność lasów do pochłaniania węgla - mówi profesor David Ellsworth. Podczas przeprowadzonych eksperymentów duże obszary naturalnego lasu eukaliptusowego zostały wystawione na działanie CO2 o stężeniu sięgającym 550 ppm. Uzyskane wyniki znacząco różniły się od podobnych eksperymentów prowadzonych w Europie i USA. O ile tam przy podwyższonym poziomie dwutlenku węgla stwierdzono około 23% wzrost tempa przyrostu masy drzew, to w australijskim eksperymencie zauważono co prawda 19% wzrost fotosyntezy, jednak trzyletnie badania nie wykazały zwiększenia tempa przyrostu drzewa. Jednak gdy do gleby dodano fosfor, tempo przyrostu masy eukaliptusów zwiększyło sie o 35%. Sugeruje to, że najprawdopodobniej drzewa w tropikach i okolicach subtropikalnych potrzebują bardziej bogatych gleb, by korzystać z dodatkowego dwutlenku węgla w powietrzu. Gleby, na których rosną australijskie dziewicze lasy są bardzo stare. Przez miliony lat podlegały wietrzeniu, działalności słońca i wiatru, zawierają więc mało substancji odżywczych, a większość z nich jest uwięziona w drzewach. To zaś oznacza, że naszym glebom brakuje po prostu substancji, dzięki którym drzewa mogłyby skorzystać na dodatkowym CO2 w powietrzu - dodaje Ellsworth. « powrót do artykułu
  20. Shamoon powrócił. Szkodliwy kod, który pojawił się nagle w 2012 roku i wyczyścił dyski twarde na 35 000 komputerów należących do Saudi Aramco – największego na świecie eksportera ropy naftowej – został udoskonalony i znowu atakuje. Przy okazji analizy ataków Shamoona odkryto nowy, podobny doń kod, który za cel obrał sobie przedsiębiorstwo naftowe z Europy. O pojawieniu się wirusa poinformowali przedstawiciele Kaspersky Lab, którzy badają dwa ataki z listopada ubiegłego roku i jeden ze stycznia. StoneDrill – taką nazwę zyskał nowo odkryty złośliwy kod – jest nieco podobny do Shamoona, ale pojawiły się nowe narzędzia i techniki. Kod jest teraz mniej zależy od zewnętrznego serwara kontrolującego, zyskał funkcję ransomware oraz nowe 32- i 64-bitowe moduły. Wirus potrafi się też lepiej ukrywać m.in. poprzez manipulowanie sterownikami dysku. Badacze znaleźli w nim też funkcję tylnych drzwi umożliwiającą prowadzenie operacji szpiegowskiej. W tym celu używa kodu, który wcześniej został wykorzystany przez cyberprzestępców podczas kampanii szpiegowskiej znanej jako „NewsBeef”. Odkrycie StoneDrill w Europie to znak, że stojąca za nim grupa rozszerza swoją działalność poza Bliski Wschód. Celem nowego ataku wydaje się wielka korporacja działająca w sektorze petrochemicznym, która nie ma oczywistych związków czy interesów w Arabii Saudyjskiej - czytamy w raporcie Kaspersky Lab. « powrót do artykułu
  21. Podstawy anatomiczne elektrorecepcji rekinów czy płaszczek są znane od dziesięcioleci, jednak dopiero teraz naukowcy rozszyfrowali dokładny mechanizm tego zjawiska, czyli to, w jaki sposób receptory wychwytują słabe sygnały. Biolodzy z Uniwersytetu Kalifornijskiego w San Francisco badali raje kanadyjskie (Leucoraja erinacea). W serii eksperymentów analizowali cały mechanizm elektrorecepcji: od genów, przez fizjologię komórki, po zachowanie. Płaszczki właściwe i rekiny mają jedne z najwrażliwszych elektroreceptorów w świecie zwierząt. Zrozumienie ich działania jest jak opisanie światłoczułych białek z oka - daje nam wgląd w całkiem nowy zmysłowy świat - podkreśla dr David Julius. W ramach studium Kalifornijczycy najpierw wyizolowali komórki elektroreceptorowe. Później udało im się uzyskać zapis 2 prądów jonowych: 1) bramkowanego napięciem prądu wapniowego, który w odpowiedzi na zaburzenia elektryczne doprowadza do wewnątrzkomórkowego wzrostu stężenia Ca2+ i 2) aktywowanego jonami Ca2+ prądu potasowego, który zmienia właściwości elektryczne komórki. Wpływają one na siebie, tworząc w błonie komórkowej oscylacje elektryczne zapewniające olbrzymią wrażliwość na zewnętrzne warunki. Oscylacje działają jak wzmacniacz, który pozwala płaszczce wyczuć zakłócenia wytwarzane przez pole elektryczne organizmu ofiary. Eksperymenty z ekspresją genową potwierdziły, że w opisywanym procesie biorą udział 2 podtypy kanałów wapniowych i potasowych: CaV1.3 i BK. Mają one unikatowe właściwości, odpowiedzialne za elektrorecepcję. Gdy naukowcy wprowadzali celowane mutacje do podobnych genów kanałów jonowych szczurów, kanały miały analogiczne właściwości elektryczne jak kanały rai. Podczas eksperymentów behawioralnych autorzy publikacji z pisma Nature umieszczali płaszczki w akwariach z ukrytym pod warstwą piachu źródłem prądu. Okazało się, że o ile zwykłe płaszczki spędzały sporo czasu, ustawiając się w jego kierunku i eksplorując odpowiedni obszar, o tyle ryby z kanałami unieczynnionymi farmakologicznie wydawały się nieświadome obecności symulowanego posiłku. Ustalenia dają wgląd nie tylko w technikę odnajdowania posiłku przez rekiny i raje, ale i w naszą własną biologię. Naukowcy podkreślają, że zmysł elektryczny tych ryb jest ewolucyjnie powiązany z układem słuchowym ssaków. Widać np. podobieństwa między działaniem eletroreceptorów ryb i komórek rzęsatych ucha wewnętrznego. Wersje tych samych kanałów jonowych z nieco innymi właściwościami elektrycznymi spełniają równie ważną rolę w naszych uszach. Ustalenie, jak drobne różnice w kanałach wpływają na funkcje elektryczne, może mieć ogromne znaczenie dla zrozumienia układu słuchowego - wyjaśnia dr Nicholas Bellono. Elektrorecepcja ewoluowała wielokrotnie na drzewie filogenetycznym, interesująco byłoby więc zobaczyć, jak inne gatunki rozwiązały ten sam problem - podsumowuje dr Duncan Leitch. « powrót do artykułu
  22. Sztuczna inteligencja kojarzy się z wieloma zastosowaniami, ale pisanie tekstów z pewnością nie jest pierwszym skojarzeniem z nią związanym. Najnowszy Word w ostatniej edycji Office'a 365 wspomagany jest opartym na sztucznej inteligencji narzędziem Editor, które ma pomóc piszącemu. John Brandon z VentureBeat to zawodowy dziennikarz. Pisze od 2001 roku i ma na swoim koncie około 10 000 opublikowanych tekstów. Mimo to, jak sam przyznaje, ciągle się uczy, wie, że jego teksty są dalekie od doskonałości. Teraz ze zdumieniem odkrył, że pomóc może mu w tym komputer. Brandon skorzystał z najnowszej edycji Office 365 i pomocy funkcji Editor. Ta przeskanowała napisany przezeń tekst i zauważyła np., że w konkretnym zdaniu wyraz „really” jest zbyteczny, nie wnosi niczego do treści. Editor potrafi jednak znacznie więcej. Informuje użytkownika o użyciu wyrazu potocznego czy o niepotrzebnie pojawiającej się stronie biernej. Wyłapuje zbyt często używane wyrazy, dzięki czemu Brandon zauważył, że jego teksty gorzej się czyta przez nadmierne użycie „basically” i „maybye”. Z obserwacji poczynionych przez dziennikarza wynika, że Editor naprawdę – przynajmniej w pewnym stopniu – rozumie analizowany tekst. Gdy na przykład zwrócił mu uwagę na wyraz „really”, to nie oznaczył go wszędzie, a jedynie tam, gdzie rzeczywiście był niepotrzebny i niczego nie wnosił do treści. Tam, gdzie użycie było uzasadnione, Editor nie miał uwag. Editor pomógł też Brandonowi pozbyć się nawyku zbyt częstego używania strony biernej. Dziennikarz przyznaje, że wie o tym, iż preferowana jest strona czynna, jednak niejednokrotnie używał biernej. Algorytmy AI z uporem mu tę bierną stronę wytykały, aż w końcu się od niej odzwyczaił. Editor wytyka też nadmierną potoczność tekstów. Gdy w długim dokumencie Brandon opisał krzesło jako „cushy” narzędzie zaproponowało, by zmienił je na „comfortable”. Brandon nakazał więc przeskanowanie tekstu pod kątem użycia języka potocznego zamiast formalnego i Editor wskazał mu około 20 miejsc, gdzie wkradła się zbytnia potoczność. Dziennikarz zastosował się do części sugestii, zgodził się z Editorem, że niektórych wyrazów używa zbyt często, a w innych przypadkach uznał, że ma jednak zostać tak, jak napisał. Zauważył też, że microsoftowa AI dba o poprawność polityczną i oznaczyła wyraz „spokesman” jako dyskryminujące. Podsumowując swoją przygodę z najnowszym Office 365 i Wordem Brandon napisał: maszynowe uczenie się jest na bardzo wysokim poziomie. Pomaga ono profesjonalnemu dziennikarzowi, takiemu jak ja, dobrać odpowiednie słowa i poprawić styl. Pomogło mi wykorzenić stronę bierną. [...] Co jest w tym wszystkim największą niespodzianką? Że – przynajmniej na razie – wróciłem do Worda. Porzuciłem Google Docs gdyż nie mogą się one równać z nowymi mechanizmami w Wordzie. Gdy aplikacja używa sztucznej inteligencji, która jest tak pomocna i potężna, że wśród wielu innych programów decydujesz się na używanie tej właśnie aplikacji, to wiedz, że dzieje się coś rewolucyjnego. « powrót do artykułu
  23. Wiek, w którym dziewczynka zaczyna miesiączkować, wpływa na późniejsze ryzyko wystąpienia cukrzycy ciężarnych. Naukowcy ze Szkoły Zdrowia Publicznego Uniwersytetu Queensland analizowali dane ponad 4700 kobiet z Australian Longitudinal Study on Women's Health. Okazało się, że te, u których menarche wystąpiła w wieku 11 lat bądź wcześniej, o 50% częściej zapadały na cukrzycę ciężarnych niż panie, u których pierwsza miesiączka pojawiła się w wieku 13 lat. Odkrycie to może oznaczać, że by zidentyfikować osoby z grupy podwyższonego ryzyka cukrzycy ciężarnych, lekarze powinni zacząć pytać kobiety, kiedy zaczęły miesiączkować - podkreśla Danielle Schoenaker i dodaje, że związek między wczesnym początkiem miesiączkowania i cukrzycą utrzymywał się nawet po wzięciu poprawki na różne czynniki, w tym wskaźnik masy ciała (BMI). Duża część kobiet, u których w ciąży rozwija się cukrzyca, ma nadwagę lub otyłość. Zachęcanie pań z wczesnym pokwitaniem do kontrolowania wagi przed ciążą może pomóc obniżyć ryzyko cukrzycy. Wyniki badań ukazały się w American Journal of Epidemiology. « powrót do artykułu
  24. Słynny paradoks Einsteina-Podolskiego-Rosena powraca po ponad 80 latach w nowej odsłonie. Naukowcy z Wydziału Fizyki Uniwersytetu Warszawskiego wytworzyli wielowymiarowy stan splątany pomiędzy zbiorem atomów a pojedynczą cząstką światła – fotonem. Co więcej, wytworzone w laboratorium splątanie udało się przechować przez rekordowy czas kilku mikrosekund. Wyniki badań opublikowano w prestiżowym czasopiśmie fizycznym Optica. W swojej słynnej pracy w Physical Review z 1935 r. A. Einstein, B. Podolsky i N. Rosen rozważali rozpad cząstki na dwie części, np. produkty promieniotwórczego rozpadu jądra atomowego. W tym eksperymencie myślowym kierunki lotu produktów rozpadu, a właściwie ich pędy, okazywały się być zawsze dokładnie przeciwne. Z punktu widzenia fizyki klasycznej nie byłoby w tym nic dziwnego, lecz stosując zasady powstałej w latach 1920. teorii kwantowej, Einstein i współpracownicy szybko doszli do paradoksu. Paradoks ten opiera się o tzw. zasadę nieoznaczoności Heisenberga, która zabrania zmierzenia jednocześnie położenia i pędu cząstki z nieograniczoną dokładnością. W eksperymencie myślowym Einsteina możemy jednak zmierzyć pęd jednej cząstki, poznając tym samym dokładnie przeciwny pęd drugiej z cząstek. Kiedy zmierzymy położenie tej drugiej cząstki, poznamy jednocześnie, a zarazem bardzo precyzyjnie, jej położenie i pęd, łamiąc tym samym zasadę nieoznaczoności Heisenberga. Dziś wiemy jednak, że powyżej opisany eksperyment wcale nie jest, jak kiedyś sądzono, paradoksalny. Błędem Einsteina i współpracowników było stosowanie zasady nieoznaczoności do układu dwóch cząstek. Kiedy potraktować dwie cząstki jako całość, okazuje się, że zasada nieoznaczoności w swojej pierwotnej formie przestaje obowiązywać, w szczególności dla pary cząstek znajdujących się w stanie splątanym. W Laboratorium Pamięci Kwantowych (Wydział Fizyki UW) po raz pierwszy udało się wytworzyć takie właśnie splątanie pomiędzy obiektem makroskopowym – grupą ok. biliona gorących atomów rubidu umieszczonych w szklanym cylindrze o długości 10 cm i średnicy 2.5 cm, a elementarną cząstką światła – pojedynczym fotonem. W wyniku oddziaływania atomów z wiązką lasera dochodzi do rozproszenia pojedynczych fotonów, które rejestrujemy na czułej kamerze. Zarejestrowany foton dostarcza nam informacji o stanie biliona atomów w komórce. Atomy te możemy przechować, a następnie odtworzyć ich stan w dogodnym dla nas momencie – podkreśla jeden z autorów artykułu, doktorant Michał Dąbrowski. Wyniki eksperymentu potwierdzają, że atomy i pojedynczy foton są wspólnie w stanie splątanym. Rejestrując położenie i pęd fotonu na kamerze, zyskujemy tym samym informację o stanie atomów, bez wykonywania na nich jakichkolwiek pomiarów. W celu pomiaru stanu atomów, oświetlamy je ponownie światłem lasera. W wyniku tego procesu emitowany jest kolejny foton, którego właściwości możemy mierzyć w laboratorium. W naszym eksperymencie demonstrujemy pozorny paradoks w wersji, w jakiej został oryginalnie opisany w pracy Einsteina i współpracowników z 1935 roku. Dodajemy jednak etap, w którym foton przechowywany jest w atomowej pamięci kwantowej. Atomy przechowują foton pod postacią tzw. fali spinowej, czyli fali obejmującej wszystkie bilion atomów w komórce - taki stan jest niezwykle odporny na utratę pojedynczych atomów – mówi doktorant Michał Parniak, również biorący udział w badaniach. Eksperyment przeprowadzony przez grupę z Uniwersytetu Warszawskiego jest wyjątkowy pod jeszcze jednym względem. Stworzona dzięki grantom PRELUDIUM Narodowego Centrum Nauki oraz Diamentowy Grant MNiSW pamięć kwantowa pozwala przechowywać do 12 fotonów w postaci fal spinowych jednocześnie. Tak znaczna pojemność pamięci stwarza szansę na zastosowanie w dziedzinie kwantowego przetwarzania informacji. Wielowymiarowe splątanie, którym dysponujemy jest przechowywane w naszym układzie przez kilka mikrosekund. Jest to ponad tysiąc razy dłużej niż dotychczas raportowane w literaturze czasy, a tym samym wystarczająco długo, aby mieć możliwość dokonywania manipulacji na atomach podczas procesu przechowywania – tłumaczy dr hab. Wojciech Wasilewski, kierownik Laboratorium Pamięci Kwantowych. Przestrzenno-pędowy stopień splątania, zademonstrowany w prestiżowym czasopiśmie Optica, może być z powodzeniem połączony z czasowym lub polaryzacyjnym stopniem swobody, umożliwiając generację tzw. hipersplątania. Przeprowadzone badania mogą posłużyć do testowania podstaw mechaniki kwantowej – teorii, która już niejednokrotnie stawiała naukowcom kłopotliwe pytania, prowadzące niezmiennie do trwającego wciąż postępu technologicznego. « powrót do artykułu
  25. Lasery znamy od kilkudziesięciu lat, a urządzenia te stały się wszechobecne. Współczesne lasery świetnie sprawdzają się w większości zastosowań, ale wciąż nie satysfakcjonują fizyków kwantowych. Ci potrzebują niewielkiego, precyzyjnego i efektywnie działającego lasera mikrofalowego, który pracowałby w warunkach bardzo niskiej temperatury. Naukowcy z Uniwersytetu w Delft pracujący pod kierunkiem profesora Leo Kouwenhovena zaprezentowali właśnie mikrofalowy laser na chipie, który wykorzystuje tunelowanie Josephsona. Zbudowali go z łącza Josephsona precyzyjnie umieszczonego we wnęce rezonansowej na chipie. Dzisiejsze lasery są bardzo nieefektywne pod względem energetycznym, rozpraszają podczas pracy dużo ciepło, a to oznacza, że bardzo trudno jest je wykorzystać w środowiskach kriogenicznych, takich w jakich powinny pracować komputery kwantowe. W niskotemperaturowych nadprzewodnikach występuje wspomniane wcześniej tunelowanie Josephsona. Polega ono na tym, że jeśli nadprzewodnik przedzielimy niewielką barierą, to ładunki elektryczne będą się przez nią tunelowały na bardzo charakterystycznej częstotliwości, którą można manipulować za pomocą prądu elektrycznego. Złącze Josephsona jest więc świetnym konwerterem częstotliwości. Zespół Kouwenhovena połączył złącze Josephsona z wnęką rezonansową o wysokiej jakości. Gdy do złącza zostanie dostarczony prąd, zaczyna ono emitować fotony o częstotliwości mikrofalowej. Fotony te odbijają się od wnęki i wymuszają na złączu emisję kolejnych fotonów, zsynchronizowanych z już istniejącymi fotonami. Po schłodzeniu urządzenia do temperatury poniżej 1 Kelvina i podłączeniu niewielkiego prądu stałego naukowcy zaobserwowali, że ich urządzenie emituje koherentny strumień fotonów w częstotliwości mikrofalowej. Całość okazała się bardziej wydajna pod względem energetycznym i bardziej stabilna niż tradycyjne lasery. Do zasilenia urządzenia wystarczył mniej niż pikowat. Wydajne źródła wysokiej jakości koherentego światła są bardzo ważne dla prac nad komputerem kwantowym. Już teraz mikrofale są wykorzystywane do odczytu i przenoszenia informacji, korygowania błędów czy kontrolowania poszczególnych elementów komputerów kwantowych. Jednak obecnie wykorzystywane źródła mikrofal są drogie i mało wydajne. Dlatego też tak ważne jest osiągnięcie uczonych z Delft. « powrót do artykułu
×
×
  • Dodaj nową pozycję...