Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Brytyjczycy opracowali wieloplatformową grę mobilną Sea Hero Quest, która ma wspomóc rozumienie nawigacji przestrzennej. Jej zaburzenia to jeden z pierwszych objawów demencji, a naukowcom zależy na opracowaniu wczesnego testu diagnostycznego. Gra może znacznie przyspieszyć badania w tym obszarze. Dr Hugo Spiers z Uniwersyteckiego College'u Londyńskiego (UCL) współpracował z naukowcami z Uniwersytetu Wschodniej Anglii i Alzheimer's Research UK oraz developerami z firmy Glitchers. Przedsięwzięcie wspiera Deutsche Telekom. Zanonimizowane dane dot. nawigowania w środowiskach 3D na poszczególnych poziomach gry mają być przechowywane w centrum T-Systems. W badaniach nad demencją nigdy nie widzieliśmy czegokolwiek realizowanego na tak dużą skalę - podkreśla Hilary Evans, dyrektor wykonawcza z Alzheimer's Research UK. Największe jak dotąd badanie dotyczące nawigacji w przestrzeni objęło mniej niż 600 ochotników. Zaledwie 2 min pokonywania labiryntu z wysp i gór lodowych odpowiadają aż 5 godzinom konwencjonalnych badań. Jak można wyliczyć, jeśli 100 tys. osób poświęci na grę właśnie 2 min, naukowcy zyskają odpowiednik ponad 50 lat badań laboratoryjnych. Spiers wyjaśnia, że gra zapewnia użyteczne dane ok. 150 razy szybciej niż eksperymenty w laboratorium. Ciężko pracując, mój zespół może przetestować ok. 200 ludzi rocznie, [tymczasem] zeszłej nocy za pomocą Sea Hero Quest tyle samo osób przetestowałem w ciągu minuty. Gra dzieli się na 5 obszarów tematycznych. Gracz wcielający się w rolę żeglarza podąża śladami swojego ojca. Jego poczynania są widoczne dla naukowców w postaci "mapy termicznej". Grę na urządzenia z systemami operacyjnymi iOS i Android można ściągać za darmo z App Store i Google Play. Gracze mogą zdecydować, że ujawnią swoją płeć, wiek i lokalizację, mogą też wybrać anonimowość. Projekt daje niepowtarzalną szansę, by zbadać, jak poruszają się w przestrzeni tysiące ludzi z różnych krajów i kultur - dodaje Spiers. Naukowcy planują, że pierwsze wyniki zostaną ujawnione w listopadzie. « powrót do artykułu
  2. Inżynierowie IBM-a zbudowali kwantowy procesor, który został udostępniony klientom IBM Cloud za pośrednictwem kwantowej platformy komputerowej. Kwantowa platforma IBM Quantum Experience pozwala użytkownikom na uruchamianie różnych algorytmów na ibm-owskim procesorze kwantowym. Procesor ten składa się z pięciu nadprzewodzących kubitów i znajduje się w IBM T.J. Watson Research Center. Maszyna IBM-a nie jest uniwersalnym komputerem kwantowym, nie można na niej wykonać dowolnych operacji. IBM przewiduje jednak, że w przyszłej dekadzie powstanie kwantowy procesor składający się z 50-100 kubitów. Warto zaznaczyć, że obecnie żaden superkomputer znajdujący się na liście TOP 500 nie jest w stanie emulować procesora kwantowego z 50 kubitami, co pokazuje, jak wielką moc obliczeniową będą miały tego typu urządzenia. Inżynierowie IBM-a dokonali wielu znaczących kroków na drodze do opracowania uniwersalnego procesora kwantowego. Właśnie dzięki temu byli w stanie udostępnić IBM QUantum Experience. Specjaliści zbudowali m.in. specjalny interfejs, który pozwala łączyć się z kwantowym procesorem za pośrednictwem chmury obliczeniowej. Dla nich to dopiero początek budowania nowej społeczności skupionej wokół kwantowego procesora. IBM chce coraz bardziej angażować użytkowników w prace nad tym urządzeniem. Firma ma też zamiar dodawać kolejne kubity, oferować różne konfiguracje procesora tak, by użytkownicy mogli uruchamiać na nim nowe algorytmy i eksperymenty. To z kolei pozwoli na odkrycie nowych zastosowań dla technologii kwantowych. Obecnie do eksperymentalnych procesorów kwantowych mają dostęp jedynie naukowcy akademiccy oraz inżynierowie. Oni są skupieni na innych zastosowaniach dla technologii kwantowych niż przeciętni użytkownicy chmur obliczeniowych. Stąd pomysł na zaangażowanie w proces tworzenia kwantowego procesora ludzi, dla których dotychczas technologie takie były niedostępne. Jednym z najpoważniejszych wyzwań stojących przed twórcami kwantowych technologii obliczeniowych jest stworzenie wysokiej jakości kubitów, którymi można będzie zarządzać w kontrolowany sposób, tak, by można było za ich pomocą przeprowadzać złożone operacje. Całość musi być też łatwo skalowalna. Procesor IBM-a korzysta z kubitów stworzonych z nadprzewodzących metali umieszczonych na krzemie. Do jego produkcji wykorzytano standardowe technologie używane obecnie w przemyśle półprzewodnikowym. « powrót do artykułu
  3. Google i Fiat Chrysler Automobiles NV umówiły się na wyprodukowanie 100 autonomicznych miniwanów. To pierwszy przypadek, by Google bezpośrednio współpracowało z firmą motoryzacyjną. Oba przedsiębiorstwa będą pracowały nad zaimplementowaniem w miniwanach Chrysler Pacifica opracowanej przez Google'a technologii autonomicznych pojazdów. Prace będą odbywały się w fabryce w Southeast Michigan, gdzie istnieje największe centrum inżynieryjne Fiata Chryslera w Ameryce Północnej. Google poinformowało jednocześnie, że nie udostępni Fiatowi swoich technologii opracowanych na potrzeby innych pojazdów. « powrót do artykułu
  4. W sieci krążą informacje, że rosyjscy cyberprzestępcy oferują na sprzedaż dane milionów użytkowników Mail.ru, Gmaila, Hotmaila i Yahoo Maila. Spośród nich 42,5 miliona rekordów to dane, które nigdy wcześniej nie wyciekły. Informację taką przekazał Reutersowi Alex Holden odpowiedzialny za bezpieczeństwo w firmie Hold Security. To człowiek, który w ubiegłym roku odkrył największy z dotychczasowych wycieków danych. Teraz Holden mówi, że na rosyjskim czarnym rynku można kupić dane 272,3 miliona kont pocztowych. Część tych danych jest zduplikowana. Po wyeliminowaniu powtarzających się kont okazuje się, że znaczna część z nich, bo 57 milionów, to konta użytkowników Mail.ru, jednak w ofercie znajdują się też dziesiątki milionów kont z pozostałych serwisów. Przestępca, który jest w ich posiadaniu, oferuje je w wolnej sprzedaży, zatem dane mogą trafić do wielu grup przestępczych i zostać wielokrotnie wykorzystane. Co interesujące, osoba sprzedająca żądała za dane... 50 rubli, czyli mniej niż 1 USD. Gdy Holden powiedział, że jego firma nie płaci za skradzione dane, zgodziła się oddać całą bazę za korzystne dla siebie komentarze na forach hakerskich. Przedstawiciele Mail.ru oraz Microsoftu przyznali, że dane rzeczywiście pochodzą z kradzieży z ich serwerów pocztowych. Yahoo i Google nie odpowiedziały na prośbę o komentarz. Holden informuje, że po usunięciu duplikatów okazało się, żę przestępcy ukaradli dane 40 milionów kont z Yahoo Mail, 33 miliony z Hotmaila i 24 miliony z Gmaila. « powrót do artykułu
  5. Zarażanie komarów Aedes bakteriami z rodzaju Wolbachia może drastycznie zmniejszyć ich zdolność przenoszenia wirusa Zika (ZIKV). Warto dodać, że bakterie Wolbachia występują w komórkach 60% wszystkich gatunków owadów. Naukowcy z Fundacji Oswalda Gonçalvesa Cruza celowo infekowali komary bakteriami Wolbachia, a następnie wystawiali je na oddziaływanie ZIKV. Okazało się, że takie owady miały mniejsze miano wirusa, poza tym ZIKV w ich ślinie był często inaktywowany. To oznacza, że gryząc, komar nie jest w stanie zarazić ZIKV. Autorzy publikacji z pisma Cell Host and Microbe podkreślają, że nie wiedzą dokładnie, jak metoda działa, ale niewykluczone, że bakterie i wirusy współzawodniczą w komórkach komara o te same zasoby i ZIKV przegrywa. Naukowcy sądzą, że po uwolnieniu zarażone bakteriami z rodzaju Wolbachia komary spółkowałyby z niezarażonymi owadami, co z czasem doprowadziłoby do utworzenia populacji złożonej wyłącznie z Zika-opornych osobników. Pomysł jest taki, by na przestrzeni kilku miesięcy uwalniać komary Aedes z bakteriami Wolbachia, tak by spółkowały one z komarami pozbawionymi bakterii, z czasem zastępując całą populację - wyjaśnia dr Luciano Moreira. Ponieważ rozwiązanie nie jest skuteczne w 100% ani nie eliminuje wirusa, nie może być stosowane w pojedynkę. Musimy je wdrożyć równolegle do innych metod, np. szczepienia i stosowania insektycydów [...]. Odkrycie to pokłosie wielu lat badań. Najpierw w 2005 r. naukowcy zorientowali się, że Wolbachia pomagają zwalczyć zakażenia przenoszone przez komary. Po 4 latach udało się wyizolować bakterie od muszek owocowych i nie uciekając się do żadnych modyfikacji genetycznych, wprowadzić je do jaj Aedes. Spodziewano się, że bakteria skróci po prostu życie komarów, ale zaobserwowano bonus: znaczące ograniczenie namnażania wirusa dengi. Wydaje się, że ten sam skutek występuje w przypadku transmisji ZIKV. Wcześniej obserwowano go w odniesieniu do wirusa czikungunii (jest on również przenoszony przez Aedes). Podczas ostatniego eksperymentu ekipa podawała dzikim komarom i komarom zarażonym bakteriami Wolbachia ludzką krew z 2 szczepami wirusa Zika, które ostatnio krążą w Brazylii. Po 2 tygodniach stwierdzono między innymi, że komary z 2. grupy miały mniej cząstek wirusa w ciele i ślinie. Dzięki pracom nad dengą istnieje już infrastruktura, która mogłaby zostać wykorzystana przez naukowców do zwiększenia skali testów. « powrót do artykułu
  6. Na Ziemi może występować ok. 1 biliona gatunków drobnoustrojów. Co ważne, aż 99,999% czeka jeszcze na odkrycie. Szacunki bazują na dużych zestawach danych i uniwersalnych prawach skalowania. Autorami publikacji z pisma PNAS są Jay T. Lennon i Kenneth J. Locey z Uniwersytetu Indiany. Amerykanie połączyli dane dotyczące mikroorganizmów, roślin i zwierząt z rządowych, akademickich i obywatelskich źródeł naukowych. W sumie reprezentują one ponad 5,6 mln mikro- i makroskopowych gatunków z 35 tys. lokalizacji ze wszystkich oceanów i kontynentów poza Antarktydą. [...] Nasze badanie łączy największe dostępne zestawy danych z modelami ekologicznymi i nowymi zasadami ekologicznymi dot. relacji bioróżnorodności i liczebności. Dzięki temu uzyskaliśmy ścisłe oszacowania liczby gatunków drobnoustrojów na Ziemi. Do niedawna brakowało nam narzędzi, które by to umożliwiały, jednak pojawienie się nowych technologii sekwencjonowania [np. sekwencjonowania wysokoprzepustowego] zapewniło masę nowych danych - podkreśla Lennon, dodając, że wcześniejsze próby zliczenia gatunków na naszej planecie ignorowały mikroorganizmy albo bazowały na starszych zestawach danych, stworzonych za pomocą tendencyjnych technik albo wątpliwych ekstrapolacji. Stwierdzenie, że mikroorganizmy są w oszacowaniach niedoreprezentowane, sprawiło, że w kilku ostatnich latach podjęto wiele prób zebrania nowych danych. Warto wymienić choćby Human Microbiome Project amerykańskich Narodowych Instytutów Zdrowia, próbkowanie w ramach Tara Oceans Expedition, a także Earth Microbiome Project. Te i inne źródła danych skompilowano, by uzyskać inwentarz dla naukowców z Illinois (20.376 dot. bakterii, archeonów i mikroskopijnych grzybów, a 14.862 społeczności drzew, ptaków i ssaków). W ramach nowych badań zebrano bardzo dużo danych - zaznacza Lockey - autorzy niewielu z nich próbowali jednak kompilować informacje, by przetestować jakieś kluczowe hipotezy. Po przeanalizowaniu wielkiej ilości danych zaobserwowaliśmy proste, ale silne trendy w zakresie zmian bioróżnorodności na skali liczebności. Jeden z tych trendów należy do najbardziej ekspansywnych wzorców w biologii: utrzymuje się na wszystkich rzędach wielkości [...]. Biorąc pod uwagę, że oszacowania Loceya i Lennona wspominają o 1 bilionie gatunków, zadanie, które stoi przed biologami, wydaje się wręcz niewyobrażalne. Dla przykładu - jak dotąd zrzeszający specjalistów z wielu dziedzin Earth Microbiome Project doprowadził do skatalogowania mniej niż 10 mln gatunków. Ze skatalogowanych gatunków tylko ok. 10 tys. udało się kiedykolwiek wyhodować w laboratorium, a mniej niż 100 tys. ma sklasyfikowane sekwencje. Nasze wyniki pokazują, że 100 tys. razy więcej mikroorganizmów czeka na odkrycie, a 100 mln na pełne poznanie. Mikrobioróżnorodność jest zatem o wiele większa, niż sobie wyobrażaliśmy - podsumowuje Lennon. « powrót do artykułu
  7. Korpus Marines intensywnie testuje roboty, które mogą przydać się na polu walki. Jednak główny problem z robotami jest taki, że wciąż muszą być one sterowane przez ludzi. Dlatego też Marine Corps i Departament Obrony rozwijają nową koncepcję - robotów łączonych w zespoły. Pułkownik Jim Jenkins, dyrektor ds. naukowo-technologicznych w Marine Corps' Warfighting Lab mówi, że np. roboty wykorzystywane obecnie do wykrywania pułapek czy prowadzenia zwiadu nie zwiększają siły oddziału. Co prawda pozwalają one uniknąć żołnierzom niektórych niebezpiecznych sytuacji, jednak wciąż są sterowane przez człowieka, a czynność ta najczęściej wymaga tyle uwagi, że konieczne jest wyznaczenie kolejnego żołnierza, który czuwa nad bezpieczeństwem operatora robota. Siła oddziału się nie zwiększa, a może ulec zmniejszeniu. Stąd pomysł na łączenie w zespoły różnych robotów. Jeśli takim zespołem mógłby sterować jeden żołnierz, to wówczas roboty - wykonujące w zespole wiele różnych zadań - zwiększałyby siłę oddziału. W Quantico trwają właśnie prace nad projektem Uncrewed Tactical Autonomous Control and Collaboration (UTACC). Wykorzystywane w nim oprogramowanie Distributed Real-time Autonomously Guided Operations Engine (DRAG) przeszło wstępne testy. Marines testowali robota naziemnego, który współpracował z latającym dronem. Wysłany na zwiad robot wypuszczał drona, gdy potrzebował dodatkowych informacji, których nie mógł zdobyć z ziemi. Oba urządzenia wysyłały dane do operatora, który mógł je przekazać dalej. Podczas testów dane takie były np. przekazywane do eksperymentalnego niewidocznego dla radarów drona Navy M80 Siletto, który przeprowadzał symulowany atak rakietowy na cele zidentyfikowane przez roboty i wskazane przez operatora. Całość testów prowadzono w zamkniętych pomieszczeniach symulujących środowisko miejskie. Pułkownik Jenkins mówi, że w najbliższym czasie nie pozbędziemy się człowieka z całego systemu. Kiedy jest mowa o systemach pozbawionych ludzkiego operatora, pojawia się pytanie o ich wiarygodność. Kiedy mogę zaufać maszynie na tyle, by to ona samodzielnie pociągnęła za spust?. Korpus Marines testuje też inne interesujące systemy. Jednym z nich są bezzałogowe śmigłowce, których zadaniem będzie dostarczanie zaopatrzenia. Testowane są też roboty, które potrafiłyby załadować i rozładować śmigłowiec oraz przenieść zaopatrzenie na odległość 800 metrów. Roboty te, nazwana Expeditionary Robopallettess (XRP) znajdują się obecnie w drugiej fazie rozwoju. Początkowo stworzono je na potrzeby US Air Force, gdzie miały w pełni autonomicznie wjeżdżać do luków bagażowych śmigłowców MV-22 Osprey i CH-53 Sea Stallion. Mark Rosenblum, dyrektor firmy, która rozwija XRP, mówi, że roboty nie tylko wyeliminują ryzyko związane z koniecznością ręcznego rozładowywania helikoptera i związana z tym konieczność skupienia w jednym - podatnym na ataki - miejscu sporej liczby ludzi, ale również zrobią to szybciej niż ludzie. Dzięki temu w ciągu 10 godzin pojedynczy śmigłowiec będzie w stanie wykonać o 5 lotów z zaopatrzeniem więcej. XRP mogą być kontrolowane za pośrednictwem tabletu z systemem Android. Na tym się jednak rola robotów nie kończy. Zdaniem Jenkinsa mogą też one zajmować się rannymi na polu walki monitorując ich czynności życiowe i utrzymując ich przy życiu do czasu nadejścia pomocy. Przydadzą się również podczas desantu morskiego, gdzie dokonają wstępnego zwiadu poszukując ewentualnych min. Jednak, jak mówi wojskowy, roboty mogą być znacznie bardziej efektywne dopiero wówczas, gdy będzie można komunikować się z nimi w bardziej intuicyjny sposób. Muszą zatem nauczyć się rozpoznawania komend głosowych oraz rozumieć sygnały pokazywane dłońmi. « powrót do artykułu
  8. Właściciele labradorów twierdzą, że ich psy zawsze wykazują zainteresowanie jedzeniem i zachowują się, jakby cały czas były głodne. Badania zespołu Eleanor Raffan z Uniwersytetu w Cambridge pokazują, że istnieją biologiczne podstawy takiego zjawiska. Naukowcy odkryli u labradorów i flat-coated retrieverów mutację, która odpowiada za nasilenie zachowań motywowanych pokarmem. Tym samym po raz pierwszy udało się opisać gen związany z otyłością u psów. Wariant występuje częściej u labradorów wybranych na psy towarzyszące. Raffan podkreśla, że skoro - bez względu na to, kto jest właścicielem - labradory są mocniej zainteresowane jedzeniem i częściej bywają otyłe, należy podejrzewać, że w grę wchodzą czynniki genetyczne. Brytyjczycy rozpoczęli badania na grupie 15 otyłych i 18 szczupłych labradorów. Wybrali 3 geny, które u ludzi wpływają na wagę. Okazało się, że u wielu otyłych psów zmianie ulega DNA na końcu genu POMC. Wg autorów publikacji z pisma Cell Metabolism, delecja upośledza zdolność organizmu do produkcji 2 neuropeptydów - β-MSH i β-endorfiny - które zazwyczaj biorą udział w zahamowaniu głodu po posiłku. U ludzi poszczególne warianty POMC powiązano z różnicami w wadze. Istnieją nawet rzadkie przypadki otyłych osób, którym brakuje bardzo podobnego odcinka genu POMC jak u psów - opowiada Stephen O'Rahilly. Pracując z większą grupą 310 labradorów, Raffan opisała zestaw zachowań skorelowanych z delecją w genie POMC. Mimo że nie wszystkie psy z delecją były otyłe i że znalazły się też otyłe labradory bez mutacji, generalnie delecja wiązała się z większą wagą, a wyniki kwestionariuszy wypełnionych przez właścicieli wskazywały, że dotknięte nią psy były bardziej motywowane pokarmem (częściej żebrały, były bardziej czujne w czasie posiłków i częściej zjadały odpadki). Średnio delecja wiązała się z 2-kg przyrostem wagi. Opierając się na próbkach od kolejnych 411 psów z Wielkiej Brytanii i USA, akademicy ustalili, że delecja POMC występuje u ok. 23% labradorów. Badania 38 innych ras wykazały, że mutacja pojawia się wyłącznie u spokrewnionych flat-coated retrieverów. Jej wpływ na wagę i zachowanie jest podobny. Co istotne, delecja POMC była częstsza u objętych studium 81 labradorów towarzyszących; występowała ona aż u 76% tych psów. Raffan podkreśla jednak, że nie przyglądano się szczeniakom i nie sprawdzano, czy jeśli mają mutację, [naprawdę] są częściej kwalifikowane do szkolenia [z nagrodami w postaci jedzenia]. Odkrycie Brytyjczyków ma znaczenie dla pacjentów z otyłością. Wcześniej trudniej było studiować wpływ mutacji POMC, ponieważ u myszy i szczurów, popularnych modeli otyłości, gen ten jest inny niż u ludzi. Naukowcy sądzą, że dzięki dalszym badaniom otyłych labradorów uda się nie tylko poprawić dobrostan tej rasy, ale i rozwinąć wiedzę nt. zdrowia ludzi. « powrót do artykułu
  9. Specjaliści twierdzą, że odnaleźli wrak HMS Endeavour, okrętu Jamesa Cooka. Legendarny odkrywca pływał na tej jednostce w latach 1768-1771 gdy poznawał nieznane wcześniej wody południowego Pacyfiku. Dotychczas jednak nie było wiadomo, gdzie znajduje się jednostka. Wiadomo było, że po podróży Cooka okręt został sprzedany, miał wielu właścicieli, w końcu został przemianowany na Lord Sandwich i wziął udział w wojnie o niepodległość USA. Lord Sandwich był w tym czasie pierwszym lordem admiralicji, więc taka nazwa miała sens. Z opisu jednostki, jej wymiarów wiemy, że 'Lord Sandwich" to "Endeavour" - mówi doktor Kathy Abbas z Rhode Island Marine Archeology Project. To niedochodowa organizacja, która od ponad 20 lat bada historię morską stanu Rhode Island. Teraz jej przedstawiciele informują, że wrak Lorda Sandwicha został odnaleziony w porcie w Newport. Abbas mówi, że w 1778 roku jednostka została wysłana przez rząd Wielkiej Brytanii, by dowodzić bitwą o Rhode Island. Amerykańska armia znajdowała się na lądzie, a Francja wysłała jej na pomoc flotę. Brytyjczycy zdali sobie sprawę z niebezpieczeństwa i wysłali 13 okrętów do zablokowania miasta. Wszystkie zostały zatopione na dość płytkich wodach. Specjaliści odkryli, że wraki brytyjskiej floty znajdują się w 9 różnych miejscach, a w jednym z nich, gdzie znaleziono 5 wraków, znajduje się też Lord Sandwich. Teraz eksperci chcą lepiej zbadać i opisać wszystkie jednostki. HMS Endeavour to jedna z najbardziej zasłużonych jednostek w historii. Zwodowana w 1764 roku jako Earl of Pembroke została w 1768 kupiona przez brytyjską marynarkę i wysłana z misją naukową na Pacyfik z zadaniem badania tamtejszych wód. Pod dowództwem Cooka statek opłyną Przylądek Horn, dotarł do Tahiti, Nowej Zelandii i Australii. « powrót do artykułu
  10. Najnowsze badania pokazują, że by wykształcić tolerancję na wysokość, zamiast rzeczywiście trenować w górach, lepiej zostać na nizinach i podkręcić temperaturę na sali gimnastycznej. W artykule opublikowanym na łamach pisma Frontiers in Physiology naukowcy sugerują, że wykorzystanie podwyższonej temperatury to skuteczniejsza metoda poprawy tolerancji wysokości i wydolności fizycznej niż inna popularna ostatnio strategia - trening w warunkach hipoksji (niedotlenienia) normobarycznej. Wykazaliśmy, że gdy czas trwania i częstotliwość treningów wykonywanych w gorącu lub na wysokościach są takie same, te pierwsze są bardziej osiągalną i oszczędzającą czas metodą poprawy tolerancji wysokości - podkreśla dr Ben J. Lee z Uniwersytetu w Coventry. W ramach badania, które stanowiło część doktoratu Lee, poproszono 21 rowerzystów (w wieku 22 ± 5 lat, wzroście 1,76 ± 0,07 m i wadze 71,8 ± 7,9 kg), by przed i po serii 10 sesji treningowych poddali się testowi tolerancji małych ilości tlenu (ang. hypoxic stress test, HST) i sprawdzianowi szybkościowemu. Codzienne godzinne sesje odbywały się albo w gorącu, albo w warunkach hipoksji. By sprawdzić, jak organizm reaguje na ćwiczenia wykonywane w różnych warunkach, ochotnikom pobierano też krew. Okazało się, że trening w gorącu zmniejszał obciążenie fizyczne (ustalono to, mierząc temperaturę ciała i tętno) i poprawiał wyniki sprawdzianu szybkościowego. Ponieważ wyniki odpowiadały rezultatom treningu w warunkach hipoksji, a badania krwi wykazały, że reakcja stresowa na poziomie komórkowym także była taka sama, de facto testowane metody niewiele się od siebie różnią. Akademicy są świadomi ograniczeń uzyskanych wyników. Wspominają, że odnoszą się one raczej do sportowców amatorów, a nie wyczynowców. Poza tym rowerzystów nie testowano na wysokościach tylko za pomocą sztucznie obniżonej zawartości we wdychanym powietrzu. « powrót do artykułu
  11. Twórcy AdBlocka Plus poinformowali, że wkrótce wprowadzą w swoim oprogramowaniu mechanizm, który pozwoli użytkownikom płacić za odwiedziny na ulubionych witrynach. Ma to zrekompensować wydawcom witryn straty poniesione wskutek blokowania reklam. Usługa płatności została opracowana wspólnie z firmą Flattr, założoną przez Petera Sunde, jednego z byłych założycieli serwisu The Pirate Bay. Twórcy AdBlocka oraz firma Flattr zatrzymają dla siebie 10% kwoty, jaką użytkownicy będą płacili wydawcom. Użytkownik określi, ile chce zapłacić w ciągu miesiąca danym witrynom. NIe będzie musiał płacić za konkretne artykuły czy usługi. Następnie wpłacona przez użytkownika kwota będzie, po potrąceniu prowizji przez AdBlocka i Flattr, dzielona pomiędzy odwiedzane witryny z uwzględnieniem zaangażowania użytkownika w przeglądanie każdej z nich. Przedstawiciele AdBlocka mówią, że do końca roku usługa powinna być dostępna dla wszystkich użytkowników tego programu. Witryny, które miałyby otrzymywać płatności, będą musiały zarejestrować się w systemie Flattr. Wydawca AdBlocka już wcześniej znalazł sposób na zarabianiu na swoim oprogramowaniu. Od pewnego czasu wydawcy reklam mogą mu płacić za przepuszczanie ich treści przez filtry oprogramowania i wyświetlanie ich użytkownikowi. Założony w 2010 roku Flattr dokonał do tej pory ponad 30 000 indywidualnych płatności. Teraz baza jego klientów może znakomicie się powiększyć, gdyż AdBlock Plus został dotychczas pobrany ponad 500 milionów razy. « powrót do artykułu
  12. Po raz pierwszy od dłuższego czasu udział Windows w rynku desktopowych systemów operacyjnych spadł poniżej 90%. System z Redmond stracił w ciągu miesiąca niemal 2 punkty procentowe i obecnie należy doń 88,77% rynku. Co interesujące, niewielką stratę zanotował też Linux, którego udziały zmniejszyły się o 0,2%, a jednocześnie wzrosły udziały Mac OS X. Zwiększyły się one aż o 1,8%. Obecnie do systemu Apple'a należy 9,57% rynku desktopów. Główną przyczyną spadku udziału Windows jest coraz mniejsza popularność systemów Windows 7 oraz Windows XP. Udziały starszego z nich zmniejszyły się poniżej 10%, jednak wciąż jest on używany na 9,7% komputerów. Spadają też udziały Windows 7, który po raz pierwszy od lat jest używany na mniej niż 50% komputerów. Jednocześnie jednak popularność Windows 10 nie rośnie na tyle szybko, by mógł on odrobić straty powodowane przez starsze systemy. Niektórzy eksperci uważają, że rosnące od kilku miesięcy udziały systemu Mac OS X spowodują, że stanie się on bardziej atrakcyjnym celem dla cyberprzestępców. Sytuację może poprawiać fakt, że dotychczas odkryto niewiele dziur w tym OS-ie. Zdaniem F-Secure znanych jest jedynie 115 luk w Mac OS X. « powrót do artykułu
  13. Japońska Agencja Kosmiczna (JAXA) oznajmiła, że porzuca satelitę ASTRO-H. Urządzenia zostało wystrzelone 17 lutego, a jego zadaniem była obserwacja promieniowania X z czarnych dziur. Kolejne podobne urządzenie - tym razem zbudowane przez Europejską Agencję Kosmiczną - trafi w przestrzeń kosmiczną dopiero w 2028 roku. ASTRO-H, zwany też Hitomi, był wspólnym przedsięwzięciem JAXA, NASA i innych organizacji. Przed miesiącem, 26 marca, utracono kontakt z Hitomi i dotychczas nie udało się go odzyskać. Doszliśmy do wniosku, że satelita znajduje się w takim stanie, że nie podejmie swoich zadań - poinformował Saku Tsuneta, dyrektor generalny należącego do JAXA Instytutu Badań Kosmicznych i Aeronautycznych. Japończycy skupią się teraz na zbadaniu przyczyn, dla których utracono kontakt z satelitą. Specjaliści uważają, że oba panele słoneczne satelity odłamały się u podstawy. Przez chwilę wydawało się, że uda się odzyskać kontrolę nad satelitą, gdyż odebrano trzy sygnały. Teraz JAXA informuje, że nie pochodziły one z Hitomi. « powrót do artykułu
  14. Ludzie od dawna zastanawiają się, czy jesteśmy jedynym gatunkiem we wszechświecie, który stworzył cywilizację techniczną. Przed 50 laty Frank Drake zaproponował równanie, mające pomóc określić, ile cywilizacji technologicznych istnieje w naszej Galaktyce. Niemożność odpowiedzi na pytanie, czy kiedykolwiek we wszechświecie istniała zaawansowana cywilizacja wynika z trzech wielkich niewiadomych w równaniu Drake'a. Od dłuższego czasu wiemy, ile mniej więcej istnieje gwiazd. Nie wiedzieliśmy jednak, ile z tych gwiazd posiada planety, na których potencjalnie może istnieć życie, jak często życie może wyewoluować do formy inteligentnej oraz jak długo może istnieć cywilizacja zanim ulegnie zagładzie - mówi profesor Adam Frank z University of Rochester. Jednak teraz, dzięki Teleskopowi Keplera, wiemy, że co piąta gwiazda ma planetę w ekosferze, czyli znajdującą się w takie odległości od gwiazdy, że mogą istnieć tam warunki potrzebne do powstania i utrzymania życia. Jedna z trzech wielkich niewiadomych nie jest już problemem - mówi Frank. Naukowiec dodaje jednak, że wciąż nie mamy pojęcia, jak długo cywilizacja może istnieć. Sam fakt, że ludzie posługują się technologią od mniej więcej 10 000 lat nie mówi nam kompletnie nic na temat tego, czy inne społeczności są w stanie przetrwać tak długo, czy dłużej - stwierdza. Frank wraz z Woodruffem Sullivanem z University of Washington postanowili nieco inaczej spojrzeć na równanie Drake'a, by wyeliminować z niego jak największą część niepewności. Zamiast pytać jak wiele cywilizacji może istnieć obecnie, zapytaliśmy czy jesteśmy jedynym gatunkiem, jaki kiedykolwiek rozwinął cywilizację techniczną. Ta zmiana podejścia eliminuje niepewność dotyczącą czasu istnienia cywilizacji i pozwala nam na skupieniu się na kwestii 'archeologii kosmicznej' - jak często w historii wszechświata życie mogło wyewoluować do formy zaawansowanej - mówi Sullivan. Obaj uczeni postanowili wyliczyć nie prawdopodobieństwo powstania zaawansowanych form życia, ale prawdopodobieństwo, że one nie powstaną. Wyliczyli też prawdopodobieństwo, że homo sapiens jako jedyni stworzyli zaawansowaną cywilizację oraz że już wcześniej takie cywilizacje powstawały. Oczywiście nie mamy pojęcia, jakie jest prawdopodobieństwo, że na danej planecie nadającej się do zamieszkania powstanie zaawansowany technologicznie gatunek - mówi Frank. Jednak za pomocą naszej metody możemy dokładnie obliczyć, jak niskie jest prawdopodobieństwo, że jesteśmy jedyną cywilizacją w historii wszechświata. Nazywamy to granicą pesymizmu. Jeśli rzeczywiste prawdopodobieństwo jest większe niż granica pesymizmu, wówczas zaawansowane cywilizacje prawdopodobnie powstawały już wcześniej. Frank i Sullivan zaproponowali wzór, w którym liczba egzoplanet w ekosferze (Nast) wynika z ogólnej liczby gwiazd (N*), odsetka gwiazd posiadających planety (fp) oraz średniej liczby planet w ekosferze tych gwiazd (np). Wychodząc od takich obliczeń uczeni zaproponowali "archeologiczną formę" równania Drake'a: A=Nast*fbt, w którym ostania część, fbt, to prawdopodobieństwo pojawienia się technologicznie zaawansowanego gatunku na planecie. W ten sposób można wyliczać prawdopodobieństwo istnienia innych cywilizacji dla wybranego obszaru, czy będzie to wszechświat czy Droga Mleczna. Sullivan i Frank wzięli pod uwagę to, co wiemy o egzoplanetach oraz liczbę gwiazd szacowaną na 2x1022. Na tej podstawie stwierdzili, że ludzkość jako jedyna stworzyła zaawansowaną cywilizację tylko wówczas, jeśli prawdopodobieństwo powstania cywilizacji na zdatnej do zamieszkania egzoplanecie jest mniejsza niż 10-22. To niezwykle małe prawdopodobieństwo. Dla mnie oznacza to, że prawdopodobnie we wszechświecie wcześniej wyewoluowały inteligentne gatunki korzystające z technologii. Jeśli nawet we wszechświecie istniały bądź będą istniały zaawansowane cywilizacje, to spotkanie z którąś z nich jest mało prawdopodobne. Wszechświat ma ponad 13 miliardów lat. Jeśli nawet w Drodze Mlecznej powstały tysiące cywilizacji i każda z nich istniała tak długo, jak cywilizacja człowieka - około 10 000 lat - to wszystkie one już prawdopodobnie wyginęły. A inne nie wyewoluują zanim my wyginiemy. Jeśli mielibyśmy spotkać inną zaawansowaną technologicznie cywilizację, to musiałaby ona istnieć znacznie dłużej niż nasza własna cywilizacja - mówi Sullivan. Biorąc pod uwagę olbrzymie odległości pomiędzy gwiazdami oraz stałą prędkość światła, nigdy możemy nie mieć szansy na kontakt z inną cywilizacją. Jeśli cywilizacja taka znajduje się w odległości 20 000 lat świetlnych, to każda wymiana kontaktów trwałaby 40 000 lat - dodaje Frank. « powrót do artykułu
  15. W Wielkiej Brytanii powstał 40% Anti-aGin, który wg firm Warner Leisure Hotels i Bompas & Parr, zapobiega starzeniu. Zwiera on ponoć kilka korzystnych dla skóry składników, w tym kolagen i przeciwutleniacze. O ile czysty kolagen ma zapobiegać wiotczeniu i wygładzać zmarszczki, o tyle związki z zielonej herbaty odpowiadają za odtruwanie, olejek z oczaru wirginijskiego działa przeciwbakteryjnie, wąkrota azjatycka (Centella asiatica), zwana też gotu kola, pomaga zlikwidować cellulit i uszkodzenia słoneczne, a także zapobiega tworzeniu blizn, rumianek regeneruje i relaksuje, bogata w składniki mineralne pokrzywa wspomaga odnowę komórkową, a łopian likwiduje mikropęknięcia. Twórcy wymieniają też inne składniki, w tym kolendrę, kardamon, olejek herbaciany czy korzeń dzięgla litworu. Do głównych składników należą kolagen, niezbędny w dżinie jałowiec, korzeń dzięgla litworu, kolendra, lukrecja, kardamon i łopian. Olejków oczarowego i herbacianego dodaje się najmniej. Nasi goście mają przeważnie ponad 50 lat, ale są młodzi sercem i lubią udzielać się towarzysko, pić i tańczyć do późnej nocy - podkreśla Marc Caulfield, szef marketingu Warner Leisure Hotels. Pozostaliśmy wierni recepturze prawdziwego dżinu, ale nadaliśmy mu też odmładzającą moc [...] - dodaje Harry Parr, współzałożyciel zajmującej się projektowaniem żywności Bompas & Parr. Eksperci pozostają sceptyczni co do twierdzeń pomysłodawców i twórców trunku. Wg nich, nie ma np. naukowych dowodów, że suplementy kolagenowe poprawiają stan skóry. Chętni mogą kupić 700-ml Anti-aGin za 34,99 GBP (51 dol.). Alkohol jest sprzedawany w Internecie za pośrednictwem witryny drinksupermarket.com, a także we wszystkich 13 hotelach sieci Warner Leisure. « powrót do artykułu
  16. Zdaniem badaczy z Instytutu Chemii im Maksa Plancka oraz Instytutu Cypryjskiego w Nikozji już w najbliższych dekadach Afryka Północna i Bliski Wschód mogą stać się tak gorące, że ludziom trudno będzie tam mieszkać. To zaś oznacza, że gwałtownie może wzrosnąć liczba migrantów "klimatycznych" z tych regionów. Niemieccy i cypryjscy uczeni twierdzą, że nawet jeśli średnie temperatury na Ziemi nie wzrosną o ponad 2 stopnie Celsjusza w porównaniu z epoką przedindustrialną, to i tak na wspomnianych obszarach będzie niezwykle gorąco. Naukowcy spodziewają się bowiem, że średnie temperatury w Afryce Północnej i na Bliskim Wschodzie będą rosły dwukrotnie szybciej niż średnia światowa. To oznacza, że do połowy wieku dzienne temperatury w tych regionach mogą sięgać 46 stopni Celsjusza. Tak gorące dni będą miały tam miejsce pięciokrotnie częściej niż na przełomie XX i XXI wieku. W połączeniu z coraz większym zanieczyszczeniem powietrza spowodowanym zapyleniem z pustyń, znacznie pogorszą się warunki do życia, co zmusi wielu ludzi do emigracji. Na Bliskim Wschodzie i w Afryce Północnej mieszka ponad 500 milionów ludzi. Od 1970 roku liczba wyjątkowo gorących dni zwiększyła się tam dwukrotnie. Zespół pracujący pod kierunkiem Josa Lelievelda, dyrektora Instytutu Chemii im. Maksa Plancka i profesora w Instytucie Cypryjskim, postanowił sprawdzić, jak w XXI wieku będą zmieniały się temperatury na północy Afryki i Bliskim Wschodzie. Z przeprowadzonych przez uczonych symulacji wynika, że letnie temperatury w tych regionach będą rosły dwukrotnie szybciej niż średnia światowa. Do połowy wieku w ciągu najgorętszych dni temperatury nie będą tam spadały poniżej 30 stopni Celsjusza w nocy, a w dzień sięgną 46 stopni Celsjusza. Do końca wieku temperatury za dnia sięgną tam 50 stopni Celsjusza. Co więcej, fale upałów będą miały tam miejsce 10-krotnie częściej niż obecnie. Jeszcze w latach 1986-2005 w ciągu roku było tam 16 niezwykle gorących dni. Do połowy wieku będzie ich 80, a pod koniec wieku - aż 118. A i to pod warunkiem, że po roku 2040 emisja gazów cieplarnianych zacznie się zmniejszać. Jeśli wzrost emisji dwutlenku węgla będzie taki jak obecnie, to ludzie ludzie żyjący na Bliskim Wschodzie i w Afryce Północnej będą doświadczali około 200 wyjątkowo gorących dni rocznie - mówi Panos Hadjinicolaou z Instytutu Cypryjskiego. Zmiany klimatycznie znacząco pogorszą warunki życia na Bliskim Wschodzie i w Afryce Północnej. Coraz dłuższe fale upałów w połączeniu z burzami piaskowymi z pustyni mogą spowodować, że niektóre regiony nie będą nadawały się do zamieszkania, co z kolei wywoła presję migracyjną - dodaje Lelieveld. Niekorzystny wpływ burz piaskowych już jest widoczny. Od początku wieku ilość pyłu pustynnego nad Arabią Saudyjską, Irakiem i Syrią wzrosła o 70%. Główną przyczyną tego wzrostu jest rosnąca liczba burz piaskowych spowodowana coraz bardziej przedłużającymi się suszami. Na większości obszarów Ziemi mamy do czynienia z szybszym wzrostem temperatur zimowych, jednak w Afryce i na Bliskim Wschodzie wzrost ma miejsce głównie latem. Jest to powodowane głównie obecnością Sahary i innych pustyń. Gorące i suche obszary nie schładzają się przez parowanie, więc nie rekompensują w nocy dziennych wzrostów temperatury. O bilansie energetycznym powierzchni tych obszarów decyduje wypromieniowywane ciepło, zatem wpływ gazów cieplarnianych jest na te obszary nieproporcjonalnie duży. « powrót do artykułu
  17. Najnowsze badania zespołu z Uniwersytetu w Birmingham pokazały, że szczepienie na grypę jest najskuteczniejsze, gdy podaje się je rano. Wyniki opublikowane w piśmie Vaccine sugerują, że podanie szczepionek rano, a nie po południu wywołuje większą odpowiedź immunologiczną. Brytyjczycy wzięli pod uwagę dane zebrane w 24 praktykach lekarza rodzinnego w regionie West Midlands. W latach 2011-13 podczas dorocznych szczepień przeciwko grypie przeprowadzono klasterowe badanie randomizowane. Dwieście siedemdziesiąt sześć osób w wieku ponad 65 lat zaszczepiono przeciwko 3 szczepom wirusa grypy albo w godzinach porannych (9-11), albo popołudniowych (15-17). Miesiąc później w przypadku 2 z 3 szczepów w kohorcie szczepionej rano zaobserwowano znacząco większy wzrost stężenia przeciwciał. W przypadku 3. szczepu nie stwierdzono różnic między osobami szczepionymi rano i po południu. Wiemy, że istnieją dobowe fluktuacje w odpowiedziach immunologicznych i chcieliśmy sprawdzić, czy to może się rozciągać na odpowiedź przeciwciał na szczepienie. Ustalenie, że poranne szczepienia generują o wiele skuteczniejszą reakcję, wpłynie nie tylko na harmonogram szczepień na grypę, ale i na ogólne strategie szczepienia - podkreśla dr Anna Phillips. Rokrocznie znaczącą część zasobów przeznacza się na zapobieganie infekcjom grypowym, zwłaszcza u starszych dorosłych, ale mniej niż połowa [pacjentów] wytwarza wystarczającą liczbę przeciwciał, by ochrona była pełna. Nasze badania pokazują, że zmiana pory szczepienia na poranki może poprawić skuteczność działań prewencyjnych, nie zwiększając kosztów opieki zdrowotnej - dodaje prof. Janet Lord. Brytyjczycy planują teraz badania na większą skalę. Chcą w ten sposób stwierdzić, czy strategia porannego szczepienia przynosi korzyści szerszej populacji 65+, w tym diabetykom i pacjentom z upośledzającymi odporność chorobami wątroby i nerek. Studium ma też określić, czy szczepienie rano daje podobne efekty w przypadku obowiązkowych dla seniorów szczepionek przeciwko penumokokowym zapaleniom płuc. « powrót do artykułu
  18. Wszechobecne na Ziemi kryształy cyrkonu mogły powstać wskutek uderzeń asteroid, a nie - jak się obecnie sądzi - w wyniku procesów tektonicznych. Występujący na naszej planecie cyrkon liczy sobie około 4 miliardów lat, jest więc zaledwie o kilkaset milionów lat młodszy od samej Ziemi. Przed 10 laty grupa naukowców stwierdziła, że cyrkony powstawały wskutek zderzeń płyt tektonicznych. Jednak nowe dowody sugerują, że w czasie, gdy na Ziemi pojawiły się cyrkony, tektonika płyt jeszcze nie miała miejsca. Dlatego też pojawiła się hipoteza, zgodnie z którą cyrkony powstały wskutek uderzeń asteroid. Niektóre z nich mogły mieć wiele kilometrów średnicy. Hipotezę tę postanowili sprawdzić naukowcy z Trinity College w Dublinie. Wpadli oni na pomysł, by zbadać jeden z młodszych kraterów uderzeniowych i przekonać się, czy powstały w nim cyrkony. Uczeni wybrali się do Kanady, gdzie prowadzili badania w kraterze Sudbury. To jeden z najstarszych znanych kraterów uderzeniowych, przy tym dobrze zachowany. Podczas ekspedycji zebrano tysiące kryształów cyrkonów. Ich badania wykazały, że skład cyrkonów znalezionych w liczącym 2 miliardy lat kraterze Sudbury jest nie do odróżnienia od składu cyrkonów liczących 4 miliardy lat. To, co odkryliśmy było dość nieoczekiwane. Wielu specjalistów sądziło, że bardzo stale kryształy nie mogły powstać w kraterach uderzeniowych, ale teraz wiemy, że mogły. Wielu rzeczy jeszcze nie rozumiemy, ale wydaje się, że możemy teraz opowiedzieć bardziej spójną historię młodości Ziemi. Historia ta pasuje do hipotezy mówiącej, że na początku swojego istnienia Ziemia była znacznie częściej bombardowana przez asteroidy niż w czasach późniejszych - stwierdził doktor Gavin Kenny. Uczony przypomina, że już dwa lata wcześniej pojawiły się badania, z których wynikało, że okres Wielkiego Bombardowania zbiega się z okresem powstania cyrkonów. Teraz mamy dowód na obecność cyrkonów w jednym z najstarszych znanych kraterów uderzeniowych. « powrót do artykułu
  19. Podając myszom jedną z form witaminy B3 - rybozyd nikotynamidu (ang. nicotinamide riboside, NR) - naukowcy odtworzyli zdolność ich narządów do regeneracji i wydłużyli im życie. Autorzy publikacji z pisma Science, którzy opisali korzystny wpływ NR na działanie komórek macierzystych, uważają, że metoda ma potencjał w zakresie leczenia chorób degeneracyjnych. Gdy myszy i inne ssaki się starzeją, możliwości regeneracyjne pewnych narządów (np. wątroby i nerek) oraz mięśni (w tym serca) spada. Prowadzi to do wielu zaburzeń typowych dla starzenia. By zrozumieć, na czym dokładnie polega pogorszenie zdolności regeneracyjnej w przebiegu starzenia, Hongbo Zhang z Politechniki Federalnej w Lozannie nawiązał współpracę z kolegami z Politechniki Federalnej w Zurychu, Uniwersytetu w Zurychu oraz naukowcami z Brazylii i Kanady. Wykorzystując kilka markerów, był w stanie zidentyfikować mechanizm molekularny, który reguluje działanie mitochondriów i zmiany związane ze starzeniem. Choć rolę metaboliczną mitochondriów opisano już bardzo dokładnie, my jako pierwsi potrafiliśmy wykazać, że ich prawidłowa funkcja jest istotna dla komórek macierzystych - podkreśla Johan Auwerx. W normalnych warunkach, przynajmniej w młodym organizmie, komórki macierzyste reagują na sygnały wysyłane przez ciało i regenerują uszkodzone narządy, różnicując się do konkretnych dojrzałych komórek. Naukowcy postanowili zrewitalizować komórki macierzyste z mięśni starszych myszy. Podaliśmy 2-letnim gryzoniom [...] rybozyd nikotynamidu. Związek ten [...] jest prekursorem dinukleotydu nikotynoamidoadeninowego (NAD+), cząsteczki odgrywającej kluczową rolę w aktywności mitochondrialnej. Nasze wyniki są wyjątkowo obiecujące: regeneracja mięśni jest u takich myszy o wiele lepsza i żyją one dłużej od gryzoni, którym nie podano NR. Równolegle prowadzone badania wykazały, że porównywalne efekty występują w przypadku komórek macierzystych mózgu i skóry. Opisane eksperymenty mogą mieć bardzo ważne skutki dla medycyny regeneracyjnej. Nie mówimy o wprowadzeniu do organizmu obcej substancji, ale raczej o odtworzeniu jego zdolności do samonaprawy, a wszystko dzięki produktowi, który można spożyć z pokarmem - wyjaśnia Auwerx, dodając, że nie chodzi wyłącznie o starzenie, ale także o leczenie chorób występujących u młodych ludzi, np. dystrofii mięśniowych. Dotąd nie zaobserwowano skutków ubocznych podawania NR, nawet dużych dawek. Akademicy przestrzegają jednak przed huraoptymizmem i podkreślają, że rybozyd nikotynamidu wzmaga działanie wszystkich komórek, także tych patologicznych. Jak wielu przypadkach, również i tu potrzeba dalszych pogłębionych badań. « powrót do artykułu
  20. Internet Explorer nie jest już najpopularniejszą przeglądarką internetową na świecie. Po wieloletniej dominacji produkt Microsoftu stracił palmę pierwszeństwa na rzecz Chrome'a. Z analiz Net Applications wynika, że obie przeglądarki Microsoftu - IE oraz Edge - straciły w kwietniu aż 2 pp. udziałów rynkowych i utraciły tym samym pozycję lidera, gdyż w tym samym czasie udziały Chrome'a zwiększyły się o 2,6 pp. Obecnie na rynku desktopów do IE (liczonego łącznie z Edge'em) należy 41,35% udziałów. Liderem został Chrome z udziałami sięgającymi 41,66%. Na odległym trzecim miejscu jest Firefox, który posiada zaledwie 9,78% rynku. Internet Explorer traci już od dłuższego czasu, jednak od kilku miesięcy notowane są spadki o ponad 1 pp co miesiąc. Wydaje się, że na gwałtowny spadek popularności Internet Explorera ma wpływ polityka samego Microsoftu. W sierpniu 2014 roku firma ogłosiła, że użytkownicy starszych wersji IE powinni do końca roku przesiąść się na IE11, gdyż koncern zakończy wsparcie dla starszych przeglądarek, w tym dla najpopularniejszej z nich - IE8. Znaczna część użytkowników, postawiona przed taką alternatywą, zaczęła najwyraźniej rozglądać się za innym produktem niż Internet Explorer. W efekcie od sierpnia 2015 IE stracił aż 17,1 punktów procentowych, czyli 29% rynku. Na nowego lidera rynku od dawna wyrasta Chrome. Jeśli obecne trendy się utrzymają, może ona na długie lata zająć pozycję Internet Explorera. Od dawna zmniejszają się tez bowiem udziały Firefoksa. Przeglądarka Mozilli, która w swoim czasie chciała rzucić wyzwanie Microsoftowi, posiada obecnie tyle rynku, co w lutym 2006 roku, zaledwie 16 miesięcy po swoim debiucie. Wówczas jednak jej głównym rywalem był IE. Obecnie Firefox ma dwóch dużych przeciwników, a udziały przeglądarki Mozilli spadają. « powrót do artykułu
  21. W ramach prowadzonej właśnie masowej restrukturyzacji Intel wycofuje się z rynku SoC (system-on-chip) dla smartfonów i tabletów. Koncern zakończy wytwarzanie procesorów Atom oraz produktów o nazwach kodowych SoFIA, Broxton oraz Cherry Tail. Zasoby przeznaczone obecnie na produkcję wymienionych układów zostaną przekierowane do produktów o większym marginesie zysku, które pomagają rozwijać nową strategię. Rynek smartfonów jest od dawna niezwykle konkurencyjny, przedsiębiorstwa działają tam z małym marginesem zysku, a biorąc pod uwagę fakt, że nastąpiło na nim spowolnienie, decyzja Intela o wycofaniu się z niego jest jak najbardziej uzasadniona. Analityk Patrick Moorhead zwraca uwagę, że Intel działa na wielu segmentach rynku mobilnego. Poza procesorami Atom Intel produkuje modemy z serii 7000 dla smartfonów, tabletów i pecetów. Niejasna jest ich strategia odnośnie SoC i modemów. Nie wyjaśnili też strategii odnośnie tanich tabletów. Ze zdaniem tym zgadza się Will Strauss, prezes firmy Forward Concepts. Intel nie powiedział, że wycofuje się z rynku mobilnego. Mają sprawdzone modemy 4G i procesor aplikacyjny x86. Zdaniem obu analityków z punktu widzenia Intela ma sens skupienie się na rynku 5G oraz najnowocześniejszych technologiach. Wszystko wskazuje na to, że koncern takie ma właśnie zamiary. Dyrektor generalny Intela Brian Krzanich stwierdził bowiem, że 5G to kluczowa technologia dająca dostęp do chmur obliczeniowych w czasach, w których świat będzie na bieżąco ze sobą podłączony. Krzanich zasugerował też, że Intel chce być liderem technologii 5G. Strauss podejrzewa, że Intel chce przekierować zasoby z produkcji modemów 4G na 5G. W końcu 5G będą z pewnością bazowały na 4G. To będzie wymagało miliarda lub dwóch inwestycji, ale Intel jest w stanie ponieść takie koszty - stwierdził. « powrót do artykułu
  22. Kształt guza odpowiada za to, czy komórki są w stanie przerzutować. Wykorzystując sztuczne środowiska tkankowe o różnych kształtach, naukowcy z Uniwersytetu Illinois badali nowotwory skóry. Odkryli, że im bardziej zakrzywione były hodowle, tym więcej komórek na krawędziach zawierało markery charakterystyczne dla komórek macierzystych (to właściwość kluczowa dla rozprzestrzeniania się do innych tkanek). Zespół prof. Kristophera Kiliana specjalizuje się w inżynierii tkankowej, uzyskując na tej drodze modele guzów. W ramach najnowszego studium Amerykanie hodowali w środowiskach 2D i 3D kolonie mysich nowotworów skóry. Miały one różne kształty i wzorce. Wszystko po to, by sprawdzić, czy kształt guza przyczynia się do aktywacji nowotworowych komórek macierzystych (NKM). Naukowcy sprawdzali też, gdzie w guzie pojawiały się NKM. Autorzy publikacji z pisma Nature Materials zauważyli, że NKM pojawiały się najliczniej na krawędziach wyhodowanych środowisk, a zwłaszcza w rogach i wzdłuż krzywych wypukłych. Było to dość zaskakujące. Normalne komórki macierzyste preferują miękkie, gąbczaste i położone w środku lokalizacje, dlatego w przypadku nowotworów wszyscy zakładali, że NKM będą się [również] znajdować pośrodku guza. Odkryliśmy, że geometryczne ograniczenia, takie jak te występujące na styku guza i zdrowej tkanki, wydają się aktywować nowotworowe komórki macierzyste na obwodzie. By potwierdzić zdolność do rozprzestrzeniania się, wykonano szereg testów, w tym analizy genetyczne. Przeprowadzono też badania z innymi liniami nowotworowymi (ludzkiego raka szyjki macicy, nowotworu płuc i raka prostaty). Okazało się, że reagowały tak samo, jak to zaobserwowano w przypadku komórek nowotworu skóry. W dalszym etapie Kilian nawiązał współpracę z weterynarzem prof. Timothym Fanem. Naukowcy testowali komórki macierzyste nowotworów skóry na żywych myszach i zauważyli, że komórki z "uwzorcowanych" środowisk o wiele częściej prowadziły do powstania guzów niż komórki pobrane ze zwykłych hodowli szalkowych. Odkryliśmy, że gdy myszom podano komórki, które w wyniku inżynierii [tkankowej] miały cechy NKM, częściej tworzyły się guzy i że z większym prawdopodobieństwem występowały przerzuty do płuc. Analogicznie w guzie w regionach, w których rozwijają się opisane wyżej kształty, może następować aktywacja komórek. Następnie odrywają się one i tworzą guzy. Chirurdzy mogą więc oglądać obwód guza i na tej podstawie decydować, które okolice będą bardziej problematyczne - gdzie trzeba wyciąć większy, a gdzie mniejszy margines tkanki. Kilian sądzi, że zdobycze inżynierii środowiska guza można wykorzystać w spersonalizowanej medycynie. Można sobie wyobrazić, że pacjent ma guz danego rodzaju. Specjaliści odtwarzaliby go z własnych komórek chorego i dysponując modelem, testowaliby na nim różne leki. Później wybierano by te, które oddziałują zarówno na komórki guza, jak i NKM. « powrót do artykułu
  23. Po zaledwie trzech dniach przebywania na diecie wysokotłuszczowej do mózgów karmionych nią myszy dociera mniej glukozy niż przy normalnej diecie. Poziom glukozy w mózgu powraca do normy dopiero po miesiącu i odbywa się to kosztem reszty organizmu. Odkrycie naukowców z Instytutu Badań nad Metabolizmem im. Maksa Plancka w Kolonii przynosi kolejne dowody na szkodliwy wpływ złego odżywiania się. Wysokotłuszczowa dieta w ciągu zaledwie trzech dni zmniejsza ilość glukozy trafiającej do mózgu. Mózg głoduje, pomimo że myszy spożywają dużą liczbę kalorii. Odpowiedzialna za ten stan rzeczy jest proteina GLUT-1, najważniejszy transporter glukozy przez barierę krew-mózg - mówi Alexander Jais, główny autor badań. Naukowcy spekulują, że działanie GLUT-1 jest upośledzane przez wolne nasycone kwasy tłuszczowe, które są toksyczne dla komórek bariery krew-mózg. Niedobory glukozy zauważono w podwzgórzu odpowiedzialnym za regulację metabolizmu oraz w korze mózgowej, dzięki której uczymy się i zapamiętujemy. Mózg, broniąc się przed głodem, pobudza makrofagi do produkcji czynnika wzrostu VEGF, który z kolei zwiększa produkcję GLUT-1 i uwalnia tę proteinę bezpośrednio do komórek bariery krwi-mózg. Po czterech tygodniach, pomimo tego, że myszy pozostają na diecie wysokotłuszczowej, poziom glukozy w mózgu powraca do normy. Odbywa się to jednak kosztem reszty organizmu. Nazywamy to samolubnym mózgiem, gdyż uzyskuje on glukozę zwiększając zapotrzebowanie organizmu na słodycze i - w dłuższym okresie - zmniejszając jej dostarczanie do mięśni i tłuszczu. Komórki w mięśniach stają się oporne na insulinę, która reguluje poziom glukozy w komórkach. W efekcie prowadzi to do rozwoju cukrzycy - mówi Jais. « powrót do artykułu
  24. Ludzie, którzy łatwo empatyzują z innymi, niekoniecznie dobrze ich rozumieją. Okazuje się wręcz, że nadmierna empatia może utrudnić zrozumienie. Zespół psychologów z Würzburga i Lipska sprawdzał, czy empatia i mentalizacja (zdolność rozumienia stanów innych ludzi) się ze sobą łączą. Udana interakcja społeczna bazuje na naszej zdolności współodczuwania i rozumienia myśli czy intencji innych ludzi - wyjaśnia dr Anne Böckler, dodając, że dotąd nie było wiadomo, czy i ewentualnie do jakiego stopnia te 2 zdolności są skorelowane - czy ludzie, którzy bez problemu empatyzują z innymi, potrafią także łatwo wychwycić ich myśli/intencje. Oprócz tego Niemcy sprawdzali, czy sieci neuronalne odpowiedzialne za wymienione zdolności wchodzą ze sobą w interakcje. Psycholodzy mogli to ocenić dzięki odpowiednio zaplanowanym eksperymentom. Okazało się, że ludzie, którzy byli empatyczni, niekoniecznie rozumieli innych na poziomie poznawczym. Wygląda więc na to, że umiejętności społeczne bazują nie na jednej, lecz na wielu niezależnych zdolnościach. Zespół zauważył ponadto, że sieci mózgowe odpowiedzialne za empatię i przyjmowanie perspektywy poznawczej wchodzą ze sobą w kontakt. W bardzo emocjonalnych sytuacjach, np. gdy ktoś opowiada o śmierci bliskiej osoby, aktywacja wyspy, która wchodzi w skład sieci empatii, może u pewnych ludzi zahamować rejony mózgu istotne dla przyjmowania czyjejś perspektywy. W takim przypadku nadmierna empatia upośledzi społeczne zrozumienie. Uczestnicy studium oglądali sekwencje wideo, których narrator wypowiadał się mniej lub bardziej emocjonalnie. Później mieli ocenić, jak się czuli i jak bardzo współczuli bohaterowi(om) filmu, a także odpowiedzieć na parę pytań, np. co mogli czuć, wiedzieć i zamierzać uwiecznieni na nim ludzie. Dzięki takiemu schematowi badania naukowcy mogli sprawdzić, jaki procent ochotników z wysoką empatią znajduje się wśród ludzi osiągających dobre lub złe wyniki w teście przyjmowania perspektywy poznawczej i na odwrót. Za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) obserwowano, kiedy uaktywniają się jakie obszary mózgu. « powrót do artykułu
  25. Elon Musk, właściciel SpaceX, wywołał prawdziwą burzę, oświadczając na Twitterze, że jego firma ma zamiar wysłać na Marsa kapsułę Dragon już w 2018 roku. O tym, że Mars jest celem SpaceX wiadomo od dłuższego czasu, nikt się jednak nie spodziewał, że przedsiębiorstwo Muska chce rozpocząć misję już za dwa lata. Na razie dysponujemy jedynie wpisem Muska, na witrynie SpaceX próżno szukać oficjalnego oświadczenia. Wiele rzeczy pozostaje więc w świecie domysłów. Wiadomo jednak, że jeśli rzeczywiście marsjańska misja SpaceX ruszy już w 2018 roku będzie to misja bezzałogowa, a jej celem ma być próba umieszczenia dużego ładunku na powierzchni Czerwonej Planety. Ładunkiem tym ma być kapsuła Dragon, która miałaby wystartować na pokładzie rakiety Falcon Heavy. Jeśli przedsięwzięcie się powiedzie, będzie to najcięższy ładunek umieszczony przez człowieka na Marsie. Musk w swoim wpisie nazwał kapsułę Red Dragon. Być może tak będzie brzmiała oficjalna nazwa urządzenia, które miałoby wylądować na powierzchni Czerwonej Planety. « powrót do artykułu
×
×
  • Dodaj nową pozycję...