Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37629
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    246

Zawartość dodana przez KopalniaWiedzy.pl

  1. DARPA i Xerox zaprezentowały układ scalony, który ulega zniszczeniu na żądanie. Tego typu układy będą niezwykle przydatne tam, gdzie wymagany jest najwyższy stopień bezpieczeństwa danych. Wojskowi czy agenci służb specjalnych nie będą musieli obawiać się o dane zapisane w zgubionym, skradzionym, zdobytym przez wroga czy celowo pozostawionym sprzęcie elektronicznym. Wystarczy odpowiedni sygnał, by w ciągu pięciu sekund układ, na którym zapisano cenne informacje, uległ zniszczeniu uniemożliwiającemu dostęp do danych. Podczas organizowanej przez DARPA konferencji Wait, What?, podczas której prezentowane są technologie przyszłości, pokazano układ scalony zbudowany na podłożu z Gorilla Glass. To wytrzymałe szkło znane m.in. posiadaczom smartfonów. W ramach ogłoszonego przez DARPA programu Vanishing Programmable Resources (VAPR) inżynierowie z Xerox PARC hartowali Gorilla Glass za pomocą technologii wymiany jonów, osłabiając strukturę szkła. Zostało ono przygotowane tak, by pękało pod wpływem określonego czynnika. Jest nim temperatura, dlatego w układ wbudowany niewielki opornik. Gdy układ ma ulec zniszczeniu wystarczy przesłać prąd do opornika, by w ciągu kilku sekund ciepło spowodowało pojawienie się w układzie tysięcy pęknięć, uniemożliwiających odczytanie danych. Opornik może zostać uruchomiony zarówno przez osobę mającą fizyczny dostęp do urządzenia, jak i zdalnie. Wystarczy też pozostawić układ w miejscu, gdzie warunki środowiskowe rozgrzeją go na tyle, iż zostanie on zniszczony. « powrót do artykułu
  2. Choć tazobaktam, piperacylina i meropenem nie sprawdzają się w pojedynkę, razem zabijają metycylinooporne gronkowce złociste (ang. methicillin-resistant Staphylococcus aureus, MRSA) zarówno w probówce, jak i w modelu mysim. Zespół ze Szkoły Medycznej Uniwersytetu Waszyngtona w St. Louis sądzą, że podobna trójskładnikowa strategia sprawdzi się także w przypadku ludzi. Zakażenia MRSA zabijają co roku w Stanach 11 tys. osób. Patogen ten jest uznawany za jedną z najgorszych lekoopornych bakterii - podkreśla dr Gautam Dantas. Zespół Dantasa współpracował z laboratorium mikrobiologicznym Barnes-Jewish Hospital. Amerykanie prowadzili badania genetyczne 73 szczepów MRSA (chodziło o uwzględnienie jak najszerszej gamy form patogenu ze szpitali i środowiska). Okazało się, że połączenie 3 antybiotyków sprawdzało się w każdym przypadku. Później, na etapie studium realizowanym we współpracy z University of Notre Dame, stwierdzono, że zestaw leczył zakażone MRSA myszy równie skutecznie, co jeden z najsilniejszych antybiotyków na rynku. Bez farmakoterapii gryzonie nie przeżyłyby dnia, lecz 3-składnikowy koktajl je wyleczył. Antybiotyki atakujące ścianę komórkową bakterii działały synergicznie. Co istotne, Amerykanie nie zauważyli, by te 3 antybiotyki prowadziły do lekooporności MRSA. Wiemy, że ostatecznie wszystkie bakterie stają się oporne na antybiotyki, ale to trio kupuje nam nieco czasu, być może nawet dość dużo. Zaczęliśmy od MRSA, bo to bardzo trudny do leczenia patogen, ale mamy nadzieję, że identyczne podejście [łączenie nieskutecznych w pojedynkę leków] sprawdzi się w przypadku innych zabójczych patogenów, np. przedstawicieli rodzaju Pseudomonas czy zjadliwych postaci pałeczek okrężnicy. « powrót do artykułu
  3. Rosyjska Federalna Służba Antymonopolowa uznała, że Google naruszył przepisy antymonopolowe zmuszając producentów smartfonów z systemem Android do instalowania na nich google'owskiego oprogramowania, w tym sklepu Google Play. Śledztwo w sprawie postępowania Google'a rozpoczęło się w lutym, po skardze złożonej przez przedstawicieli rosyjskiej wyszukiwarki Yandex, która rozwija własne aplikacje mobilne i ma własny sklep z oprogramowaniem dla Androida. Teraz władze uznały, że Google złamał rosyjskie prawo, gdyż w telefonach z Androidem sprzedawanych na terenie Federacji Rosyjskiej wymuszał instalowanie własnych programów. To z kolei utrudniało innym firmom konkurowanie z Google'em. Zgodnie z rosyjskim prawem za zarzucane czyny Google może zostać skazane na zapłacenie grzywny w wysokości do 15% przychodów ze sprzedaży towarów i usług na rynkach, na których doszło do naruszenia przepisów. Rosyjscy urzędnicy w ciągu 2 najbliższych tygodni opublikują swoją decyzję z pełnym uzasadnieniem oraz żądaniem, by Google zaprzestał nadużywania swojej dominującej pozycji. W dokumencie pojawią się też propozycje dotyczące poprawy konkurencyjności. Mogą to być na przykład żądania, by Google usunął z umów z partnerami punkty zakazujące im instalowania oprogramowania konkurującego z produktami Google'a. Władze poinformowały też o zakończeniu innego śledztwa, w czasie którego badano doniesienia, jakoby Google był zaangażowany w czyny niedozwolonej konkurencji. W tym przypadku nie znaleziono dowodów na złamanie prawa. « powrót do artykułu
  4. U osób, które regularnie palą, ryzyko utraty zębów jest podwyższone. Prawdopodobieństwo utraty zębów przez palaczy i palaczki jest, odpowiednio, 3,6 i 2,5 razy wyższe. Wyliczono je w oparciu o wyniki podłużnego badania kohorty EPIC Potsdam. Autorami studium są naukowcy z Uniwersytetu w Birmingham oraz Niemieckiego Instytutu Odżywiania. Utrata zębów to poważny problem na skalę świata. W Wielkiej Brytanii bezzębność występuje u piętnastu procent 65-74-latków i ponad trzydziestu procent osób powyżej 75. r.ż. W skali globalnej w grupie 65-74-latków statystyki są bliższe raczej 30%. Większość zębów traci się w wyniku próchnicy lub przewlekłych chorób przyzębia. Ponieważ palenie to ważny czynnik ryzyka tych ostatnich, może to wyjaśniać wyższy wskaźnik utraty zębów u palaczy - wyjaśnia prof. Thomas Dietrich. Palenie hamuje krwawienie dziąseł, przez co wydają się one zdrowsze, niż są. Dobra wiadomość jest taka, że rzucenie nałogu dość szybko zmniejsza ryzyko. Choć proces może trwać ponad 10 lat, ostatecznie były palacz może mieć takie samo ryzyko utraty zębów jak ktoś, kto nigdy nie palił. Choroba dziąseł i [...] utrata zębów bywa pierwszym zauważalnym zdrowotnym skutkiem palenia. Może więc dawać motywację do zerwania z nałogiem, nim rozwiną się stany zagrażające życiu, np. choroby układu oddechowego czy rak płuc - dodaje Kolade Oluwagbemigun. Wyniki uzyskano, analizując dane 23.376 ochotników. Celem brytyjsko-niemieckiego zespołu było zbadanie związków między paleniem, zakończeniem palenia a utratą zębów w trzech grupach wiekowych. Związek między utratą zębów a paleniem był najsilniejszy u młodszych osób. Widać też było zależność od dawki: u ludzi palących dużo ryzyko utraty zębów było wyższe. Opisana korelacja okazała się niezależna od innych potencjalnie istotnych czynników, np. cukrzycy. « powrót do artykułu
  5. Organizacja Współpracy Gospodarczej i Rozwoju (OECD) informuje, że skomputeryzowanie szkół nie poprawia umiejętności czytania i pisania, umiejętności matematycznych ani w żaden inny sposób nie powoduje, że dzieci uczą się lepiej niż bez komputerów. Z raportu OECD dowiadujemy się, że skupienie się na nauce czytania i pisania oraz matematyce daje więcej niż zakupy nowoczesnego sprzętu dla szkół. Autorzy raportu przeanalizowali wyniki uzyskane podczas 2012 PISA przez 500 tysięcy 15-latków z 59 krajów. Zadaniem uczniów było m.in. nawigowanie po tekście za pomocą hiperłączy, przycisków w przeglądarce lub przewijania, w celu uzyskania dostępu do informacji oraz wykonanie wykresu na podstawie danych z komputerowego kalkulatora". W ocenie nie brano pod uwagę dzieci z USA i Wielkiej Brytanii. Eksperci OECD doszli do wniosku, że postępy w nauce są z większym prawdopodobieństwem wynikiem wpływu czynników społeczno-ekonomicznych niż dostępu do nowoczesnej technologii. Wyniki testów PISA nie wykazują żadnej poprawy w krajach, które inwestują duże kwoty w technologie dla edukacji - powiedział Andreas Schleicher, dyrektor OECD ds. edukacji. Inwestycja w technologie nie zmieni złej sytuacji w krajach zapóźnionych pod względem edukacji. Muszą one położyć nacisk na nauczanie podstawowe. Badania wykazały bowiem, że gdy uczniowie z takich krajów zyskują dostęp do technologii, różnice w edukacji pozostają i są spowodowane właśnie czynnikami społecznymi i ekonomicznymi. Jedną z przyczyn takiego stanu rzeczy może być nieodpowiednie wykorzystywanie technologii. Jeśli uczniowie wykorzystują smartfony po to, by skopiować gotowe odpowiedzi na problemy stawiane przez nauczyciela, to nie stają się od tego mądrzejsi. Jeśli chcemy, by uczeń był mądrzejszy od smartfonu, to musimy przemyśleć metody nauczania. Technologia może wspomóc świetne nauczanie, ale świetna technologia nie wyrówna niedoborów słabego nauczania, stwierdzają autorzy raportu. « powrót do artykułu
  6. Pomimo odpisania kosztów przejęcia wydziału telefonów komórkowych Nokii i zapowiadanych zwolnień, Microsoft najwyraźniej nie rezygnuje z produkcji własnego sprzętu. Koncern wysłał właśnie zaproszenia na konferencję, która odbędzie się 6 października. Mamy ekscytujące informacje o urządzeniach z Windows 10, czytamy w zaproszeniu. Dziennikarze spodziewają się, że Microsoft zaprezentuje tablet Surface Pro 4, inteligentną opaskę treningową Band 2 oraz kilka nowych modeli smartfonów Lumia. Najprawdopodobniej będą wśród nich dwa flagowe modele o nazwach kodowych "Talkman" i "Cityman". Mają one rywalizować z iPhone'em 6 i flagowymi urządzeniami z Androidem. « powrót do artykułu
  7. Pokrywa śnieżna w kalifornijskich górach Sierra Nevada jest najmniejsza od 500 lat, poinformowali naukowcy z University of Arizona. Nasze badania pokazują, jak ekstremalny charakter miała zima 2014/2015. Była bezprecedensowa nie w ciągu ostatnich 80, ale w ciągu 500 lat - mówi profesor Valerie Trouet z Laboratorium Badań Pierścieni Drzew. Powinniśmy się przygotować do tego, że w związku z rosnącymi temperaturami takie suche zimy będą zdarzały się coraz częściej. Antropogeniczne ocieplenie klimatu powoduje, że susze są coraz poważniejsze, dodaje. Gubernator Kalifornii, Jerry Brown już 1 kwietnia ogłosił pierwsze w historii obowiązkowe stanowe ograniczenia w poborze wody. O swojej decyzji informował stojąc właśnie w Sierra Nevada na wysokości 2072 metrów nad poziomem morza. Zwykle o tej porze w tym miejscu powinno być ponad 1,5 metra śniegu. Brak śniegu w górach to wynik bardzo małych opadów oraz niezwykle ciepłych trzech pierwszych miesięcy roku. Jako, że w Kalifornii aż 80% wody z opadów jest dostarczanych właśnie zimą, stan przeżywa poważną suszę. Śnieg to naturalny system przechowywania wody. W takich miejscach jak Kalifornia, które są suche w miesiącach letnich opady śniegu są niezwykle ważne. Woda jest przechowywana w formie śniegu zimą i uwalniana latem, gdy nie padają deszcze - dodaje Trouet. Kalifornijski Departament Zasobów Wodnych tradycyjnie wykonuje pomiary grubości pokrywy śnieżnej 1 kwietnia każdego roku, gdy śniegu jest najwięcej. Tym razem śniegu było wyjątkowo mało. Naukowcy oceniali pokrywę śnieżną w Kalifornii na podstawie wcześniejszych danych z pierścieni drzew za lata 1405-2005 oraz z corocznych pomiarów dokonywanych od 1930 roku. Wykorzystano też rekonstrukcje temperatur za lata 1500-1980. Już wcześniej zmierzono szerokość pierścieni 1505 drzew w 33 lokalizacjach w kalifornijskiej Central Valley. Jako, że burze, które dostarczają wodę do Central Valley przynoszą także opady śniegu w Sierra Nevada, pomiary pierścieni drzew dają dobre przybliżenie pokrywy śnieżnej w górach. Badania pierścieni i wyciągnięte na ich podstawie wnioski o grubości pokrywy są zgodne zarówno z niezależnymi rekonstrukcjami temperatury jak i pomiarami prowadzonymi od 85 lat. « powrót do artykułu
  8. Gdy u 54-letniego pacjenta zdiagnozowano mięsaka ściany klatki piersiowej, ekipa chirurgów zdecydowała się zastąpić usunięty mostek i część żeber wydrukowanym w 3D tytanowym implantem. Implant został zaprojektowany i wykonany przez australijską firmę Anatomics, która korzystała ze sprzętu pozostającego na wyposażeniu Lab 22 w Clayton. Doktorzy José Aranda, Marcelo Jimene i Gonzalo Varela ze Szpitala Uniwersyteckiego w Salamance spodziewali się, że ze względu na skomplikowaną geometrię jamy klatki piersiowej operacja będzie trudna. Chirurdzy myśleli o stworzeniu nowego rodzaju implantu, dostosowanego do złożonej budowy mostka i żeber. Chcieliśmy zapewnić pacjentowi bezpieczniejszą opcję i poprawić rekonwalescencję po zabiegu - opowiada Aranda. Specjaliści zwrócili się z prośbą o pomoc do firmy Anatomics. Oceniwszy wymogi zamówienia, dyrektor wykonawczy Andrew Batty stwierdził, że najlepszym rozwiązaniem byłoby drukowanie 3D w metalu. Choć wcześniej w torakochirurgii stosowano implanty tytanowe, projekty nie uwzględniały zagadnień związanych z długoterminowym mocowaniem. Płaskie implanty i płytki mocuje się na sztywno za pomocą śrub, ale po jakimś czasie mogą się one poluzować, co zwiększa ryzyko powikłań i ponownej operacji. Uciekając się do tomografii komputerowej w wysokiej rozdzielczości, eksperci z Anatomics zrekonstruowali w trójwymiarze budowę klatki piersiowej pacjenta i guz. Dzięki temu chirurdzy mogli dokładnie wyznaczyć marginesy resekcji. [...] Byliśmy w stanie zaprojektować implant ze sztywnym mostkowym rdzeniem i półgiętkimi tytanowymi prętami, które pełnią funkcję protez żeber [...] - wyjaśnia Batty. Implant ze stopu tytanowego odpowiedniej próby wydrukowano na wartym 1,3 mln dol. sprzęcie. Przedsięwzięcie zrealizowano w należącym do Commonwealth Scientific and Industrial Research Organisation Lab 22. Drukarka kieruje strumień elektronów na warstwę sproszkowanego tytanu i go topi. Później proces jest powtarzany, by warstwa po warstwie uzyskać implant. W porównaniu do tradycyjnych metod produkcyjnych, drukowanie 3D zapewnia kilka korzyści, zwłaszcza w dziedzinie biomedycyny. Po pierwsze, pozwala na dostosowanie [dizajnu] do potrzeb, po drugie, umożliwia szybkie uzyskiwanie prototypów - a ma to spore znaczenie dla czekającego na operację chorego - dodaje Alex Kingsbury z CSIRO. Gotową protezę wysłano do Hiszpanii, gdzie z powodzeniem została wszczepiona pacjentowi. « powrót do artykułu
  9. Serwis FUDzilla, powołując się na anonimowe źródła w przemyśle donosi, że Microsoft jest poważnie zainteresowany przejęciem AMD. Koncern z Redmond ma spore zapasy gotówki, a AMD nie wiedzie się ostatnio najlepiej. Produkty półprzewodnikowego przedsiębiorstwa nie są zbyt konkurencyjne. Obecnie cała nadzieja firmy opiera się na nowym rdzeniu Zen. Jeśli i on nie przyciągnie klientów, firma może znaleźć się w poważnych kłopotach. Można się zastanawiać, po co Microsoftowi firma projektująca układy scalone. Odpowiedzią jest tutaj Xbox. Dzięki przejęciu AMD koncern kierowany przez Nadellę miałby całkowitą kontrolę nad rozwojem układów scalonych dla przyszłych wersji swojej konsoli, mógłby też kontrolować rozwój procesorów graficznych i za ich pomocą promować swoje kolejne rozwiązania z rodziny DirectX. Po ewentualnym przejęciu przez Microsoft projektowane przez AMD procesory lepiej spełniałyby wymagania firmy odnośnie ich stosowania w tablecie Surface. Nie można też zapominać, że AMD działa na rynku serwerowym, na którym mocną pozycję ma również firma założona przez Gatesa. Nie można też wykluczyć, że jedynym ratunkiem dla AMD okaże się podzielenie firmy i sprzedaż niektórych jej części, np. wydziału zajmującego się procesorami graficznymi. Pojawiają się nawet informacje,że przejęciem AMD jest zainteresowany Intel. O ile jeszcze kilka lat temu byłoby to niemożliwe, to obecnie Intel ma na rynku półprzewodników silną konkurencję ze strony Apple'a, Samsunga i wielu innych firm, zatem trudno byłoby urzędom zablokować taką fuzję argumentem o monopolistycznej pozycji Intela. « powrót do artykułu
  10. Naukowy z The University of Western Australia i berlińskiego Uniwersytetu Humboldta przeprowadzili najbardziej precyzyjne testy spójności przestrzennej prędkości światła. Precyzja pomiaru była 10-krotnie większa niż dotychczas. Pomiary potwierdziły prawdziwość kluczowego elementu teorii względności czyli symetrii Lorenza, zgodnie z którą prędkość światła jest identyczna we wszystkich kierunkach. W czasie wspomnianego eksperymentu naukowcy przez rok porównywali niezwykle czyste mikrofalowe sygnały z kriogenicznych szafirowych oscylatorów. Osclatory były ustawione prostopadle względem siebie i co 100 sekund były obracane. Częstotliwość sygnałów mikrofalowych była wprost powiązana z prędkością światła. Jeśli okazałoby się, że zmienia się ona w zależności od kierunku emisji, to by oznaczało, że zasada symetrii Lorenza została naruszona. Okazało się jednak, że nie widać żadnych zmian nawet, gdy pomiary wykonywaliśmy z dokładnością do 18 miejsc po przecinku. To niezwykłe, że natura utrzymuje tak precyzyjną symetrię - mówi doktor Stephen Parker z UWA. Uczony informuje, że obecnie trwają prace nad udoskonaleniem aparatury i wyposażeniem jej w nowe źródła światła, co pozwoli na przeprowadzenie jeszcze bardziej szczegółowych pomiarów. To pozwoli nam na zwiększenie czułości eksperymentu i zbadanie innych pól, na których symetria Lorenza mogłaby zostać naruszona - dodaje. « powrót do artykułu
  11. Słonie, które urodziły się w stresujących sytuacjach, mają mniej potomstwa i szybciej się starzeją. Naukowcy z Uniwersytetu w Sheffield odkryli, że słonie indyjskie (Elephas maximus), które urodziły się w okresie, gdy ich matki przeżywały najwyższy poziom stresu, mają w ciągu życia znacząco mniej dzieci, mimo że we wczesnym wieku odznaczają się wyższym wskaźnikiem reprodukcyjnym. Autorzy publikacji z pisma Scientific Reports zauważyli także, że dziesięciolecia później słonie te starzeją się o wiele szybciej. Złe warunki na wczesnych etapach życia powiązano z różnymi stanami chorobowymi u ludzi, nie wiadomo jednak, czy wczesny stres przyspiesza również tempo starzenia u [innych] długowiecznych gatunków" - podkreśla dr Hannah Mumby. Odkryliśmy, że spadek reprodukcji z wiekiem jest ostrzejszy u słoni, które urodziły się w kiepskiej porze roku. Choć rozmnażają się one nieco bardziej w młodym wieku, nadal nie kompensuje to ostrych spadów w późniejszy okresach, co przekłada się na mniejszą liczbę potomstwa ogółem. Brytyjczycy doszli do tego wniosku, analizując dane dotyczące życia i zgonów ponad 10 tys. słoni z Birmy - 3 pokoleń żyjących na przestrzeni niemal wieku. Były to półudomowione zwierzęta, pracujące w przemyśle drzewnym. By stwierdzić, które miesiące stanowiły dla słoni stresujące warunki, posługiwano się pomiarami metabolitów glukokortykoidu. Okazało się, że dla zwierząt najbardziej wymagające były miesiące od czerwca do sierpnia. Przypadają one na porę monsunową, kiedy słonie najciężej pracują przy transporcie ściętych drzew do rzek. Liczba przychodzących na świat słoniątek jest wtedy najniższa, a perspektywy ich przeżycia najgorsze. Biolodzy uważają, że uzyskane wyniki odnoszą się m.in. do słoni urodzonych w ogrodach zoologicznych, gdzie mogą one doświadczać stresu związanego z niewolą. « powrót do artykułu
  12. Naukowcy z Uniwersytetu Północnej Karoliny stworzyli komórki immunologiczne, które nie tylko wytwarzają i dostarczają do mózgu lecznicze białka, ale i "uczą" neurony, aby zaczęły je produkować same dla siebie. Zespół prof. Eleny Batrakovej zmodyfikował genetycznie makrofagi, by wytwarzały i dostarczały do mózgu glejopochodny czynnik neurotropowy (ang. glial cell-derived neurotrophic factor, GDNF). Komórki glejowe to drugi oprócz neuronów składnik tkanki nerwowej. Pełnią one wiele funkcji, m.in. odżywiają i ochraniają neurony. GDNF może naprawiać i stymulować wzrost uszkodzonych komórek nerwowych. Obecnie nie ma terapii hamujących bądź odwracających bieg choroby Parkisnona. Istnieją tylko metody mające poprawić jakość życia, np. dopaminowa terapia zastępcza. Badania wskazują jednak, że dostarczanie do mózgu czynnika neurotropowego nie tylko sprzyja przeżyciu neuronów, ale i odwraca patogenezę parkinsona. Zmodyfikowane makrofagi nie tylko transportują GDNF, ale i dostarczając narzędzia oraz instrukcje (DNA, mRNA i czynnik transkrypcyjny), uczą neurony samodzielnego wytwarzania czynnika. Batrakova podkreśla, że wykorzystując komórki układu odpornościowego, unika się ataków mechanizmów obronnych organizmu. Ponadto w odróżnieniu od większości leków, makrofagi potrafią przenikać barierę krew-mózg. Później uwalniają one egzosomy z GDNF. Ucząc układ odpornościowy produkowania tego ochronnego białka, pozyskujemy naturalne układy organizmu do zwalczania chorób neurodegeneracyjnych takich jak parkinsonizm. « powrót do artykułu
  13. Akamai, światowy potentat w przechowywaniu danych, ostrzega przed rosnącą liczbą ataków DDoS przeprowadzanych przez znaną grupę internetowych szantażystów. Cybergang DD4BC jest znany od 2014 roku. Przestępcy zajmują się wymuszaniem haraczy na firmach, którym grożą atakiem DDoS. Akamai informuje, że od września 2014 do lipca 2015 przestępcy przeprowadzili 141 ataków przeciwko 124 przedsiębiorstwom. Początkowo ich działalność była bardzo ograniczona. Pomiędzy wrześniem 2014 a marcem 2015 DD4BC przeprowadzała średnio 4 ataki miesięcznie przeciwko tym firmom, które nie zgodziły się zapłacić za spokój bitcoinami. W kwietniu zanotowano już 16 ataków, w czerwcu było ich aż 41, w lipcu ich liczba spadła do 31. Przestępcy atakują bardzo różne przedsiębiorstwa, jednak większość - 58% - ataków przeprowadzanych jest na firmy z sektora usług finansowych, 12% to przedsiębiorstwa działające w branży mediów i rozrywki, 9% - gier, 6% - sprzedaży detalicznej dóbr konsumenckich, 5% ich ofiar to firmy zajmujące się oprogramowaniem i technologiami, a kolejne 5% to te, dziąłające w sektorze internetu i telekomunikacji. Gang atakował początkowo przedsiębiorstwa z Ameryki Północnej i Azji. Póxniej przeniósł swoje zainteresowanie na firmy europejskie, następnie zaczął atakować biznes w Korei, Chinach, Australii i Nowej Zelandii, a ostatnia fala ataków dotknęła głównie przedsiębiorstw z USA i Kanady. Szantażyści początkowo żądają od 25 do 50 bitcointów. Jeśli ich żądania nie zostaną spełnione w ciągu 24 godzin cena rośnie nawet do 100 bitcoinów. Akamai informuje, że udało się jej zapobiec 75 atakom. Średni ruch wygenerowany przez przestępców na każdy z tych ataków wynosił 13,34 Gbps, średnia liczba przesłanych pakietów to 3,13 Mpps, a najwyższe zanotowane natężenie ruchu wyniosło 56,2 Gbps. Akamai nie było w stanie namierzyć przestępców, ani określić ich pochodzenia. Firma ostrzega, by nie płacić okupu. "Jeśli przedsiębiorstwo zapłaci, nie ma gwarancji, że szantażyści ponownie nie zaatakują i nie zażądają więcej. Ponadto jeśli firmy będą im płaciły, mogą zachęcić do podobnego postępowania inne grupy cyberprzestępców. Pamiętajmy, że to działa tylko wtedy, jeśli przestępcy na tym zyskują. Jeśli nie będziemy płacili to zwykle liczba prób szantażu się zmniejszy". « powrót do artykułu
  14. Sony reklamuje swoje tablety i smartfony jako urządzenia wodoodporne. Na reklamach widzimy, jak świetnie radzą sobie one po zamoczeniu i dowiadujemy się, że użytkownik nie powinien zbytnio przejmować się jeśli narazi urządzenie Xperia na kontakt z wodą. Rzeczywistość odbiega jednak od świata reklamy. Owszem Sony testowało swoje urządzenia pod wodą. Jednak, jak się dowiadujemy, testy w warunkach laboratoryjnych wyglądały w ten sposób, że "urządzenia są delikatnie wkładane do zbiornika z wodą z kranu i zanurzane na głębokość 1,5 metra. Po 30 minutach są delikatnie wyjmowane i sprawdza się czy działają". Tymczasem na reklamach widzimy właściciela Xperii, który wskakuje z nim do wody i wykonuje zdjęcia. Reklama sugeruje tez, że nie musimy przejmować się, jeśli na Xperię pada deszcz. Wątpliwości rozwiewa przedstawiciel Sony, który stwierdził, że "poruszanie lub używanie urządzenia pod wodą nie było testowane. Istnieje wiele czynników, których wpływu nie mogliśmy ocenić (na przykład ruchu wody czy jej ciśnienia podczas poruszania się) gdy urządzenie znajduje się pod wodą. Dlatego też nie zalecamy zanurzania urządzenia Xperia Z5". « powrót do artykułu
  15. Przynajmniej w Europie, jedzenie dużych ilości ryb może zmniejszyć ryzyko depresji. Związek między dietą rybną a zdrowiem psychicznym wydaje się równie znaczący u kobiet i mężczyzn. Kilka wcześniejszych studiów dotyczyło ewentualnej roli czynników dietetycznych w modyfikowaniu ryzyka depresji. Niestety, nie dawały one rozstrzygających wyników. By ocenić siłę związku między spożyciem ryb a ryzykiem depresji, zespół prof. Dongfenga Zhanga z College'u Medycznego Uniwersytetu w Qingdao postanowił przejrzeć odpowiednie publikacje z okresu między 2001 a 2014 r. Przewertowawszy bazy danych, Chińczycy natrafili na 101 artykułów, z których 16 nadawało się do dalszej analizy (opisywały one 26 badań, łącznie obejmujących 150.278 uczestników). Dziesięć badań to badania kohortowe, a reszta przekrojowe. Dziesięć przeprowadzano na Europejczykach, 7 w Ameryce Północnej, a reszta obejmowała osoby z Azji, Oceanii oraz Ameryki Południowej. Okazało się, że u osób jedzących najwięcej ryb ryzyko depresji było o 17% niższe niż u ludzi spożywających ich najmniej. Znaczący związek występował zarówno w badaniach kohortowych, jak i przekrojowych, ale wyłącznie europejskich. Kiedy Chińczycy skupili się na płci, okazało się, że wpływ diety rybnej na ryzyko depresji był nieco wyższy w przypadku mężczyzn niż kobiet (20-proc. spadek ryzyka w porównaniu do 16%). Ze względu na obserwacyjny charakter metaanalizy nie można wyciągać wniosków odnośnie do zależności przyczynowo-skutkowych, w dodatku autorzy poszczególnych studiów mierzyli spożycie ryb za pomocą różnych metod. Zhang i inni uważają jednak, że istnieje dobre biologiczne wyjaśnienie dla zaobserwowanej korelacji. Wcześniej sugerowano bowiem np., że występujące w rybach kwasy omega-3 zmieniają strukturę opon mózgowych i modyfikują aktywność 2 neuroprzekaźników: dopaminy i serotoniny. Ponadto jedzenie ryb wskazuje na zdrową i odżywczą dietę, zapewniającą wysokiej jakości białka, witaminy i minerały. « powrót do artykułu
  16. Zainspirowani sukcesem masowych otwartych kursów online, takich jak Coursera czy edX, stworzyliśmy Copernicus College – miejsce, gdzie każdy może studiować za darmo, po polsku, u najlepszych polskich uczonych. Poza nagranymi wykładami w kursach znajdziecie całe zestawy dodatkowych materiałów – artykuły naukowe, fragmenty książek oraz – jak przystało na kursy uniwersyteckie – zestawy ćwiczeń i egzamin sprawdzający zdobytą wiedzę. Copernicus College znajduje się ciągle w fazie testów, ale już teraz można wziąć udział w kursie „Bóg i kosmologia”, przygotowanym przez prof. Michała Hellera oraz w krótkich „wykładach specjalnych”, poruszających jeden szczególny temat. Wkrótce w Copernicus College ruszą kolejne kursy, pojawią się nowe wykłady specjalne oraz profesjonalne podręczniki akademickie do wielu dyscyplin. W programie: - Współczesna kosmologia i wielkie problemy filozoficzne - prof. George Ellis - Mózg i moralność - prof. Patricia Churchland - Światopogląd teistyczny z perspektywy nauki - prof. John Lennox - Bóg i Kosmologia - prof. dr hab. Michał Heller - Wiązania Chemiczne w Ciele Stałym - dr hab. Andrzej Koleżyński 1. Współczesna kosmologia i wielkie problemy filozoficzne - prof. George Ellis Celem niniejszego wykładu jest przybliżenie współczesnego stanu wiedzy o Kosmosie oraz krytyczne zbadanie, w jakim stopniu wiedza ta pozwala na rozwiązanie odwiecznych problemów filozoficznych: Czy świat miał początek? Dlaczego istniejemy my, ludzie? Czy da się racjonalnie i naukowo mówić o stworzeniu Wszechświata? George Ellis analizuje te kwestie z właściwą sobie przenikliwością, wchodząc w żywą debatę między innymi ze Stephenem Hawkingiem i Richardem Dawkinsem. George F.R. Ellis (ur. 1939) - pochodzący z Republiki Południowej Afryki fizyk teoretyczny, kosmolog oraz filozof zajmujący się zagadnieniami z pogranicza nauki i religii. Wspólnie ze Stephenem Hawkingiem prowadził w latach 70. XX wieku przełomowe badania nad matematyczną strukturą czasoprzestrzeni, przyczynowością we Wszechświecie oraz zagadnieniem czarnych dziur. Laureat Nagrody Templetona w 2004 roku, przyznawanej za "postęp w badaniach dotyczących rzeczywistości duchowych". Aktywny członek Religijnego Towarzystwa Przyjaciół (zwanych potocznie kwakrami), protestanckiego odłamu chrześcijaństwa. 2. Mózg i moralność - prof. Patricia Churchland W wykładzie Mózg i moralność profesor Patricia Churchland podejmuje zagadnienie biologicznych podstaw opieki, zaufania i współpracy. Podążając za Karolem Darwinem, przedstawia ona ewolucyjną ścieżkę uspołecznienia, na końcu której znajdują się zachowania określane powszechnie jako moralne. Ludzka moralność nie polega jej zdaniem na zaprzeczeniu naturze, ale jest wynikiem złożonej gry między biologicznymi podstawami, wspólnymi dla zwierząt społecznych, a praktykami kulturowymi, charakterystycznymi dla różnych zbiorowości. Szczególną uwagę profesor Churchland poświęca mózgowi moralnemu, który modulowany jest przez oksytocynę, nazywaną „hormonem uspołecznienia”. Pokazuje ona, że podstaw moralności nie można szukać jedynie w charakterystycznej dla człowieka rozwiniętej dobrze korze przedczołowej mózgu, umożliwiającej planowanie i kontrolę nad działaniem, ale właśnie oksytocynie i jej wpływie na troskę i opiekę nad innymi. Patricia S. Churchland – profesor nauk kognitywnych i filozofii na Uniwersytecie Kalifornijskim w San Diego (UCSD), współpracuje również z Salk Institute for Biological Studies. Jest jedną z najbardziej znanych i najczęściej cytowanych badaczek umysłu i poznania. Wraz z mężem – Paulem M. Churchlandem – spopularyzowała „neurofilozofię”: dziedzinę, w ramach której tradycyjne problemy filozoficzne podejmowane są w oparciu o najnowsze wyniki badań nad działaniem mózgu. 3. Światopogląd teistyczny z perspektywy nauki - prof. John Lennox Dlaczego nauka nie wyklucza istnienia Boga? Czy wyjaśnianie naukowe i wyjaśnianie teologiczne mogą się uzupełniać? Dlaczego nauka narodziła się w obrębie kultury chrześcijańskiej? Czy istnieje „ostateczny poziom rzeczywistości”? Niniejszy wykład specjalny poświęcony jest zagadnieniu szeroko dyskutowanemu wśród publicystów oraz popularyzatorów nauki – światopoglądowemu napięciu pomiędzy teizmem i ateizmem oraz roli nauki w tym sporze. Na całość składają się nagrania fragmentów wykładów Johna Lennoxa, profesora matematyki na Uniwersytecie w Oxfrodzie oraz publicysty i apologety teizmu, uzupełnione esejami naukowymi oraz artykułami popularnonaukowymi. Wykład składa się z następujących modułów: „Napięcie światopoglądowe”, „Chrześcijaństwo a narodziny nauki”, „Bóg luk”, „Poziomy wyjaśniania”, „Ostateczna rzeczywistość”, „Semantyka stworzenia”, „Przeciw neodarwinizmowi”, „Bóg całego spektaklu”, z których każdy zakończony jest zestawem pytań kontrolnych. Przystąpienie do wykładu nie wymaga specjalistycznej wiedzy. John Lennox jest profesorem matematyki na Uniwersytecie w Oxfordzie, zajmuje się również badaniem relacji pomiędzy nauką a religią. Autor kilku książek poświęconych apologetyce teizmu, uczestnik wielu publicznych dyskusji z Nowymi Ateistami, m.in. Richardem Dawkinsem i Christopherem Hitchensem. 4. Bóg i Kosmologia - prof. dr hab. Michał Heller Pojęcia Boga i Wszechświata są ze sobą współzależne. Zależność ta kryje się choćby w określaniu Boga, jako transcendentnego wobec Wszechświata. Nic dziwnego więc, że obraz Boga ściśle zależy od obrazu świata. Jednakże zależność zachodzi także w przeciwnym kierunku - ludzie wierzący we Wszechświecie dostrzegają pewną myśl, racjonalny plan Boga, a zatem inaczej postrzegają Wszechświat, niż ludzie niewierzący. Powstaje więc problem: czy te dwa aspekty pozostają ze sobą w zgodzie, czy też prowadzą do napięć i konfliktów? Niewątpliwie napięcia między naukowym obrazem świata a tym, który wyłania się z myśli teologicznej, pojawiały się w historii. Jest to doskonała motywacja do tego, by problem ten rozważyć dogłębnie - taki jest właśnie cel niniejszego cyklu wykładów. Ściśle rzecz ujmując, ks. prof. Michał Heller skupia się w nim na zagadnieniu relacji między teologią naturalną (a więc dyscypliną filozoficzną) a współczesną kosmologią. Będziemy mieli okazję posłuchać o początkach kosmologii – statycznym modelu kosmologicznym Alberta Einsteina i tym, jak go odrzucono na rzecz modelów ekspandujących. Dowiemy się także, czy matematyczne i fizyczne pojęcie osobliwości można utożsamić ze stworzeniem świata; jaka była geneza idei tzw. wieloświata (multiverse) i jakie są jej filozoficzne implikacje; oraz czy przypadek w historii Wszechświata wyklucza jego racjonalny charakter. Ostatni wykład kursu poświęcony został życiu i dziełu wybitnego kosmologa i jednocześnie katolickiego księdza – Georgesa Lemaître’a. Michał Heller to uczony, kosmolog, filozof i teolog, który w matematycznych równaniach teorii naukowych potrafi dostrzec dzieła sztuki, a wielkich fizyków uważa za genialnych artystów. Sam w swoich licznych książkach i artykułach naukowych z powodzeniem odnajduje się w obu rolach: naukowca-artysty i pisarza-uczonego. Laureat (2008) prestiżowej Nagrody Templetona, przeznaczonej na ufundowanie Centrum Kopernika Badań Interdyscyplinarnych. 5. Wiązania Chemiczne w Ciele Stałym - dr hab. Andrzej Koleżyński Zagadnienie wiązań chemicznych ciała stałego jest szczególne istotne z punktu widzenia analizy makroskopowych, fizyko-chemicznych własności materiałów, które przekłądają się także na własności użytkowe. Wykład rozpocznie się wprowadzeniem historycznym przedstawiającym pierwotne idee i rozumienie wiązania chemicznego. Następnie porusza kwestie metod kwantowych stosowanych do analizy wiązań chemicznych, by w dalszej części przejść do szczegółowej analizy rodzajów wiązań i wpływu rodzaju wiązan na własności makroskopowe, czyli to, co interesuje najbardziej fizyko0chemików ciała stałego i inżynierów materiałowych. Andrzej Koleżyński jest wykładowcą w Katedrze Chemii Krzemianów i Związków Wielkocząsteczkowych na Wydziale Inżynierii Materiałowej i Ceramiki Akademii Górniczo-Hutniczej im. Stanisława Staszica w Krakowie. Swoje filozoficzne zainteresowania rozwija współpracując z Centrum Kopernika Badań Interdyscyplinarnych w Krakowie. « powrót do artykułu
  17. Współczesna medycyna korzysta z wielu leków pochodzących z roślin. Niestety, część tych roślin to gatunki zagrożone i dalsza eksploatacja grozi ich wyginięciem. Naukowcom z Uniwersytetu Stanforda udało się przenieść gen produkujący uzyteczną substancję z rośliny zagrożonej do innej i uzyskać w tej drugiej potrzebną substancję. Rosnąca w Himalajach Sinopodophyllum hexandrum to zagrożona roślina, z której produkuje prekursor etopozydu, leku wykorzystywanego w chemioterapii. Naukowcy z Uniwersytetu Stanforda zidentyfikowali gen odpowiedzialny za wytwarzania pożądanego związku chemicznego i przenieśli go do Nicotiana benthamiana, bliskiego kuzyna tytoniu hodowlanego. Naśladowanie sposobu, w jaki natura tworzy pożyteczne molekuły to bardzo obiecująca alternatywa dla eksploatacji roślin,jednak najpierw musimy zidentyfikować odpowiednie geny. To poważne wyzwanie, gdyż genom roślin może być bardzo rozbudowany - mówi profesor Elizabeth Sattely. Naukowcy zidentyfikowali sześć nowych genów, które w połączeniu z czterema wcześniej znanymi odpowiadają za wytwarzanie przez Sinopodophyllum hexandrum interesującego nas związku. Korzystając z tych genów zmodyfikowaliśmy genetycznie dzikiego kuzyna tytoniu, by wytwarzał prekursowa genów. Sądzimy, że moglibyśmy użyć tych genów również w innych łatwych w hodowli organizmach, takich jak np. drożdże - dodaje uczona. « powrót do artykułu
  18. Były inżynier NASA Thomas Civeit założył firmę Elysium Space, która oferuje transport skremowanych szczątków na Księżyc. Koszt księżycowego pogrzebu to prawie 12 tys. dol. Firma powstała w sierpniu 2013 r., ale proponowanie usług zaczęła dopiero w sierpniu br. po podpisaniu umowy z odpowiadającą za logistykę Astrobotic Technology. Obecnie trwa zbieranie zamówień. Pierwsza misja pojazdu Griffin Lander jest planowana na 2017 r. Pierwotnym planem Civeita była usługa Shooting Star Memorial, w ramach której prochy mają być wystrzeliwane na orbitę i powracać na Ziemię jako spadająca gwiazda. Jest ona tańsza od księżycowego pochówku - trzeba za nią zapłacić jedynie 1990 dol. Jeśli wszystko pójdzie zgodnie z planem, wystrzelenie stu pierwszych kapsuł odbędzie się już jesienią. Prochy będą krążyć na orbicie przez parę miesięcy, a następnie spadną, spalając się w atmosferze. Pomysł na księżycowe pogrzeby pojawił się, gdy z firmą Astrobotic skontaktował się żołnierz Steven Jenks, którego matka zmarła na raka płuc. Mężczyzna pragnął wysłać jej prochy na Księżyc, bo był on specjalnym symbolem ich związku. Astrobotic nie świadczyła [co prawda] takich usług indywidualnych, ale ponieważ właśnie podpisała umowę z nami, mogliśmy się podjąć spełnienia życzenia Stevena. Pięćdziesiąt pierwszych zgłoszeń zostanie zrealizowanych za 9.950 dol., później cena wzrośnie do 11.950 dol. Rodziny dostaną zestaw z metalową skrzyneczką. To w niej trzeba będzie umieścić ok. 1 g prochów. W drugiej połowie 2017 r. na Księżyc polecą szczątki ok. 100 osób. Elysium Space już myśli o "wyprowadzeniu" usługi poza Układ Słoneczny. Na razie nie wiadomo jednak, kiedy miałoby to nastąpić i ile kosztowałby Milky Way Memorial. « powrót do artykułu
  19. W mózgach osób, które zaraziły się chorobą Creutzfeldta-Jakoba (CJD) wskutek terapii skażonym prionami ludzkim hormonem wzrostu, zaobserwowano złogi beta-amyloidu w istocie szarej i ścianach naczyń. Są one charakterystyczne dla choroby Alzheimera (ChA) i towarzyszącej jej angiopatii amyloidowej. Studium zespołu prof. Johna Collinge'a z Uniwersyteckiego College'u Londyńskiego (UCL), którego wyniki ukazały się w piśmie Nature, sugerują, że beta-amyloid może być potencjalnie przenoszony w trakcie różnych procedur medycznych. Jedną z jatrogennych dróg przenoszenia chorób prionowych okazało się leczenie zaburzeń wzrostu hormonem wzrostu pozyskanym z przysadki mózgowej zmarłych osób. W Wielkiej Brytanii procedurze tej poddano 1848 pacjentów. Terapię wprowadzono w 1958 r., a jej stosowania zaprzestano w 1985 r. po doniesieniach o jatrogennej CJD (jCJD). Do roku 2000 trzydziestu ośmiu pacjentów zachorowało na jCJD. W 2012 r. wiadomo było o 450 przypadkach jCJD na świecie; były one wynikiem podawania skażonego hormonu wzrostu oraz, w mniejszym stopniu, innych procedur medycznych, np. operacji i przeszczepów. Collinge i inni badali próbki mózgu 8 Brytyjczyków w wieku 36-51 lat z jatrogenną chorobą Creutzfeldta-Jakoba. Poza chorobą prionową u 6 wykryto złogi beta-amyloidu (w 4 przypadkach zmiany były rozległe), a u 4 pewien stopień angiopatii amyloidowej. Należy pamiętać, że w tej grupie wiekowej są to rzadkie zjawiska, poza tym u żadnego z pacjentów nie wykryto mutacji związanych z chorobą Alzheimera o wczesnym początku. Nie stwierdzono związanych z neurotoksycznością beta-amyloidu zmian w fosforylacji białka tau, ale niewykluczone, że pełen obraz ChA by się pojawił, gdy pacjenci żyli dłużej. Później Brytyjczycy zbadali 116 nieleczonych hormonem wzrostu osób z innymi chorobami prionowymi. Nie wykryli zmian betaamyloidowych zarówno u ludzi w tym samym wieku, jak i pacjentów dekadę starszych od 8 zmarłych z pierwszej grupy. Wyniki sugerują, że pozyskiwany ze zwłok hormon wzrostu zwiększa ryzyko jatrogennych choroby Alzheimera i angiopatii amyloidowej. By lepiej zrozumieć wchodzący w grę mechanizm, konieczne są dalsze badania. Wydaje się jednak, że poza prionami przysadka zawierała "ziarna" beta-amyloidu. Mając to na uwadze, powinno się sprawdzić, czy inne jatrogenne drogi transmisji chorób prionowych, w tym narzędzia chirurgiczne i transfuzje, mają również coś wspólnego z zakażaniem ChA oraz innymi chorobami neurodegeneracyjnymi. « powrót do artykułu
  20. Bez względu na to, czy było to prawdą, czy nie, podczas serii 6 eksperymentów laboratoryjnych ochotnicy stale uznawali skórę innych ludzi za gładszą od własnej. Zespół z Uniwersyteckiego College'u Londyńskiego (UCL) twierdzi, że tzw. społeczne złudzenie gładkości ma sprawiać, by ludzie byli motywowani do budowania więzi za pośrednictwem dotyku. Ważne wydaje się również wzmacnianie relacji seksualnych i czerpanej z nich przyjemności. Za każdym razem proszono, by delikatnie głaskać skórę za pomocą wskazującego i środkowego palca prawej ręki i porównać odczuwaną miękkość czy gładkość skóry cudzej i własnej. Do oceny każdego z aspektów przyjemności dotykowej wykorzystywano komputerową wersję wizualnej skali analogowej. Złudzenie ujawnia w dużej mierze automatyczny i nieświadomy mechanizm, w ramach którego w kategorii dotyku dawanie przyjemności jest też jej otrzymywaniem - podkreśla Aikaterini Fotopoulou. Istotną cechą opisywanej iluzji jest specyficzność. Odkryłyśmy, że jest ona najsilniejsza, gdy głaskanie jest celowe i dostosowane do optimum układu skórnego, wyspecjalizowanego w odbiorze afektywnego dotyku - dodaje Antje Gentsch. Związane z mieszkami włosowymi, pozbawione osłonki mielinowej włókna aferentne były optymalnie stymulowane za pomocą delikatnego głaskania owłosionej skóry z prędkością 1-10 cm/s. Prędkości większe i mniejsze ujemnie wpływały na częstość wyładowań neuronów. Porównując skórę własną i cudzą z obiektami o różnym stopniu gładkości/miękkości, ochotnicy również stale uznawali cudzą skórę za bardziej delikatną. By stwierdzić, czy uzyskanych wyników nie da się wyjaśnić samym odczuwaniem dotyku czy zbliżaniem się do kogoś i dotykaniem, do przedramion obu osób w parze przyczepiano kawałki tkaniny o identycznej teksturze. W takiej sytuacji nie odnotowano znaczących różnic w postrzeganej gładkości. Specjalistki z UCL podkreślają, że bardzo niewiele wiadomo o psychologicznych korzyściach, wynikających z aktywnego dotykania innych. Ich studium sugeruje, że delikatność i gładkość skóry stymuluje części mózgu związane z odczuwaniem emocji i nagrody. Wg autorek publikacji z pisma Current Biology, zaobserwowane złudzenie sprawia, że dotyk staje się czymś w rodzaju społecznego spoiwa, umożliwiającego tworzenie więzi i podtrzymywanie bliskości. W dalszych etapach studium Fotopoulou chce zbadać neuropsychologiczne mechanizmy afektywnego dotyku i sprawdzić, czy istnieją różnice w doświadczaniu miękkości w parach partnerów, przyjaciół i obcych osób. « powrót do artykułu
  21. Sepsa zabija więcej ludzi niż nowotwór prostaty, piersi i AIDS łącznie. Amerykańskie Narodowe Instytuty Zdrowia (NIH) informują, że każdego roku w USA na sepsę zapada ponad milion osób, z czego umiera od 30 do 50 procent. Mike Super z należącego do Uniwersytetu Harvarda Wyss Institute przypomina, że nie istnieje standardowa terapia leczenia sepsy. Obecnie podaje się antybiotyki i płyny. My mówimy o terapii i o tym, czego brakuje" - stwierdza uczony. A tym, czego brakuje jest, jego zdaniem, metoda szybkiego usuwania patogenów z krwioobiegu, zanim jeszcze wywołają one śmiertelną reakcję zapalną. Super i jego zespół opracowali prototypową metodę walki z sepsą. Wykorzystali przy tym system do dializy, który filtruje krew przez specjalną tubę wypełnioną niewielkimi włóknami powleczonymi proteiną fcMBL. Proteiny takie jak fcMBL, które pochodzą z układu odpornościowego, wiążą cukry, które są częścią ściany komórkowej patogenów. Łączą się one ze ścianami komórkowymi bakterii, grzybów, wielu pasożytów i wirusami, wiążą też ich toksyny - mówi Super. Krew przepuszczana przez tubę zostaje oczyszczona z patogenów i powraca do ciała pacjenta. Obecnie system jest testowany na dużych zwierzętach oraz na szczurach. Testy na szczurach wykazały, że skuteczność systemu wynosi 99%. Twórcy systemu chcą w najbliższym czasie rozpocząć testy na ludziach. « powrót do artykułu
  22. Guenther Boden i Salim Merali z Temple University zebrali grupę 6 mężczyzn, którzy przez tydzień mieli codziennie zjadać 6000 kcal dziennie w postaci fast foodu. Na czas eksperymentu "zakwaterowano" ich w szpitalu, gdzie mieli leżeć. Pilnowano, by ochotnicy nie wykonywali żadnych ćwiczeń, monitorowano też stan ich zdrowia. Wykazaliśmy, że po zaledwie 1-2 dniach podawania zdrowym, nieotyłym mężczyznom 2-2,5-krotności ich zwykłej podaży energetycznej u wszystkich występowała [hiperinsulinemia oraz] poważna insulinooporność układowa i dot. tkanki tłuszczowej. To była zwykła amerykańska dieta, złożona z pizzy, hamburgerów i tym podobnych rzeczy. Węglowodany stanowiły ok. 50%, tłuszcze 35%, a białko 15%. Trzej uczestnicy eksperymentu mieli nadwagę, waga pozostałych mieściła się w normie. Średnio mężczyźni przytyli 3,5 kg i wykazywali symptomy insulinooporności i stresu oksydacyjnego - twierdzą autorzy publikacji z Science Translational Medicine. Naukowcy wyjaśniają, że ich celem było odtworzenie przeciętnej amerykańskiej diety i ustalenie jej wpływu na rozwój cukrzycy typu 2. Duet skupił się na otyłości i zespole metabolicznym. Insulinooporność to kluczowy komponent tego zespołu, ale mechanizm, za pośrednictwem którego otyłość sprzyja insulinooporności, nie jest jeszcze w pełni poznany. Okazało się, że proces wiązał się z inaktywacją insulinozależnego transportera glukozy GLUT4, który występuje głównie w mięśniach poprzecznie prążkowanych i tkance tłuszczowej. Odkrycie to będzie można wykorzystać przy opracowywaniu leków. « powrót do artykułu
  23. Większość ogniw słonecznych jest montowanych na sztywnych, nieruchomych panelach. Oznacza to, że tylko przez część dnia światło słoneczne pada na nie pod optymalnym kątem. Problemowi można zaradzić montując specjalny system śledzący ruch naszej gwiazdy i odpowiednio dopasowujący nachylenie paneli. Ruchome ogniwa fotowoltaiczne są o 20-40 procent bardziej wydajne niż nieruchome, jednak mechanizm śledzenia i ustawiania paneli jest niezwykle drogi. Dlatego też naukowcy z University of Michigan opracowali niezwykle interesujący sposób na zmianę położenia paneli. Uczeni sięgnęli po japońską sztukę kirigami. To odmiana origami, która pozwala na nacinanie papieru. Okazało się, że jeśli elastyczne ogniwo słoneczne odpowiednio potniemy, to później w prosty sposób, ciągnąc jego końce w przeciwne strony, możemy zmienić kąt jego nachylenia. Co ważne, nacięcia są wykonane w taki sposób, że po zmianie położenia żaden fragment ogniwa nie znajduje się w cieniu innego. Także wygięcie poszczególnych fragmentów nie wpływa negatywnie na ich wydajność, zapewnia profesor Max Shtein, który opracował nowe ogniwa we współpracy z profesorem Stephenem Forrestem. Shtein dodaje, że ogniwa kirigami pozwalają na zebranie większej ilości energii, a jednocześnie do ich wyprodukowania wystarczy tyle materiału, co do ogniw nieruchomych. Wydajność ogniw kirigami jest niemal taka sama jak ruchomych paneli z systemami śledzącymi. « powrót do artykułu
  24. Naukowcy z południowoafrykańskiego University of Witwatersrand w Johannesburgu poinformowali o odkryciu szczątków nieznanego dotychczas przodka Homo sapiens. Nowy gatunek nazwano Homo naledi. W listopadzie 2013 roku profesor Lee Berger i jego zespół poinformowali, że w odległej o 50 kilometrów od Johannesburga jaskini Rising Star znaleźli coś niezwykłego. Zorganizowano wyprawę o nazwie Rising Star Expedition, w skład której wchodziła specjalna grupa sześciu badaczek o drobnej budowie ciała. Niezwykłe skamieniałości znajdowały się bowiem w trudno dostępnej komorze na głębokości 40 metrów pod ziemią. Badaczki musiały przecisnąć się przez otwór o szerokości 18 centymetrów. Od tamtej pory naukowcy wydobyli 1550 skamieniałych kości i ich fragmentów należących do co najmniej 15 osób, dzieci, dorosłych i osób starszych. To największe tego typu znalezisko w Afryce. Dzięki temu, że fragmentów kości jest tak wiele, iż H. naledi to najlepiej znany ze skamieniałości przedstawiciel naszego gatunku - mówi profesor Berger. Na razie dokładnego wieku kości nie udało się określić, ale już wiadomo, że mamy do czynienia z niezwykłym znaleziskiem. Nie tylko dlatego, że odkryliśmy nieznanego przodka. Okazało się, że H. naledi odprawiał rytuały, o których sądziliśmy, że pojawiły się dopiero wraz z człowiekiem współczesnym. Komora, w której znaleziono kości była zawsze izolowana od innych, nigdy nie miała bezpośredniego połączenia z powierzchnią. Tym, co trzeba mocno podkreślić jest fakt, że znaleźliśmy w niej niemal wyłącznie szczątki ludzkie. Nie ma tam kości żadnych dużych zwierząt - zauważa doktor Paul Dirks z australijskiego James Cook University. Jedynymi szczątkami nienależącymi do gatunku Homo są kości gryzoni i ptaków, co wskazuje na to, że do komory zwierzęta te przedostały się przypadkowo. To sytuacja bezprecedensowa jeśli chodzi o miejsca znalezienia szczątków hominidów. Kości nie noszą żadnych śladów wskazujących na to, by kości zostały zawleczone do komory przez padlinożerców, mięsożerców czy wodę. Sprawdziliśmy każdy możliwy scenariusz, od nagłego masowego zgonu, ataku drapieżnika, przeniesienia kości przez wodę czy przypadkowej śmierci w naturalnej pułapce. Jedyny prawdopodobny scenariusz, jaki pozostał, to celowe złożenie ciał H. naledi w tym miejscu - mówi profesor Berger. To zaś wskazuje na powtarzalny rytuał, o którego odprawianie nie podejrzewaliśmy naszych przodków. Przeprowadzone dotychczas badania wskazują, że ogólnie rzecz biorąc Homo naledi wygląda jak jeden z najwcześniejszych przedstawicieli Homo, ale jednocześnie wykazuje tak podobne cechy, że z pewnością można go zakwalifikować jako Homo, stwierdza John Hawks z University of Wisconsin-Madison. Homo naledi miał mały mózg, rozmiarów średniej pomarańczy (ok. 500 cm3) i bardzo drobne ciało, dodaje uczony. Przecięty wzrost tego gatunku wynosił 150 cm, a waga to 45 kilogramy. Zęby H. naledi są podobne do zębów najstarszych znanych Homo, takich jak Homo habilis. Także czaszka przypomina przedstawicieli naszego gatunku. Z kolei ramiona są bardziej podobne do małpich. Budowa dłoni sugeruje możliwość używania narzędzi. Jednak, ku naszemu zdziwieniu, H. naledi miał bardziej zakrzywione palce niż niemal każdy inny przedstawiciel naszego gatunku, a to wskazuje na umiejętność wspinania się - mówi doktor Tracy Kivell z University of Kent. Z kolei stopy H. naledi są niemal nie do odróżnienia od stóp współczesnego człowieka, mówi doktor Willaim Harcourt-Smith z University of New York i Amerykańskiego Muzeum Historii Naturalnej, który stał na czele grupy badającej stopy nowo odkrytego gatunku. Połączenie wszystkich cech H. naledi czyni go odmiennym od wszystkich innych znanych gatunków - mówi profesor Berger. Naukowcy przyznają, że nie zbadali całej jaskini Rising Star. Nie wykluczają, że mogą się w niej znajdować setki lub tysiące szczątków Homo naledi. « powrót do artykułu
  25. Podczas International Conference on Parallel Architectures and Compilation Techniques naukowcy z MIT-u zaprezentowali pierwszą od 30 lat nową koncepcję utrzymania spójności pamięci cache w układach elektronicznych. We współczesnych procesorach każdy rdzeń ma przydzieloną własną pamięć cache. Obok niej funkcjonuje jednak współdzielony cache, do której dostęp mają wszystkie rdzenie. Gdy jeden z rdzeni uaktualnia dane we współdzielonej cache, inne rdzenie muszą o tym wiedzieć. Tworzony jest więc katalog z informacjami o tym, który rdzeń ma kopie których danych. Ten katalog może zajmować olbrzymią część współdzielonej pamięci. Na przykład z układzie 64-rdzeniowym może on zajmować aż 12% cache'u, a im więcej rdzeni tym większy odsetek zajętej pamięci. Obecnie udział zajętej pamięci cache rośnie proporcjonalnie do liczby rdzeni. Tymczasem zgodnie z nową koncepcją MIT-u udział ten rośnie logarytmicznie. Przy układach składających się z 72 rdzeni korzyść ze zmiany obecnie stosowanej metodologii na tę zaproponowaną przez MIT jest czysto hipotetyczna. Jednak wraz z rosnącą liczbą rdzeni staje się ona wyraźna. Przy 128 rdzeniach można dzięki nowemu podejściu zaoszczędzić 30% pamięci, przy 256 rdzeniach oszczędności sięgają 80%, a przy 1000 rdzeniach jest to 96%. Gdy wiele rdzeni wyłącznie składuje dane w pamięci cache, nie ma problemu. Jednak pojawia się on, gdy któryś z rdzeni chce zmienić już przechowywane dane. Dzięki wspomnianemu katalogowi rdzeń ten wie, które rdzenie pracują na danych, które ma zamiar zmienić i wysyła im odpowiednie informacje, dzięki którym unieważniane są kopie danych przechowywanych lokalnie przez te rdzenie. Dzięki katalogowi mamy pewność, że gdy dochodzi do zmiany współdzielonych danych, żaden z rdzeni nie przechowuje starej kopii i nie nadpisze nowych informacji starymi. Po zmianie danych nie powinno dojść do sytuacji, że gdziekolwiek zostanie odczytana stara wersja danych. Nadpisanie danych odbywa się więc po tym, jak wcześniejsze dane zostaną pobrane przez wszystkie rdzenie, które ich potrzebują - mówi magistrant Xiangyao Yu z MIT-u. Yu i jego promotor, profesor Srini Devadas, zdali sobie sprawę, że kolejność odczytu w czasie nie jest istotna, o ile zostanie zachowana logiczna kolejność odczytu. Oznacza to, że na przykład rdzeń A może wciąż pracować na danych, które już zostały zmienione przez rdzeń B o ile pozostałe rdzenie wiedzą o tym, że praca wykonywana przez rdzeń A jest wcześniejsza od pracy rdzenia B. Yu i Devadas postanowili więc znaleźć prosty system pozwalający na zastąpienie porządku czasowego porządkiem logicznym. W zaproponowanym przez nich systemie każdy z rdzeni ma własny licznik i każdy fragment danych w pamięci również ma własny licznik. Gdy jest uruchamiany program, wszystkie liczniki zostają ustawione na zero. Gdy rdzeń sięga po jakieś dane, dochodzi do zmiany licznika. Dopóki licznik nie przekroczy okreslonej wartości skojarzone z nim dane zachowują ważność. Gdy któryś z rdzeni chce nadpisać dane staje się ich właścicielem. Inne rdzenie mogą wciąż pracować na własnych kopiach niezmodyfikowanych danych, ale muszą skoordynować swoje działania z właścicielem danych. Z kolei właściciel, czyli rdzeń dokonujący nadpisania danych, ustawia swój własny licznik na wartość wyższa, niż ostatnia wartość licznika wspomnianych danych. Przypuśćmy, że rdzenie od A do D pracują na tych samych danych. W związku z tym wszystkie ustawiły swoje liczniki na 1, a licznik danych został ustawiony na 10. Gdy rdzeń E chce nadpisać te dane, przejmuje je na własność i ustawia swój licznik na 11. W ten sposób licznik rdzenia E wskazuje, że pracuje on na - logicznie - późniejszej wersji danych niż inne rdzenie, których liczniki są ustawione na 1. Jeśli teraz rdzeń A chce uzyskać dostęp do danych, dowiaduje się, że ich właścicielem jest rdzeń E. Wysyła mu więc wiadomość. Rdzeń E przesyła więc dane do współdzielonej pamięci. Są one stamtąd odczytywane przez rdzeń A, który ustawia swój licznik na 11 lub więcej. Jako, że system opiera się na następstwie logicznym, a nie czasowym, twórcy nazwali go Tardis, od podróżującego w czasie pojazdu Doktora Who. Tardis nie tylko pozwalana zaoszczędzeniu pamięci, ale eliminuje też potrzebę wysyłania do rdzeni informacji o unieważnieniu danych. W układach składających się z setek czy tysięcy rdzeni doprowadzi to do zwiększenia wydajności samych kości. Christopher Hughes, główny inżynier w Intel Labs, jest pod wrażeniem osiągnięć uczonych z MIT-u. Wiem, że wiele osób miało podobne pomysły, ale - o ile mi wiadomo - wszystkie one polegały na następstwie czasowym. Dane były udostępniane jakiemuś rdzeniowi z gwarancją, że nie zostaną zmienione np. przez 100 cykli. Problem w tym, że gdy zaraz po udostępnieniu inny rdzeń chciał zmienić te dane, to musiał czekać 100 cykli. Natomiast tutaj nie ma z tym problemu. Po prostu wystarczy zmienić ustawienie licznika. O ile wiem, nikt tego nie próbował wcześniej zrobić. To bardzo elegancki pomysł - cieszy się inżynier. Zaraz jednak dodaje, że projektanci układów scalonych są z natury konserwatystami. Niemal wszystkie masowo produkowane komercyjne systemy opierają się na protokołach korzystających z katalogów. Nie ruszamy tego, bo podczas zmiany implementacji bardzo łatwo o pomyłkę. Z drugiej jednak strony zaletą nowej koncepcji jest fakt, że jest to prostszy system. Dodatkowo mamy tutaj nie tylko przedstawiony jakiś pomysł, ale również szczegółowy opis dowodzący, że całość została prawidłowo zaprojektowana. To bardzo ważne dla projektantów układów scalonych. « powrót do artykułu
×
×
  • Dodaj nową pozycję...