Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37638
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Naukowcy z Uniwersytetu w Chicago wykazali, że mikrobiom, czyli bakterie, wirusy oraz inne mikroorganizmy żyjące na skórze i w przewodzie pokarmowym, odgrywa ważną rolę w zdolności organizmu do przyjęcia przeszczepów skóry i innych narządów. Amerykanie wykazali, że przeszczepy skóry między myszami przeleczonymi przed transplantacją antybiotykami utrzymywały się ok. 2-krotnie dłużej niż u gryzoni, którym leków nie podano. Czas przeżycia przeszczepu wykonanego między zwierzętami wychowanymi w sterylnych warunkach również był dłuższy. Oprócz tego autorzy publikacji z The Journal of Clinical Investigation odkryli, że jeśli pozbawionym mikrobiomu myszom podano mikroflorę zwykłych, niepoddawanych antybiotykoterapii zwierząt, przeszczepy utrzymywały się krócej. Jeśli jednak podawano mikroby, które przeżyły antybiotykoterapię, przeszczep utrzymywał się przez podobny czas, jak u gryzoni sterylnych. Uzyskane wyniki sugerują, że skład mikrobiomu wpływa na los przeszczepu. [Poszczególne] gatunki, które tworzą społeczność mikroorganizmów kolonizujących myszy, a zapewne i ludzi, mają różny wpływ. Społeczność bakterii od normalnych myszy jest zdolna do przyspieszenia odrzucenia przeszczepu, lecz inna, złożona z bakterii pozostałych po antybiotykoterapii, już tego nie zrobi - podkreśla prof. Maria-Luisa Alegre. Odsetek powodzeń przeszczepów skóry, płuc i jelit, a więc narządów stykających się ze światem zewnętrznym, jest o wiele niższy niż pozostałych narządów, takich jak nerki czy serce. I to zarówno w przypadku ludzi, jak i zwierząt laboratoryjnych. Jedna z hipotez wyjaśniających to zjawisko kładzie nacisk na fakt, że skóra, płuca i jelita są skolonizowane przez mikroorganizmy, a sterylne organy wewnętrzne nie. Zespół Alegre testował tę hipotezę, lecząc przez 10 dni dawców i biorców przeszczepu skóry antybiotykami. Okazało się, że przeszczepy przeżyły prawie 2-krotnie dłużej niż u myszy kontrolnych (średni czas przeżycia wynosił, odpowiednio, 53 i 27 dni). Zmniejszyła się też reakcja odpornościowa na przeszczep. Naukowcy zauważyli poza tym, że przeszczepy skóry między myszami hodowanymi w sterylnych warunkach także utrzymały się dłużej niż u zwierząt kontrolnych. Dla odmiany, gdy u sterylnych myszy wykonywano przeszczep mikroflory kałowej (ang. fecal microbiota transplant, FMT) od myszy nieleczonych, transplant był odrzucany szybciej. Co ciekawe, kiedy sterylnym myszom podano FMT gryzoni poddanych antybiotykoterapii, nadal wolno odrzucały przeszczep. Zmiana mikrobiomu wpływała też na los innych przeszczepionych narządów: serca przeszczepiane zwykłym myszom przeleczonym wcześniej antybiotykami utrzymywały się bowiem dłużej. Analiza genetyczna bakterii obecnych na skórze zwierząt przeleczonych antybiotykami pokazała, że choć ogólna liczba bakterii pozostała taka sama, znacznie spadła liczba gatunków. W kategoriach ogólnej liczby bakterii jest tak samo jak przed antybiotykoterapią, ale zamiast, powiedzmy, 1000 gatunków po leczeniu mamy tylko 500. Nie chodzi więc o różnicę w obciążeniu bakteryjnym, ale o skład społeczności mikroorganizmów. Jak podkreśla Alegre, lepsze zrozumienie zachodzących procesów może poprawić skuteczność zabiegów wykonywanych u ludzi. Wspomina m.in. o antybiotykach o wąskim spektrum działania, za pomocą których obierano by na cel wyłącznie bakterie wyzwalające odrzucenie przeszczepu. Alternatywne można by wykorzystać probiotyki z bakteriami hamującym reakcję immunologiczną. Na razie nie wiadomo jednak, jakie bakterie wywołują jaką reakcję po przeszczepie. Alegre przestrzega też przed zaburzeniem równowagi mikroorganizmów, z którymi koewoluowaliśmy od dawna i które umożliwiają nam trawienie czy walkę z infekcjami. « powrót do artykułu
  2. Amerykańska Federalna Administracja Lotnicza (FAA) zaprezentowała długo oczekiwane przepisy określające sposób użycia niewielkich prywatnych dronów komercyjnych. Przewidziano w nich, że operator takiego drona powinien posiadać certyfikat zdalnego pilota, zakazano lotów nocą, maksymalny pułap dronów określono na 400 stóp (122 metry), a minimalna odległość od budynków to również 400 stóp. Nowe zasady, które wejdą w życie w sierpniu bieżącego roku, przewidują, że pilot drona musi mieć co najmniej 16 lat. Jeśli jest młodszy musi być nadzorowany przez osobę dorosłą posiadającą certyfikat pilota. Dron musi też ciągle znajdować się w zasięgu wzroku pilota. To wielki dzień dla przemysłu. W przyszłości zostanie to uznane za moment historyczny. FAA otwiera szeroko drzwi i pozwala na komercyjne wykorzystywanie dronów - cieszy się prawnik Lisa Ellman z firmy Hogan Lovells, która specjalizuje się w prawie związanym z dronami. Zgodnie z nowymi przepisami każdy wypadek drona, podczas którego doszło do zniszczenia mienia o wartości co najmniej 500 USD lub poważnego zranienia musi być zgłoszony do FAA w ciągu 10 dni. Niektóre z przepisów mogą zostać uchylone, jednak w każdym przypadku pilot drona musi zwrócić się do FAA o wydanie zgody na nieprzestrzeganie części przepisów. Od lutego bieżącego roku drony muszą być też rejestrowane. Można tego dokonać online. Dzięki tej zasadzie znaleziono równowagę pomiędzy umożliwieniem korzystania z nowej technologii a wypełnianiem przez FAA misji zapewnienia bezpieczeństwa publicznego. To pierwszy krok. Pracujemy nad dodatkowymi zasadami, które umożliwią używanie dronów na większą skalę - mówi dyrektor FAA Michael Huerta. Warto zauważyć, że zasady FAA nic nie mówią o potencjalnych naruszeniach prywatności czy prawie do przelotu nad poszczególnymi obszarami. Kwestii tych nie reguluje bowiem prawo federalne. Agencja apeluje do pilotów dronów, by przed uruchomieniem maszyn sprawdzili lokalne i stanowe przepisy dotyczące zbierania informacji za pomocą czujników czy kamer oraz dowiedzieli się, gdzie mają prawo latać. « powrót do artykułu
  3. Po trwających 6 lat sporach sądowych Sony zgodziło się zapłacić odszkodowanie użytkownikom PlayStation 3, z której to konsoli w 2010 roku zainstalowano firmware uniemożliwiające uruchomienie Linuksa. Ugoda, niezatwierdzona jeszcze przez sąd, przewiduje, że każdy z graczy, który używał na swojej konsoli Linuksa otrzyma 55 dolarów odszkodowania. Ponadto każdy użytkownik, który kupił konsolę zachęcony twierdzeniami o możliwości uruchomienia "innego OS-u" otrzyma 9 dolarów. Ugoda dotyczy tych użytkowników, którzy kupili PS3 na terenie USA pomiędzy 1 listopada 2006 a 1 kwietnia 2010. Prawnicy, którzy wnieśli pozew przeciwko Sony otrzymają od tej firmy 2,25 miliona USD. Kłopoty Sony rozpoczęły się, gdy firmware konsoli zostało zaktualizowane do wersji 3.21. Wtedy to, 28 marca 2010 roku, Sony ogłosiło, że aktualizacja "wyłącza możliwość zainstalowania na konsoli innych systemów operacyjnych". Koncern stwierdził, że kroki takie podjęto ze względów bezpieczeństwa. Sony nie sprecyzowało, o jakie kwestie bezpieczeństwa chodzi. Pozywający firmę prawnicy uważają, że firma obawiała się piractwa. Sony bało się, że możliwość uruchamiania innego systemu może zostać wykorzystana przez hakerów do kopiowania lub kradzieży gier i innej zawartości - czytamy w pozwie. Sytuację Sony pogorszył fakt, że firma twierdziła, iż zainstalowanie zaktualizowanego firmware'u jest dobrowolne, jednak osoby, które tego nie zrobiły, nie mogły połączyć się z PlayStation Network, grać w gry online, odtwarzać gier i filmów wymagających zaktualizowanego firmware'u, odtwarzać plików z media serwera czy pobierać kolejnych aktualizacji. W zawartej ugodzie znalazł się też zapis mówiący o tym, w jaki sposób klienci Sony mogą starać się o większe odszkodowanie. Otóż osoby takie muszą pod przysięgą zeznać, że zainstalowały Linuksa na swojej konsoli, dostarczyć dowód zakupu konsoli lub jej numer seryjny wraz z identyfikatorem w PlayStation Network oraz dostarczyć jakikolwiek dowód, że korzystały z funkcji "Other OS". Z kolei ci, którzy chcą otrzymać 9-dolarowe odszkodowanie muszą zapewnić, że w momencie kupowania konsoli wiedzieli o funkcji "Other OS", zachęciło ich to do kupna urządzenia i mieli zamiar korzystać z "Other OS". Mogą, ewentualnie, stwierdzić, że ich konsola po aktualizacji straciła na wartości lub funkcjonalności. Sony zobowiązało się do wykorzystania bazy adresowej PlayStation Network do poinformowania użytkowników o ugodzie. « powrót do artykułu
  4. Astronomowie z Caltechu (California Institute of Technology) informują o znalezieniu najmłodszej znanej w pełni uformowanej egzoplanety. K2-33b liczy sobie zaledwie 5-10 milionów lat. Ziemia ma 4,5 miliarda lat, jest w średnim wieku. W przeliczeniu na ludzki wiek ma około 45 lat. K2-33b to kilkutygodniowe niemowlę - mówi Trevor David, jeden z autorów artykułu na temat planety. Pierwsze sygnały jej obecności zarejestrował Teleskop Keplera pracujący w ramach misji K2, który zauważył okresowe spadki jasności gwiazdy K2-33. Badania za pomocą Teleskopów Kecka potwierdziły, że zmiany jasności są powodowane obecnością planety, którą nazwano K2-33b. To znaczące odkrycie na polu wiedzy o egzopalnetach. K2-33b pomoże nam zrozumieć, w jaki sposób formują się planety, a to z kolei poszerzy naszą wiedzę o powstaniu Ziemi i początkach życia - stwierdza doktor Erik Petigura. Wokół gwiazdy K2-33 pozostał niewielki dysk materiału, a badania wykazały, że znajduje się on w ostatniej fazie rozpraszania się. Astronomowie wiedzą, że w tym regionie kosmosu, zwanym Górnym Skorpionem, formowanie gwiazd już się zakończyło, a mniej więcej 25% gwiazd wciąż posiada jasne dyski protoplanetarne. Pozostałe gwiazdy nie mają takich dysków, domyślamy się więc, że w ich przypadku planety już się uformowały i można tam znaleźć młode egzoplanety - mówi David. K2-33b jest o około 50% większa od Neptuna i okrąża swoją gwiazdę w ciągu około 5 dni, co oznacza, że jej odległość od gwiazdy macierzystej jest 20-krotnie mniejsza niż odległość Ziemi od Słońca. Naukowcy chcą wkrótce zmierzyć jej masę i gęstość, dzięki czemu mają zamiar dowiedzieć się, czy wielkość planety pozostanie taka, jak obecnie, czy też dojdzie do jej schłodzenia się i skurczenia. W ciągu ostatnich 20 lat przekonaliśmy się, że istnieje zadziwiająca różnorodność planet. Od takich, które krążą wokół dwóch gwiazd, po planety okrążającą swoją gwiazdę w ciągu kilku godzin. K2-33b dostarczy nam nowych informacji - mówi Petigura. « powrót do artykułu
  5. Pojawiło się pierwsze ransomware napisane całkowicie w JavaScript. W przeszłości co prawda odkryto kod o nazwie Ransom32, który został wykonany za pomocą NodeJS i zapakowany w plik wykonywalny. Nowe ransomware - RAA - jest inne. Nie jest dostarczane w formie pliku wykonywalnego, a jako standardowy plik JavaScript. Twórcy RAA poradzili sobie z problemem braku zaawansowanych funkcji kryptograficznych w standardowej implementacji JS wykorzystując bibliotekę CryptoJS, dzięki której mogli skorzystać z algorytmu AES do zaszyfrowania plików swoich ofiar. RAA jest rozpowszechniane jako załącznik do e-maili i udaje plik .doc o nazwach podobnych do mgJaXnwanslS_doc_.js. Po jego otwarciu szkodliwy kod szyfruje pliki na dysku ofiary i domaga się około 250 USD za ich odszyfrowanie. Co więcej rozpakowuje i instaluje na komputerze użytkownika szkodliwy kod o nazwie Pony, który kradnie hasła. RAA przystępuje do pracy po dwukrotnym kliknięciu na załącznik. Najpierw w folderze %MojeDokumenty% tworzy fałszywy dokument Worda, który jest automatycznie otwierany i wygląda na uszkodzony. Podczas gdy użytkownik sądzi, że załącznik jest uszkodzony, RAA w tle wyszukuje wszystkie nośniki danych i sprawdza, czy użytkownik ma prawa odczytu i zapisu. Jeśli tak, to przystępuje do szyfrowania plików m.in. .doc, .xls, .rtf, .pdf, .jpg, .cdr, .png, .zip czy .csv. Do nazwy zaszyfrowanych plików dodaje rozszerzenie .locked, więc z pliku test.jpg robi test.jpg.locked. W czasie pracy RAA usuwa też Windows Volume Shadow Copy Service (VSS), by użytkownik nie mógł odzyskać plików z ich kopii wykonywanych przez system. Po zakończeniu szyfrowania szkodliwy kod tworzy na pulpicie plik o nazwie !!!README!!![id].rtf, gdzie [id] to identyfikator konkretnej ofiary. Plik ten, w języku rosyjskim, informuje ofiarę o infekcji i zawiera instrukcję dotyczącą sposobu zapłacenia okupu. RAA działa poza przeglądarką. Większość użytkowników uruchamia JavaScript wyłącznie w przeglądarce, dlatego nie potrzebuje interpretera, który uruchamiał by go poza nią. Można więc łatwo chronić się przed atakiem RAA i podobnymi wyłączając Windows Script Host. By to uczynić należy uruchomić rejestr Windows i w kluczu HKEY_LOCAL_MACHINESoftwareMicrosoftWindows Script HostSettings dodać wartość DWORD o nazwie Enabled i wartości 0. « powrót do artykułu
  6. Niemal 50 proc. Polaków na obiad je mięso, a 42 proc. ziemniaki. Po kasze sięga zaledwie około 2 proc. z nas, zaś po rybę wciąż niecałe 4 proc. Na śniadanie ponad 84 proc. wybiera pieczywo, a tylko 4 proc. zupę mleczną - wynika z badania polskich naukowców. Naukowcy z Instytutu Filozofii i Socjologii PAN - w badaniu finansowanym przez Narodowe Centrum Nauki - przyjrzeli się zwyczajom żywieniowym Polaków. Sprawdzali, co jemy, o jakich porach, na ile poszczególne grupy społeczne różnią się pod względem jedzonych potraw. Jak się okazało, podstawę obiadu dla 48 proc. Polaków stanowi mięso, ale jedynie niecałe 4 proc. z nas sięga po rybę. Na ogół - dla 42 proc. - dodatkiem do obiadu są ziemniaki, znacznie rzadziej ryż (prawie 4 proc.), frytki (1,5 proc.) i kasze (około 2 proc.). 34 proc. z nas na obiad sięga po warzywa niegotowane, surówkę, sałatkę, a po warzywa gotowane i pieczone 16 proc. Polacy rzadko jedzą kebab, pizzę, hamburgery, owoce morza, tarty. Dla każdej z tych potraw odsetki nie przekraczają 1 proc. Prawie 40 proc. osób na obiad jada zupę. Zdecydowana większość Polaków - ponad 84 proc. - do swojego śniadaniowego jadłospisu włącza pieczywo. Spośród tych z nas, którzy jedzą poranny posiłek, prawie połowa zjada wędliny - ponad 46 proc. Sery - żółte, owcze, kozie i dojrzewające - do swojego śniadaniowego menu włącza 16,7 proc. Polaków; ser twarogowy, serki homogenizowane blisko 14 proc., a jaja 8 proc. Okazuje się, że postrzegane jako typowe potrawy śniadaniowe: zupa mleczna i płatki nie są wcale tak częste w porannym jadłospisie. Na tę pierwszą decydowało się niecałe 4 proc. badanych, na płatki tylko 5 proc. 26 proc. osób zadeklarowało, że do śniadania jada warzywa, blisko 5 proc. decyduje się na śniadania na słodko, włączając do nich dżem czy miód. Bardzo podobnie wygląda nasze menu na kolację. Na pytanie, jakiego rodzaju potrawy lubimy, aż 60 proc. kobiet i blisko 65 proc. mężczyzn odpowiada, że "tradycyjnie polskie". Kobiety wolą potrawy zawierające dużą ilość warzyw: blisko 60 proc., przy zaledwie 35 proc. mężczyzn; lekkie i niezbyt kaloryczne: ponad 30 proc. kobiet, przy blisko 15 proc. mężczyzn. Za to mężczyźni wybierają częściej potrawy mięsne: ponad 70 proc., przy niecałych 50 proc. kobiet; o wyrazistym smaku: blisko 40 proc. mężczyzn przy blisko 25 proc. kobiet. W społeczeństwie polskim nie rysują się wyraźne podziały klasowe we względu na jedzenie wszystkich potraw, ale w przypadku niektórych takie podziały istnieją. Klasa średnia (reprezentanci wyższych kadr kierowniczych i specjalistów, pracownicy umysłowi i właściciele) rzadziej jedzą mięsa i zupy kojarzone ze zwyczajami robotników i chłopów, natomiast przypisują większe znaczenie potrawom mlecznym, płatkom śniadaniowym i serom - wyjaśniają autorzy badania: prof. Henryk Domański, dr Zbigniew Karpiński, dr Dariusz Przybysz i dr Justyna Straczuk z Instytutu Filozofii i Socjologii PAN. Jedzenie zup deklaruje ponad 46 proc. rolników, a blisko 35 proc. właścicieli małych firm - najmniej spośród wszystkich grup. Serki twarogowe i homogenizowane największą popularnością cieszą się wśród wyższej kadry kierowniczej i inteligencji (ponad 31 proc. wskazań), a najmniejszą wśród robotników wykwalifikowanych (blisko 17 proc.). Jogurt, kefir, maślanka i mleko cieszą się popularnością 18 proc. pracowników umysłowych i zaledwie 8 proc. rolników. Prawie wszyscy respondenci deklarowali, że choć raz w życiu jedli potrawy tradycyjne takie jak: kaszanka, sałatka jarzynowa z majonezem czy kopytka. Ich jedzenie zadeklarowało ponad 90 proc. przedstawicieli każdej z grup społeczno-zawodowych. Nieco inaczej wygląda sytuacja z potrawami zagranicznymi czy egzotycznymi. Zjedzenie carpaccio - choć raz w życiu - deklaruje ponad 52 proc. wyższej kadry kierowniczej i inteligencji, ale tylko ponad 9 proc. rolników. Mule smakowało ponad 27 proc. kadry kierowniczej i 1,5 proc. spośród rolników. Podobnie sytuacja wygląda z kaszą kuskus, której próbowało ponad 63 proc. kadry kierowniczej i inteligencji, a tylko 14 proc. rolników. Badanie przeprowadzono w czerwcu i lipcu oraz jesienią 2013 roku na osobach powyżej 15. roku życia. Objęto nim ponad 2,3 tys. osób. Zrealizowano je w ramach grantu Narodowego Centrum Nauki "Wzory jedzenia, style życia a stratyfikacja społeczna: perspektywa porównawcza", którym kierował prof. Henryk Domański. « powrót do artykułu
  7. Mustafa Farouk, technolog żywności z Ag Research, stworzył wysokobiałkową czekoladę zawierającą 50% wołowiny. Chce zachęcić do niej ludzi, współpracując ze sklepem Devonport Chocolates z Auckland. Doktor Farouk wpadł na pomysł nietypowej czekolady, zastanawiając się nad sposobami nadania wołowinie większej wartości. Wg niego, zmieszanie wołowiny i czekolady to świetne rozwiązanie, bo czekolada jest popularnym deserem, wraz z którym można przemycić białka i inne składniki odżywcze mięsa. Naukowiec wziął chude mięso z tylnej ćwiartki krów z Waikato. Sporządził tzw. "czekoladowe masło". Pasta trafiła do Devonport Chocolates, gdzie jest wykorzystywana do produkcji słodyczy. Ponoć konsystencja produktu końcowego przypomina rachatłukum. Farouk podkreśla, że smak mięsa jest właściwie niewyczuwalny. W wywiadzie udzielonym New Zealand Herald technolog powiedział, że usłyszawszy, jaki jest skład, ludzie początkowo mają wątpliwości, przekonuje ich jednak bogaty smak czekoladek. Większość zgadza się, że są wyśmienite. Wiedzieliśmy, że można nadać mięsu różną postać, ale nie mieliśmy pojęcia, czy da się ludzi oszukać, formując z niego coś o wyglądzie czekolady - opowiada Farouk, dodając, że łatwo zmienić jej teksturę z bardzo gładkiej w bardziej włóknistą deserową, ale z informacji zwrotnej wynika, że ta pierwsza jest odbierana jako smaczniejsza. Devonport Chocolates odnosi się do pomysłu mięsnego przysmaku bardzo entuzjastycznie, stąd wspólne plany komercjalizacji. Kilogram mięsa do produkcji słodyczy kosztuje ok. 17 dol., więc kostkę czekolady można by sprzedawać za 2,5 dol. Obecnie Farouk eksperymentuje z innymi rodzajami mięsa: jagnięciną i dziczyzną. « powrót do artykułu
  8. Amerykański Departament Energii (DOE) zapowiada, że do początku 2018 roku zbuduje komputer o wydajności 200 petaflopsów. To dwukrotnie więcej niż znajdujący się na czele najnowszej listy TOP500 chiński Sunway TaihuLight. Maszyna z Państwa Środka charakteryzuje się teoretyczną wydajnością szczytową rzędu 124,5 PFlops, a w teście Linpack osiągnęła 93 PFlops. Jednak największym osiągnięciem Chińczyków jest fakt, że zbudowali superkomputer z chińskich podzespołów. Tymczasem Oak Ridge National Laboratory zamówiło w firmie IBM superkomputer o wydajności 200 PFlops. Maszyna Summit ma rozpocząć pracę na początku 2018 roku. Będzie ona korzystała z procesorów IBM Power9 oraz procesorów graficznych Nvidia Volta. W swoim oświadczeniu dotyczącym chińskiego superkomputera DOE zauważa, że od roku 1993 wydajność amerykańskich superkomputerów zwiększyła się 300 000 razy, a prace nad wysoko wydajnymi maszynami to jeden z priorytetów Departamentu. DOE, poprzez podległe sobie jednostki, jest właścicielem wielu spośród najpotężniejszych maszyn świata. W pierwszej dziesiątce najnowszej listy TOP500 znajdziemy aż 4 maszyny należące do Departamentu Energii. Na rok 2018 DOE zaplanowało uruchomienie trzech nowych potężnych superkomputerów. Poza wspomnianym Summitem będą to budowany przez IBM 150-petaflopsowy Sierra, który stanie w Lawrence Livermore National Laboratory i wystartuje w połowie 2018 roku oraz Aurora autorstwa Craya i Intela, budowany dla Argonne National Laboratory. Już w 2014 roku informowano, że superkomputer Summit będzie przeznaczony do otwartych badań naukowych, co oznacza, że naukowcy z całego świata będą mogli wnioskować o dostęp do systemu. Z kolei Sierra ma być wykorzystywany w ramach programo Narodowej Agencji Bezpieczeństwa Nuklearnego do zapewnienia bezpieczeństwa i skuteczności amerykańskich nuklearnych środków odstraszających bez konieczności ich testowania, co ma ograniczyć rozprzestrzenianie broni masowego rażenia. Zarówno amerykańscy urzędnicy jak i część specjalistów uważają, że mniej ważne od sprzętowej wydajności superkomputera jest możliwość uruchamiania na nim różnych programów i wykorzystywania maszyny do jak najbardziej różnorodnych zadań. Nowe superkomputery to kolejny krok w kierunku systemu eksaskalowego. USA, Chiny, Japonia i Europa konkurują o to, kto pierwszy zbuduje komputer o wydajności liczonej w eksaflopsach, czyli maszyny zdolnej do wykonania 1018 operacji zmiennoprzecinkowych w ciągu sekundy. « powrót do artykułu
  9. Amerykańska Agencja ds. Żywności i Leków (FDA) wydała zgodę na pierwsze testy kliniczne szczepionki przeciwko wirusowi Zika. Amerykańska Inovio Pharmaceuticals Inc. i południowokoreańska GeneOne Life Sciences Inc. poinformowały, że GLS-5700 zostanie podana 40 osobom. Pierwsza faza testów klinicznych rozpocznie się w ciągu najbliższych tygodni. Pierwsze wyniki testów będą znane jeszcze w bieżącym roku. W I fazie testów klinicznych nie sprawdza się efektywności leku, ale jego bezpieczeństwo oraz odpowiednie dawki. Jeśli okaże się, że szczepionka jest bezpieczna, będzie można rozpocząć II fazę testów klinicznych, podczas której na większej liczbie pacjentów będzie sprawdzana jej efektywność. GLS-5700 to szczepionka bazująca na DNA. Podobnie jak inne tego typu leki zawiera ona fragmenty kodu DNA wirusa. W tym wypadku w szczepionce znajduje się fragment kodu wirusa oraz protein znajdujących się na jego powierzchni. Wykorzystanie fragmentów DNA a nie wirusa jest spowodowane faktem, że u osób dorosłych Zika nie powoduje większych komplikacji. Najbardziej groźny jest on dla kobiet w ciąży, a wstrzykiwanie im wirusa jest zbyt ryzykowne. Inovio i GeneOne nie są jedynymi, którzy pracują nad lekiem przeciwko Zika. Narodowy Instytut Alergii i Chorób Zakaźnych pracuje nad własną szczepionką i uzyskał dobre wyniki w testach na zwierzętach. « powrót do artykułu
  10. Fizycy ustalili, że kluczem do sukcesu myśliwskiego kameleonów jest lepka jak miód wydzielina na języku. Prof. Pascal Damman z Uniwersytetu w Mons wyjaśnia, że kameleony zaczajają się na ofiarę. Gdy kąsek się pojawi, błyskawicznie wyrzucają język, który jak bumerang powraca po chwili do pyska jaszczurki. W jaki jednak sposób ofiara cały czas się go trzyma? Biolodzy badali szereg możliwych wyjaśnień. Jedni sądzili, że w grę wchodzi mechanizm przypominający zamek błyskawiczny. Inni zakładali, że kubeczkowaty koniec języka przytrzymuje kąsek za pomocą ssania. Okazało się jednak, że wyjaśnieniem są właściwości wydzieliny - jest ona bardzo lepka. Damman i inni odkryli, że śluz na czubku języka kameleona jest wyjątkowo lepki. Jest 400-krotnie bardziej lepki od ludzkiej śliny. Cechuje go lepkość miodu. Wg wyliczeń autorów publikacji z Nature, to wystarczy, by schwytać ofiarę o ciężarze sięgającym 1/3 własnej masy. Pomiar lepkości był bardzo trudny, bo kameleony produkują niewielkie ilości śluzu. Musieliśmy więc opracować nową metodę [badania]. Ostatecznie Belgowie uciekli się do toczenia stalowej kulki po pokrytej śluzem pochylni. Śluz powoduje tarcie, które zmniejsza prędkość kuli. Mierząc prędkość, naukowcy byli w stanie wyliczyć lepkość wydzieliny. « powrót do artykułu
  11. W ciągu 30 lat jakie upłynęły pomiędzy rokiem 1976 a 2005 zwiększył się odsetek przypadków choroby Parkinsona i parkinsonizmu, informują specjaliści z Mayo Clinic. Szczególnie widoczne jest to wśród mężczyzn w wieku 70 lat i starszym. To pierwsze badania pokazujące rosnący odsetek zachorowań. Z przeprowadzonych badań wynika, że u mężczyzn w każdym wieku ryzyko rozwoju parkinsonizmu wzrosło o 17%, a choroby Parkinsona o 24% na każde 10 lat kalendarzowych. U mężczyzn w wieku co najmniej 70 lat ryzyko to jest większe - odpowiednio - o 24% i 35% na każde 10 lat. Badacze wykorzystali dane z Rochester Epidemiology Project, dzięki którym mogli śledzić dane medyczne, od narodzin do śmierci, wszystkich mieszkańców Olmsted County w Minnesoci, u których chociaż raz pojawiła się diagnoza choroby związanej z parkinsonizmem. Mamy powody, by wierzyć, że istnieje trend wzrostowy. Nie jest on prawdopodobnie spowodowany wikszą świadomością ludzi czy lepszą diagnostyką. Dowody wskazują, że zwiększyło się samo ryzyko zapadnięcia na chorobę Parkinsona - mówi główny autor badań, Rodolfo Savica, neurolog z Mayo Clinic. W USA doszło w tym czasie do dramatycznej zmiany ekspozycji na czynniki ryzyka. Wiemy, że takie czynniki jak ilość pestycydów czy palenie tytoniu uległy znacznej zmianie w ciągu ostatnich 70 lat. Zmiany w wystawieniu na działanie tego typu środków mogło zwiększyć ryzyko zachorowania - dodaje Savica. Badania przeprowadzone przez Mayo Clinic są pierwszymi, które wskazują na rosnące zagrożenie chorobą Parkinsona i parkinsonizmem. Wcześniej dwa amerykańskie i jedno kanadyjskie badania nie wykazały zmian w trendach, a trzy badania z Wielkiej Brytanii sugerowały spadek odsetka zachorowań. Badania z Mayo wykazały możliwy wzrost zachorowań wśród kobiet i mężczyzn urodzonych w latach 1915-1924. To ważna obserwacja, ponieważ osoby urodzone w tej konkretnej dekadzie mogły być wystawione na jakieś czynniki jeszcze podczas życia płodowego lub zaraz po narodzinach i to te czynniki mogły spowodować zwiększenie ryzyka. Musimy potwierdzić tę hipotezę. Parkinsonizm to ogólny termin zawierający w sobie chorobę Parkinsona i wiele innych schorzeń. Aby go zdiagnozować musi pojawić się spowolnienie ruchów oraz co najmniej jeden objaw - drżenie w czasie spoczynku, sztywność mięśni lub tendencja do przewracania się. Choroba Parkinsona to najczęstsze schorzenie ze spektrum parkinsonizmu - dodaje uczony. Na razie naukowcy muszą sprawdzić, czy rzeczywiście istnieje trend wzrostowy i spróbować dowiedzieć się, z czego on wynika. Nie można bowiem wykluczyć polepszenia diagnostyki. Przed laty bowiem pacjenci z nowotworami czy poważnymi chorobami układu krążenia mogli nie być diagnozowani jako cierpiący na parkinsonizm, jeśli lekarze prowadzący uznali, że spowolnienie ruchów czy drżenie mięśni są nieistotne dla przebiegu leczenia. « powrót do artykułu
  12. Bogatki zwyczajne (Parus major) żyjące w mieście są bardziej zagrożone śmiercią w młodym wieku niż sikory żyjące poza miastami. Biolodzy z Uniwersytetu w Lund wykazali, że te pierwsze mają krótsze telomery, czyli ochronne sekwencje z nukleotydów, które zabezpieczają przed "przycinaniem" chromosomów po ich podwojeniu w czasie podziału komórki. Szwedzi uważają, że za skrócenie telomerów odpowiada doświadczany przez miejskie ptaki stres. Choć istnieją korzyści związane z mieszkaniem w mieście, takie jak dostęp do pokarmu, wydaje się, że minusy, np. stres, przeważają. Przynajmniej w kategorii szybkości starzenia komórek bogatek - wyjaśnia Pablo Salmón. Naukowcy badali grupy rodzeństwa P. major. Połowa sikor dorastała na wsi, połowa w Malmö. Po 13 dniach pobrano próbki krwi, by określić długość telomerów erytrocytów. Po części biolodzy spodziewali się wyniku, mimo to zaskoczyła ich tak duża różnica widoczna po tak krótkim czasie. Wcześniejsze badania wykazały, że na długość telomerów wpływa genetyka. My zademonstrowaliśmy, że dorastanie w stresującym środowisku wpływa jeszcze silniej. Oddziaływanie urbanizacji na dziką przyrodę powinno być dalej badane. Inaczej nie będziemy w stanie zrozumieć, co zagraża ptakom. Nie będziemy też mogli nic zmienić. [Co istotne], nasze wyniki podnoszą kwestię wpływu urbanizacji na starzenie innych zwierząt i człowieka. « powrót do artykułu
  13. Adobe opublikowało nową wersję Flash Playera, w której załatało 36 dziur, w tym jedną typu zero-day, która jest aktywnie wykorzystywana przez cyberprzestępców. Zarówno ta dziura, jak i 34 inne pozwalały na wykonanie dowolnego kodu i przejęcie kontroli nad zaatakowaną maszyną. Do przeprowadzenia ataku wystarczyło, by użytkownik odwiedził złośliwą bądź zainfekowaną witrynę, obejrzał zainfekowaną reklamę lub otworzył dokument Worda z dołączonym obiektem Flash. Adobe zaleca użytkownikom,by jak najszybciej zainstalowali najnowszą wersję Flash Playera. Firma udostępniła też witrynę, na której można sprawdzić, którą wersję Flasha mamy zainstalowaną na swoim komputerze. « powrót do artykułu
  14. Na Uniwersytecie Kalifornijskim w Davies powstał eksperymentalny 1000-rdzeniowy procesor. Urządzenie KiloCore korzysta z 621 milionów tranzystorów i jest w stanie przetworzyć maksymalnie 1,78 biliona instrukcji na sekundę przy maksymalnym taktowaniu zegara 1,78 GHz. Twórcy procesora zapewniają, że zużywając zaledwie 0,7W jest on w stanie pracować z wydajnością 115 miliardów instrukcji na sekundę. To oznacza, że procesor może być zasilany z pojedynczej baterii AA. Oznacza to, że układ jest około 100-krotnie bardziej efektywny, niż przeciętny współczesny procesor. Każdy z rdzeni KiloCore pracuje niezależnie, dzięki czemu można go całkowicie wyłączyć, gdy jest nieaktywny, i zaoszczędzić energię. Procesor wykonano w technologii 32 nm CMOS IBM-a. Obecnie producenci procesorów zaczynają wdrażanie technologii 7 nm. Mamy więc tutaj do czynienia z układem badawczym, który ma jedynie pokazać, że możliwe jest wyprodukowanie procesora od tak wielkiej liczbie rdzeni. Nie powinniśmy się jednak spodziewać, że takie urządzenia trafią do naszych domów. « powrót do artykułu
  15. W Gloucester znaleziono skrzydło rzymskiej figurki z brązu. Odkrycia dokonano w nasypie ziemnym za dawnymi murami miejskimi podczas prac archeologicznych poprzedzających budowę osiedla Greyfriars Development. Skrzydło ma 14 cm długości. Po oczyszczeniu podczas badania za pomocą promieniowania rentgenowskiego oczom specjalistom ukazały się odlane ze szczegółami pióra. Forma i obróbka przypominają te widywane w rzymskich wyobrażeniach orła. Orzeł miał dla Rzymian szczególne znaczenie. Był jednym z atrybutów syna Saturna - Jowisza (boga nieba, burzy i deszczu). Orle skrzydła występowały także u Wiktorii, będącej personifikacją zwycięstwa i militarnej potęgi Imperium Romanum. Detale skrzydła z Gloucester sugerują, że stanowiło ono część postaci Wiktorii. Dr Martin Henig z Uniwersytetu Oksfordzkiego sądzi, że figurka należała do emerytowanego legionisty. W Brytanii znaleziska rzymskich rzeźb z brązu są skrajnie rzadkie. Wiadomo o zaledwie paru pochodzących z tej prowincji przedstawieniach Wiktorii bądź orłów. Odkrycie po raz kolejny pokazuje, że Gloucester [wtedy Glevum albo Colonia Nervia Glevensium] było ważnym miastem rzymskiej Brytanii i że w jego przestrzeniach publicznych znajdowały się brązowe figury bogów i cesarzy. Mogły one stanowić stałe wzrokowe przypomnienie [...] dla weteranów, którzy stanowili większość populacji [...] - uważa Neil Holbrook z prowadzącej wykopaliska firmy Cotswold Archaeology. Po zakończeniu prac konserwacyjnych skrzydło ma trafić do Muzeum Miejskiego w Gloucester. « powrót do artykułu
  16. Pod koniec przyszłego roku do sklepów ma trafić następca konsoli Xbox One. Urządzenie, zwane roboczo Project Scorpio, ma charakteryzować się wydajnością sięgającą 6 teraflopsów. Obecnie wydajność żadnej konsoli nie przekracza 2 TFlops, a wydajność Xboksa One to 1,23 TFlops. Nowa konsola ma obsługiwać standard wideo 4K/60fps, wspierać technologię Virtual Reality, korzystać z 8-rdzeniowego CPU AMD, a przepustowość podsystemu pamięci ma wynosić ponad 320 GB/s. Na razie niewiele wiadomo o samych podzespołach, z których ma być zbudowana konsola. Firma AMD wysłała do prasy lakoniczną informację, w której wyraża zadowolenie z faktu, że to jej produkt został wybrany przez Microsoft do zbudowania nowej konsoli. Dziennikarze spekulują, że koncern z Redmond zamówił odpowiednio przygotowaną wersję przyszłego Zen APU z procesorami Greenland. Być może do konsoli trafią dwa tego typu procesory, w sumie może więc ona dysponować 8 rdzeniami. Być może CPU AMD będzie współpracował z procesorem graficznym Polaris. Niezależnie jednak od konfiguracji, Microsoft musi wybrać rozwiązanie wydajne i jednocześnie finansowo dostępne dla graczy. Tym bardziej, że konkurencja nie zasypia gruszek w popiele. Przedstawiciele Sony potwierdzili właśnie plotki o pracach nad odświeżoną wersją konsoli PlayStation 4. Wiadomo, że ma ona wspierać grafikę 4K oraz technologię VR. Poza ceną, która przekroczy 350 USD, wiadomo niewiele więcej. « powrót do artykułu
  17. Piñatex to skóropodobny materiał wytwarzany z liści ananasa. Wynalazła go dr Carmen Hijosa, założycielka firmy Ananas Anam. Hijosa odkryła właściwości włókien z liści ananasa, pracując w latach 90. jako konsultantka Product Development and Design Center of the Philippines. Zwróciła wtedy uwagę na Barong Tagalog, tradycyjne cienkie męskie koszule, które często wykonuje się właśnie z włókien liści ananasa. Przełomem było spostrzeżenie, że z włókien można uzyskać nietkany materiał (pani doktor porównuje proces do filcu i spilśniania). W 2014 r. szereg różnych produktów z Piñateksu zaprezentowano w Królewskim College'u Sztuki w Londynie w ramach wystawy świeżo upieczonych doktorów. W 2016 r. Hijosie przyznano nagrodę Arts Foundation UK. Twórcy wspominali o różnych zastosowaniach Piñateksu. Puma i Camper stworzyły z niego buty, a Ally Capellino torebki. Pojawiały się też wzmianki o antybakteryjnych, oddychających opatrunkach i ociepleniach domów. Przed pocięciem i ułożeniem w warstwach, włókna z liści są suszone przez rolników. "Płótno" można farbować czy coś na nim nadrukowywać. W ten sposób uzyskuje się różne grubości i typy faktury, w tym skórzaną. Odpady pozostałe po produkcji wracają do farmerów i mogą być wykorzystywane jako nawóz. By uzyskać 1 metr kwadratowy Piñateksu średniej grubości, trzeba 480 liści ananasa. Obecnie włókna pozyskuje się na Filipinach, a reszta procesu ma miejsce w Hiszpanii. Piñatex jest sprzedawany w belach o szerokości 155 cm. Z witryny Ananas Anam można ściągnąć ulotkę z danymi technicznymi oraz analizę cyklu życiowego produktu. Część testów prowadzono w Instytucie Włókien Naturalnych i Roślin Zielarskich w Poznaniu. W 2014 r. cena Piñateksu wynosiła ok. 18 funtów za metr kwadratowy (na tapicerkę mebla potrzeba ok. 5 m2); dla porównania, skóra o tej samej powierzchni kosztowała między 20 a 30 GBP. Za dodatkową korzyść uznaje się też ograniczenie ilości odpadów poprodukcyjnych. Przed 2 laty pani doktor snuła plany, że od 2018 r. roczna sprzedaż Piñateksu będzie oscylować wokół 1 mln metrów kwadratowych. « powrót do artykułu
  18. Amerykańska Unia Geofizyczna informuje, że pod płytkimi arktycznymi jeziorami topi się wieczna zmarzlina. Od około 30 lat cieplejsze zimy i związane z tym większe opady śniegu powodują, że na jeziorach pojawia się coraz mniejsza pokrywa lodowa. W wyniku tego jeziora o głębokości mniejszej niż 1 metr zwiększyły swoją średnią temperaturę aż o 2,4 stopnia Celsjusza, a w ciągu ostatnich 7 lat ich średnioroczna temperatura znajduje się powyżej punktu zamarzania. Tempo ocieplania się wiecznej zmarzliny pod jeziorami jest podobne do tempa ocieplania się pozostałych części wiecznej zmarzliny. Jednak o ile w przypadku fragmentów nie pokrytych wodą zmarzlina ma temperaturę znacznie poniżej punktu zamarzania, to w płytkich jeziorach punkt ten został przekroczony. To poważny problem, gdyż wieczna zmarzlina pokryta wodą stanowi 20-40 procent Arktyki. Jeszcze w latach 70. ubiegłego wieku na północy Alaski każdej zimy jeziora pokrywały się ponad 2-metrową pokrywą lodową. W ciągu ostatniej dekady grubość tego lodu spadła do 1,5 metra, a w wielu miejscach wynosi 1,2 metra. To zaś powoduje, że osady w płytkich jeziorach nie zamarzają jak niegdyś i wieczna zmarzlina się topi. Vladimir Romanowsky z University of Alaska Fairbanks ostrzega, że jeśli wieczna zmarzlina pod jeziorami będzie się topiła, osady opadną, jeziora staną się głębsze, co spowoduje dalsze roztapianie się wiecznej zmarzliny. To inny proces, niż może zajść na lądzie, gdzie wraz z roztapianiem się wiecznej zmarzliny może pojawić się na niej warstwa roślinności, która częściowo ją ochroni i opóźni dalsze topienie się. « powrót do artykułu
  19. U Nyctibatrachus humayuni odkryto nieznaną wcześniej u płazów pozycję spółkowania. Naukowcy z zespołu prof. Sathyabhamy D. Biju z Uniwersytetu w Delhi nazwali ją "rozkrokiem grzbietowym". By przyłapać płaza in flagranti, biolodzy przez 40 nocy zaczajali się w lasach w pobliżu Humbarli (N. humayuni to endemit zamieszkujący Ghaty Zachodnie). Naukowcy ujawniają, że u N. humayuni nie występuje typowy ampleksus (samiec nie chwyta samicy przednimi i tylnymi łapami). Zamiast tego przednie kończyny leżącego na grzbiecie samicy amanta spoczywają na liściu czy gałązce albo je obejmują. W tym czasie samica uwalnia skrzek na powierzchnię, na której siedzi spółkująca para. Samiec ejakuluje na grzbiet samicy. Przed zapłodnieniem sperma spływa po jej plecach i tylnych kończynach - wyjaśniają autorzy publikacji z pisma PeerJ. Choć N. humayuni znajdują się w odległości kilku milimetrów od siebie, w większości przypadków w ogóle się nie dotykają. Odsuwając się pod koniec aktu, samiec nadyma policzki i unosi się nad jajami. Zespół Biju sądzi, że w ten sposób chroni skrzek przed wężami. Ostatecznie zapłodniony skrzek spływa po liściu do strumienia, gdzie rozwijają się kijanki. U N. humayuni podczas godów nawołują nie tylko samce. Nie wiadomo jednak, czemu ma służyć takie zachowanie samic. Rozkrok grzbietowy to 7. opisany rodzaj pozycji przyjmowanej przez płazy podczas kopulacji. « powrót do artykułu
  20. Nowy chiński superkomputer, Sunway TaihuLight, znalazł się na czele najnowszej listy TOP500. Wydajność maszyny w teście Linpack wyniosła 93 petaflopsy, jest więc trzykrotnie większa od dotychczasowego lidera, również chińskiego Tianhe-2. Jednak tym, o czym należy przede wszystkim wspomnieć, jest fakt, że Sunway TaihuLight to w pełni chińska konstrukcja. Najnowszy superkomputer korzysta z procesorów ShenWei i chińskich łączy. Jego twórcy rozwiali więc wszelkie wątpliwości dotyczące kwestii chińskiego uzależnienia od zachodnich technologii na rynku superkomputerów. TaihuLight pracuje w Narodowym Centrum Superkomputerowym w Wuxi. Jego przeznaczeniem są obliczenia z dziedziny klimatologii, meteorologii, modelowania systemów biologicznych, analizy danych oraz z pomoc przy opracowywaniu zaawansowanych systemów inżynieryjnych. Jako pierwszy w pełni chiński superkomputer, który trafił na pierwsze miejsce najpotężniejszych maszyn świata, system Sunway TaihuLight to dowód olbrzymiego postępu, jaki poczyniły Chiny w dziedzinie projektowania i wytwarzania olbrzymich systemów komputerowych - powiedział profesor Guangwen Yang, dyrektor Centrum Superkomputerowego w Wuxi. Twórcą TaihuLight jest Narodowe Centrum Badawcze Inżynierii i Technologii Obliczeń Równoległych (NRCPC). To właśnie ta organizacja opracowała procesor SW26010, będący mózgiem superkomputera. Układ ten to 260-rdzeniowy chip o wydajności nieco ponad 3 teraflopsów. TaihuLight składa się z 40 960 węzłów, z których każdy posiada jeden procesor. Szczytowa wydajność takiej konfiguracji to 125 petaflopsów. Procesor ShenWei dorównuje więc wydajnością intelowskiemu Xeonowi Phi z rdzeniem Knights Landing. Co ciekawe, to właśnie amerykańskie embargo, które uniemożliwiło Chinom importowanie highendowych procesorów, przyczyniło się do zwycięstwa TaihuLight na TOP500. Najprawdopodobniej bowiem twórcy Tianhe-2 planowali wyposażyć swój superkomputer w najnowsze procesory Intela, dzięki czemu osiągnąłby on wydajność rzędu 100 PFlops na długo przed superkomputerem z Wuxi. Procesor ShenWei to 64-bitowy układ RISC z zestawem instrukcji SIMD z wykonywaniem poza kolejnością (out-of-order execution). Szczegółowe dane na temat jego architektury nie zostały upublicznione, jednak prawdopodobnie została ona wykonana na wzór DEC Alpha. Procesor podzielony jest na cztery grupy rdzeni. W skład każdej z nich wchodzą 64 rdzenie obliczeniowe (CPE) i jeden zarządzający (MPE). Każda grupa rdzeni posiada własny kontroler pamięci o przepustowości 136,5 GB/s. Całość współpracuje z zegarem 1,45 GHz i obsługuje jeden wątek na rdzeń. Nie wiadomo, w jakiej technologii wykonano procesor. Każdy z węzłów ma do dyspozycji 32 gigabajty pamięci, w sumie cały superkomputer dysponuje 1,3 PB. Tylko pozornie jest to dużo. Większość superkomputerów charakteryzuje się znacznie lepszym stosunkiem pamięci do wydajności. Ponadto TaihuLight korzysta z kości DDR3, które są wolniejsze i zużywają więcej energii niż DDR4. Superkomputer dysponuje też niewielką ilością pamięci podręcznej. Nie jest ona podzielona na poziomu. Każdy z rdzeni ma do dyspozycji 12 kB pamięci na instrukcje oraz 64 kB pamięci notatnikowej, w której przechowuje wyniki obliczeń. O ile podsystem pamięci nie jest mocną stroną superkomputera, to można go pochwalić za energooszczędność. TaihuLight potrzebuje do pracy 15,3 MW, podczas gdy trzykrotnie mniej wydajny pobiera 17,8 MW. Dzięki takim osiągom TaihuLight z pewnością trafi na listę Green500, gdyż jego wydajność na wat wynosi aż 6 gigaflopsów. Trzeba jednak wspomnieć, że gdyby maszyna dysponowała większą ilością pamięci, pobierałaby znacznie więcej mocy. Połączenia pomiędzy poszczególnymi węzłami superkomputera również są rodzimego autorstwa. Bazują one na technologii PCIe 3.0, co zapewnia przepustowość rzędu 16 GB pomiędzy węzłami, a opóźnienia wynoszą 1 mikrosekundę. System operacyjny maszyny to Sunway Raise OS. Wykorzystuje on standardową dystrybucję Linuksa, do której wprowadzono zmiany niezbędne, by system działał na specyficznej architekturze superkomputera. Dla porządku wspomnimy, że na drugim miejscu najnowszej TOP500 znalazł się chiński Tianhe-2 (33,8 PFlops), następny jest amerykański Titan (17,6 PFlops), na czwartej pozycji ulokował się również amerykański Sequoia (17,2 PFlops). Kolejne miejsca zajmują K Computer (10,5 PFLops, Japonia), Mira (8,6 PFlops, USA), Trinity (8,1 PFlops, USA), Piz Daint (6,3 PFlops, Szwajcaria), Hazel Hen (5,7 PFlops, Niemcy) oraz Shaheen II (5,6 Pflops, Arabia Saudyjska). Na liście znajdziemy też 6 superkomputerów z Polski. Są to Prometheus (48. pozycja, 1,7 PFlops), Hetman (90. pozycja, 1 PFlops), Okeanos (107. pozycja, 0,9 PFlops), BEM (147. pozycja, 0,7 PFlops), Tryton (209. pozycja, 0,5 PFlops) oraz maszyna z Centrum Komputerowego w Świerku (292. pozycja, 0,4 PFlops). « powrót do artykułu
  21. U nastolatków z cukrzycą typu 2. występują zmiany w ogólnej objętości substancji szarej, a także zmiany w ilości substancji szarej w regionach powiązanych z widzeniem i słyszeniem, pamięcią, emocjami, mową, podejmowaniem decyzji oraz samokontrolą. Naukowcy z Centrum Medycznego Szpitala Dziecięcego w Cincinnati odkryli, że w 6 regionach znajduje się znacząco mniej istoty szarej, a w 3 znacząco więcej. Natrafili też na związek między zmniejszoną ilości istoty szarej w mózgu i zdolnością do wymawiania i analizowania nieznanych słów. Wcześniejsze badania sugerowały, że u młodych osób z cukrzycą typu 2. występują zmiany w budowie mózgu. W porównaniu do rówieśników, typowe są także słabsze wyniki funkcjonowania poznawczego. Dotąd nie oceniano [jednak] kompleksowo ogólnej i regionalnej objętości mózgu. Zależało nam również na sprawdzeniu, czy zaobserwowane zjawiska wyjaśniają słabsze wyniki - wyjaśnia dr Amy Sanghavi Shah. Amerykanie porównywali 20 nastolatków z cukrzycą typu 2. z grupą 20 zdrowych osób w podobnym wieku (dopasowywano też rasę i płeć). Wszystkich poddano rezonansowi magnetycznemu w wysokiej rozdzielczości. W żadnej z grup nie występowały zaburzenia neurologiczne czy psychologiczne. Nie było też nieprawidłowości w wykonywanych wcześniej MRI. Nasze wyniki nie pokazują związku przyczynowo-skutkowego. Nie wiemy, czy zaobserwowane zmiany są bezpośrednim skutkiem cukrzycy, ale badania dorosłych z dłużej trwającą cukrzycą typu 2. także pokazują zmiany w objętości mózgu i unaczynieniu oraz pogorszenie funkcjonowania poznawczego [...] - dodaje dr Jacob Redel. W przyszłości naukowcy chcą przeprowadzić kolejne badanie z dodatkową grupą otyłych osób bez cukrzycy. Planują także powiększenie próby. W ten sposób będzie można ustalić, czy zaobserwowane zmiany są związane z otyłością, czy raczej z wysokim poziomem cukru we krwi i sprawdzić, czy różnice w objętości mózgu wpływają też na inne funkcje poznawcze, np. pamięć. « powrót do artykułu
  22. KELT-9b to rzadki przypadek planety krążącej wokół bardzo młodej masywnej gwiazdy. Powierzchnia planety jest cieplejsza niż powierzchnia niektórych czerwonych karłów. Wspomniana planeta została odkryta dzięki Kilodegree Extremely Little Telescope (KELT), dwóm automatycznym teleskopom umieszczonym w Arizonie i RPA. Okrąża ona gwiazdę ponaddwukrotnie bardziej masywną od Słońca, a sama ma średnicę i masę dwukrotnie większą od Jowisza. Na powierzchni KELT-9b temperatura dochodzi do 3400 stopni Celsusza. Planeta wpadła w spiralę śmierci i opada na powierzchnię swojej gwiazdy. Karen Collins z University of Tennessee, członkini zespołu, który odkrył planetę, informuje, że obecnie krąży ona wokół jednego z biegunów gwiazdy. Zdaniem uczonej to spowoduje zmianę orbity planety. Za kilkadziesiąt lat zniknie nam ona z oczu na tysiąc albo i więcej lat, a później znowu się pojawi - stwierdza Collins. Zdaniem profesora Aarona Boleya z kanadyjskiego University of British Columbia, orbita KELT-9b jest niezwykle intrygująca. Planety powstają z dość płaskiego dysku gazu i pyłu, który zwykle formuje się wokół równika gwiazdy. Fakt, że nowo odkryta planeta krąży wokól bieguna sugeruje, że mogła ona wejść w interakcje z inną planetą. KELT-9b jest skazana na zagładę. Albo rozerwą ją siły pływowe gwiazdy, albo opadnie na jej powierzchnię. Tak czy inaczej jest ona niezwykle interesującym obiektem i naukowcy będą ją badać, póki mają okazję. « powrót do artykułu
  23. W recenzowanym piśmie AIP Advances 6 ukazał się artykuł na temat kontrowersyjnego silnika EmDrive. Jego autorzy, profesor fizyki Arto Annila z Uniwersytetu w Helsinkach, doktor chemii organicznej Erkki Kolehmainen z Uniwersytetu w Jyväskylä oraz fizyk Patrick Grahn z firmy Comsol, twierdzą, że EmDrive zyskuje ciąg dzięki ucieczce fotonów z zamkniętej komory. Brytyjski naukowiec Roger Shawyer opracował i zaprezentował koncepcję EmDrive w latach 90. ubiegłego wieku. Jego zdaniem silnik ten mógłby całkowicie zmienić przemysł kosmiczny, pozwolić na zaoszczędzenie energii i umożliwić szybsze i tańsze podróżowanie poza naszą planetą. Wielu ekspertów wątpi w to, czy EmDrive w ogóle działa. Jednak w ostatnim czasie ukazało się kilka prac naukowych z Niemiec, Chin, nawet NASA, których autorzy stwierdzili, że EmDrive działa, chociaż nie wiedzą dlaczego. Jeśli Finowie mają rację i ich wyjaśnienie pojawienia się ciągu w EmDrive jest prawdziwe, to specjaliści będą mogli udoskonalić silnik, zbadać go i wyjaśnić zasadę jego działania. Profesor Annila to znany badacz sił natury. Jest on autorem niemal 50 prac opublikowanych w prestiżowych pismach. Jego teorie znalazły zastosowanie w badaniach ciemnej energii i ciemnej materii, ewolucji, ekonomii czy neurologii. Teraz Annila stwierdza: EmDrive jest jak każdy inny silnik. Pobiera paliwo i wytwarza ciąg. Od strony paliwa wszystko jest proste i zrozumiałe dla każdego - do silnika wysyłane są mikrofale. Problemy w tym, że nie widać niczego, co by się z niego wydostawało, dlatego też ludzie sądzą, że silnik nie działa. Jak więc możesz niego wydostawać się coś, czego nie można wykryć? Fotony odbijają się w komorze w tę i z powrotem. Część z nich podąża w tym samym kierunku i z tą samą prędkością, jednak ich faza jest przesunięta o 180 stopni. Jeśli więc podróżują w takiej konfiguracji, nawzajem znoszą swoje pole elektromagnetyczne. To jak fale wody podróżujące razem, gdy jedna fala jest przesunięta względem drugiej tak, że nawzajem się niwelują. Woda nie znika, nadal tam jest. Tak samo nie znikają fotony, które są nośnikiem pędu, chociaż nie widać ich w formie światła. Jeśli zaś fale nie mają już właściwości elektromagnetycznych, gdyż nawzajem je sobie zniwelowały, nie odbijają się od ścian komory i się z niej wydostają. Mamy więc napęd dzięki fotonom występującym w parach. Wszystko, co dzieje się w naturze, to proces. Każdy silnik to proces - potrzebuje paliwa i wydechu. EmDrive działa według tych samych zasad co wszystko inne. Podstawowe prawa natury są niezwykle przemyślane, a wielu specjalistów w nie nie wierzy, gdyż czynią one każdą teorię redundantną - stwierdza Annila. Uczony dodaje, że zamiast z góry odrzucać i krytykować EmDrive, środowisko naukowe powinno prowadzić więcej eksperymentów z udziałem tego silnika. Wspomina tutaj teorię kwantowej inercji brytyjskiego fizyka Mike'a McCullocha i zgadza się z McCullchem, który twierdzi, że nawet sam Shawyer nie w pełni rozumie, jak działa jego silnik. « powrót do artykułu
  24. Amerykańscy naukowcy ujawnili mechanizm, za pośrednictwem którego antybiotyki zmieniają mikrobiom, zwiększając ilość składników odżywczych sprzyjających rozwojowi patogenów, w tym przypadku bakterii z rodzaju Salmonella. Franziska Faber podkreśla, że badania zespołu z Uniwersytetu Kalifornijskiego w Davis po raz pierwszy pokazały, że Salmonella [enterica] świetnie się rozwijają po antybiotykoterapii, bo podanie streptomycyny skutkuje zwiększeniem dostępności produktów utleniania cukrów prostych galaktozy i glukozy. Zjawisko to napędza ekspansję serotypu (wariantu serologicznego) S. enterica Typhimurium. Nasilając ekspresję genu kodującego indukowaną syntazę tlenku azotu (ang. inducible nitric oxide synthase, iNOS) w błonie śluzowej kątnicy, antybiotyk zwiększa dostępność produktów utleniania cukrów. Dokładnie rzecz ujmując, enzym (iNOS) prowadzi do powstawania reaktywnych form azotu, które mogą utleniać cukry do kwasów cukrowych. To dlatego leczenie antybiotykami zwiększa ryzyko wystąpienia nieżytu żołądkowo-jelitowego wywołanego serotypami S. enterica, a pacjenci dłużej rozsiewają patogeny w kale (w sprzyjających dla bakterii okolicznościach częściej następują też nawroty choroby). « powrót do artykułu
  25. Odkryto kolejnego quasi-satelitę Ziemi. Asteroida 2016 HO3, jak wykazały obliczenia, od kilkudziesięciu lat znajduje się na stabilnej orbicie wokół naszej planety i pozostanie na niej przez kolejne stulecia. Asteroida o średnicy 37-91 metrów została odkryta 27 kwietnia bieżącego roku przez teleskop Pan-STARRS 1 na Hawajach. NASA informuje, że obiekt nigdy nie zbliża się do Ziemi na odległość mniejsza niż 14 milionów kilometrów, zatem nie uderzy w naszą planetę. Specjaliści mówią, że asteroida znajduje się w tak dużej odległości od nasze planety, że nie może być uznana za kolejny księżyc czy satelitę. Dlatego też 2016 HO3 zyskała miano quasi-satelity. Nie po raz pierwszy astronomowie zauważają obiekt krążący wokół naszej planety. W przeszłości Ziemi towarzyszyła asteroida 2003 YN107, opuściła jednak nasze sąsiedztwo. 2016 HO3 jest znacznie mocniej związana z Ziemią, zatem pozostanie z nami dłużej. Niektórzy specjaliści sądzą, że Ziemia ma znacznie więcej tego typu towarzyszy. Część z nich jest tutaj czasowo, część na stałe. W 2012 roku astronomowie z Uniwersytetu w Helsinkach, Obserwatorium Paryskiego i University of Hawaii przeprowadzili obliczenia, z których wynika, że w każdej chwili Ziemi towarzyszy - nie licząc Księżyca - co najmniej jeden naturalny satelita o średnicy większej niż 1 metr. « powrót do artykułu
×
×
  • Dodaj nową pozycję...