-
Liczba zawartości
37586 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
246
Zawartość dodana przez KopalniaWiedzy.pl
-
Międzynarodowy zespół badaczy zidentyfikował u pingwinów Adeli (Pygoscelis adeliae) z Antarktydy nieznany dotąd wirus ptasiej grypy. Wirus opisano w artykule opublikowanym na łamach mBio. Jak tłumaczy dr Aeron Hurt z WHO Collaborating Centre for Reference and Research on Influenza w Melbourne, wcześniej naukowcy pobierali krew i wykrywali przeciwciała przeciw wirusowi grypy, nikt jednak nie znalazł u pingwinów lub innych ptaków z Antarktydy samych żywych wirusów. W ramach studium wybrano 2 lokalizacje: Zatokę Admiralicji oraz Rada Covadonga. Trzystu jeden pingwinom Adeli wykonano wymaz m.in. z tchawicy, a 270 pobrano krew. Próbki zbierano w styczniu i lutym ubiegłego roku. Posługując się PCR z odwrotną transkryptazą, naukowcy odkryli materiał genetyczny wirusa grypy w 8 (2,7%) próbkach. Dwie pozyskano od piskląt, resztę od dorosłych osobników. Siedem pochodziło z Rada Covadonga. W 4 przypadkach powiodła się hodowla; w ten sposób naukowcy zademonstrowali obecność żywego, zakaźnego wirusa. Dalsza analiza pokazała, że wszystkie wirusy to bardzo podobne do siebie H11N2. Kiedy jednak zespół porównał pełną sekwencję genomu wirusów z Antarktydy z sekwencjami wszystkich ludzkich i zwierzęcych wirusów grypy z publicznych baz danych, okazało się, że te pierwsze były do niczego niepodobne. Gdy, by zademonstrować ewolucyjne zależności wirusa, narysowaliśmy drzewa filogenetyczne, [stwierdziliśmy, że] wszystkie geny były bardzo różne od tych występujących we współczesnych wirusach ptasiej grypy [AIVs, od ang. avian influenza viruses], krążących po kontynentach tak północnej, jak i południowej półkuli. Cztery segmenty genów były najbliżej powiązane z północnoamerykańskimi wirusami ptasimi z lat 60.-80. XX w. Dwa geny wykazywały dalekie pokrewieństwo z dużą liczbą AIVs z Chile, Argentyny i Brazylii. Autorzy publikacji z mBio posłużyli się zegarem molekularnym, który miał pokazać tempo ewolucyjne każdego segmentu AIV. Dzięki temu ustalono, że wirus ewoluował przez ostatnie 49-81 lat. Nie wiadomo, czy zjawisko to zachodziło wyłącznie na Antarktydzie, czy również gdzie indziej. Przeprowadzając dodatkowe próby, naukowcy zauważyli, że u 16% pingwinów (43) występowały przeciwciała przeciw wirusowi grypy typu A. Podczas eksperymentów wirus nie infekował fretek. Mimo że pingwiny nie wykazywały objawów choroby, odkrycie rodzi kilka pytań. Po pierwsze, jak często AIVs dostają się na Antarktydę. Po drugie, czy można tu przetransferować wysoce patogenne AIVs. Po trzecie, jakie zwierzęta lub ekosystemy podtrzymują wirus i wreszcie po czwarte, czy na czas zimy wirusy podlegają krioprezerwacji. « powrót do artykułu
-
Niespodziewane zwycięstwo Oracle'a w sporze z Google'em
KopalniaWiedzy.pl dodał temat w dziale Technologia
Sąd w USA orzekł, że części języka Java mogą być chronione prawem autorskim. Najnowszy wyrok w sprawie Oracle przeciwko Google'owi to spore zaskoczenie i, jeśli zostanie utrzymany, może znacząco wpłynąć na rynek IT. Oracle oskarżyło Google'a o to, że bez pozwolenia wykorzystał różne Javy, które pozwalają urządzeniom z Androidem łączyć się z internetem, tworzyć grafikę czy komunikować z innymi urządzeniami. Uznaliśmy, że zestaw komend pozwalających komputerowi na wykonanie pewnych operacji może zawierać wyrażenia, które mogą być przedmiotem prawa autorskiego - napisała w sentencji wyroku sędzia Kathleen O'Malley. Spór pomiędzy Oracle'em a Google'm ciągnie się od 2010 roku, kiedy to Oracle skierował sprawę do sądu twierdząc, że Google naruszył prawa dotyczące siedmiu API. Google broni się mówiąc, że Oracle nie może twierdzić, że API są chronione prawem autorskim, gdyż jest to stwierdzenie mówiące, że technika jest objęta ochroną intelektualną, czego prawo nie dopuszcza. Pierwszy wyrok był dla Oracle'a niekorzystny. Firma odwołała się do sądu apelacyjnego, który w 2012 roku uznał, że Oracle ma prawo pozwać Google'a o naruszenie praw autorskich. Teraz sąd federalny potwierdził stanowisko Oracle'. Język Java został stworzony w latach 90. ubiegłego wieku przez Sun Microsystems. Firma udostępniła go bezpłatnie developerom, jednak pobierała opłaty tam, gdzie Java była komercyjnie wykorzystywana. W 2010 roku Oracle kupił Suna, a Google stało się pierwszą firmą, którą koncern Ellisona wziął na celownik, domagają się respektowania swoich praw. Po stronie Oracle'a opowiedzieli się Microsoft, NetApp i EMC. Google jest wspierane przez Rackspace Hosting oraz Application Developers Alliance. Oracle domaga się od Google'a ponad miliarda dolarów odszkodowania. « powrót do artykułu -
Windows XP rzadziej atakowany od Visty i Windows 7
KopalniaWiedzy.pl dodał temat w dziale Bezpieczeństwo IT
Jutro, 13 maja, w ramach comiesięcznego zestawu poprawek, Microsoft opublikuje osiem biuletynów bezpieczeństwa. Dwa z nich zostały uznane za krytyczne, pozostałych sześć zyskało ocenę „ważne”. Krytyczne biuletyny łatają dziury, które pozwalają napastnikowi na zdalne wykonanie kodu w MS Windows, Internet Explorerze, oprogramowaniu serwerowym i oprogramowaniu produkcyjnym. Jeden z „ważnych” biuletynów również poprawia lukę pozwalającą na zdalne wykonie kodu. W tym przypadku dziura znajduje się w MS Office. Kolejne trzy biuletyny przeznaczono dla dziur, dzięki którym napastnik może zwiększyć swoje uprawnienia w systemie. Tego typu błędy występują w systemie Windows oraz w .NET Framework. Poprawione zostaną też dziura w Windows umożliwiająca przeprowadzenie ataku DoS oraz błąd w MS Office, dzięki któremu napastnik może ominąć zabezpieczenia. -
Microsoft opublikuje osiem biuletynów bezpieczeństwa
KopalniaWiedzy.pl dodał temat w dziale Bezpieczeństwo IT
Jutro, 13 maja, w ramach comiesięcznego zestawu poprawek, Microsoft opublikuje osiem biuletynów bezpieczeństwa. Dwa z nich zostały uznane za krytyczne, pozostałych sześć zyskało ocenę „ważne”. Krytyczne biuletyny łatają dziury, które pozwalają napastnikowi na zdalne wykonanie kodu w MS Windows, Internet Explorerze, oprogramowaniu serwerowym i oprogramowaniu produkcyjnym. Jeden z „ważnych” biuletynów również poprawia lukę pozwalającą na zdalne wykonie kodu. W tym przypadku dziura znajduje się w MS Office. Kolejne trzy biuletyny przeznaczono dla dziur, dzięki którym napastnik może zwiększyć swoje uprawnienia w systemie. Tego typu błędy występują w systemie Windows oraz w .NET Framework. Poprawione zostaną też dziura w Windows umożliwiająca przeprowadzenie ataku DoS oraz błąd w MS Office, dzięki któremu napastnik może ominąć zabezpieczenia. -
Gdy pewien 48-latek trafił po wypadku motocyklowym na oddział ratunkowy szpitala w Padwie, lekarze stwierdzili, że jego serce znajduje się po prawej stronie. Osłuchiwanie i EKG sugerowały zwykłą dekstrokardię i dopiero rtg. klatki piersiowej i tomogram ujawniły prawdziwą przyczynę - lewostronną odmę prężną. Powietrze gromadzące się w jamie opłucnej sprawiło, że serce obróciło się o 90 st. w prawo. Mężczyzna doznał stłuczenia płuc, miał też złamane żebra. Na tomogramie całego ciała widać było prawostronną rotację aorty i pnia płucnego, a także obu przedsionków. Pacjentowi usunięto pękniętą śledzionę oraz wykonano lewostronny drenaż opłucnowy. Dobę po drenażu serce znajdowało się w oryginalnym (lewostronnym) położeniu. Niezwykły przypadek opisano w artykule opublikowanym w New England Journal of Medicine. « powrót do artykułu
-
Na Południowozachodnim Uniwersytecie Jiaotong w Chinach przeprowadzono pierwsze udane testy systemu maglev, który – jak chcą jego twórcy – będzie w przyszłości poruszał się z prędkością niemal 2900 kilometrów na godzinę. Taki system transportowy mógłby zostać wykorzystany w wojsku czy podczas wynoszenia ładunków na orbitę. Maglev (od magnetyczna lewitacja) to system napędu, który wykorzystuje magnesy do rozpędzenia pojazdu. Zdobył on rozgłos dzięki temu, że umożliwia budowanie superszybkich pociągów. Obecnie rekord prędkości maglev należy do japońskiego MLX01, który osiągnął 581 km/h. Najszybszy regularnie kursujący maglev jeździ w Szanghaju i osiąga 431 km/h. Opracowany przez Chińczyków supermaglev ma jeździć znacznie szybciej. Twórcy projektu założyli, że będzie się on poruszał w zamkniętej tubie, w którym ciśnienie zostanie znacznie obniżone. Gdy prędkość przekracza 400 km/h, aż 83% energii jest marnowana na pokonywanie oporów powietrza - mówi doktor Deng Zigang, który stoi na czele grupy badawczej. Ponadto, jak zauważa, dziób pociągu generuje wówczas hałas przekraczający 90 decybeli, podczas gdy standardy mówią o granicy 75 decybeli. Zdaniem Chińczyków, jedynym sposobem na pokonanie tych ograniczeń jest zamknięcie pociągu w tubie, w której ciśnienie zostanie obniżone 10-krotnie w stosunku do ciśnienia na poziomie morza. W lutym 2013 roku zakończono pierwszą fazę testów, w czasie której sprawdzano wysokotemperaturowy nadprzewodzący (HTS) maglev na prototypowym torze testowym. Pojazd miał osiągnąć prędkość 25 km/h. Najnowsze testy prowadzono już w tubie. Pojazd przyspieszył do prędkości 50 km/h. Prędkość jest ograniczona niewielką średnicą prototypowego toru. Wynosi ona zaledwie 6 metrów - wyjaśnia Zigang. Mimo niewielkiej prędkości jest to pierwszy test kompletnego systemu wysokotemperaturowego nadprzewodzącego magleva zamkniętego w tubie. « powrót do artykułu
-
Dzięki drukowi 3D stworzono zewnętrzne urządzenie do usuwania z krwi toksyn. W aparacie przypominającym wątrobę wykorzystano nanocząstki wychwytujące toksyny tworzące pory, które mogą uszkadzać błonę komórkową. Już wcześniej zademonstrowano, że nanocząstki skutecznie neutralizują we krwi toksyny produkowane przez metycylinoopornego gronkowca złocistego (MRSA), pałeczki okrężnicy czy węże. Jeśli jednak nie uda się ich strawić, akumulują się w wątrobie, grożąc wtórnym zatruciem. By poradzić sobie z tym problemem, zespół Shaochena Chena z Uniwersytetu Kalifornijskiego w San Diego stworzył drukowaną 3D hydrożelową macierz, w której enkapsuluje się nanocząstki. Prototyp urządzenia wzorowano na budowie wątroby, ale ma ono większe pole powierzchni, by lepiej przyciągać i przytrzymywać toksyny. Podczas studium in vitro aparat całkowicie zneutralizował toksyny tworzące pory. [...] Gdy toksyny są wychwytywane, urządzenie staje się czerwone - opowiada Xin Qu. Technika Chena to stereolitografia wykorzystująca dynamiczną projekcję optyczną (ang. dynamic optical projection stereolithography, DOPsL). Bazuje ona na komputerowym systemie projekcyjnym i precyzyjnie kontrolowanych mikrozwierciadłach, które oświetlają wybrany obszar roztworu z fotowrażliwymi biopolimerami i komórkami. Wywołane światłem utwardzanie tworzy jedną stałą warstwę naraz, ale proces ma charakter ciągły. « powrót do artykułu
-
W reaktorach atomowych znajdują się liczne czujniki, które na bieżąco informują operatorów o tym, co dzieje się z reaktorem. Niestety, tam, gdzie zachodzą same reakcje, we wnętrzu prętów paliwowych, panują warunki uniemożliwiające umieszczenie tam czujników. Dlatego też obecnie nie jest możliwe uzyskanie dokładnego obrazu pracy reaktora. To jednak może ulec zmianie dzięki najnowszemu osiągnięciu specjalistów z Idaho National Laboratory. Opracowali oni czujniki, które przekładają różnice w temperaturach wewnątrz prętów paliwowych na podobne do gwizdnięć dźwięki, opisujące stan paliwa. Tego typu czujniki termoakustyczne mogą dostarczyć danych na temat temperatury, ciśnienia, składu gazu, tempa spalania paliwa oraz fizycznego stanu samych prętów. Wcześniej podejmowano próby umieszczania czujników w samym sercu reaktorów, jednak psuły się one tak często, że ich stosowanie było nieopłacalne. James Smith, jeden z członków grupy badawczej, która opracowała nowe czujniki zauważa, że katastrofa w Fukushimie pokazała, jak ważnym jest posiadanie wewnątrz reaktora czujników działających niezależnie od energii elektrycznej dostarczanej im przez reaktor. W Fukushimie czujniki przestały w pewnym momencie działać i operatorzy nie wiedzieli, co się dzieje. Jednak tego typu sensory przydadzą się nie tylko podczas katastrof. Dzięki nim możliwe będzie monitorowanie prętów w czasie rzeczywistym i zdobycie większej ilości danych na temat procesów zachodzących wewnątrz reaktora. Takie dane mogą posłużyć specjalistom w pracach nad udoskonalaniem reaktorów. Termoakustyczny czujnik składa się z metalowej tuby działającej jak rezonator oraz zestawu równoległych kanalików wykonanych z ceramiki. Na każdym calu kwadratowym znajduje się 1100 kanalików. Różnica temperatur pomiędzy kanalikami prowadzi do powstania fali dźwiękowej w rezonatorze. Manipulując długością czy wagą rezonatora można dostosowywać go do różnych częstotliwości dźwięku przekazujących informacje o różnych warunkach. Dźwięk z rezonatora wędruje przez płyn chłodzący pręty paliwowe i jest odbierany przez hydrofon znajdujący się poza główną częścią reaktora. Po prostu powodujemy, że pręty paliwowe gwiżdżą. To nowatorski, prosty sposób na monitorowanie paliwa w reaktorach - ciesz się Smith. « powrót do artykułu
-
Mimo wysokotłuszczowej diety i grubej warstwy podskórnej tkanki tłuszczowej niedźwiedzie polarne mają zdrowe serce. Jak to robią? Na czym polega ich przystosowanie do życia w wysokiej Arktyce? Takie właśnie pytania zadali sobie naukowcy z Danii, Chin i USA, autorzy raportu z pisma Cell. Karmione piersią niedźwiadki polegają na mleku zawierającym do 30% tłuszczu, a dorosłe osobniki jedzą głównie tkankę tłuszczową ssaków morskich. U niedźwiedzi polarnych pod skórą występuje gruba warstwa tłuszczu i ponieważ zasadniczo żyją one na polarnej pustyni i nie mają przez większość roku dostępu do świeżej wody, bazują na wodzie metabolicznej, będącej produktem ubocznym rozkładu tłuszczu - wyjaśnia Eline Lorenzen z Uniwersytetu w Berkeley. Dla niedźwiedzi polarnych głęboka otyłość jest łagodnym stanem. Chcieliśmy wiedzieć, jak sobie z tym radzą. Naukowcy przeanalizowali genomy 79 niedźwiedzi polarnych z Grenlandii i 10 niedźwiedzi brunatnych ze Szwecji, Finlandii, Parku Narodowego Glacier Bay na Alasce, a także Wysp Admiralicji, Baranowa i Cziczagowa z Archipelagu Aleksandra. W ten sposób udało im się wykazać, że do oddzielenia tych 2 gatunków doszło ok. 400 tys. (479-343 tys.) lat temu. W tym krótkim czasie niedźwiedzie polarne stały się istotami unikatowo przystosowanymi do ekstremów życia na antarktycznym morskim lodzie [...] - podkreśla Rasmus Nielsen z UC Berkeley. Nie wiemy dokładnie, co napędzało ewolucję niedźwiedzi polarnych, ale oddzielenie od niedźwiedzi brunatnych zbiegło się w czasie z interglacjałem MIS-11 (ang. Marine Isotope Stage 11). Przekształcenia środowiska wskutek zmiany klimatu mogły zachęcić niedźwiedzie brunatne do rozszerzenia areału dalej na północ. Niewykluczone, że kiedy MIS-11 się skończył i zaczęła się nowa epoka lodowcowa, doszło do odizolowania grupy niedźwiedzi brunatnych. Nie miały one wyboru i musiały się przystosować do nowych warunków. Do wyewoluowania nowego metabolizmu doszło naprawdę szybko, bo z tego, co wiemy, niedźwiedzie polarne polegały na swojej morskiej diecie już 100 tys. lat temu. Choć tłuszcz stanowi do połowy masy ciała niedźwiedzia polarnego, a poziom cholesterolu we krwi wystarczyłby do wywołania choroby sercowo-naczyniowej u człowieka, biolodzy odkryli mutacje umożliwiające gruntowną reorganizację układu sercowo-naczyniowego (9 z 16 genów podlegających najsilniejszemu doborowi pozytywnemu wiązało się właśnie z kardiomiopatią i chorobami naczyniowymi). Jeden z nich - APOB - koduje apolipoproteinę B, element strukturalny błony złego cholesterolu LDL. Porównanie genomów pokazało, że na przestrzeni kilkuset tysięcy lat dobór naturalny doprowadził do ważnych zmian w genach związanych z transportem tłuszczu we krwi i metabolizmem kwasów tłuszczowych. Mutacje APOB odzwierciedlają krytyczną rolę, jaką tłuszcz odgrywa w diecie niedźwiedzi polarnych oraz konieczność radzenia sobie z wysokim poziomem glukozy, trójglicerydów, i cholesterolu. Dotąd nie opisano tak drastycznej reakcji genetycznej na przewlekle podwyższony poziom tłuszczu i cholesterolu w diecie. Zjawisko to [...] zachęca do wykroczenia poza standardowe organizmy modelowe podczas badań nad podłożem genetycznym ludzkich chorób sercowo-naczyniowych - twierdzi Eske Willerslev z Uniwersytetu Kopenhaskiego. Niedźwiedzie polarne przystosowały się genetycznie do wysokotłuszczowej diety stosowanej obecnie przez wielu ludzi. Jeśli dowiemy się czegoś o genach, które to umożlwiają, być może pozwoli nam to za jakiś czas zmodyfikować ludzką fizjologię - dodaje Nielsen. « powrót do artykułu
-
SanDisk, który niedawno zaprezentował 4-terabajtowy SSD dąży do tego, by urządzenia SSD były wielokrotnie bardziej pojemne od HDD. Pomimo niewątpliwych zalet nośniki SSD ciągle się nie upowszechniły, przede wszystkim z powodu ceny. Koszt zakupu na gigabajt jest w przypadku SSD kilkukrotnie wyższy niż w HDD. SanDisk wierzy jednak, że w najbliższych latach cena SSD spadnie, a dyski o olbrzymich pojemnościach przyciągną klientów korporacyjnych. Teraz firma zapowiada, że w przyszłym roku zaprezentuje dyski z rodziny Optimus MAX o pojemnościach 6 i 8 terabajtów. Nie można wykluczyć, że w roku 2016 SanDisk zaoferuje nośniki o pojemności 16 TB. Eksperci przewidują, że w latach 2015-2016 SSD nadal będą droższe od HDD, jednak oferta SanDiska może okazać się interesująca dla tych firm, którym zależy na oszczędności miejsca i energii w centrum bazodanowym. Menedżerowie SanDiska spodziewają się, że już w roku 2017 cena gigabajta SSD zrówna się z ceną gigabajta HDD, a to oznacza, że w zastosowaniach biznesowych znacznie bardziej pojemne i energooszczędne SSD będą tańszą alternatywą od HDD. « powrót do artykułu
-
W amerykańskim laboratorium powstał wzorowany na układzie krwionośnym samonaprawiający się polimer. Automatycznie łata on dziury o średnicy 3 cm, czyli 100-krotnie większe niż dotychczas. Wcześniej samoreperujące się materiały mogły niwelować tylko niewielkie pęknięcia, teraz dzięki regeneracji i dostarczaniu substancji na łaty specjalnymi kapilarami wypełniane są całkiem spore luki. Takie zdolności przydadzą się zarówno w przypadku dóbr komercyjnych (zderzak naprawiający się w ciągu kilku minut od wypadku byłby w końcu marzeniem każdego kierowcy), jak i trudnych do zastąpienia czy naprawienia części i produktów, np. wykorzystywanych w lotnictwie. Naukowcy z Uniwersytetu Illinois w Urbana-Champaign bazowali na wynikach swoich wcześniejszych badań nad materiałami naczyniowymi. Za pomocą rozkładających się włókien naukowcy mogą tworzyć materiały z siecią kapilar inspirowanych biologicznymi układami krążenia. Dostarczanie naczyniami pozwala transportować duże objętości czynników naprawiających, co z kolei przekłada się na odnowę dużych uszkodzonych obszarów. Podejście waskularne umożliwia także wielokrotne rekonstrukcje - wyjaśnia prof. Nancy Sottos. Materiał do odnowy jest dostarczany dwoma równoległymi naczyniami. Przeszkodę, jaką jest grawitacja, przezwyciężono dzięki szybkiemu żelowaniu zmieszanych substancji. Żel twardnieje, tworząc wytrzymały mechanicznie polimer. Gdyby twardnienie nie zachodziło natychmiastowo, mielibyśmy do czynienia z, jak to nazywa prof. Scott White, krwawieniem, bo użyte substancje wyciekałyby z miejsca uszkodzenia. A tak tworzą coś na kształt skrzepu (to kolejna analogia do układu krążenia). Tworzy się żel, który wspiera i zatrzymuje ciecz. Ponieważ nie jest to jeszcze materiał strukturalny, możemy kontynuować proces odrastania, pompując do dziury więcej cieczy. Zespół zademonstrował zdolności regeneracyjne na 2 klasach polimerów komercyjnych: tworzywach termoplastycznych i duromerach. Akademicy mogą dostroić reakcje chemiczne, by kontrolować prędkość tworzenia żelu lub jego twardnienia. Wszystko zależy od rodzaju uszkodzenia. W przypadku uszkodzenia postrzałowego, gdzie występuje centralny otwór i odchodzące od niego "pajączki", lepiej spowolnić reakcję żelowania, by zastosowane związki zdążyły przed stwardnieniem wsączyć się w pęknięcia. Autorom opracowania z pisma Science marzą się komercyjne polimery z sieciami naczyniowymi wypełnionymi czynnikami regenerującymi. To na razie jednak pieśń przyszłości, a obecnie trwają prace nad optymalizacją systemów regeneracyjnych dla różnych typów materiałów. « powrót do artykułu
-
Amerykańska Marynarka Wojenna opracowała swój własny czytnik książek elektronicznych. Urządzenie takie z pewnością przyda się marynarzom przebywającym wiele miesięcy na pokładzie okrętu. Marynarzy obowiązują różne obostrzenia, w tym – często – zakaz używania smartfonów czy tabletów. Tymczasem w kajutach nie ma miejsca na liczne książki. Dlatego też niewielkie urządzenie, na którym można przechowywać wiele książek, jest dobrym rozwiązaniem dla marynarzy. Navy eReader Device (NeRD) został zaprojektowany pod kątem zasad bezpieczeństwa obowiązujących na okrętach wojennych. Urządzenie nie korzysta z łączności Wi-Fi ani telefonii komórkowej. Marynarze otrzymają czytnik z wgranymi 300 różnymi książkami. Wiem, że książki papierowe krążą po okrętach aż się rozpadną. Mamy nadzieję, że NeRD wytrzymają dłużej - mówi Nilya Carrato, odpowiedzialna za Navy General Library Program. NeRD trafią najpierw do floty podwodnej. Na każdym z okrętów znajdzie się pięć czytników. Z czasem urządzenia mają zagościć na każdym okręcie US Navy. « powrót do artykułu
-
W Ginzie, dzielnicy zakupów w Tokio, odbył się ostatnio pokaz mody na wybiegu ustawionym w pionie. Organizatorem było wydawnictwo Shōgakukan, które wraz z Guccim obchodziło w ten sposób 10-lecie swojego ekskluzywnego magazynu Precious. Siedmioro modeli i modelek "kroczyło" po ścianie 42-m budynku. Fukashi Suzuki, redaktor naczelny pisma, wyjaśnia, że wydarzenie miało zachęcić grupę docelową, czyli kobiety w wieku czterdziestu kilku i pięćdziesięciu kilku lat, do odważniejszych modowych wyborów. « powrót do artykułu
-
Rozbłysk słoneczny z 29 marca bieżącego roku jest najlepiej zaobserwowanym zjawiskiem tego typu. Gdy doszło do rozbłysku klasy X szczęśliwym zbiegiem okoliczności zanotowały go cztery satelity oraz jedno obserwatorium naziemne. Trzy z instrumentów były – zrządzeniem losu - skierowane dokładnie w miejsce, w którym doszło do rozbłysku. To najbardziej kompletny zestaw danych zebranych kiedykolwiek przez Heliphysics Systems Observatory. Niektóre satelity bez przerwy obserwują całą powierzchnię słońca, jednak trzy z nich były wcześniej ustawione tak, by obserwowały konkretny aktywny region naszej gwiazdy. Satelity muszą być programowano z co najmniej jednodniowym wyprzedzeniem, mieśmy więc niezwykle dużo szczęścia, że udało się zarejestrować ten rozbłysk - mówi Jonathan Cirtain z Marshall Space Flight Center. Satelity, które uczestniczyły w obserwacjach to należące do NASA Interface Region Imaging Spectrograph (IRIS), Solar Dynamics Observatory (SDO), Reuven Ramaty High Energy Solar Spectroscopic Imager (RHESSI) oraz japoński Hinode. W obserwacjach brało też udział Dunn Solar Telescope z Nowego Meksyku. Dodatkowe dane dotyczące tego, co w czasie rozbłysku działo się w innych regionach Słońca napłynęły z wielu innych satelitów. Ponadto satelity Solar Terrestrial Relations Observatory (NASA) oraz Solar and Heliospheric Observatory (ESA/NASA) badały koronalny wyrzut masy towarzyszący rozbłyskowi. Satelita GOES należący do Narodowej Administracji Oceanów i Atmosfery został zaprzęgnięty do śledzenia promieni X z rozbłysku, a inne urządzenia badały strumień cząstek przemieszczających się w kierunku Ziemi. « powrót do artykułu
-
Pierwsze żywe organizmy z nowymi 'literami' w DNA
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Dotąd wiedzieliśmy, że w 2-niciowych kwasach nukleinowych adenina tworzy parę komplementarną z tyminą (A-T), a cytozyna z guaniną (C-G). Teraz badacze z Instytutu Badawczego Ellen Scripps zaprezentowali pałeczki okrężnicy (Escherichia coli), u których poza dwiema znanymi parami A-T i C-G występuje też trzecia, całkiem nowa. Gdy zapewni się stały dopływ budulca, bakterie będą replikować półsyntetyczne DNA. To pokazuje, że możliwe są inne sposoby przechowywania informacji i przybliża nas, oczywiście, do rozszerzonej biologii DNA, która będzie mieć wiele fascynujących zastosowań: od nowych leków po nowe rodzaje nanotechnologii - podkreśla prof. Floyd E. Romesberg. Laboratorium Romesberga od końca lat 90. XX w. szukało cząsteczek, które mogłyby utworzyć odpowiednik funkcjonalnej pary zasad. Zadanie nie należało do łatwych, bo musiały one wykazywać powinowactwo porównywalne do A-T i C-G. Poza tym nowa para musiałaby się stabilnie osadzać wraz z naturalnymi nukleotydami w łańcuchu DNA. Warunkiem koniecznym była również łatwość rozłączania i łączenia - jednym słowem podatność na działania polimeraz w czasie replikacji. Jak wyjaśniają Amerykanie, "obcy" musieli też jakoś uniknąć usunięcia przez naturalne mechanizmy naprawcze DNA. Mimo wielu wyzwań do 2008 r. ekipie Romesberga udało się poczynić spore postępy. W opublikowanym wtedy raporcie ujawniono zestaw cząsteczek nukleozydowych, które mogły się przyłączać do podwójnej helisy DNA niemal tak samo dobrze jak naturalne pary zasad. Dodatkowo zademonstrowano, że DNA zawierające syntetyczne pary może się replikować w obecności właściwych enzymów. W kolejnym studium naukowcy znaleźli enzymy przeprowadzające syntezę RNA na matrycy półsyntetycznego DNA. Na tym etapie wiedziano, że wszystko przebiega dobrze w warunkach in vitro, wielkim wyzwaniem było jednak sprawienie, by pary zasad działały w o wiele bardziej złożonym środowisku żywej komórki - wyjaśnia Denis A. Malyshev. W ramach najnowszego studium zespół zsyntetyzował plazmid i wprowadził go do komórek E. coli. Występowały w nim zarówno naturalne pary A-T i C-G, jak i najlepiej sprawująca się para laboratorium Romesberga: cząsteczki d5SICS i dNaM. Celem było, by komórki E. coli replikowały półsyntetyczne DNA tak normalnie, jak to tylko możliwe. Uprzedzając zarzuty dot. ryzyka uwolnienia nowych form życia, Amerykanie wyjaśniają, że materiały do uzyskania d5SICS i dNaM nie występują naturalnie w komórkach. Aby więc pałeczki okrężnicy replikowały DNA z nienaturalnymi parami, naukowcy musieli umieszczać odpowiednie substancje w roztworze na zewnątrz komórki. Konieczne też było znalezienie transportera trójfosforanów nukleozydów (natrafiono na niego u pewnego gatunku mikroglonów). Kiedy zatrzymaliśmy napływ trójfosforanów do komórki, zastępowanie d5SICS–dNaM naturalnymi parami zasad korelowało z samą replikacją komórki - nie wydaje się, by istniały jakieś dodatkowe mechanizmy ich wycinania z DNA - opowiada Malyshev, dodając, że by opisywane zjawisko w ogóle zaszło, trzeba aktywować transportujące białko. Gdy nie ma transportera lub materiałów budulcowych, komórka powraca do A, T, G i C, a d5SICS i dNaM znikają z genomu. Kolejnym krokiem będzie opisanie transkrypcji rozszerzonego alfabetu DNA na RNA. W zasadzie możemy zakodować nowe białka wytwarzane z nowych, niewystępujących w naturze aminokwasów [...] - podsumowuje Romesberg. « powrót do artykułu -
Odpady elektroniczne to coraz większy problem współczesnego świata. Większość z nich kończy na wysypiskach śmieci, ale nawet te, które są poddawane recyklingowi, przyprawiają o ból głowy firmy zajmujące się ich przetwarzaniem. Współczesne techniki produkcyjne powodują bowiem, że trudno jest w bezpieczny i prosty sposób rozmontować płytę główną. Trzy brytyjskie firmy opracowały nowy sposób łączenia, dzięki któremu wystarczy płytę główną potraktować wodą, by można było odzyskać z niej 90% komponentów. Technologia ReUse (Reusable, Unzippable, Sustainable Electronics) bazuje na termoplastycznej nadającej się do recyklingu bazie, na którą nałożono warstwy przewodzącego kleju i atramentów. Taką płytę wystarczy na kilka minut zanurzyć w wodzie o temperaturze bliskiej 100 stopni Celsjusza by odzyskać z niej większość podzespołów. Dzięki temu, że całość rozpada się pod wpływem gorącej wody użytkownik nie musi obawiać się, że sama wilgoć spowoduje odseparowanie się poszczególnych elementów z płyty. Generalnie ReUse może być stosowana wszędzie tam, gdzie elektronika nie nagrzewa się do zbyt wysokich temperatur. Twórcy nowej technologii przyznają, że systemy serwerowe i inne wysokowydajne urządzenia rozgrzewają się na tyle, iż ReUse by się w nich nie sprawdziła. « powrót do artykułu
-
Naukowcy z Harvard School of Public Health (HSPH) przeprowadzili badania, które wskazują na najpoważniejsze jak dotychczas zagrożenie dla ludzkiego zdrowia związane z globalnym ociepleniem. Uczeni z Harvarda ostrzegli, że gdy koncentracja CO2 w atmosferze osiągnie taki poziom, jaki jest obecnie prognozowany dla roku 2050, to będziemy mieli do czynienia ze znaczącym spadkiem zawartości cynku i żelaza w roślinach uprawnych. Biorąc pod uwagę fakt, że obecnie 2 miliardy ludzi cierpią na niedobory cynku i żelaza, co przyczynia się do śmierci 63 milionów ludzi rocznie, zagrożenie związane z jeszcze większymi deficytami jest bardzo poważne. Już wcześniej prowadzono w laboratoriach i szklarniach eksperymenty, które wskazywały, że rosnąca koncentracja CO2 w atmosferze prowadzi do zmniejszenia wartości odżywczych roślin. Jednak badania takie były krytykowane właśnie z powodu tego, iż prowadzono je w sztucznych warunkach. Złotym standardem są tutaj bowiem eksperymenty prowadzone na otwartych przestrzeniach, nad którymi powietrze jest sztucznie wzbogacane dwutlenkiem węgla (FACE – free air carbon dioxide enrichment). Naukowcy z HSPH zbadali 41 odmian zbóż i roślin strączkowych uprawianych metodą FACE w siedmiu miejscach w USA, Japonii i Australii. Poziom CO2 nad uprawami został zwiększony do 546-586 części na milion. Okazało się, że doszło do znaczącej redukcji cynku, żelaza i białka w ziarnach zbóż. Na przykład ilość cynku, żelaza i białka w ziarnach pszenicy z pól FACE była o – odpowiednio – 9,3%, 5,1% i 6,3% mniejsza niż w ziarnach uprawianych na polach nad którymi powietrze nie było wzbogacane CO2. Zawartość cynku i żelaza zmniejszyła się też w roślinach strączkowych. Nie stwierdzono w nich redukcji ilości białka. Naukowców zaskoczyły wyniki uzyskane z badań ryżu. W niektórych odmianach spadek zawartości żelaza i cynku był znacznie mniejszy niż w innych. Do daje nadzieję, że możliwe jest wyhodowanie takiej ryżu o zmniejszonej wrażliwości na większe stężenia CO2. Samuel Myers z HSPH, główny autor badań, mówi, że w przyszłości konieczne będzie dodatkowe nawożenie ziemi cynkiem i żelazem oraz dostarczanie całym populacjom suplementów diety, które uzupełnią niedobory mikroelementów. Ludzkość prowadzi obecnie eksperyment na skalę globalną. Gwałtownie zmieniamy środowiskowe na jedynej znanej nam planecie nadającej się do zamieszkania. W miarę postępów tego eksperymentu czeka nas wiele niespodzianek. Jedną z nich jest odkrycie, że zwiększony poziom CO2 zagraża naszym zasobom pożywienia - stwierdził Myers. « powrót do artykułu
-
Bojowe środki trujące wzbudzają lęk, jednak zespół z amerykańskiego Narodowego Instytutu Standaryzacji i Technologii (National Institute of Standards and Technology, NIST) opracował bazujące na nanorurkach rozwiązanie, które pozwala sobie poradzić z organofosforanami, np. sarinem. Co istotne, można je wykorzystać w ubraniach, tak by toksyczne związki nie zdążyły wejść w kontakt ze skórą. Amerykanie zademonstrowali, że nanorurki węglowe da się połączyć z miedziowym katalizatorem, który rozrywa kluczowe wiązania organofosforanów, rozkładając je do mniej szkodliwych związków. Niewielka ilość katalizatora niszczy wiązania w dużej liczbie cząsteczek. Ponieważ nanorurki nasilają zdolność katalizatora do rozrywania wiązań i łatwo je wpleść w tkaninę, Amerykanie uważają, że ich odkrycia pomogą w ochronie personelu wojskowego, który bierze udział w operacjach oczyszczania. Organofosforany są szkodliwe zarówno, gdy się je wdycha, jak i gdy wchłoną się przez skórę. Bywają groźne nawet wtedy, kiedy niewystarczająco odkazi się odzież. By uniknąć niebezpiecznych sytuacji, naukowcy z NIST nie pracowali zatem z prawdziwymi środkami bojowymi. Zamiast tego posłużyli się cząsteczką z wiązaniem identycznym jak w organofosforanach. Akademicy opracowali metodę przyłączania cząsteczki katalizatora do nanorurek. Podczas eksperymentów kompleksy nanorurki-katalizator osadzano na niewielkich arkuszach papieru i wkładano do roztworu zawierającego cząsteczki naśladujące (ang. mimic molecule). Dla porównania w innym roztworze testowano równolegle katalizator bez nanorurek. Początkowo roztwór był przezroczysty, niemal jak woda. Gdy tylko dodaliśmy papier, zaczął jednak żółknąć (dochodziło do akumulacji produktu rozpadu). Mierzenie zmiany koloru pozwoliło nam określić [...] tempo katalizy. Dostrzegalne różnice pojawiły się w ciągu godziny, a im więcej czasu mijało, tym bardziej żółty stawał się roztwór - tłumaczy John Heddleston. Kompleks katalizator-nanorurki wypadał o wiele lepiej niż katalizator. Angela Hight Walker podkreśla, że zanim pomysł zostanie wcielony w życie, trzeba odpowiedzieć na kilka pytań, np. czy lepiej dodawać katalizator do nanorurek przed czy po ich wpleceniu w tkaninę. « powrót do artykułu
-
Psy identyfikują kierunek rozprzestrzeniana się głosu
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Psy i ludzie są ze sobą związani od tysięcy lat. Naukowcy zdobywają coraz więcej dowodów na to, że jesteśmy w stanie komunikować się z nimi na wiele różnych sposobów. Przeprowadzone dotychczas badania wskazują na przykład, że psy potrafią podążać za ludzkim wzrokiem czy patrzeć w kierunku, który wskażemy im palcem. Specjaliści z Instytutu Antropologii Ewolucyjnej im. Maksa Plancka zaprojektowali i przeprowadzili eksperyment, którego wyniki sugerują, że psy potrafią reagować na kierunek, w którym rozprzestrzenia się ludzki głos. Podczas eksperymentu pies i człowiek znajdowali się naprzeciwko siebie. Człowiek klęczał za przesłaniającą widok drewnianą płytą. Gdy eksperyment się zaczynał, człowiek wstawał i pokazywał psu przysmak, każąc mu skupić się na nim. Następnie zasłaniano kurtynę znajdującą się przed psem, a człowiek, na czworakach, brał dwa pudełka i do jednego z nich wkładał smakołyk.. Następnie pudełka umieszczał pudełka na krawędzi płyty. Kurtynę odsłaniano, człowiek pokazywał się psu, następnie chował się za płytą i zwracał twarzą w kierunku jednego z pudełek, zachęcając psa do wzięcia przysmaku. Badania wykazały, że dorosłe psy podchodzą do tego pudełka, w stronę którego zwrócony był człowiek 7,6 raza na 12 prób. Szczeniaki, które przebywają z ludźmi podchodziły do właściwego pudełka 8,1 raza na 12 prób. Tymczasem szczeniaki, które nie przebywały z ludźmi trafiały do właściwego pudełka nie częściej niż wynikało to z rachunku prawdopodobieństwa. Eksperyment sugeruje, że psy potrafią zidentyfikować kierunek, z którego rozprzestrzenia się głos i rozumieją związek pomiędzy nim a smakołykiem. Osiągnięcie tylko pozornie jest trywialne. Dość wspomnieć, że ani wilki ani szympansy nie posiadają takich zdolności. « powrót do artykułu -
Bezglutenowa dieta matki chroni dzieci przed cukrzycą typu 1.
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Nowe eksperymenty na myszach pokazały, że dzięki bezglutenowej diecie matki można uchronić młode przed cukrzycą typu 1. Naukowcy z Uniwersytetu Kopenhaskiego uważają, że uzyskane wyniki mogą się również odnosić do ludzi. Wstępne testy pokazują, że [...] dieta bezglutenowa ma pozytywny wpływ na dzieci ze świeżo zdiagnozowaną cukrzycą typu 1. Z tego powodu sądzimy, że bezglutenowa dieta w czasie ciąży i laktacji może wystarczyć, by uchronić dzieci z grupy wysokiego ryzyka przed rozwojem cukrzycy na późniejszych etapach życia - przekonuje prof. Camilla Hartmann Friis Hansen. Jak podkreśla współautor publikacji z pisma Diabetes prof. Axel Kornerup, wyniki z badań na myszach niekoniecznie odnoszą się do ludzi, ale w tym przypadku optymizm jest uzasadniony. Wczesna interwencja ma sens, bo cukrzyca typu 1. rozwija się na wczesnych etapach życia. Z dotychczasowych eksperymentów wiemy także, że dieta bezglutenowa korzystnie wpływa na przebieg tej choroby. Eksperymenty tego rodzaju zaczęto przeprowadzać w 1999 r. Ich inicjatorką była prof. Karsten Buschard z Instytutu Thomasa Bartholina w Rigshospitalet w Kopenhadze, kolejna współautorka wspominanego wcześniej artykułu. Studium przeprowadzono na 30 młodych matek jedzących gluten i 30 młodych matek na diecie bezglutenowej. Stwierdzono, że wyeliminowanie glutenu z diety nieotyłych samic z cukrzycą w czasie ciąży i laktacji wystarczyło, by uchronić dzieci przed cukrzycą typu 1. Warto dodać, że po odstawieniu od piersi potomstwo jadło standardową karmę z glutenem. Ogromne spadki zaobserwowano nie tylko w częstości występowania cukrzycy, ale i nacieków leukocytarnych w wysepkach (insulitis). Badacze wykazali, że dieta bezglutenowa zmieniła mikrobiom zarówno matek, jak i młodych (wzrosła liczebność przedstawicieli rodzaju Akkermansia, proteobakterii oraz TM7). Duńczycy wspominają również o zmniejszonej ekspresji genów cytokin prozapalnych w jelitach. Zwiększona proporcja limfocytów T z ekspresją alfa4beta7 (α4β7) integryny (tzw. "receptora nakierowującego na jelito") sugeruje, że w grę wchodzi mechanizm nasilonego transportu poddanych primingowi komórek odpornościowych z jelit do trzustki. Jeśli odkryjemy, w jaki sposób gluten lub określone baterie jelitowe modyfikują układ odpornościowy i fizjologię komórek beta, wiedzę tę będzie można wykorzystać do opracowania nowych metod leczenia - podsumowuje Hartmann Friis Hansen. « powrót do artykułu -
Ekspertom udało się stworzyć najbardziej realistyczną symulację ewolucji wszechświata. Za pomocą programu „Illustris” odtworzyli 13 miliardów lat ewolucji. Symulacja w niespotykanej dotychczas rozdzielczości prezentuje wycinek wszechświata w kształcie sześcianu o boku, którego długość wynosi 35 milionów lat świetlnych. Dotychczas żadna inna symulacja nie pokazywała ewolucji wszechświata jednocześnie w dużej i małej skali - mówi szef grupy badawczej Mark Vogelsberger z MIT/Harvard Smithsonian Center for Astrophysics. W pracach zespołu Vogelsbergera brali udział naukowcy z wielu instytucji, w tym z Instytutu Badań Teoretycznych w Heidelbergu. Wcześniejsze symulacje nie były tak dokładne, gdyż ich autorzy nie dysponowali odpowiednią mocą obliczeniową. Musieli zatem rezygnować z wielu elementów. „Illustris” korzysta zaś z 12 miliardów trójwymiarowych elementów, które pełnią rolę pikseli wspomnianej symulacji. Stworzenie programu „Illustris” zajęło ekspertom pięć lat. Same obliczenia konieczne do przeprowadzenia symulacji wymagały 3 miesięcy nieprzerwanej pracy 8000 procesorów. Przeciętny pecet musiałby poświęcić na nie 2000 lat. Symulacja rozpoczyna się 12 milionów lat po Wielkim Wybuchu i obejmuje historię 41 000 galaktyk, oddaje też większe struktury jak gromady galaktyk, a w najmniejszej skali pokazuje nam rozkład poszczególnych pierwiastków w indywidualnych galaktykach. Illustris jest jak maszyna do podróży w czasie. Możemy poruszać się w przód i w tył. Możemy zatrzymać symulację i przyjrzeć się konkretnej galaktyce czy gromadzie galaktyk, by sprawdzić, co się tam dzieje w danym momencie - mówi współautor symulacji Shy Genel z CfA.
-
Naukowcy opisali dinozaura z późnej kredy, dla którego przez rzucający się w oczy długi pysk ukuto przezwisko Pinokio rex (nazwa systematyczna to Qianzhousaurus sinensis). Paleontolodzy podkreślają, że zwierzę należące do tej samej rodziny, co Tyrannosaurus rex także było siejącym postrach mięsożercą. Pinokio rex wyglądał inaczej od większości innych tyranozaurów. Miał wydłużoną czaszkę i długie, cienkie zęby. U T. rex szczęki były mocniejsze, a zęby masywniejsze. Ponieważ wcześniej naukowcy dysponowali tylko dwoma młodocianymi tyranozaurami z wydłużonymi pyskami, nie byli pewni, czy mają do czynienia z nową klasą dinozaurów, czy z wczesnym etapem rozwojowym i później u zwierząt pojawiały się jednak głębsze, bardziej masywne czaszki. Wątpliwości zostały ostatecznie rozwiane, gdy ekipa z Chińskiej Akademii Nauk Geologicznych i Uniwersytetu w Edynburgu natrafiła w południowych Chinach na niemal dorosłego osobnika. Zachował się on zdumiewająco dobrze i z dumą prezentował światu wydłużony pysk. Specjaliści przekonują, że choć Q. sinensis współwystępowały z głębokopyskimi tyranozaurami, nie stanowiły dla nich bezpośredniej konkurencji, bo były od nich mniejsze i prawdopodobnie polowały na inną zdobycz. Naukowcy utworzyli dla gatunków z wyjątkowo długim pyskiem nową gałąź w rodzinie tyranozaurów i patrząc na przebieg wykopalisk w Chinach, spodziewają się znaleźć ich więcej. Dr Steve Brusatte z Uniwersytetu w Edynburgu twierdzi, że choć ze swoim długim pyskiem i rzędem rogów na nosie Q. sinensis mógł wyglądać nieco komicznie, w rzeczywistości był tak samo groźny, jak inne tyranozaury. Niewykluczone, że poruszał się nieco szybciej i lepiej się podkradał. « powrót do artykułu
-
Ile razy Pinokio mógłby skłamać, nim nos złamałby mu kark?
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Student z Uniwersytetu w Leicester wyliczył, że nim doszłoby do złamania karku przez zbyt ciężki nos, Pinokio mógłby skłamać tylko lub aż 13 razy. Po tym czasie środek ciężkości przesunąłby się o ponad 85 m, a ogólna długość nosa sięgnęłaby imponujących 208 m. Dla uproszczenia Steffan Llewellyn założył, że głowa pajaca jest sferą, nos ma kształt walca, a zwrócona ku górze siła wywierana przez szyję działa z tyłu głowy. W artykule zamieszczonym w Journal of Interdisciplinary Science Topics młody fizyk zaznacza, że choć dyskutuje się, z jakiego drewna wyrzeźbiono Pinokia, na potrzeby eksperymentu przyjęto, że z dębiny o gęstości 750 kgm-3. Jak wyjaśnia Brytyjczyk, kark lalki pęknie, gdy próg wytrzymałości na ściskanie zostanie przekroczony przez nadmierną masę głowy. Zwykle ciężar nosa można pominąć, ale nie w przypadku Pinokia, u którego po każdym kłamstwie jego długość się podwajała. Student założył, że masa głowy się nie zmieniała i wynosiła 4,18 kg. Początkowo nos miał długość 2,54 cm, średnicę 2 cm, a środek ciężkości znajdował się pośrodku. Wyliczono, że ważył on 0,006 kg. Ponieważ mamy do czynienia z układem dźwigniowym, waga oddziałująca na szyję zależy od odległości, w jakiej przykładana jest siła. Najpierw wynosiła ona 4,51 N, była więc znikoma w porównaniu do wytrzymałości szyi z dębiny. W momencie, kiedy długość nosa Pinokia wzrosłaby do nieco ponad 140 m, siła działająca w dół doprowadziłaby do złamania karku. Po 13. kłamstwie wydłużający się wykładniczo nos miałby 208 m. Punkt krytyczny zostałby więc przekroczony gdzieś między 12. a 13. rozminięciem się z prawdą... « powrót do artykułu -
Planowany przez NASA Space Launch System będzie najpotężniejszą rakietą w dziejach badań kosmicznych i będzie wykorzystywał największe w historii zbiorniki paliwa. Cały system trzeba przetestować pod kątem wytrzymałości, dlatego też NASA, za pośrednictwem Korpusu Inżynieryjnego Armii, podpisała właśnie z firmą Brasfield & Gorrie kontrakt na budowę specjalnych rusztowań, na których rdzeń systemu SLS zostanie poddany takim warunkom, jakie będą panowały podczas startu i lotu w atmosferze. W skład wspomnianego rdzenia systemu wchodzi sekcja silnika, zbiornik na ciekły wodór, zbiornik środkowy oraz zbiornik na ciekły tlen. Planowane rusztowania są niezbędne do utrzymania olbrzymich komponentów oraz potężnych, dochodzących do 4000 ton, obciążeń, z jakimi będą musiały sobie poradzić - mówi Tim Gauntey, inżynier odpowiedzialny za testy SLS. Wykorzystamy hydrauliczne cylindry, za pomocą których będziemy pchali, ciągnęli, skręcali i zginali poszczególne elementy, by zyskać pewność, że wytrzymają one takie obciążenia. Zweryfikujemy też w ten sposób teoretyczne modele, na podstawie których obliczano, jakie obciążenie jest w stanie wytrzymać rdzeń SLS. Na potrzeby testów powstaną dwa rusztowania. Pierwsze z nich (Test Stand 4693), zostanie zbudowane z dwóch połączonych wież, będzie miało wysokość 65 metrów i zostanie wykonane z 2150 ton stali. Testowany będzie na nim zbiornik z ciekłym wodorem, który zostanie umieszczony pionowo i napełniony ciekłym azotem. Drugie z rusztowań (Test Stand 4697), o wysokości 26 metrów powstanie z 692 ton stali. Na nim będą testowane pozostałe elementy SLS. Budowa rusztowań ma rozpocząć się pod koniec maja i potrwa około 12 miesięcy. « powrót do artykułu
-
Zespół eksplodującej głowy - mało poznane zaburzenie snu
KopalniaWiedzy.pl dodał temat w dziale Psychologia
Choć termin "zespół eksplodującej głowy" wydaje się mało poważny i kojarzy się raczej z horrorem klasy B, ludziom, którzy muszą z nim żyć, a właściwie próbować spać, wcale nie jest do śmiechu... Pisząc artykuł do pisma Sleep Medicine Reviews, prof. Brian Sharpless z Uniwersytetu Stanowego Waszyngtonu przejrzał literaturę przedmiotu i doszedł do wniosku, że fenomen jest zdecydowanie za słabo poznany. Pracowałem z ludźmi, którzy doświadczali go nocą aż 7 razy, dlatego może on również prowadzić do negatywnych konsekwencji klinicznych. Podczas zasypiania lub wybudzania osoby z zespołem eksplodującej głowy słyszą zazwyczaj głośne dźwięki: trzaskanie drzwiami, fajerwerki bądź wystrzały z broni palnej. Trudno się więc dziwić, że kładąc się spać, część pacjentów zaczyna odczuwać lęk. Kolejnym problemem może być senność w ciągu dnia. Niektórzy ludzie wspominają o lekkim bólu. Jedni słyszą eksplozję w jednym, drudzy w obojgu uszach, a jeszcze inni w głowie. Część pacjentów postrzega jasne błyski. Badacze nie znają skali problemu, ale Sharpless sądzi, że częstość występowania jest większa niż się zakłada. Wystarczyła jedna publikacja w Daily Mail, by skontaktowało się z nim aż 10 osób. Terminem "zespół eksplodującej głowy" posłużono się w 1988 r. w artykule opublikowanym w periodyku The Lancet. W 1920 r. zjawisko nazwano zaś "trzaskaniem mózgu". W 1876 r. amerykański neurolog Silas Weir Mitchell opisał dwóch mężczyzn, którzy doświadczali wyładowań sensorycznych przypominających eksplozje. Sharpless przypuszcza, że zespół występuje, kiedy ciało nie wyłącza się do snu we właściwej sekwencji. Zamiast się wyłączać, pewne grupy neuronów mogą się w rzeczywistości aktywować, przez co postrzegamy nagłe dźwięki. W grę wchodzą również czynniki behawioralne i psychologiczne. Jeśli mamy do czynienia z przerywanym snem, takie epizody będą występować z większym prawdopodobieństwem. Bazując na dostępnych, niezbyt licznych danych (literaturze i statystykach), Amerykanin twierdzi, że zespół dotyczy częściej kobiet. « powrót do artykułu