-
Liczba zawartości
37640 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Niewykluczone, że administracja prezydenta Trumpa myśli o szóstej misji serwisowej na Teleskop Hubble'a. Dotychczas wydawało się, że taka misja nigdy nie będzie miała miejsca. Teleskop Kosmiczny Hubble'a ma pracować do roku 2021. Jest to jedyny teleskop kosmiczny, który zaprojektowano z myślą o przeprowadzaniu na nim prac serwisowych. Dotychczas odbyło się pięć misji, podczas których naprawiano i udoskonalano Hubble'a. Ostatnia z nich miała miejsce w 2009 roku. Jeszcze niedawno pisaliśmy, że więcej misji się nie odbędzie, gdyż po rezygnacji z wahadłowców Amerykanie nie mają czym polecieć na Hubble'a. Jednak jak donosi The Wall Street Journal, w amerykańskiej administracji pojawił się pomysł, by kolejną misję serwisową wykonać za pomocą pojazdu rozwijanego przez firmę Sierra Nevada. To miniaturowy wahadłowiec o nazwie Dream Chaser, który bazuje na starych projektach z początków istnienia NASA. Pojazd ma odpowiednie zgody pozwalające na odbywanie bezzałogowych misji towarowych i być może już w 2019 roku poo raz pierwszy zadokuje do Międzynarodowej Stacji Kosmicznej. Jeśli miałby zostać wykorzystany podczas załogowej misji serwisowej to musiałby uzyskać odpowiednie licencje. Musiałaby też powstać załogowa wersja Dream Chasera. Na szczęście projekt tego wahadłowca zawiera odpowiednie elementy, pozwalające na stworzenie takiej wersji. Projekt szóstej misji serwisowej na Hubble'a znajduje się na bardzo wczesnym etapie, jednak możliwe, że zostanie zrealizowany. Mógłby on bowiem posłużyć nie tylko teleskopowi Hubble'a. Musimy pamiętać, że kilka lat temu NASA otrzymała od Narodowego Biura Zwiadu (US National Reconnaissance Office) dwa teleskopy klasy Hubble'a. Jeden z nich ma trafić w przestrzeń kosmiczną w połowie lat 20. i będzie poszukiwał egzoplanet oraz ciemnej materii. O przeznaczeniu drugiego teleskopu jeszcze nie zdecydowano. « powrót do artykułu
-
Choć żółte i czerwone zabarwienie skóry jest u białych mężczyzn postrzegane jako bardziej atrakcyjne, badania wykazały, że taki koloryt cery niekoniecznie stanowi oznakę dobrego zdrowia. Autorzy publikacji z pisma Behavioral Ecology podkreślają, że karotenoidowe zabarwienie skóry odgrywa istotną rolę w doborze płciowym. Naukowcy dywagowali, że stanowi ono sygnał dobrego stanu zdrowia (karotenoidy są w końcu przeciwutleniaczami). Zdrowy partner jest zaś na wagę złota, bo ma większe szanse przetrwać, jest bardziej płodny, może też przekazać potomstwu geny, które sprzyjają dobrostanowi. Akademicy postanowili sprawdzić, czy istnieje związek między karotenoidowymi oznakami zdrowia (postrzeganiem przez otoczenie) a faktycznym stanem zdrowia. Zebrali grupę 43 heteroseksualnych białych mężczyzn (średnia wieku wynosiła 21 lat). Utworzono też grupę placebo, która składała się z 20 mężczyzn. Na początku badania uczestników sfotografowano, by móc udokumentować zmiany w kolorze skóry. Oceniano też stan zdrowia panów, w tym poziom stresu oksydacyjnego, funkcjonowanie układu odpornościowego, a także jakość spermy. Później ochotnicy przez 12 tyg. zażywali suplementy z beta-karotenem lub placebo. Po 3 miesiącach wszyscy wracali do laboratorium na fotografowanie i ponowną ocenę zdrowia. Za pośrednictwem Sieci zwerbowano 66 heteroseksualnych białych kobiet (średnia wieku wynosiła 33 lata), które miały oceniać atrakcyjność twarzy mężczyzn przed i po suplementacji; twarze prezentowano na ekranie obok siebie. Zgodnie z przewidywaniami, beta-karoten zwiększał ogólne zażółcenie/zaczerwienienie twarzy, ale nie ich jasność. Fizjonomie posuplementacyjne były o 50% częściej wskazywane jako atrakcyjne. Uznawano także, że wyglądają zdrowiej niż twarze przed interwencją lub z grupy placebo. Oznacza to więc, że beta-karoten zwiększał atrakcyjność ochotników i sprawiał, że postrzegano ich jako zdrowszych. "Terapia" nie wpływała jednak znacząco na funkcje zdrowotne. Wyniki pokazują, że choć karotenoidowy kolor skóry podlega u ludzi doborowi seksualnemu, (na razie) nie ma dowodów, że stanowi wiarygodny sygnał stanu zdrowia. Wiadomo, że karotenoidy odpowiadają za robiące wrażenie ubarwienie godowe wielu zwierząt. Nasze studium jako jedno z pierwszych zademonstrowało, że barwniki te wpływają także na atrakcyjność u ludzi - podsumowuje główny autor publikacji, Yong Zhi Foo z Uniwersytetu Zachodniej Australii. « powrót do artykułu
-
Wulkan El Chichón odpowiedzialny za 'ciemny wiek' Majów?
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Cywilizacja Majów rozkwitała w latach 250-900 i była najbardziej zaawansowaną z cywilizacji prekolumbijskich Ameryk. Majowie przeżywali wzloty i upadki, ale rozwinęli pismo, dokładny kalendarz, matematykę i budowali wspaniałe miasta w potężnymi piramidami. W 1938 roku archeolodzy zauważyli dziwną przerwę w datach dotyczących powstawania monumentalnych majańskich budowli. Wyglądało to tak, jakby na ponad 100 lat Majowie nagle przerwali swoje ambitne plany budowlane. Od dziesięcioleci naukowcy zastanawiają się, co mogło być tego przyczyną. Powstało wiele hipotez, a najnowszą z nich wysunął Michael Sigl, chemik z Instytutu Paula Scherrera w Szwajcarii. Jego zdaniem około roku 540, bezpośrednio przed rozpoczęciem się "ciemnego wieku" cywilizacji Majów, doszło do olbrzymiej erupcji wulkanicznej. Pierścienie drzew wskazują bowiem, że w atmosferze pojawiły się duże ilości siarki, przez co globalne temperatury spadły 1,5-2 stopni Celsjusza. Jednak aby dowieść tak dużego wpływu wulkanu na cywilizację Majów trzeba by zlokalizować miejsce erupcji. Siglowi udało się to przez przypadek. Na jednej z konferencji naukowych spotkał doktoranta Keesa Noorena z Uniwersytetu w Utrechcie. Obaj panowie wieszali właśnie plakaty zapowiadające ich wykłady. Gdy Nooren zobaczył na plakacie Sigla informację o wzroście stężenia atmosferycznej siarki w roku 540 powiedział Słuchaj, mam chyba winnego. Okazało się, że Nooren badał osady jeziorne z okolic Półwyspu Jukatan i odkrył tam nieznaną dotychczas warstwę popiołów wulkanicznych. Szczegółowe badania pozwoliły mu stwierdzić, że popioły pochodzą z wulkanu El Chichón, który wybuchł w roku 540 +/- 16 lat. Nie wszyscy naukowcy są przekonani, że to El Chichón miał tak katastrofalny wpływ na Majów. Zauważają bowiem, że jeśli doszłoby do wielkiej erupcji to oprócz cięższych zim (na co wskazują pierścienie drzew), powinny pojawić się też regionalne susze. Payson Sheets, archeolog z University of Colorado w Boulder, która nie brała udziału w badaniach Noorena i Sigla, uważa, że to właśnie susze przyczyniły się w tym czasie do problemów nie tylko u Majów. Sheets uważa, że Tikal, potężne majańskiej miasto, ucierpiało w wyniku suszy i wówczas zostało zaatakowane przez inne miasta, którym powodziło się lepiej, co przyczyniło się do czasowego upadku Tikal. Zdaniem Sheets susze dotknęły też Dynastię Wei w północnych Chinach oraz Teotihuacan. W obu miejscach prawdopodobnie doszło w połowie VI wieku do powstań wywołanych przez słabe zbiory. Niewykluczone, że doszło wówczas do wielkiej erupcji, jednak mógł być to inny wulkan niż El Chichón. Równikowy Pacyfik to miejsce częstych wielkich erupcji - stwierdza klimatolog Matthew Toohey z Centrum Badań Oceanicznych Helmholtz w Kilonii. Prowadzono już wiele badań podczas których próbowano połączyć wzrost stężenia atmosferycznej siarki z konkretnym wulkanem, jednak datowanie materiału nie jest zbyt pewne. Mocnym dowodem byłoby odkrycie popiołów w rdzeniach lodowych, jednak dotychczas nie udało się takiego dowodu zdobyć. Wielu archeologów sądzi, że El Chichón rzeczywiście mógł być przyczyną "ciemnego wieku" Majów, ale nie dlatego, że przyniósł ze sobą katastrofę. Wręcz przeciwnie. Doszło do stosunkowo niewielkiej erupcji, która... miała pozytywny wpływ. Popioły wulkaniczne są bardzo żyzne i ich zdaniem ludzie po prostu przenieśli się bliżej żyznych pól, jakie powstały po erupcji. Dlatego też na ponad wiek zarzucili konstrukcję wielkich budowli. Tak czy inaczej wydaje się, że El Chichón miał wpływ na cywilizację Majów, a odkrycie innych erupcji wulkanicznych i ich wpływu na starożytne cywilizacje dopiero przed nami. « powrót do artykułu -
Hormony jajników budzą nowo odkryte komórki macierzyste piersi
KopalniaWiedzy.pl dodał temat w dziale Medycyna
W piersiach zlokalizowano długowieczne komórki macierzyste, które odpowiadają za wzrost gruczołów mlecznych w czasie ciąży. Nowo opisane komórki reagują na hormony jajników progesteron i estrogen. Odkrycia dokonali doktorzy Nai Yang Fu i Anne Rios oraz profesorowie Jane Visvader i Geoff Lindeman z Instytutu Elizy i Waltera Hallów, którzy w ramach 20-letniego programu badają, jak piersi rozwijają się z komórek macierzystych, a także jak z komórek macierzystych i rozwijającej się tkanki piersi powstają nowotwory. Gdy przyglądaliśmy się genom aktywowanym w komórkach macierzystych piersi, mogliśmy wyróżnić podtypy różniące się ekspresją genów kodujących białka zwane tetraspaniną 8 i Lgr5. Patrząc na poziom tetraspaniny i Lgr5 na powierzchni komórek, dało się wydzielić 3 grupy - wyjaśnia Fu. Autorzy publikacji z pisma Cell Biology posłużyli się nowoczesnymi technologiami, m.in. obrazowaniem 3D, by wykazać, że poszczególne grupy komórek macierzystych inaczej się zachowują i są zlokalizowane w innych częściach piersi. Skupiliśmy się zwłaszcza na podtypie z najwyższymi poziomami obu białek; komórki tego rodzaju znajdują się w proksymalnym rejonie piersi wokół brodawek - opowiada dr Rios. Prof. Visvader dodaje, że zwykle komórki te były uśpione (nie dzieliły się). Po wystawieniu na oddziaływanie progesteronu i estrogenu budziły się jednak i mogły szybko dawać początek nowym komórkom piersi. Akademicy wykazali, że komórki macierzyste z wysokimi poziomami tetraspaniny 8 i Lgr5 są pod wieloma względami podobne do podtypu trójujemnego raka piersi z niską ekspresją klaudyn 3, 4 i 7 (jest to typ MSL, od ang. mesenchymal stem-like). Raki te często nawracają, co oznacza gorsze prognozy dla pacjentek. Australijczycy mają nadzieję, że dalsze badania nad długowiecznymi komórkami macierzystymi uda się wykorzystać do ulepszenia terapii. « powrót do artykułu -
Goûte to łyżeczka, która przez specyficzny kształt i symulację oblizywania palców ma nasilać smak pokarmów o kremowej konsystencji, m.in. jogurtów, musu czekoladowego czy miodu. Celem agencji Michel/Fabian jest zmiana relacji ludzi z jedzeniem. Jej założycielami są dr Andreas Fabian z Buckinghamshire New University i Charles Michel, artysta, naukowiec i były kucharz z gwiazdką Michelina. Panowie uważają, że tradycyjne sztućce projektowano wyłącznie z myślą o aspektach funkcjonalnych. Ich celem jest zaś stworzenie łyżek czy widelców zwiększających również zmysłową przyjemność z jedzenia. Do normalnego repertuaru zachowań należą zarówno jedzenie rękoma, jak i wylizywanie palców czy nawet talerzy. Michel/Fabian tworzy obiekty, które kojarzą intuicyjne i eleganckie sposoby wkładania pokarmu do ust. Agencja wykorzystuje psychologię eksperymentalną, by zaprojektować narzędzia, które porywając zmysły, zwiększają przyjemność z jedzenia i zachęcają ludzi do podejmowania zdrowszych wyborów żywieniowych - podkreśla Fabian. Firma chwali się, że jako pierwsza na świecie wykorzystuje w projektowaniu sztućców gastrofizykę. Za pośrednictwem strony internetowej Michel/Fabian można kupić dwie wersje Goûte: szklaną i drewnianą. Pierwsza kosztuje 29 funtów, a druga 19 funtów. Obie są wykonywane ręcznie. « powrót do artykułu
-
Prebiotyki pomagają sobie radzić ze stresem. Prebiotyki to podlegające trawieniu włókna, na których żerują bakterie mikrobiomu. Niektóre bakterie polegają także na związkach niebędących włóknami, np. na białku laktoferynie (występuje ona w mleku matki). Prof. Monika Fleshner z Uniwersytetu Kolorado w Boulder zauważyła, że regularne zażywanie prebiotyków sprzyja korzystnej mikroflorze i odtworzeniu normalnych wzorców snu po stresowym wydarzeniu. Ostry stres może zaburzyć mikrobiom jelit. Postanowiliśmy więc sprawdzić, czy dieta bogata w prebiotyki zwiększy liczebność dobrych bakterii, a także ochroni je przed zaburzeniami związanymi ze stresem. Chcieliśmy też przeanalizować wpływ prebiotyków na przywrócenie normalnych wzorców snu (po zdarzeniach stresowych z reguły są one zaburzone) - tłumaczy dr Agnieszka Mika. Podczas eksperymentów przed zdarzeniem stresowym szczurom przez kilka tygodni podawano karmę wzbogaconą prebiotykami. Porównywano je z gryzoniami na zwykłej diecie (grupą kontrolną). Okazało się, że grupa prebiotykowa nie doświadczała powodowanego stresem zaburzenia mikroflory i odzyskiwała normalne wzorce snu szybciej niż grupa kontrolna. Stresor zastosowany u szczurów stanowił odpowiednik intensywnego ostrego epizodu stresowego u ludzi, np. wypadku samochodowego czy śmierci ukochanej osoby. W następnym etapie badań będziemy szukać odpowiedzi na pytanie, czy prebiotyki pomagają ludziom zachować i odbudować mikroflorę jelit, a także dojść do normalnych wzorców snu po traumatycznym wydarzeniu - opowiada dr Robert S. Thompson. Dotąd nie odnotowano negatywnego wpływu prebiotyków na ludzi. Poza tym występują one w wielu roślinach, a nawet mleku matki. Nie wydaje się więc, by ich profilaktyczne zażywanie czy zjadanie przed ostatecznymi badaniami mogło komuś zaszkodzić... « powrót do artykułu
-
Do federalnego Sądu Okręgowego dla Dystryktu Oregon trafił pozew grupy dzieci, młodzieży i obrońców przyrody, w którym jednym z pozwanych jest prezydent Trump. Sprawa ciągnie się od dwóch lat i dotyczy braku zapewnienia ochrony przez rząd federalny przed skutkami zmian klimatu. Początki pozwu sięgają 2015 roku. Wówczas wymieniono w nim wysokich rangą urzędników administracji centralnej, w tym prezydenta Obamę. Skarżący utrzymują, że rząd federalny – pomimo istnienia przytłaczających dowodów – nie chroni swoich obywateli przed negatywnymi skutkami zmian klimatu. Pozwano wówczas Obamę oraz sekretarzy departamentów energii, transportu, handlu, obrony, stanu, rolnictwa i spraw wewnętrznych. Polityka rządu USA ignoruje zagrożenia związane ze zmianą klimatu i może się to tylko pogorszyć pod rządami nowej administracji, gdyż wydaje się, że Trump nie rozumie tych problemów i ma zamiar rozwijać przemysł wydobywczy - mówi w imieniu powodów 20-letni Kiran Oommen. W 2015 roku złożenie pozwu próbowały zablokować trzy organizacje skupiające przedstawicieli przemysłu – American Petroleum Institute, National Association of Manufacturers oraz AMerican Fuel and Petrochemical Manufacturers. Próby zablokowania pozwu się nie udały i właśnie trafił on do sądu z nazwiskami nowych już urzędników federalnych. Powodzi wystosowali też do odpowiednich departamentów list z żądanim zachowania wszelkich dokumentów, które mogą mieć zwiąek ze sprawą. Na razie odpowiedziała im Catherine McCabe p.o. szefowej Agencji Ochrony Środowiska (EPA), która zapewniła, że żadne dane i dokumenty nie zostaną zniszczone. « powrót do artykułu
-
Zmieniając aktywność jednego genu, naukowcy przeprogramowali komórki wątroby, tak by stały się komórkami prekursorowymi (progenitorowymi), dającymi początek komórkom trzustki. Wyniki sugerują, że w przyszłości będzie można leczyć cukrzycę za pomocą terapii komórkowej. Próbując wyhodować komórki trzustki poza organizmem, dr Francesca Spagnoli z Centrum Medycyny Molekularnej Maxa Delbrücka wywoływała "kryzys tożsamościowy" hepatocytów. Reprogramowano je w taki sposób, by znalazły się w mniej wyspecjalizowanym stanie, a następnie stymulowano ich rozwój w kierunku komórek trzustki. Kluczową rolę w tym procesie odgrywa gen TGIF2. Jest on aktywny w tkance trzustki, ale nie wątroby. Dr Nuria Cerda Esteban sprawdzała, jak komórki wątroby myszy zachowują się w obecności dodatkowej kopii TGIF2. Okazało się, że komórki najpierw traciły właściwości wątrobowe, a później pojawiały się u nich cechy trzustkowe. Następnie badacze przeszczepiali je myszom z cukrzycą. Krótko potem glikemia (poziom cukru we krwi) gryzoni się poprawiała, co oznacza, że wszczepione komórki podjęły funkcje utraconych komórek wysp trzustkowych. Obecnie laboratorium Spagnoli prowadzi badania na ludzkich hepatocytach. Istnieją różnice między myszami i ludźmi, z którymi musimy sobie poradzić. Jesteśmy jednak na dobrej drodze, by uzyskać dowód na użyteczność [...] terapii. « powrót do artykułu
-
Studenci z PW stworzyli Mobilną Wytwornicę Ciekłego Azotu
KopalniaWiedzy.pl dodał temat w dziale Technologia
Potrzebowali źródła ciekłego azotu do pokazów i badań naukowych. Postanowili więc, że sami skonstruują odpowiednie urządzenie. Po 10 miesiącach pracy mogli z dumą prezentować Nitrogenosa. Pomysł Koła Naukowego Inżynierii Chemicznej i Procesowej już wzbudza zainteresowanie przemysłu, a ostatnio zdobył wyróżnienie w konkursie StRuNa 2016, podsumowującym działalność kół i innych organizacji studenckich z całej Polski. Pomysłodawcą i koordynatorem przedsięwzięcia był Michał Wojtalik. Zadzwoniłem do paru kolegów, żeby zrealizowali ze mną ten projekt – opowiada. Zgodzili się. Jeszcze nie wiedzieli, ile czeka nas pracy. Praktyka różni się od teorii Studenci wykonali obliczenia projektowe poszczególnych elementów instalacji i zweryfikowali je poprzez symulacje komputerowe. Na podstawie tak sporządzonej dokumentacji zbudowali Nitrogenosa. Najlepsze jest to, że mogliśmy to zrobić sami – mówi Michał Wojtalik. Projektowanie jest fajne, ale wtedy nie ma tego dreszczyku emocji, który się pojawia, kiedy po raz pierwszy uruchamia się własne urządzenie. Pracując nad Nitrogenosem, studenci mieli okazję zastosować w praktyce wiedzę zdobytą w czasie studiów. Jest trochę inaczej niż w teorii, wszystko jest dużo bardziej skomplikowane – zaznacza Michał Wojtalik. Na przykład przyjmuje się, że łatwo jest ochłodzić gaz, a okazuje się, że to nie jest takie proste, bo mamy tu aż 3 stopnie chłodzenia. Jak zaznacza kierownik projektu, cała trudność polegała na tym, że trzeba było zadbać o mnóstwo drobnych, z pozoru prostych, rzeczy. To często niuanse, które potem mogą się przydać w pracy – mówi. Teraz wiemy, jakie elementy potrzebne do takiej instalacji są dostępne na rynku, ile kosztują, które z nich można kupić taniej, wiemy, jak zrealizować konkretny proces, znamy realne rozwiązania techniczne i konstrukcyjne. Po tym projekcie wiemy na przykład, że lepiej jest wspawać nypel do kołnierza niż toczyć kołnierz, bo to wielokrotnie tańsze. Więcej pieniędzy = lepsza wydajność Nitrogenos działa na zasadzie klasycznego cyklu termodynamicznego. To instalacja tania w produkcji – mówi Michał Wojtalik. Pozwala uzyskać z powietrza atmosferycznego ok. 300 ml skroplonego azotu na godzinę. Jak na tę kategorię urządzenia, to sporo. Środki na jego zbudowanie pochodziły z Małej Puli na Projekty Naukowe Rady Kół Naukowych PW 2015, dofinansowania Komisji Dydaktycznej Samorządu Studentów PW, Grantu Rektorskiego dla Kół Naukowych PW oraz dotacji Dziekana Wydziału Inżynierii Chemicznej i Procesowej. W sumie było to ok. 25 tys. złotych. Biorąc pod uwagę skalę przedsięwzięcia, naprawdę niewiele. Pieniędzy nie starczyło m.in. na zautomatyzowanie procesu chłodzenia (to oznacza, że ktoś cały czas musi obsługiwać instalację) czy na osłony próżniowe wymienników (co przekłada się na mniejszą wydajność Nitrogenosa – z lepszą izolacją można by uzyskiwać nawet ok. litra azotu na godzinę). Przeszkody są po to, by je pokonywać W czasie pracy studenci raz za razem mierzyli się z kolejnymi wyzwaniami. W beczce jest wymiennik przeciwprądowy, zbudowany z dwóch rur miedzianych: dwunastomilimetrowej i sześciomilimetrowej – opowiada Michał Wojtalik. Trzeba było wcisnąć jedną rurę w drugą, a każda ma 40 metrów. Parę miesięcy myśleliśmy, jak to zrobić. Nie mogliśmy przekonać warsztatu, żeby to wykonał, bo rury są dość drogie i nikt nie chciał brać odpowiedzialności. W końcu, jak panowie z warsztatu zobaczyli, że wcisnęliśmy 10 metrów, to się zgodzili. Wszyscy się dziwią, że to możliwe i że działa. Wymiennik, choć to najprostszy możliwy typ i w przemyśle się takich nie stosuje, ma zresztą dość dobrą wydajność – 230 watów mocy obciążenia cieplnego, przy ciśnieniu pracy około 220 barów. Trzeba też było rozwiązać inny problem – jak skutecznie oddzielić azot od tlenu. Członkowie Koła Naukowego Inżynierii Chemicznej i Procesowej odrzucili swoją pierwszą koncepcję – adsorpcję zmiennociśnieniową, ponieważ była za droga. Ostatecznie zdecydowali się na dużo tańszy proces membranowy. Udało się uzyskać 1,5–2% czystości azotu, dla naszego urządzenia to wystarcza – mówi Michał Wojtalik. Podczas pracy nad uzyskiwaniem ciekłego azotu należy być bardzo ostrożnym. To, że w powietrzu atmosferycznym mamy 79% azotu i 21% tlenu, nie oznacza, że po skropleniu będzie tak samo. Równowaga się przesuwa i mamy wtedy nawet 50% tlenu, czyli zbliżamy się już do ciekłego tlenu, który jest tak niebezpieczny, że czasem wystarczy kontakt z zaolejoną podłogą i natychmiast się zapali – wyjaśnia Michał Wojtalik. To dla nas problematyczne. Musimy zgromadzić w instalacji dość dużo gazu. Zbicie tlenu do właściwych stężeń zajmuje prawie godzinę. Zgrany zespół podstawą sukcesu Trzon zespołu pracującego nad Nitrogenosem, poza Michałem Wojtalikiem, stanowili Patryk Baran i Michał Fedoryk. Sprawami związanymi z elektryką zajmowali się Jakub Syczewski i Łukasz Górski. Przy projekcie pracowali też Paweł Antkowiak, Julia Bień, Nina Borzęcka, Wiktor Dobryniewski, Eliza Grzymkowska, Krystian Jędrzejczak, Marcin Kryczka, Radosław Krzosa i Kacper Siwek. Udało się stworzyć bardzo zgrany zespół, który przez 10 miesięcy ciężko pracował" – zaznacza Michał Wojtalik. "To wielka wartość. Studenci mogli też liczyć na pomoc dr. inż. Piotra Machniewskiego, który na Wydziale Inżynierii Chemicznej i Procesowej prowadzi zajęcia z termodynamiki procesowej. Potrafił przez 3–4 godziny rozmawiać z nami o instalacji, a takich spotkań było bardzo wiele – opowiada Michał Wojtalik. Kwestia zaufania Jak dotąd kierownik projektu prezentował Nitrogenosa firmie, która zajmuje się produkcją lodów. Trudno przekonać kogoś, że jak zrobiliśmy taką małą instalację, to możemy zrobić też taką w standardzie spożywczym – mówi. Ktoś musiałby nam zaufać. Jak wyliczył Michał Wojtalik, studencki zespół z Politechniki Warszawskiej byłby w stanie zbudować odpowiednie urządzenie o wydajności około 10 litrów na godzinę za maksimum pół miliona złotych. To dwa razy mniej niż standardowy koszt tego typu instalacji na rynku. Cena jest tak mała głównie dlatego, że najważniejsza część technologii już jest przez nas opanowana, a główne problemy zostały zidentyfikowane i istnieją skuteczne metody ich rozwiązania – wyjaśnia Michał Wojtalik. « powrót do artykułu -
Nowoczesna technologia coraz częściej jest przywoływana w sprawach rozwodowych jako czynnik, który przyczynił się do rozpadu małżeństwa. Pewien mężczyzna z Francji pozwał właśnie Ubera i domaga się 45 milionów euro odszkodowania twierdząc, że przez błąd w aplikacji nie ma już żony. Rzeczywiście w aplikacji Ubera dla iOS-a istniał błąd. Wspomniany mężczyzna skorzystał z usług Ubera za pomocą telefonu żony. Następnie wylogował się z aplikacji i gdyby nie pewien błąd, na tym by się skończyło. Poniewczasie okazało się jednak, że pomimo wylogowania się, na telefon żony trafiały informacje o kolejnych podróżach, jakie z Uberem odbywał mężczyzna. Także wyprawach do kochanki. Skończyło się to rozwodem, a niewierny mąż twierdzi, że winę ponosi Uber. Mój klient jest ofiarą błędu w aplikacji. Błąd spowodował problemy w jego prywatnym życiu - twierdzi David-Andre Darmon, prawnik pechowego klienta Ubera. To kolejna już "ofiara" technologii. W Wielkiej Brytanii już w roku 2011 w aż 33% spraw rozwodowych pojawiał się Facebook. W dokumentach sądowych czytamy, że był on wykorzystywany przez jedną ze stron do wysyłania niewłaściwych wiadomości do płci przeciwnej, do walki pomiędzy rozwodzącymi się małżonkami lub też był tym kanałem informacji, za pomocą którego znajomi poinformowali jedną ze stron, że druga osoba zachowuje się nieodpowiednio. Twittera wymieniono w 20 sprawach rozwodowych, czyli przyczynił się on do 0,4% brytyjskich rozwodów. Niemal dwukrotnie więcej, bo 35 razy wymienion grę Football Manager. « powrót do artykułu
-
Płeć dziecka wpływa na reakcje odpornościowe ciężarnych
KopalniaWiedzy.pl dodał temat w dziale Zdrowie i uroda
Płeć dziecka wpływa na reakcje odpornościowe ciężarnych. Naukowcy z Centrum Medycznego Wexnera Uniwersytetu Stanowego Ohio badali 80 ciężarnych kobiet. Sprawdzali, czy poziom cytokin jest różny w zależności od płci dziecka. Analizowali stężenie tych związków we krwi. Sprawdzali też, ile produkują ich komórki odpornościowe, wystawione w laboratorium na oddziaływanie bakterii. O ile nie odnotowano różnic w poziomie cytokin we krwi, o tyle odkryliśmy, że komórki odpornościowe kobiet będących w ciąży z dziewczynkami produkowały w kontakcie z bakteriami więcej cytokin prozapalnych. To oznacza, że w sytuacji wymagającej interwencji układu odpornościowego matki dziewczynek przejawiały silniejszą odpowiedź zapalną niż kobiety będące w ciąży z chłopcami - wyjaśnia dr Amanda Mitchell. Potrzeba dalszych badań, ale wydaje się, że silniejsza reakcja zapalna w pewnym stopniu odpowiada za to, że kobiety z płodami płci żeńskiej doświadczają silniejszych objawów niektórych chorób, w tym astmy. To badanie pomaga kobietom i ich ginekologom zauważyć, że płeć płodu może wpływać na to, jak organizm reaguje na codzienne bodźce immunogenne. Stanowi też punkt wyjścia dla kolejnych badań, które ustalą, jak różnice w działaniu układu odpornościowego wpływają na reakcje pacjentek na rozmaite wirusy, zakażenia i choroby przewlekłe (np. astmę) i pokażą, czy reakcje te oddziałują na stan zdrowia dziecka. Mitchell dodaje, że naukowcy wiedzą, że stan zapalny kobiety wpływa na różne czynniki związane z płodem, np. czas porodu. Potrzeba jednak dalszych badań, które zademonstrują, jak płeć płodu wiąże się z matczynym stanem zapalnym. Niewykluczone, że wpływają na niego hormony płciowe lub hormony łożyska. « powrót do artykułu -
Uczestnicy warsztatów dotyczących misji Mars 2020 zarekomendowali NASA 3 z wcześniejszych 8 potencjalnych miejsc lądowania misji. Za trzy lata NASA wyśle na Czerwoną Planetę misję, w ramach której odbędą się m.in. wiercenia w powierzchni planety. Grupa naukowców uznała teraz, że najlepszymi miejscami do przeprowadzenia wierceń są północno-zachodnia część Syrtis Major Planum (bardzo stara część Marsa), krater Jezero, w którym w przeszłości istniało jezioro oraz Wzgórza Kolumbii, gdzie mogło istnieć gorące źródło. Misja Mars 2020 ma wystartować w lipcu 2020 roku. Dostarczy ona na powierzchnię Marsa łazik wyposażony w siedem instrumentów naukowych, które szczegółowo opisywaliśmy przed niemal 3 laty. Łazik przeprowadzi badania geologiczne Marsa, oceni zdolność planety do podtrzymania życia, poszuka śladów życia oraz dokona oceny zasobów naturalnych i ryzyka związanego z załogowymi misjami na Czerwoną Planetę. Urządzenie zbierze też próbki, które być może zostaną przywiezione na Ziemię w ramach przyszłych misji. « powrót do artykułu
-
New Horizons wyszła z trybu chronionego i leci dalej
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
NASA informuje, że po 24 godzinach od wejścia w tryb chroniony, sonda New Horizons powróciła do normalnej pracy. Przed kilkoma dniami doszło do błędu podczas przesyłania komend do sondy. Urządzenie jest zaprojektowane tak, by przy wystąpieniu określonych anomalii automatycznie wprowadzać się w tryb chroniony, który ma nie dopuścić do pojawienia się kolejnych problemów. W trybie tym sonda przerywa swą normalną pracę i kieruje antenę w stronę Ziemi, oczekując na polecenia z Mission Operations Center znajdującego się w Laboratorium Fizyki Stosowanej Uniwersytetu Johnsa Hopkinsa. Szybkie naprawienie błędów było możliwe dzięki wsparciu ze strony innych misji NASA, które udostępniły nam nieco swojego cennego czasu antenowego w Deep Space Network (DSN) - mówi Alice Bowman, odpowiedzialna za misję New Horizons. Sonda już bez przeszkód podąża w stronę swojego kolejnego celu, obiektu 2014 MU69 w Pasie Kuipera. Obecnie New Horizons znajduje się w odległości 5,7 miliarda kilometrów od Ziemi. Przesłanie sygnału radiowego w obie strony trwa 10,5 godziny. Przed kilkunastoma miesiącami New Horizons odwiedzając Plutona wypełniła zasadniczą część swojej misji. Sonda New Horizons to pierwszy wysłany przez człowieka pojazd, który przeleciał obok Plutona. Przelot obok Plutona to zwieńczenie złotego wieku misji planetarnych. Rozpoczęła się nowa era eksploracji Układu Słonecznego. W nadchodzących latach NASA odkryje tajemnice Marsa, Jowisza, Europy oraz światów wokół innych gwiazd - powiedział przed 1,5 roku John Grunsfeld, szef Dyrektoriatu Misji Naukowych NASA. « powrót do artykułu -
Przed niemal rokiem świat obiegła wiadomość, że grupa naukowców i przedsiębiorców chce wysłać pojazd do Alfa Centauri. W ramach Breakthrough Starshot na orbicie ziemskiej umieszczono by tysiące niezwykle lekkich żagli, do których miałyby zostać przyczepione niewielkie układy scalone zawierające kamery, czujniki, silniki odrzutowe i akumulatory. Następnie za pomocą potężnych naziemnych laserów każdy z pojazdów zostałby rozpędzony do 20% prędkości światła pomknąłby w stronę najbliższej nam gwiazdy poza Układem Słonecznym. Jako, że początek misji zaplanowano na lata 40. bieżącego wieku, to pojazdy dotarłyby do gwiazdy w latach 60. Całość miałaby kosztować około 100 milionów dolarów. Szybko jednak okazało się, że koszty misji byłyby znacznie wyższe. Niewykluczone, że sięgnęłyby 10 miliardów USD. Kolejny problem stanowi prędkość pojazdów. Przy planowanej prędkości miałyby one jedynie kilka sekund, by wykonać zdjęcia Proximy b i ewentualnych innych planet znajdujących się w układzie Alfa Centauri. Michael Hippke, niezależny badacz z Niemiec uważa, że Breakthrough Starshot to marnowanie pieniędzy. Bez sensu jest bowiem organizować misję, która do celu leciałaby kilkadziesiąt lat, a potem miałaby jedynie kilka sekund na zebranie użytecznych danych. Dlatego też wraz z Rene Hellerem, astrofizykiem z Instytutu Badań Układu Słonecznego im. Maksa Plancka w Göttingen Hippke opracował alternatywną koncepcję. Misję, która miałaby kosztować znacznie mniej, ale dostarczyć znacznie więcej danych naukowych. Heller i Hippke proponują na łamach The Astrophysical Journal Letters, by zamiast budować kosztowny system laserowy do napędzenia pojazdów o niewielkich żaglach, stworzyć pojazd o znacznie większych żaglach, który będzie napędzany światłem gwiazd. Taki pojazd poruszałby się znacznie wolniej, mógłby za to odwiedzić wszystkie gwiazdy systemu Alfa Centauri i trafić na orbitę Proximy b. Obaj badacze wyliczyli, że niezwykle lekki żagiel o powierzchni 100 000 metrów kwadratowych, który ważyłby około 100 gramów byłby w stanie napędzać pojazd dzięki światłu gwiazd oraz wykorzystać grawitację Alfa Centauri. W miarę zbliżania się do celu pojazd dostosowywałby pozycję swojego żagla tak, by jak najlepiej wykorzystać światło z Alfa Centauri. Aby dotrzeć do planety Proxima b pojazd musiałby najpierw zbliżyć się do Alfa Centauri A i B. Tam zostałby wyhamowany przez światło gwiazd i dopiero wówczas udałby się w kierunku planety Proxima b. Jeśli Heller i Hippke nie pomylili się w obliczeniach, to pojazd nie może rozpędzić się do prędkości większej niż 4,6% prędkości światła. Jeśli będzie leciał szybciej, to nie zostanie wyhamowany i nie trafi na orbitę Proximy b. Naukowcy wyliczają, że jeśli wszystko poszłoby dobrze, to taki pojazd podróżowałby przez około 100 lat do Alfa Centauri A i B, a kolejne 50 lat zajęłoby mu dotarcie do planety i posadowienie się na jej orbicie. Podróż trwałaby około siedmiokrotnie dłużej niż w przypadku 20-letniej misji Starshot, jednak w zamian za to dane moglibyśmy zbierać przez lata lub nawet dekady, a nie przez sekundy - mówi Heller. Pomysł Hellera i Hippke nie zostanie zrealizowany w najbliższym czasie. Naukowcy proponują bowiem, by wykorzystać zbiegnięcie się wszystkich trzech gwiazd systemu tak, że układają się one w płaszczyźnie przecinającej potencjalną trasę pojazdu wysłanego z Układu Słonecznego. Taka konfiguracja ma miejsce raz na 80 lat i następnym razem wystąpi ona w roku 2035. Jednak wówczas, jak zauważają naukowcy, ludzkość nie będzie dysponowała żaglem o odpowiednich właściwościach. Dlatego też stwierdzają, że najbardziej prawdopodobnym terminem rozpoczęcia proponowanej przez nich misji jest rok 2115. Można oczywiście zapytać, po co wysyłać pojazd w kierunku Alfa Centauri, a potem kierować go na orbitę planety krążącej wokół Proxima Centauri. Może lepiej byłoby od razu wysłać go w kierunku Proxima Centauri? Obaj naukowcy wyliczyli jednak, że podróż w stronę znacznie słabiej świecącej Proxima Centauri, biorąc pod uwagę słabsze ciśnienie jej promieniowania i mniejsze możliwości wyhamowania pojazdu, trwałaby około 1000 lat. Planowanie misji na kilka generacji naprzód może przynieść wiele korzyści. Co prawda my nie zobaczymy zdjęć z Proxima b, ale mogłyby obejrzeć je nasze wnuki i prawnuki. Warto też zauważyć, że wielka gwiazda Syriusz znajduje się z odległości jedynie nieco ponaddwukrotnie większej niż Alfa Centauri. Jako, że jest znacznie jaśniejsza od Słońca ma większe możliwości wyhamowania żagla, zatem lecący w jego kierunku pojazd mógłby poruszać się znacznie szybciej, zatem dotarcie do Syriusza w przewidywalnym czasie też jest realne. Do koncepcji Hellera i Hippke nie jest przekonany Avi Loeb, astronom z Uniwersytetu Harvarda i przewodniczący Naukowego Komitetu Doradczego Breakthrough Starshot. Zauważa on, że wymagania dotyczące żagla są tak wyśrubowane, iż jego zbudowanie wcale nie musi być tańsze niż budowa potężnych naziemnych laserów. Nie wiadomo też, czy w ogóle można go zbudować. Ponadto, zauważa Loeb, Starshot planuje wysłanie tysiące pojazdów, z których każdy będzie miał kilka sekund na obserwacje, to w sumie mogą dostarczyć wielu danych. Nie można też pominąć aspektu psychologicznego – misja Starshot mogłaby rozpocząć się i zakończyć za naszego życia. « powrót do artykułu
-
Kanadyjscy naukowcy opracowali metodę łączenia poszczególnych typów komórek serca (mięśni, tkanki łącznej i naczyń) "na zamek". W ten sposób niepotrzebne są rusztowania, a stworzona in vitro tkanka bije razem jako całość, a nie jak dotąd - w różnych interwałach. Zespół prof. Muhammada Yousafa z York University podkreśla, że wcześniej do utrzymania i wzrostu większości tkanek 2D i 3D potrzebne były rusztowania, a to wiązało się z różnymi ograniczeniami. Dzięki bezrusztowaniowej tkance sercowej 3D będzie można badać leki, choroby serca i zagadnienia związane z przeszczepami. Ze względu na dużą gęstość komórek [...] uzyskanie w warunkach in vitro tkanki serca długo stanowiło dla naukowców wyzwanie. By tkanki 2D i 3D były funkcjonalne, muszą mieć tę samą gęstość komórkową [co oryginał], dodatkowo, żeby ułatwić zsynchronizowane bicie, komórki powinny wchodzić ze sobą w kontakt - wyjaśnia doktorant Dmitry Rogozhnikov. Podczas eksperymentów do zespolenia różnych komórek Kanadyjczycy wykorzystali kombinację fuzji liposomów, inżynierii powierzchni komórek i chemii bioortogonalnej (ViaGlue). Dzięki temu na powierzchni komórek pojawiły się grupy ketonowe i oksyaminowe, a chwilę później, w wyniku reakcji, oksymy. Autorzy publikacji z pisma Scientific Reports wspominają o spinaniu warstw - kardiomiocytów, fibroblastów i ludzkich komórek śródbłonka żyły pępowinowej (ang. human umbilical vein endothelial cells, HUVECs) - na zasadzie zamka błyskawicznego; reakcja tworzenia oksymów jest ponoć szybka, wybiórcza, zachodzi w warunkach fizjologicznych (37°C, pH 7) i nie wymaga katalizatora. Na razie tkankę uzyskano w milimetrowej skali, ale można też stworzyć większe wersje. Yousaf założył już start-up o nazwie OrganoLinX, który ma skomercjalizować ViaGlue i dostarczać dostosowane do potrzeb klienta tkanki 3D. « powrót do artykułu
-
Na University of Colorado w Boulder powstał gotowy do masowej produkcji metamateriał, który działa jak klimatyzacja. Podczas chłodzenia budynków nie zużywa on jednak ani energii ani wody. Wspomniany metamateriał, po ułożeniu go na chłodzonej powierzchni odbija promieniowanie słoneczne, a jednocześnie pozwala na odprowadzanie ciepła z chłodzonego materiału w postaci podczerwieni. Jego twórcy mówią, że przyda się np. w elektrowniach cieplnych, gdzie do chłodzenia urządzeń zużywa się olbrzymie ilości prądu i wody. Metamateriał to szklano-polimerowa hybryda o grubości 50 mikrometrów. Można ją wytwarzać w rolkach, co oznacza, że jej cena nie powinna wykraczać poza możliwości finansowe klienta indywidualnego. Sądzimy, że niskie koszty produkcji przełożą się na masowe zastosowanie naszej technologii chłodzenia radiacyjnego - mówi współautor badań profesor Xiaobo Yin. Systemy pasywnego chłodzenia np. budynków mogą przynieść olbrzymie korzyści. Budynki naturalnie schładzają się w nocy, wypromieniowując ciepło w postaci podczerwieni. Jednak wystarczy, że w ciągu dnia zostaną wystawione na działanie promieni słonecznych, by bardzo szybko ponownie się nagrzały. Jak mówią uczeni z Kolorado, głównym wyzwaniem było stworzenie materiału o podwójnym działaniu. Takiego, który z jednej strony odbijałby promienie Słońca, a z drugiej pozwalał na wypromieniowanie ciepła. Poradzono sobie z tym problemem dodając szklane mikrosfery do polimeru. Na koniec całość pokryto od spodu cienką warstwą srebra, co zmaksymalizowało współczynnik odbicia światła. Wystarczy 10 do 20 metrów kwadratowych tego materiału ułożonego na dachu, by schłodzić latem domek jednorodzinny - zapewnia profesor Gang Tan z University of Wyoming. Główną zaletą tej technologii jest fakt, że działa ona 24 godziny na dobę i nie zużywa przy tym energii ani wody - mówią twórcy metamateriału. « powrót do artykułu
-
Nowy środek antykoncepcyjny dla mężczyzn, który po wstrzyknięciu do nasieniowodów tworzy hydrożel stanowiący fizyczną barierę dla plemników, pomyślnie przeszedł testy na samcach makaków. W zeszłym roku Vasalgel był testowany na królikach. Naukowcy sądzą, że jeśli wszystko pójdzie dobrze, kiedyś żel może się stać alternatywą dla wazektomii. Podczas badań na 16 dorosłych samcach, które były trzymane z samicami w wieku rozrodczym, wykazano, że metoda zapewnia długotrwałą i niezawodną antykoncepcję (nie odnotowano ani jednej ciąży). Co istotne, wykazaliśmy, że umieszczenie Vasalgelu jest bezpieczne i powoduje mniej powikłań niż wazektomia - opowiada dr Catherine VandeVoort z Narodowego Kalifornijskiego Centrum Badań Naczelnych. Specjalistka dodaje, że wcześniejsze badania na królikach pokazały, że metoda jest odwracalna. "Choć rewazektomia również jest możliwa, technicznie procedura zespolenia nasieniowodów jest trudna, a późniejszy wskaźnik płodności pacjentów często bywa bardzo niski". Podczas ostatniego studium Vasalgel wprowadzono do nasieniowodów 16 samców makaka. Przed powrotem do stada przez tydzień stan zdrowia małp ściśle monitorowano. Następnie "pacjentów" umieszczano na dużych wybiegach, gdzie znajdowało się 10-30 zwierząt, w tym niemowlęta, osobniki młodociane i dorosłe. W każdej grupie umieszczono od jednego do trzech samców z Vasalgelem. Rezusy mieszkały razem przez jeden sezon rozrodczy (około 6 miesięcy). Normalnie spodziewany wskaźnik ciąż dla płodnych samic wynosiłby w takich warunkach aż ok. 80%, tutaj nie odnotowano jednak ani jednego poczęcia. U jednego samca wystąpiły objawy ziarniniaka nasiennego. Po wazektomii powikłanie to jest o wiele częstsze i występuje u ok. 60% mężczyzn i 15% makaków. « powrót do artykułu
-
Naukowcy z Japonii zapylają lilie dronami wielkości pszczół. Na ich spodniej części znajdują się końskie włosie oraz żel jonowy, który jest na tyle lepki, by przenieść pyłek z jednego kwiatka na następny. Autorzy publikacji z pisma Chem nie zamierzają wcale zastępować pszczół. Chodzi im wyłącznie o odciążenie kolonii w warunkach olbrzymiego zapotrzebowania rolniczego (koniec końców przyniosłoby to korzyści także farmerom). Jak często w takich przypadkach bywa, żel powstał przez przypadek, w wyniku niepożądanego przebiegu jednego z eksperymentów. W 2007 r. dr Eijiro Miyako z Narodowego Instytutu Nauk Industrialnych i Technologii pracował bowiem nad cieczami, które można by wykorzystywać w roli przewodników. W jednej z prób powstał żel lepki jak wosk do włosów. Materiał przestał w szafce w niezamkniętym pojemniku niemal 10 lat. Odkryto go podczas sprzątania laboratorium. Wtedy Miyako, któremu przypomniały się najnowsze doniesienia o robotach-owadach i problemach pszczół miodnych, zaczął sprawdzać na muchach domowych i mrówkach, czy żel da się wykorzystać do wiązania pyłku. Byliśmy zaskoczeni, że po 8 latach żel jonowy nie rozłożył się i nadal był lepki. Ponieważ konwencjonalne żele są wytwarzane głównie z wody, nie mogą być stosowane przez dłuższy czas. Zdecydowaliśmy więc, że w badaniach posłużymy się tym materiałem - opowiadają Miyako i dr Svetlana Chechetka, główna autorka raportu. Miyako zbierał mrówki w laboratorium, umieszczał na nich krople żelu jonowego, a następnie wypuszczał w skrzynce z tulipanami. W porównaniu do mrówek bez żelu, na owadach z materiałem o wiele częściej znajdował się pyłek. W kolejnym eksperymencie, tym razem z muchami domowymi, wykazano, że żel zmienia kolor w reakcji na różne źródła światła. Dzięki kamuflażowi roboty będą zaś mogły uniknąć zniszczenia przez drapieżniki. Do dalszych badań Japończycy wybrali małe kwadrokoptery. Ponieważ żelu nie można było po prostu umieścić na gładkiej powierzchni, Miyako i Chechetka poprosili o pomoc Masayoshiego Tange i Yue Yu, którzy zajęli się mocowaniem na dronie końskiego włosia. Włosie nie tylko zwiększyło powierzchnię do przywierania pyłku, ale i generowało ładunki elektryczne do ich stabilnego przyczepienia. Ostatecznym sprawdzianem dla dronów było poletko lilii japońskich (Lilium japonicum). Gdy kwadrokoptery z włoskami i żelem podjęły pyłek z jednego kwiatka, przelatywano nimi na kolejne lilie. W ten sposób je zapylano, zapoczątkowując produkcję nasion. Zabieg ten nie udał się z dronami bez włosia i żelu. Wierzymy, że roboty można wytrenować, by uczyły się szlaków zapylania, wykorzystując GPS oraz sztuczną inteligencję. « powrót do artykułu
-
Departament Sprawiedliwości znowu przegrał z Microsoftem
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Microsoft odniósł kolejne w ostatnim czasie zwycięstwo w sporze z Białym Domem. Tym razem sąd federalny w Seattle uznał, że koncern ma prawo pozwać Departament Sprawiedliwości. Sprawa, w której Microsoft zyskał poparcie m.in. Apple'a, Twittera i Google'a, dotyczy zakazu informowania użytkowników o tym, że rząd uzyskał dostęp do ich danych. W USA organa ścigania mogą uzyskać dostęp do danych użytkowników wówczas, gdy zgodzi się na to są. Zwykły nakaz sądowy pozwala firmie, do której skierowano wniosek, na powiadomienie użytkownika, dzięki czemu może on przed sądem sprzeciwić się udostępnieniu jego danych organom ścigania. W pewnych sprawach, dotyczących np. ciężkich przestępstw, sąd może jednak we wniosku zaznaczyć, że firma, do której skierowano wniosek, nie ma prawa przez określony czas zawiadamiać użytkownika. Przed rokiem Microsoft pozwał rząd USA w związku z tym, że na 2576 nakazów ujawnienia danych jakie otrzymał w aż 1752 nie było określonej daty końcowej, po której Microsoft mógłby poinformować zainteresowanego, że jego danymi interesowały się organa ścigania. Brak takiej daty oznacza zaś, że tajemnica ma być dochowana bezterminowo. Zdaniem Microsoftu narusza to Pierwszą i Czwartą Poprawkę do Konstytucji USA. Czwarta Poprawka daje obywatelom prawo do informacji o tym, że rząd przeszukał lub zajął ich własność. Pierwsza Poprawka gwarantuje prawo do wolności słowa, a więc - jak uważa Microsoft - jest też gwarancją swobodnej komunikacji pomiędzy firmą a jej klientem, a firma może poinformować klienta o działaniach, jakie rząd przeciwko niemu podjął. Oczywiście rząd ma prawo do zachowania w tajemnicy faktu, że zbierał informacje na temat obywateli, jednak nie jest to regułą, a wyjątkiem. Trudno zaś nazwać wyjątkiem sytuację, gdy niemal 70% nakazów sądowych nie ma określonej daty wygaśnięcia tajemnicy. Prawnicy Departamentu Sprawiedliwości domagali się od sądu oddalenia sprawy. Argumentowali, że Microsoft nie odniósł żadnej "trwałej szkody" z powodu zakazu informowania swoich klientów. Twierdzili też, że koncern "nie może powoływać się na Czwartą Poprawkę w imieniu innych". Sędzia James Robart orzekł w większości na korzyść Microsoftu. Interes rządu w utrzymaniu śledztwa w tajemnicy kończy się wraz z zakończeniem śledztwa i w tym momencie prawa opisane w Pierwszej Poprawce są ważniejsze niż rządowy interes, stwierdził. Odnosząc się zaś do Czwartej Poprawki sędzia odrzucił argumentację koncernu, jednak stwierdził, że sprawę tę mogą w apelacji rozstrzygać sądy wyższej instancji. Powołał się przy tym na istniejący precedens z Sądu Federalnego dla 9. Okręgu i Sądu Najwyższego. Źródłem orzeczenia niniejszego sądu jest istniejący i wiążący precedens, który uniemożliwia sądowi by ten wyraził zgodę na powoływanie się przez Microsoft w imieniu klientów na Czwartą Poprawkę. Sąd nie może rozważyć argumentów Microsoftu i jego teorii dotyczącej Czwartej poprawki. Zadanie to powinny wziąć na siebie sądy wyższej instancji. Brad Smith, główny prawnik Microsoftu, wyraził zadowolenie z takiej decyzji stwierdzając, że pozwala ona koncernowi na kontynuowanie walki sądowej. Departament Sprawiedliwości odmówił komentarza. « powrót do artykułu -
Microsoft przypomina o kończącym się wsparciu dla Visty
KopalniaWiedzy.pl dodał temat w dziale Technologia
Microsoft zaczął ostrzegać użytkowników Windows Visty, że wkrótce kończy się okres wsparcia dla tego systemu. Użytkownicy Visty, którzy korzystają z Microsoft Security Essentials otrzymują powiadomienia na swoje komputery. Windows Vista zadebiutowała 30 stycznia 2007 roku. Była następcą Windows XP. System nigdy nie odniósł sukcesu. Pomimo początkowych pozytywnych opinii użytkownicy szybko mieli dość mechanizmu User Account Control (UAC), który bez przerwy zasypywał ich najróżniejszymi ostrzeżeniami, przeszkadzając w wygodnym korzystaniu z komputera. Viście nie pomógł też fakt, że miał zastąpić niezwykle popularnego XP. Nigdy się to nie udało, a obecny udział Windows Visty w rynku desktopów wynosi od 0,8 do 1,2 procenta. To jednak oznacza, że system ten wciąż działa na milionach komputerów. Tymczasem wsparcie dla niego kończy się 11 kwietnia bieżącego roku. Po tej dacie użytkownicy Visty nie będą otrzymywali żadnych poprawek, zatem ich maszyny będą coraz bardziej narażone na atak. Osoby korzystające z Windows Visty powinny zainstalować nowszy system operacyjny. Najłatwiejsza będzie aktualizacja do Windows 7, gdyż przejście na Windows 8.1 lub Windows 10 będzie wymagało czystej instalacji. Ci, którzy z jakichś powodów nie mogą lub nie chcą zmieniać systemu operacyjnego, powinni po 11 kwietnia zrezygnować z korzystania z Internet Explorera, ustawić UAC na najwyższy poziom, usunąć programy, które nie są aktualizowane przez ich producentów oraz zainstalować oprogramowanie zabezpieczające. Wszystkie te kroki to jednak tylko półśrodki, a najlepszym rozwiązaniem jest zmiana systemu na nowszy. « powrót do artykułu -
Niemiecki overclocker der8auer i jego zespół podkręcili zegar procesora Intel Core i7 7700K do rekordowych 7328,3 MHz. W czasie bicia rekordu wszystkie rdzenie układu były aktywne, uruchomiony został też Hyper-Threading. Próbę sponsorował ASUS, dzięki czemu do chłodzenia kości der8auer mógł wykorzystać ciekły hel. Zwykle overclockerzy wykorzystują ciekły azot, który jest 100-krotnie tańszy od ciekłego helu. Ten ostatni kosztuje bowiem 40 euro za litr i błyskawicznie się ulatnia. Jednak ciekły hel ma temperaturę około -269 stopni Celsjusza, czyli jest o około 70 stopni chłodniejszy od ciekłego azotu. Stąd też pomysł na wykorzystanie helu. A jego realizacja była możliwa dzięki sponsorowi. Litr helu ulatnia się w ciągu około 10 sekund, więc chłodzenie nim jest niezwykle drogie. Podczas bicia rekordu zużyto około 100 litrów ciekłego helu w ciągu zaledwie 15 minut. Jak twierdzi der8auer, podkręcenie wspomnianego układu do 7,3 GHz to najwyższe taktowanie zegara jakie kiedykolwiek osiągnięto w przypadku czterordzeniowego procesora. « powrót do artykułu
-
Szympansy atakowały i zjadały ciało zabitego samca
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Zespół Jill Pruetz z Uniwersytetu Stanowego Iowy nagrał szokujące dla ludzi zachowanie szympansów, które miało miejsce po pierwszym odnotowanym przypadku śmiertelnej agresji wśród Pan troglodytes z zachodniej Afryki. Małpy nie tylko zabiły izolowanego od paru lat byłego przywódcę stada (samca alfa), ale i przez długi czas atakowały jego ciało i zjadały jego fragmenty. Prymatolodzy podkreślają, że szympansy wyjątkowo rzadko zabijają członka własnej społeczności (większość przypadków agresji dotyczy walk między stadami). Zupełnie nikt nie spodziewał się zaś tego, co nastąpiło potem. Trudno było patrzeć na to okrutne zdarzenie [które miało miejsce w 2013 r. w Fongoli w Senegalu] - opowiada Pruetz. Początkowo nie wiedziałam, co się dzieje. Nie spodziewałam się, że będą tak agresywne w stosunku do ciała [Foudouko]. Pruetz podkreśla, że opisywane zachowanie zdecydowanie nie było żałobą. Autorzy raportu z Journal of Primatology stwierdzili, że największą agresję przejawiały młodsze dorosłe samce. Agresji nie wykazały tylko 2 osobniki zaprzyjaźnione kiedyś z Foudouko. Jeden z nich krzyczał co prawda i uderzył ciało, ale wydawało się, że to próba ożywienia zmarłego. Amerykanka od dawna podejrzewa, że do agresywnego zachowania mogą się przyczyniać wywołane przez człowieka zmiany środowiskowe, które zaburzają habitat szympansów. Nie da się jednak ostatecznie powiedzieć, co było przyczyną śmierci Foudouko. Niewykluczone, że poszło o partnerki (w Fongoli jest bowiem więcej samców niż samic) i walkę o pozycję z młodszymi samcami. Skrzywioną proporcję płci w Fongoli można powiązać z czynnikami antropogenicznymi. Tutejsi mieszkańcy opowiadali np. o ludziach polujących na samice, by pozyskać niemowlęta na handel. Ze względu na długowieczność szympansów nawet schwytanie co parę lat tylko jednej samicy ma realny wpływ na stado. Niezwykłe jest to, że Foudouko zdołał przeżyć w izolacji od reszty tyle lat. Dotąd nikt nie odnotował tak długiego okresu "banicji". W ciągu 5 lat naukowcy obserwowali, jak samiec podąża w pewnej odległości za stadem i sekretnie spotyka się z niektórymi byłymi sprzymierzeńcami. Kontakty te były jednak rzadkie. Naprawdę uderzyło nas to, że Foudouko żył na zesłaniu tak długo. Szympansy są bardzo społeczne, dlatego izolacja stanowi olbrzymi stres. Wydawało się, że Foudouko chciał wrócić na łono stada. Prymatolodzy sądzą, że miałby szansę, gdyby był bardziej uległy. Zespół podejrzewa, że w dniach poprzedzających śmierć kręcił się w okolicy. Tak czy siak nikt nie zauważył żadnych sygnałów ostrzegawczych, że grupa mogłaby go zabić. Jako przywódca Foudouko był bardzo dominujący. Niewykluczone więc, że młodsze szympansy obawiały się, że mógłby chcieć odzyskać dawną pozycję i zdecydowały się go zaatakować. Młode małpy przewyższały liczebnością obóz sprzymierzeńców dawnego samca alfa. Na ich korzyść działała też szczytowa forma fizyczna. Nawet po śmierci inne małpy obawiały się Foudouko. Przejawiały strach zwłaszcza wtedy, gdy ciało drgało lub przesuwało się w czasie ataków. Gdy stado odeszło, zespół Pruetz pochował samca. Kiedyś szkielet zostanie ekshumowany i poddany badaniu. « powrót do artykułu -
Odkryto 12. jaskinię, w której przechowywano zwoje z Qumran
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Archeolodzy dokonali jednego z najważniejszych od 60 lat odkryć w Qumran. Wykopaliska w jednej z jaskiń dowiodły, że przechowywano w niej zwoje z Drugiej Świątyni. W związku z tym uczeni postulują, by jaskinię tę uznać za 12. w której były słynne zabytki. Wiadomo też, że jaskinia została splądrowana przez Beduinów w połowie ubiegłego wieku. Okrycia dokonali doktorzy Oren Gutfeld i Ahiad Ovadia z Uniwersytetu Hebrajskiego w Jerozolimie oraz doktor Randall Price i jego studenci z Liberty University w USA. Po raz pierwszy od 60 lat znaleziono nową jaskinię ze zwojami i przeprowadzono w niej profesjonalne wykopaliska. W niszach i tunelu na końcu jaskini znaleziono dzbany, w których składowano zwoje, i ich pokrywy. Wszystkie dzbany były rozbite, ich zawartość ukradziono. Archeolodzy znaleźli też dwa kilofy. Okazało się, że pochodzą one z lat 50. ubiegłego wieku, wówczas zatem doszło do splądrowania jaskini. Byliśmy najbliżej od 60 lat odkrycia nowych zwojów z Morza Martwego. Dotychczas powszechnie uważano, że zwoje z Qumran znajdowały się w 11 jaskiniach. Teraz wiemy, że istnieje 12. jaskinia. Jej odkrycie oznacza, że nie możemy być pewni, iż zwoje znad Morza Martwego, które za pośrednictwem Beduinów trafiły na rynek, pochodzą z jaskiń od 1 do 11 - mówi doktor Gutfeld. Uczeni są pewni, że w dzbanach znajdowały się słynne zwoje, gdyż w jaskini znaleziono też kawałek pergaminu, który był przygotowany do pisania na nim, skórzany pasek, którym zwoje były wiązane, materiał, w który zwoje zawijano i wiele innych przedmiotów, wskazujących ponad wszelką wątpliwość, co znajdowało się w jaskini. Ponadto odkryto tam również groty strzał, pieczęć wykonaną z kamienia półszlachetnego i ostrza. Archeolodzy stwierdzili, że jaskinia była używana od chalkolitu do neolitu. Odkrycie nowej jaskini pokazuje również, że przed archeologami jest jeszcze wiele pracy. Niewykluczone bowiem, że istnieją jaskinie zawierające wiele bezcennych zabytków. Ciągle ścigamy się ze złodziejami. Izrael musi przeznaczyć odpowiednie środki i rozpocząć, we współpracy z lokalnymi mieszkańcami, operację systematycznych wykopalisk we wszystkich jaskiniach na Pustyni Judzkiej - mówi Israel Hasson, dyrektor generalny Izraelskiej Służby Starożytności. « powrót do artykułu -
Google, Mozilla, Cloudfare oraz badacze z dwóch uniwersytetów skrytykowali producentów oprogramowania antywirusowego za przechwytywanie ruchu HTTPS. Działania takie mogą bowiem narażać użytkowników na niebezpieczeństwo. Programy antywirusowe nie mają domyślnie dostępu do ruchu HTTPS. Jednak ich producenci obchodzą ten problem instalując własne certyfikaty root, dzięki czemu ich programy mogą analizować szyfrowany ruch pod kątem bezpieczeństwa. Metoda ta jest często stosowana, jednak jej krytycy mówią, że sposób, w jaki przechwytywany jest ruch HTTPS nie tylko zmniejsza bezpieczeństwo użytkownika, ale wiąże się z wprowadzeniem nowych luk. Badacze przeanalizowali 8 miliardów bezpiecznych połączeń z serwerami aktualizacji Firefoksa, witrynami sklepów internetowych oraz siecią Cloudflare. Stwierdzili, że oprogramowanie antywirusowe przechwyciło 4% ruchu do serwerów Firefoksa, 6,2% ruchu do sklepów i 10,9% połączeń z Cloudflare. Zbadano także wpływ przechwycenia ruchu na bezpieczeństwo połączenia. Okazało się, że 97% przechwyconych połączeń do serwerów Mozilli stało się mniej bezpiecznych. Problem ten dotknął tez 32% połączeń do sklepów i 54% połączeń do Cloudflare. Przechwycone połączenia nie tylko wykorzystywały słabsze algorytmy szyfrujące, ale 10-40 procent wspierało algorytmy, które zostały już złamane, co pozwala na przeprowadzenie ataków typu man-in-the-middle, przechwycenie, osłabienie i odszyfrowanie połączenia - czytamy w raporcie. Społeczność zajmująca się bezpieczeństwem od dawna wiedziała, że programy antywirusowe przechwytują połączenia HTTPS, ale problem był ignorowany, gdyż sądziliśmy, że dotyczy on niewielkiego odsetka połączeń. Okazuje się jednak, że przechwytywanie jest zdumiewająco szeroko rozpowszechnione i może mieć negatywne konsekwencje - dodają autorzy analizy. « powrót do artykułu
-
Źródło dużych grup fotonów – pierwszy fotonowy "scalak"
KopalniaWiedzy.pl dodał temat w dziale Technologia
Holograficzna pamięć atomowa, wymyślona i skonstruowana przez fizyków z Wydziału Fizyki Uniwersytetu Warszawskiego, jest pierwszym urządzeniem zdolnym na żądanie generować pojedyncze fotony w grupach liczących po kilkadziesiąt i więcej sztuk. Zademonstrowany przyrząd w praktyce usuwa kolejną fundamentalną przeszkodę na drodze do budowy jednej z odmian komputerów kwantowych. Całkowicie bezpieczne, kwantowe łącza o dużej przepustowości, a nawet konstrukcja jednej z odmian komputerów kwantowych – to możliwe zastosowania nowego źródła pojedynczych fotonów, zbudowanego na Wydziale Fizyki Uniwersytetu Warszawskiego (FUW). Niespotykaną do tej pory cechą właśnie zaprezentowanego urządzenia jest to, że po raz pierwszy pozwala ono na żądanie wyprodukować nie pojedynczy foton, a ich dużą, precyzyjnie kontrolowaną grupę. W stosunku do dotychczasowych rozwiązań i pomysłów nasz przyrząd charakteryzuje się znacznie większą wydajnością i skalą integracji. W sensie funkcjonalnym można nawet o nim myśleć jak o działającym na pojedynczych fotonach pierwszym odpowiedniku małego układu scalonego - mówi dr hab. Wojciech Wasilewski (FUW), jeden ze współautorów publikacji w uznanym czasopiśmie fizycznym Physical Review Letters. Pierwsze źródła pojedynczych fotonów powstały jeszcze w latach 70. ubiegłego wieku i choć ich dzisiejsze różne wersje nadal mają wiele wad, pojedyncze fotony można już z powodzeniem stosować np. do realizowania gwarantujących pełną dyskrecję protokołów komunikacji kwantowej. Do wykonywania złożonych obliczeń kwantowych potrzebne byłyby jednak całe grupy fotonów. Najprostsza metoda wytworzenia grup fotonów polega na użyciu odpowiednio dużej liczby źródeł. Rozpowszechnionymi źródłami pojedynczych fotonów są dziś urządzenia wykorzystujące zjawisko spontanicznego parametrycznego podziału częstości (Spontaneous Parametric Down-Conversion, SPDC). W określonych warunkach dochodzi tu do podziału fotonu wygenerowanego przez laser na dwa nowe o energiach dwukrotnie mniejszych i pozostałych cechach wzajemnie powiązanych przez zasady zachowania energii i pędu. Zarejestrowanie jednego fotonu z pary dostarcza więc informacji nie tylko o nim, ale także o istnieniu i cechach drugiego fotonu, niezaburzonego przez obserwację – a zatem idealnie się nadającego do operacji kwantowych. Niestety, każde źródło SPDC wytwarza pojedyncze fotony dość wolno i w sposób czysto przypadkowy. W efekcie na jednoczesną emisję z zaledwie 10 źródeł trzeba byłoby czekać nawet kilka lat. W 2013 roku zespół brytyjskich fizyków z uniwersytetów w Oksfordzie i Londynie zaproponował znacznie bardziej wydajny protokół wytwarzania grup fotonów. Pomysł polegał na umieszczeniu przy każdym źródle pamięci kwantowej, zdolnej do przechowania wyemitowanego fotonu. Zmagazynowane w pamięciach fotony można byłoby w pewnym momencie jednocześnie uwolnić. Wyliczenia wskazywały, że oczekiwanie na grupę 10 fotonów skracałby się wtedy o oszałamiające dziesięć rzędów wielkości: z lat do mikrosekund! Zaprezentowane na FUW źródło jest pierwszą realizacją opisanego pomysłu, na dodatek znacznie bardziej zintegrowaną: tu wszystkie fotony powstają od razu wewnątrz pamięci kwantowej, w wyniku działania trwającego mikrosekundy impulsu laserowego. Zewnętrzne źródła pojedynczych fotonów przestały być w ogóle potrzebne, a liczba niezbędnych pamięci kwantowych zmalała do zaledwie jednej. Cały nasz układ eksperymentalny zajmuje na stole optycznym powierzchnię mniej więcej dwóch metrów kwadratowych. Wszystkie najważniejsze rzeczy dzieją się jednak w samej pamięci, czyli w cylindrze o długości ok. 10 cm i średnicy 2,5 cm. Ktoś, kto oczekiwałby wewnątrz cylindra wyrafinowanej konstrukcji godnej półprzewodnikowego układu scalonego, byłby jednak mocno rozczarowany. Wnętrze wypełniają jedynie pary rubidu 87Rb, znajdujące się w temperaturze 60-80 stopni Celsjusza - opisuje doktorant Michał Dąbrowski (FUW). Nowa pamięć, zbudowana dzięki grantom PRELUDIUM i SONATA Narodowego Centrum Nauki oraz środkom projektu PhoQuS@UW, jest wielomodowa przestrzennie: poszczególne fotony można umieścić, przechować, przetworzyć i odczytać w różnych obszarach przestrzeni wewnątrz cylindra, pełniących rolę wydzielonych komórek pamięci. Operacja zapisu, wykonywana za pomocą wiązki lasera, w praktyce polega na utrwaleniu w postaci wzbudzeń atomowych pewnego przestrzennego wzorca – hologramu. Oświetlenie układu laserem pozwala odtworzyć hologram i odczytać zawartość pamięci. W przeprowadzonych doświadczeniach nowe źródło generowało grupy fotonów liczące do 60 sztuk. Obliczenia wskazują, że w realistycznych warunkach użycie laserów o większej mocy pozwoliłoby zwiększyć tę liczbę nawet do kilku tysięcy. (Złożoność obliczeń związanych z analizą danych z doświadczeń była tak duża, że do ich wykonania konieczne okazało się użycie mocy obliczeniowej składającego się z 53 tys. rdzeni gridu komputerowego Intrastruktura PL-Grid). Z powodu szumów, strat i innych procesów pasożytniczych trwałość pamięci kwantowej zbudowanej na FUW sięga od kilku do kilkudziesięciu mikrosekund, co w kategoriach ludzkiej percepcji wydaje się wartością bardzo małą. Istnieją jednak układy pozwalające wykonywać na fotonach proste operacje w czasie liczonym w nanosekundach. W nowej pamięci kwantowej na każdym fotonie można byłoby więc przeprowadzić nawet kilkaset operacji, co w zupełności wystarcza do celów kwantowej komunikacji i przetwarzania informacji. Działające źródło dużych grup fotonów to istotny krok na drodze do skonstruowania jednej z odmian komputera kwantowego, zdolnego przeliczać pewne zagadnienia w czasie wielokrotnie krótszym niż najlepsze współczesne maszyny liczące. Już kilkanaście lat temu wykazano bowiem, że wykonując na fotonach proste operacje z zakresu optyki liniowej można otrzymać wzrost szybkości charakterystyczny dla obliczeń kwantowych. Złożoność takich obliczeń zależy jednak od liczby jednocześnie przetwarzanych fotonów. Brak źródeł dużych grup fotonów powodował, że dotychczas liniowe komputery kwantowe nie mogły rozwinąć skrzydeł, ograniczając swoje działanie do elementarnych operacji matematycznych. Oprócz obliczeń kwantowych fotonowy "scalak" może znaleźć zastosowania w komunikacji kwantowej. Obecnie realizuje się ją przesyłając światłowodem pojedyncze fotony. Nowe źródło pozwalałoby wprowadzić do światłowodu wiele fotonów jednocześnie, a zatem wielokrotnie zwiększałoby przepustowość łączy kwantowych. « powrót do artykułu