Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    227

Zawartość dodana przez KopalniaWiedzy.pl

  1. W krajach rozwiniętych narzędzia medyczne sterylizuje się często w autoklawach. Co jednak zrobić, by zapobiec zakażeniom tam, gdzie nie ma dostępu do energii elektrycznej? Zespół Naomi Halas i Oary Neumann z Rice University zaproponował solarklaw, który wykorzystuje słońce i właściwości termodynamiczne nanocząstek. Urządzenie Amerykanów składa się m.in. ze zwierciadła wklęsłego i kapsuły z cieczą (rozproszone w wodnym roztworze nanocząstki metali i węgla pełnią funkcję fototermicznych podgrzewaczy). Co istotne, nanocząstki absorbują energię o wiele szybciej od cieczy, przez co powstaje duża różnica temperatury. Ciepło jest transferowane do pobliskich cząsteczek wody i rozpoczyna się parowanie. Proces jest bardzo wydajny, bo 20% energii służy do podniesienia temperatury cieczy, a 80% pozwala uzyskać i podtrzymać wytwarzanie pary. Nanocząstki mogą generować znaczące ilości pary przy temperaturze 70 st. Celsjusza. Podczas eksperymentów udawało się również uzyskać parę po umieszczeniu kapsuły w kąpieli lodowej (temperatura nieznacznie przekraczała zero). Technologię wykorzystano w 2 prototypach: 1) systemie o cyklu zamkniętym, gdzie można wyjaławiać narzędzia medyczne oraz inne dość drobne przedmioty i 2) układzie otwartym, przeznaczonym do sterylizowania odpadów ludzkich i zwierzęcych. Autorzy artykułu z PNAS wyliczyli, że by przetworzyć mocz i odchody 4 dorosłych osób, wystarczy uruchamiać solarklaw 3 razy w tygodniu. Naukowcy przetestowali swój wynalazek na Gram-dodatnich bakteriach Geobacillus stearothermophilus. Są one termofilami - żyją m.in. w gorących źródłach - a mimo to oba solarklawy zabiły w ciągu 30 min wszystkie mikroorganizmy z próbek. Zespół dodaje, że nanocząstki można wykorzystywać wielokrotnie, nie trzeba też dysponować dużą ilością wody.
  2. Organizatorzy corocznej konferencji hakerskiej DEF CON zwrócili się z prośbą do agentów federalnych, by tym razem nie brali w niej udziału. To wyraźny sygnał, jak bardzo popsuły się stosunki pomiędzy społecznością hakerów, cyberaktywistów, specjalistów ds. bezpieczeństwa a agencjami federalnymi odpowiedzialnymi za bezpieczeństwo. Od ponad 20 lat DEF CON był neutralnym gruntem, na którym spotykali się specjaliści ds. bezpieczeństwa informatycznego. Zarówno ci działający w nieformalnych hakerskich grupach, jak i ci zatrudnieni przez FBI czy NSA. W spotkaniach DEF CON brał m.in. udział były prokurator federalny Curtis Karnow, od 1999 roku gościem konferencji jest Jim Christy, dyrektor Cyber Crime Center Pentagonu, a w ubiegłym roku - o czym informowaliśmy - na DEF CON wystąpił dyrektor NSA generał Keith Alexander. O dobrych stosunkach pomiędzy DEF CON a władzami może świadczyć też fakt, że haker Jeff Moss (znany też jako The Dark Tangent), twórca konferencji DEF CON i Black Hat, dołączył w 2009 roku do Homeland Security Advisory Council, gdzie doradza sekretarz ds. bezpieczeństwa narodowego Janet Napolitano w kwestiach bezpieczeństwa komputerowego. Jednak te dobre stosunki zaczęły się psuć po atakach terrorystycznych z września 2001 roku. Wielu osobom nie podobała się polityka administracji George'a Busha i coraz większe ograniczanie swobód obywatelskich. Nadzieję na zmiany wiązali z wyborem prezydenta Obamy. Szybko przekonali się jednak, jak bardzo się pomylili. Czarę goryczy przelały działania administracji wobec Edwarda Snowdena, który ujawnił istnienie programu PRISM. Sprawa Snowdena to tylko jedna z kwestii, które zaczęły pogarszać się za administracji Busha. Później było było nieco lepiej, a wiele osób spodziewało się, że za prezydenta Obamy sprawy się poprawią. To, co się dzieje, przechodzi nasze wyobrażenie - stwierdził jeden z analityków ds. bezpieczeństwa. Na razie nie wiadomo, na ile twórcy DEF CON są zdeterminowani, by na konferencji nie pojawił się żaden przedstawiciel agencji bezpieczeństwa.
  3. Satelita Interstellar Boundary Explorer (IBEX) odkrył heliowarkocz, czyli ogon Układu Słonecznego. Jego istnienie było postulowane od dawna, gdyż każdy obiekt, poruszający się przez jakiś ośrodek, powinien spowodować pojawienie się ciągnącego się za nim strumienia cząsteczek. Dotychczas jednak nie zaobserwowano ogona heliosfery. Teraz naukowcy z NASA, łącząc dane z trzyletnich obserwacji prowadzonych przez IBEX stworzyli mapę heliowarkocza. Składa się on z wiatru słonecznego i pola magnetycznego. Wiatr słoneczny rozchodzi się we wszystkich kierunkach od Słońca, a następnie jest zaginany wzdłuż heliwarkocza przez ciśnienie gazu międzygwiezdnego oraz pole magnetyczne. Warkocz, obserwowany od czoła, przypomina czterolistną koniczynę. Dwa boczne "liście" tworzą wolno poruszające się cząsteczki, "liście" górny i dolny składają się z szybkich cząsteczek. Taki rozkład jest zgodny ze sposobem emitowania cząsteczek przez Słońce. Wiatr słoneczny wiejący z biegunów gwiazdy porusza się szybciej niż ten uwalniany z równika. "Koniczyna" jest nieco skręcona. To pokazuje, że im większa odległość dzieli cząsteczki od Słońca, a zatem im słabiej oddziałuje na nie jego pole magnetyczne, tym większy wpływ ma pole magnetyczne lokalnej grupy galaktyk, w której się znajdujemy. Długość heliowarkocza wciąż nie jest znana.
  4. Niemowlęta, którym zaczyna się podawać pokarmy stałe przed 4. i po 6. miesiącu życia, są bardziej zagrożone cukrzycą typu 1. Naukowcy z Uniwersytetu Kolorado w Denver odkryli także, że ryzyko cukrzycy spada, gdy wprowadzając do diety pokarmy stałe, zwłaszcza jęczmień bądź pszenicę, matka nadal karmi dziecko piersią. U dzieci, którym zaczęto podawać pokarmy stałe przed 4. miesiącem życia, ryzyko rozwoju cukrzycy typu 1. jest niemal 2-krotnie wyższe niż u maluchów, które zaczęły je spożywać dopiero w 4. bądź 5. m.ż. - opowiada dr Jill Norris. Naukowcy przyglądali się dzieciom ze stanu Kolorado z grupy podwyższonego genetycznego ryzyka cukrzycy typu 1. Odnotowywano, kiedy w diecie pojawiały się pokarmy stałe, jaki był ich skład i czy dziecko zachorowało na cukrzycę. Zespół zauważył, że zagrożenie cukrzycą typu 1. może być wyższe u dzieci jedzących pierwsze owoce przed 4. m.ż. Sprawy wydają się wyglądać podobnie w przypadku maluchów karmionych pierwszymi posiłkami z ryżu lub owsa po 6. m.ż. Norris podkreśla, że zagadnienia te wymagają dogłębniejszego zbadania.
  5. Naukowcy próbują dowiedzieć się, w jaki sposób fragmenty sfinksa poświęconego jednemu z faraonów trafiły do Izraela. Na północy kraju wykopano fragmenty posągu dedykowanego Mykerinosowi. Faraon władał Egiptem około 2500 roku p.n.e. Jest twórcą najmniejszej z trzech wielkich piramid w Gizie, w której spoczął. Archeolodzy mówią, że znalezisko jest wyjątkowe. To jedyny monumentalny egipski posąg znaleziony kiedykolwiek w Lewancie, który obejmuje dzisiejsze Izrael, Liban i Syrię. To także jedyny znany sfinks poświęcony temu właśnie władcy. Nawet w Egipcie nigdy nie znaleziono dedykowanego mu sfinksa - mówi profesor Amnon Ben-Tor z Uniwersytetu Hebrajskiego. Na podstawie odkrytych fragmentów naukowcy szacują, że rzeźba miała wymiary 152x50 cm. Jest mało prawdopobodne, by trafiła ona na północ obecnego Izraela za życia Mykerinosa. Pojawiły się już teorie wyjaśniające znalezisko. Według jednej z nich sfinks został zabrany z Egiptu przez Kananejczyków, którzy plądrowali Dolny Egipt. Z kolei profesor Ben-Tor uważa, że sfinks został wysłany przez jednego z faraonów jako prezent dla władcy Chasor (Tel Hazor), jednego z ważniejszych miast Kanaanu.
  6. Dzięki wydalanym przez dżdżownice ziemne (Lumbricus terrestris) grudkom węglanu wapnia, które zachowują pamięć temperatury formowania, będzie można uzyskać istotne informacje na temat przeszłego klimatu. W artykule z pisma Geochmica et Cosmochimica Acta naukowcy z Uniwersytetu w Reading i University of York podkreślają, że granulki węglanu wapnia powszechnie występują na stanowiskach archeologicznych. "Kredowe kulki pozwolą nam odtworzyć temperatury z przedziałów czasowych, w których się tworzyły. Takie rekonstrukcje są interesujące dla archeologów, ponieważ umieszczają ich znaleziska w kontekście klimatycznym" - opowiada dr Emma Versteegh z Wydziału Geografii i Nauk o Ziemi Uniwersytetu w Reading. Dane z grudek pozwolą odtworzyć klimat sprzed okresu pomiarowego, ale można je też będzie wykorzystać do poprawy i przetestowania modeli zmiany klimatu. W 3-tygodniowym okresie aklimatyzacyjnym dżdżownice hodowano w jednej z dwóch gleb, a glebę nawilżano jedną z 3 wód mineralnych. Dodatkowo ustawiano jedną z 3 temperatur: 10, 16 lub 20°C. Później L. terrestris przeprowadzano na miesiąc do terrariów z identycznymi warunkami. Próbki grudek pobierano dopiero z gleby nr 2. Wartości δ18O dla grudek (δ18Oc) porównano z wartościami dla roztworu glebowego (δ18Ow). Okazało się, że δ18Oc odzwierciedlały δ18Ow. Warto dodać, że wartości δ18O dla węglanu wapnia są kontrolowane przez temperaturę i skład izotopowy wody, a wiek grudek można określić metodą nierównowagi w szeregu uranowo-torowym. Istnieje wiele sprzecznych teorii nt. przyczyn produkowania przez dżdżownice grudek kalcytu. Dotąd [...] postrzegano je jako biologiczne kuriozum, jednak nasze badania pokazują, że mogą odegrać ważną rolę, dając wgląd w przeszłe klimaty - wyjaśnia prof. Mark Hodson z Wydziału Środowiska University of York. Dr Stuart Black, archeolog z Reading, uważa, że grudki dżdżownic są lepsze od innych biologicznych proxy klimatycznych. Po pierwsze, działają w pełnym zakresie temperaturowym pór roku, a np. wzory słojów drzew nie zapewniają zapisu zimowego. Po drugie, ponieważ są one odkrywane w bezpośrednim otoczeniu znalezisk archeologicznych, ujawniają temperaturę w tej samej lokalizacji. Obecnie prowadzi się wnioskowanie w oparciu o bardzo oddalone niekiedy proxy.
  7. Zespół 19 naukowców i inżynierów przekazał NASA swój raport dotyczący założeń misji oraz łazika, który w 2020 roku ma trafić na Marsa. Grupa Mars 2020 Science Definition Team pracowała na zlecenie NASA od stycznia bieżacego roku. W 154-stronicowym raporcie [ZIP] uznano, że przyszły łazik powinien szukać śladów życia, zbierać próbki z założeniem, że zostaną one przesłane na Ziemię oraz przetestować technologie potrzebne do ludzkiej eksploracji Czerwonej Planety. Raport będzie podstawą, na której, jeszcze w bieżącym roku, NASA rozpisze konkurs na dostarczenie podzespołów i instrumentów naukowych dla łazika. Pojazd ma być podobny do Curiosity, który wylądował na Marsie na początku sierpnia ubiegłego roku. Wykorzystanie projektu Curiosity pozwoli na zmniejszenie ryzyka i kosztów misji. Od drugiej połowy lat 90. NASA wykonuje misje, których jednym z głównych założeń jest badanie Marsa pod kątem poszukiwania warunków, które umożliwiały w przeszłości na istnienie życia. Obecnie wiemy, że takie warunki na Marsie istniały. Jeszcze zanim nowy łazik trafi na powierzchnię Czerwonej Planety, NASA przeprowadzi dwie inne marsjańskie misj. Już w listopadzie bieżącego roku w jej kierunku poleci MAVEN (Mars Atmosphere and Volatile Evolution Mission), której celem będzie zbadanie górnej atmosfery i jonosfery Marsa oraz obserwacja ich interakcji ze słońcem i wiatrem słonecznym. Z kolei w 2016 roku rozpocznie się - o czym już informowaliśmy - misja InSight. W jej ramach na powierzchni Marsa zostaną umieszczone stacjonarne urządzenia, które będą badały wnętrze planety. Misja Mars 2020 dostarczy odpowiedzi na podstawowe pytania związane z możliwością pojawienia się i utrzymania życia w Układzie Słonecznym. Dzięki niej powstaną techniki pozyskiwania i badania wysokiej jakości próbek oraz podstawy do opracowania metod ich dostarczenia na Ziemię - mówi Jim Green, dyrektor NASA Planetary Science Division. Badania przeprowadzone przez łazik pomogą w zaprojektowniu urządzeń potrzebnych do załogowej eksploracji Marsa, umożliwią zidentyfikowanie zagroźeń stwarzanych przez pył na Czerwonej Planecie oraz posłuża do przetestowania technologii pozyskiwania dwutlenku węgla, który może zostać wykorzystany jako paliwo i źródło tlenu. Niezwykle ważny będzie też test nowych technologii precyzyjnego lądowania.
  8. Media zdobyły nieco szczegółów na temat największej w dziejach Microsoftu reorganizacji firmy. Zmiany zostaną prawdopodobnie oficjalnie ogłoszone pod koniec bieżącego tygodnia. Głównym autorem zmian organizacyjnych koncernu jest Steve Ballmer, który konsultował je z wąską grupą współpracowników. Duży wpływ na kształt zmian miał podobno dyrektor wykonawczy Forda Alan Mulally. Ballmera łączą z nim nie tylko związki biznesowe, ale również towarzyskie. Mulally cieszy się w środowisku dużym poważaniem, gdyż to świetny menedżer, który wyciągnął Forda z kłopotów. Sam Ballmer zna też przemysł motoryzacyjny, gdyż pochodzi z Detroit, a jego ojciec przez lata był menedżerem w Fordzie. Nie wszystkie szczegóły restrukturyzacji są znane, jednak wiadomo, że struktura firmy zostanie uproszczona. Obecnie koncern składa się z 7 wydziałów. Są to Windows i Windows Live, Windows Phone, MS Office, Online Services, Servers and Tools, Business Solutions oraz Interactive Entertainment. Każdy z nich ma własny wydział marketingu. Po zmianach wydziałów będzie mniej i już same ich nazwy będą wskazywały, czym się zajmują. Po reorganizacji w Microsofcie pozostaną wydziały Windows, Hardware, Software, Cloud and Business Product (będzie się on zajmował m.in. Windows Serverem, Sharepointem, SQL Serverem). Powstanie też osoby wydział marketingu. Dla większości obecnych szefów działów Microsoftu zmiany oznaczają awans. Najwyżsi rangą menedżerowie, tacy jak Kevin Turner, Brad Smith czy Lisa Brummel pozostaną na dotychczasowych stanowiskach. Nie wiadomo, co stanie się z Kurtem Delbene'em obecnym prezesem działu MS Office oraz Kiryłem Tatarinowem, prezesem działu Business Solutions. Albo odejdą z Microsoftu albo też będą podlegali osobom zarządzającym nowymi wydziałami. Na razie trudno wyrokować, jaki będzie efekt tak poważnych zmian. Można już wyciągać jednak pewne wnioski. Przede wszystkim wydaje się, że inwestorzy mogą stracić powód do skarg na przynoszące straty wydziały. Na przykład dotychczas przynosząca straty przeglądarka Bing była w dziale Online Services. Niecierpliwym inwestorom nie podobało się, że firma do niej dokłada. Jednak, jako że jej rozwój jest niezwykle ważny dla przyszłości koncernu, kierownictwo Microsoftu nie zamierza z niej rezygnować. Teraz Bing trafi do działu Software, w skład którego wejdzie też niezwykle dochodowy MS Office. To pozwoli niejako "ukryć" straty Binga. Zmiany przyczynią się też do zwiększenia władzy Steve'a Ballmera. Jednak, na co już zwracają uwagę specjaliści, Ballmer nie odpowiedział na kluczowe pytanie. Wciąż nie wiadomo, kto może zostać jego następcą. Przeprowadzone zmiany nie wskazują jednoznacznie na nikogo takiego. Nie wiadomo też, jak zmiany wpłyną na ofertę Microsftu. Jeden z pracowników firmy stwierdził, że jeśli chodzi tutaj tylko i wyłącznie o zmiany organizacyjne, a nie o to, by powstawały świetne produkty, to nie ma znaczenia, jakie zmiany Ballmer przeprowadzi. Konsumenci kupują produkty, a nie strukturę organizacyjną.
  9. By zbadać, jak tłum się ewakuuje, naukowcy z Uniwersytetu Essex wykorzystali specjalnie zaprojektowaną grę komputerową, w której uczestnicy odgrywali rolę zombi. Ich zadanie polegało na wejściu i wyjściu z budynku. Wyobraź sobie, że opuszczasz budynek w dużej grupie. Możesz wybierać spośród kilku dróg o podobnej długości. Czy pójdziesz znaną już trasą? Podążysz za innymi czy będziesz ich unikać? Zbadanie tych kwestii ma kluczowe znaczenie dla zrozumienia, jak tłum zachowuje się w trakcie ewakuacji [z zamkniętej przestrzeni] - tłumaczy dr Nikolai Bode z Wydziału Matematyki. W grze Bode'a i dr. Edwarda Codlinga zombi poruszają się po budynku w obecności wirtualnych postaci. W niestresujących warunkach nie ustalano limitu czasu, lecz przy stresującym scenariuszu należało się spieszyć. Okazało się, że gdy można było działać we własnym tempie, ludzie często wybierali inną drogę niż ta, którą przyszli. W stresie podążali znaną trasą, nawet jeśli była ona niedrożna (zaczopowana tłumem innych uciekających). Naukowcy podkreślają, że pod presją gracze nie tylko podejmowali decyzje wydłużające czas ewakuacji, ale i byli mniej skłonni do zmiany zdania. To uderzające stwierdzić, że presja wywierana na ochotników skutkowała kurczowym trzymaniem się znanych tras i spadkiem prawdopodobieństwa dostosowania decyzji do zmieniającej się sytuacji [...] - podkreśla dr Bode. Badanie odbyło się w londyńskim Muzeum Nauki i stanowiło część 3-dniowego festiwalu nt. świadomości ZombieLab.
  10. Wiele gatunków kręgowców ewoluuje zbyt wolno, by mogły przystosować się do zmian środowiskowych, które mogą zajść w ciągu najbliższych 100 lat. Profesor John J. Wiens z University of Arizona stwierdził, że część z tych zwierząt musiałaby ewoluować 10 000 razy szybciej niż w przeszłości, by poradzić sobie z nadchodzącymi zmianami. Zespól Wiensa badał w jaki sposób przedstawiciele 540 obecnie żyjących gatunków kręgowców reagowali w przeszłości na zmiany klimatyczne. Następnie dane o tempie ich ewolucji porównywano z przewidywanymi zmianami, jakie mają zajść w ciągu 100 lat. Każdy gatunek ma swoją niszę klimatyczną, na którą składają się temperatury i wilgotność. Może on żyć w tej niszy. Niektóre gatunki występują tylko w tropikach, inne w obszarach o niższej temperaturze, jeszcze inne w górach, a inne na pustyniach - mówi Wiens. Odkryliśmy, że średnie tempo przystosowywania się gatunków do zmian klimatycznych wynosi około 1 stopień Celsjusza na milion lat. Jeśli jednak globalne temperatury wzrosną w ciągu najbliższych 100 lat o 4 stopnie, a tak przewiduje IPCC, to będziemy mieli do czynienia z olbrzymią różnicą pomiędzy tempem wzrostu temperatury a tempem przystosowywania się zwierząt. Uważamy, że w przypadku wielu gatunków sama ewolucja nie wystarczy - dodaje. Gatunki mogą przystosowywać się do zmian klimatycznych na drodze aklimatyzacji, bez zmian ewolucyjnych. Mogą też przenieść się na obszary, gdzie panują odpowiadające im warunki. Wcześniejsze badania sugerują jednak, że wiele gatunków nie będzie w stanie zmienić miejsc swojego występowania. Zmieniają bowiem swój zasięg zbyt wolno, trudno im dotrzeć do obszarów, których nie zdewastował człowiek, musza pod drodze omijać zaludnione obszary. Mogą tez zwyczajnie nie mieć, gdzie się przenieść. Gatunek zamieszkujący szczyty gór nie będzie mógł wejść wyżej.
  11. Naukowcy z Uniwersytetu Adelajdy odkryli, że przyczyną niepłodności niektórych kobiet może być niedobór makrofagów. Wpływają one na produkcję progesteronu, który m.in. przygotowuje błonę śluzową macicy do zagnieżdżenia zapłodnionego jaja. Podczas poczęcia w jajnikach i macicy znajduje się dużo makrofagów. Zaczynając badania, zespół dr Sarah Robertson podejrzewał, że chronią one tutejsze tkanki przed infekcją lub że dbają o to, by organizm matki nie odrzucił embrionu zawierającego męski materiał genetyczny. Okazało się jednak, że gdy po wyeliminowaniu makrofagów transgeniczne myszy stawały się niepłodne, nie dochodziło do dysfunkcji immunologicznej, lecz hormonalnej. Makrofagi organizują rozwój sieci naczyń krwionośnych ciałka żółtego. Kiedy się je wyeliminuje, corpus luteum jest nieprawidłowe i krwotoczne - pełne krwi. Niewystarczająca liczebność makrofagów prowadzi do zmniejszonej produkcji progesteronu, co skutkuje słabym zagnieżdżeniem embrionu lub całkowitym brakiem implantacji (później manifestuje się to jako poronienie). Robertson i inni odkryli, że gdy gryzoniom wstrzyknięto progesteron lub makrofagi, zapłodnione jajo znowu mogło się prawidłowo zagnieździć. W całości usunęliśmy defekt [...]. To pokazało nam, że niepłodność można było w całości przypisać wadliwemu ciałku żółtemu, a w konsekwencji niedoborowi progesteronu. Australijczycy dodają, że w angiogenezie, która umożliwia szybki wzrost ciałka żółtego, szczególną rolę wydają się odgrywać makrofagi typu M2. Remodelującą tkanki funkcję makrofagów udokumentowano wcześniej u płodów i w guzach, jednak ciałko żółte to pierwszy przypadek, kiedy analogiczne zjawiska zaobserwowano w normalnym dorosłym organizmie. Czynniki środowiskowe, takie jak infekcja, otyłość i stres, przyczyniają się do [rozwoju] odpowiedzi zapalnej i oddziałują na powstawanie oraz funkcje makrofagów u kobiet. [Nietrudno się domyślić], że ma to wpływ na zdolność makrofagów do podtrzymania ciąży. Robertson podkreśla, że jeśli doniesienia z laboratorium zostaną potwierdzone u ludzi, w przyszłości, zamiast od razu podawać kobietom z zaburzeniami płodności progesteron, będzie można zacząć terapię od zmiany trybu życia i diety (wcześniej udokumentowano ich wpływ na poziom makrofagów).
  12. Ziemski klimat może szybciej niż dotychczas sądzono powrócić do równowagi po okresie zwiększonej emisji dwutlenku węgla. Badania ocieplenia sprzed 93 milionów lat wykazały, że powrót do równowagi zajął Ziemi 300 000 lat. W późnej kredzie doszło do trwających przez ponad 10 000 lat erupcji wulkanicznych. Każdego roku do atmosfery trafiało około 10 gigaton CO2, czyli trzykrotnie mniej niż obecnie emituje ludzkość. Naukowcy z Oxford Univeristy badali skały, by sprawdzić, jak chemiczne wietrzenie skał przyczyniało się do zrównoważenia klimatu. W procesie chemicznego wietrzenia CO2 rozpuszczony w kroplach deszczu reaguje ze skałami, rozpuszczając je. Następnie spływa on do oceanów, gdzie znaczna jego część zostaje uwięziona w ciałach organizmów morskich. Naukowcy chcieli sprawdzić swoją teorię, zgodnie z którą, im bardziej bardziej atmosferyczny CO2 przyczynia się do ogrzania planety, tym szybciej zachodzi wietrzenie chemiczne, co z kolei powoduje, że więcej dwutlenku węgla trafia do oceanów gdzie zostaje on uwięziony. Proces przyspiesza tak długo, aż - po przerwaniu emisji CO2 - planeta zaczyna się ochładzać. Badania przeprowadzone m.in. w okolicach Eastbourne i w North Lincolnshire wykazały, że w badanym okresie rzeczywiście chemiczne wietrzenie przyspieszyło, co pozwoliło Ziemi na ochłodzenie się i ustabilizowanie klimatu. Cały proces trwał 300 000 lat, czyli czterokrotnie szybciej niż dotychczas sądzono. Prowadzenie takich badań, to jakby zastanawianie się, co by się stało, gdyby ludzie jutro zniknęli. Emisja wulkaniczna z tamtego okresu jest podobna, chociaż niższa, do obecnej emisji powodowanej przez człowieka. Możemy zatem wyobrazić sobie scenariusz, w którym, po przerwaniu ludzkiej emisji, klimat planety zaczyna się ochładzać. Zła wiadomość jest taka, że potrwałoby to około 300 000 lat - powiedział doktor Philip Pogge von Strandmann. Badania chemicznego wietrzenia są trudne, gdyż rośliny i zwierzęta również usuwają węgiel ze środowiska. Uczeni z Oxfordu wykorzystali zatem niedawno opracowaną technikę badania izotopów litu w wapieniach. Obecny tam lit pochodzi tylko i wyłącznie z wietrzenia i nie jest zmieniany przez organizmy. Podczas wspomnianego okresu ocieplenia temperatura wód wokół równika wzrosła o około 3 stopnie Celsjusza. Wyginęło 53% gatunków morskich. Pochodzące z wietrzenia składniki odżywcze przyczyniły się do zwiększenia liczebności niektórych gatunków żyjących w pobliżu powierzchni ocenów. Jednocześnie doprowadziło to do braku tlenu w głębszych partiach wód, śmierci ponad połowy gatunków i pojawienia się martwych stref rozkładających się roślin i zwierząt. Nie chcielibyśmy powtórki z takich wydarzeń. Nasze badania przynoszą dobre wieści. Pokazaliśmy, że Ziemia może odzyskać równowagę czterokrotnie szybciej niż sądzono, ale jeśli nawet już dzisiaj przerwalibyśmy całą emisję, to powrót do równowagi potrwa setki tysięcy lat. Musimy szybko coś zrobić, by usunąć CO2 z atmosfery, jeśli nie chcemy być świadkami podobnego masowego wymierania, jakie w przeszłości było spowodowane przez globalne ocieplenie - mówi von Strandmann.
  13. Badania na hodowlach komórkowych i na modelu mysim wykazały, że komórki raka jelita grubego wytwarzają duże ilości siarkowodoru. Od tego związku zależy ich wzrost i przetrwanie. Kochają siarkowodór i są od niego zależne. [...] Nasze dane pokazują, że wykorzystują H2S do produkcji energii, podziałów, wzrostu i opanowywania organizmu gospodarza - wyjaśnia prof. Csaba Szabo z University of Texas Medical Branch (UTMB). Amerykanie wpadli na trop wzmożonego wytwarzania siarkowodoru, przyglądając się β-syntazie cystationinowej (CBS). W komórkach raka jelita grubego powstaje jej o wiele więcej niż w zdrowej tkance, a skądinąd wiadomo, że CBS katalizuje przemianę cysteiny do mleczanu, amoniaku i siarkowodoru. Podczas eksperymentów okazało się, że po chemicznym zablokowaniu aktywności CBS doszło do upośledzenia wzrostu komórek nowotworowych (nie wpłynęło to na wzrost prawidłowych komórek). Analogiczne rezultaty uzyskano, przeszczepiając myszom ludzkie komórki raka jelita grubego. Bez siarkowodoru guzy rosły o wiele wolniej. Naukowcy odnotowali także znaczący spadek angiogenezy (guzy nie mogły wytworzyć wokół siebie sieci nowych naczyń, by zadbać o dopływ odpowiedniej ilości tlenu i składników odżywczych). Badacze zaznaczają, że gdy na Ziemi nie było jeszcze tlenu, życiodajnym gazem pozostawał właśnie H2S. Produkując siarkowodór, komórki raka jelita grubego "odkurzają" ten stary mechanizm. Nasze badania wskazują na CBS jako nowy cel w terapii nowotworów - podsumowuje prof. Mark Hellmich.
  14. Kilka firm biotechnologicznych, w tym niesławne Monsanto, pracuje nad technikami zwalczania pewnego pasożyta pszczoły miodnej. Specjaliści mają nadzieję, że w znaczącym stopniu polepszy to sytuację pszczół i zapobiegnie dalszym, obserwowanym na całym świecie, spadkom populacji tych zwierząt. Przyczyny wymierania pszczół są najprawdopodobniej bardzo złożone. Mówi się o ich złym żywieniu przez hodowców, o negatywnym wpływie pestycydów, o wirusach, ale jeden z problemów wydaje się uniwersalny. Jest nim obecność pajęczaka Varroa destructor, który żywi się krwią pszczelich larw. Biolog molekularny Alan Bowman z University of Aberdeen mówi, że kolonie pszczół są w stanie poradzić sobie z wieloma przeciwnościami, ale w obecności pajęczaka są bezbronne. Varroa destructor nie tylko wpływa na wzrost kolejnego pokolenia, ale osłabia pszczoły, czyniąc je bardziej podatne na działanie wirusów. Pszczoły mogą przetrwać zarażenie tymi wirusami, jednak w obecności Varroa stają się one śmiercionośne - mówi Bowman. Pajęczaka można zwalczać odpowiednimi środkami chemicznymi, jednak istnieje niebezpieczeństwo, że organizm zyska na nie oporność, a dostępnych jest niewiele chemikaliów, które zabijają pajęczaka i oszczędzają pszczoły. Trudność w opracowaniu nowych środków polega na tym, że Varroa i pszczoły są dość blisko spokrewnione. W 2011 roku Monsanto kupiło izraelską firmę Beeologics. Izraelczycy pracują nad molekułą RNA, która miałaby być podawana pszczołom wraz ze słodką wodą. Pomysł polega na tym, że gdy pszczoły opiekujące się jajami złożonymi przez królową, dostarczą wodę do każdej komórki plastra, w której znajduje się jajo, to larwa, po wykluciu, będzie żywiła się tą wodą. Wchłonie w ten sposób nieszkodliwą dla siebie molekułę RNA. Gdy nastepnie Varroa destructor zacznie pasożytować na larwie, do organizmu pajęczaka trafi zabójcza dlań molekuła, która wyciszy lub wyłączy ekspresję wybranych genów. Co ważne, molekuła ta nie będzie przekazywana pomiędzy pokoleniami. To nie jest organizm zmodyfikowany genetycznie - wyjaśnia Bowman. Monsanto poinformowało o zidentyfikowaniu kilku miejsc w genomie Varroa destructor, które można będzie wykorzystać do zabicia pasożyta. Geny związane z reprodukcją, składaniem jaj lub też z podstawowymi codziennymi czynnościami byłyby dobrym celem do zaatakowania, pod warunkiem, że wystarczająco różnią się od genów pszczół - mówi Greg Heck z Monsanto. Metoda wykorzystująca mediator interferencji RNA jest niezwykle obiecująca dlatego, że zabójcze RNA musi dokładnie pasować do genu, którego ekspresję należy wyciszyć. Naukowcy zsekwencjonowali już cały genom pszczoły i część genomu pasożyta, zatem znalezienie odpowiedniego miejsca dla mediatora nie powinno być trudne. Inne firmy próbują podobnego, chociaż odmiennego podejścia. Brytyjska firma Vita nawiązała ostatnio współpracę z University of Aberdeen oraz brytyjską National Bee Unit i pracuje nad mediatorem interferencji RNA dla pszczół. Miałby on uodparniać owady na ataki pajęczaka. To również obiecujące podejście. Podobne badania prowadzone są przez amerykański Departament Rolnictwa, w którym stosuje się klasyczną metodę - hodowane są pszczoły selekcjonowane spośród tych owadów, które lepiej radzą sobie z pasożytem. Sukces niektórych z nich polega po prostu na tym, że lepiej oczyszczają ule z pajęczaków.
  15. Chorzy z depresją kliniczną częściej stawiają sobie trudniejsze do osiągnięcia abstrakcyjne cele. Zespół dr Joanne Dickson z Uniwersytetu w Liverpoolu poprosił ludzi z depresją i zdrowych o sporządzenie listy celów do osiągnięcia w krótkiej, średniej i długiej perspektywie czasowej. Później psycholodzy je skategoryzowali, wyodrębniając cele globalne/abstrakcyjne (np. być szczęśliwym) i specyficzne (np. poprawić latem czas w biegu na 8 km). Okazało się, że choć obie grupy podawały taką samą liczbę celów, to cele pacjentów z depresją były bardziej ogólne i bardziej abstrakcyjne. Dodatkowo naukowcy zauważyli, że odnosząc się do przyczyn osiągania bądź nie własnych celów, osoby z depresją częściej wymieniały niespecyficzne powody. Niespecyficzne cele mogą podtrzymywać, a nawet nasilać depresję. Są one bardziej dwuznaczne, dlatego trudniej je zwizualizować. Mając problem z wyobrażeniem, ludzie często w mniejszym stopniu spodziewają się zrealizowania takich zamierzeń. Przez to spada motywacja, by w ogóle spróbować. Wiemy, że depresja wiąże się z negatywnymi myślami i tendencją do nadmiernego uogólniania, zwłaszcza w odniesieniu do siebie i własnych wspomnień. Jako pierwsi sprawdzaliśmy, czy drugie z wymienionych zjawisk ujawnia się również w celach osobistych. Odkryliśmy, że w celach chorych z kliniczną depresją brakowało ostrości, przez co stawały się one trudniejsze do osiągnięcia. Wszystko to napędzało spiralę depresyjną. Dickson uważa, że podczas terapii należy pomagać chorym z depresją formułować bardziej specyficzne cele. Dodatkowo konkretne uzasadnienia zwiększałyby szanse ich zrealizowania i wyłamania się z błędnego koła negatywnych myśli [...].
  16. Naukowcy z Izraelskiego Instytutu Technologii Technion opracowali elastyczny czujnik, który w przyszłości można będzie zintegrować ze sztuczną skórą. Taka skóra, po umieszczeniu jej na protezie, pozwalałby pacjentowi znowu odczuwać zmiany w środowisku. Izraelczycy połączyli złoto z żywicą, dzięki czemu powstał czujnik, który jednocześnie odbiera trzy rodzaje danych - dotyk, wilgotność i temperaturę. Profesor Hossam Haick zapewnia, że nowy sytem jest co najmniej 10-krotnie bardziej czuły na dotyk, niż inne systemy bazujące na koncepcji elektronicznej skóry. Czujniki gotowe do zintegrowania ze sztuczną skórą muszą spełniać szereg warunków. Powinny zużywać niewiele prądu, rejestrować szeroki zakres nacisku, być w stanie zebrać w jednym momencie kilka rodzajów danych. Powinny być też łatwe i tanie w produkcji. Izraelczycy wyprodukowali taki właśnie czujnik. Składa się on z nanocząsteczek złota o średnicy 5-8 nanometrów. Cząsteczki połączone są za pomocą organicznych ligand. Naukowcy odkryli, że po umieszczeniu takiej warstwy na substracie - w tym wypadku był to poli(tereftalan etylenu) - przewodnictwo czujnika zależy od tego, jak został wygięty. To oznacza, że może pracować w bardzo dużym zakresie nacisku - od dziesiątków miligramów do dziesiątków gramów - i odróżniać stopień nacisku. Czułością całości można manipulować odpowiednio dobierając grubość czujnika.
  17. U osób śpiewających w chórze dochodzi do zsynchronizowania uderzeń serca, przez co puls rośnie i spada u nich w tym samym czasie. Naukowcy z Uniwersytetu w Göteborgu uważają, że zjawisko to można wykorzystać np. w rehabilitacji. W grudniu zeszłego roku w ramach projektu Kroppens Partitur Szwedzi zebrali grupę piętnaściorga 18-letnich ochotników z Hvitfeltska High School. Akademicy mierzyli rytm serca, gdy chór nucił pojedynczy dźwięk, a także odśpiewywał hymn Härlig är Jorden oraz wolną mantrę. Przy pierwszym ćwiczeniu pozwolono dostosować oddech do własnych potrzeb, w drugim nie udzielano wskazówek, w trzecim można było oddychać wyłącznie między frazami. Okazało się, że melodia i budowa utworów wywierały bezpośredni synchronizujący wpływ na aktywność serca. Śpiewanie reguluje aktywność nerwu błędnego, który bierze udział w naszym życiu emocjonalnym i komunikacji z innymi i który np. oddziałuje na tembr głosu. Utwory z długimi frazami dają ten sam efekt, co ćwiczenia oddechowe w jodze - wyjaśnia szef zespołu Björn Vickhoff. Szwedzi uważają, że śpiew wymaga spokojnego i regularnego oddychania, co z kolei silnie i korzystnie wpływa na zmienność rytmu serca (wyższa zmienność rytmu serca oznacza, że narząd szybciej dostosowuje się do potrzeb; na tej podstawie można wnioskować o sprawności autonomicznego układu nerwowego). W przypadku kontrolowanego oddychania [...] puls spada podczas wydechu [gdy dochodzi do aktywacji nerwu błędnego], by później znów wzrosnąć przy nabieraniu powietrza. Fachowo sprzężenie zmienności rytmu serca - HRV - z oddechem nazywa się niemiarowością zatokową oddechową. Jest ona silniej zaznaczona u osób młodych, które mogą się pochwalić dobrą kondycją fizyczną i nie przeżywają stresu. Nasza hipoteza jest taka, że piosenka to forma regularnego, kontrolowanego oddychania; w końcu wydechy przypadają na frazy, a wdechy robi się między nimi. Autorzy artykułu z Frontiers in Neuroscience dodają, że dotąd wiedziano, że śpiew synchronizuje ruchy mięśni i aktywność nerwową w dużych częściach ciała muzykujących. W przyszłości naukowcy chcieliby ustalić, czy biologiczne dostrojenie chórzystów oznacza uwspólnienie stanu emocjonalno-umysłowego. Jeśli tak, dałoby się to zapewne wykorzystać do zwiększenia zdolności do współpracy.
  18. W przestrzeni kosmicznej w chmurach zimnego gazu, gdzie temperatura nie przekracza -210 stopni Celsjusza, zachodzi reakcja, która nie powinna mieć miejsca. Z powodu niskiej temperatury nie ma tam bowiem wystarczającej ilości energii by zmienić wiązania chemiczne. Jednak badania wykazały, że reakcja, w której powstają niedawno odkryte w kosmosie grupy metoksylowe, odbywa się 50-krotnie szybciej niż w temperaturze pokojowej. Naukowcy przeprowadzili symulację warunków panujących w przestrzeni kosmicznej i odkryli, że reakcja jest możliwa dzięki tunelowaniu. Odpowiedź leży w mechanice kwantowej. Reakcje chemiczne spowalniają wraz ze spadkiem temperatury, gdyż spada ilość dostępnej energii potrzebnej do przekroczenia 'bariery reakcji'. Jednak z praw mechaniki kwantowej wiemy, że problem ten można ominąć i przejść przez barierę zamiast przeskakiwać nad nią. To właśnie jest "tunelowanie kwantowe" - wyjaśnia Dwayne Heard z University of Leeds. Zjawisko tunelowania kwantowego trwa niezwykle krótko, tak krótko, iż bardzo trudno jest je wykorzystać w reakcjach chemicznych. Jednak tutaj z pomocą może przyjść niezwykle niska temperatura panująca w kosmosie. Dzięki niej wydłuża się czas istnienia nietrwałych molekuł, co może sprzyjać zajściu reakcji. Uważamy, że w pierwszej fazie reakcji powstają formy przejściowe, które dzięki wyjątkowo niskim temperaturom istnieją wystarczająco długo by tunelowanie kwantowe miało miejsce - wyjaśnia Heard.
  19. Naukowcy z Uniwersyteckiego College'u Londyńskiego opracowali nową metodę wykrywania guzów nowotworowych - glucoCEST (od ang. glucose chemical exchange saturation transfer). Za pomocą rezonansu magnetycznego (MRI) obrazuje się tu zużycie glukozy. Jak tłumaczą Brytyjczycy, nie trzeba korzystać z radiofarmaceutyków, a zmiany są uwidaczniane bardziej szczegółowo. GlucoCEST bazuje na tym, że by podtrzymać swój wzrost, guzy zużywają więcej glukozy niż zdrowa tkanka (wytwarzając energię, w większym stopniu polegają na beztlenowej glikozie). Metodę przetestowano na mysim modelu raka jelita grubego. Okazało się, że pozwala ona różnicować guzy o odmiennych właściwościach metabolicznych i patofizjologii. GlucoCEST wykorzystuje fale radiowe, by magnetycznie oznakować glukozę w organizmie. Później wykrywa się ją w guzach za pomocą konwencjonalnego MRI. Technika wymaga wstrzyknięcia zwykłej glukozy. To tania i bezpieczna alternatywa dla dotychczasowych metod detekcji guzów [...] - wyjaśnia dr Simon Walker-Samuel. W porównaniu do FDG-PET [pozytonowej emisyjnej tomografii komputerowej z zastosowaniem 18F–fludeoksyglukozy], badanie wychwytu glukozy rezonansem [...] oznacza znaczne obniżenie kosztów, zapewniając przy tym korzyści natury klinicznej - uważają autorzy artykułu z Nature Medicine. Możemy wykryć nowotwór za pomocą ilości cukru z połowy przeciętnej tabliczki czekolady - podkreśla prof. Mark Lythgoe. Obecnie trwają testy z wykrywaniem glukozy w ludzkich nowotworach. Badanie będzie można bezpiecznie wykonywać zarówno u kobiet w ciąży, jak i u dzieci. To również dobry sposób na ocenę wpływu terapii na pacjentów.
  20. W ciągu najbliższych 18 miesięcy w przestrzeń kosmiczną może trafić satelita wyposażony w nowy plazmowy system napędowy. System, który nawet 1000-krotnie obniży koszty eksploracji kosmosu. Dzięki napędowi dla miniaturowych satelitów (CubeSats) możliwe będzie w najbliższej przyszłości zbadanie księżyców Jowisza czy Saturna kosztem zaledwie miliona dolarów. Obecnie tego typu misja kosztowałaby od 500 milionów do nawet miliarda USD. Na czele projektu stoi profesor fizyki Ben Longmier z University of Michigan. Na witrynie Kickstarter zbierane są pieniądze, które mają umożliwić przeprowadzenie testu. Naukowcy potrzebują 200 000 USD. Dotychczas udało się zebrać niemal 12 tysięcy dolarów. CubeSats to miniaturowe satelity o wadze około 5 kilogramów. Obecnie są one wykorzystywane na orbicie Ziemi, po której krążą bez żadnego napędu tak długo, aż spłoną w atmosferze. Zespół Longmiera pracuje nad silnikiem CubeSat Ambipolar Thruster (CAT), który ma zamienić miniaturowe satelity w sondy międzyplanetarne. CAT czerpie energię z paneli słonecznych i napędza pojazd dzięki wystrzeliwaniu zjonizowanego gazu (plazmy). Z czasem CAT może przyspieszyć pojazd do prędkości nieosiągalnych za pomocą tradycyjnych rakiet. W przypadku silnika dla mikrosatelitów trzeba pamiętać też o tym, że i sam silnik musi być niezwykle mały. Całość, wraz z panelami słonecznymi, ma ważyć mniej niż 0,5 kilograma. Paliwo zaś będzie ważyło okolo 2,5 kg. Naukowcy informują, że przetestowali już większość elementów CAT i czynią szybkie postępy na drodze do zintegrowania ich w jeden system napędowy. Profesor Longmier twierdzi, że silnik zostanie po raz pierwszy uruchomiony za około 3 tygodnie. Uczonym zależy teraz na zebraniu pieniędzy na przeprowadzenie testów silnika napędzającego satelitę w przestrzeni kosmicznej. Prototypowy pojazd ma zostać wysłany poza orbitę Ziemi. Co prawda nie aż do Jowisza czy Saturna, ale ma polecieć na tyle daleko, by dowieść możliwości CAT. Jeśli udałoby się zebrać sporo więcej niż założone 200 000 USD, projekt ulegnie znacznemu przyspieszeniu. Za 500 000 dolarów naukowcy mogliby wynająć prywatną rakietę, która wyniosłaby satelitę i silnik najszybciej jak byłoby to możliwe. Natomiast kosztem 900 000 USD można by urządzić wyścig dwóch satelitów z CAT, by sprawdzić, który z nich szybciej opuści orbitę naszej planety. Zespół Longmiera współpracuje z trzeba instytutami NASA - Ames Research Center, Jet Propulsion Laboratory i Glenn Research Center - oraz z firmą Planetary Resources, zainteresowaną przyszłą eksploatacją asteroid. Firma ta, w którą zainwestowali m.in. założyciele Google'a, chciałaby w przyszłosci wykorzystywać mikrosatelity z CAT w misjach zwiadowczych, określających przydatność asteroid pod kątemm wydobycia z nich surowców. Mikrosatelity z CAT mogą znacząco wpłynąć na badania kosmosu. Pozwolą na organizowania bardzo tanich międzyplanetarnych misji badawczych, umożliwiają ulepszanie ad hoc systemów komunikacyjnych, ułatwią poszukiwania życia poza Ziemią. Nad własnym silnikiem jonowym dla niewielkich satelitów pracuje też EPFL, a NASA informowała niedawno o pobiciu przez silnik NEXT rekordu ciągłego działania.
  21. Microsoft poinformował, że Windows 8.1 zostanie ukończony przed wrześniem bieżącego roku. Prace nad kodem nowego systemu mają zakończyć się przed końcem sierpnia. Zostanie on wówczas przekazany do testów producentom komputerów. To oznacza, że producenci otrzymają wersję RTM dokładnie na czas, by zdążyć na święta. W najbliższych miesiącach zdradzimy więcej szczegółów na temat dostępności Windows 8.1 - stwierdzili przedstawiciele Microsoftu. Koncern z Redmond nie zdradził natomiast, kiedy zostanie udostępniona ostateczna wersja Windows 8.1. Najprawdopodobniej zadebiutuje ona wczesną jesienią.
  22. W czerwcu naukowcy z zoo w Suzhou zebrali jaja złożone po kopulacji ostatniej pary żółwiaków szanghajskich (Rafetus swinhoei). Kiedyś gatunek ten zamieszkiwał Jangcy, jezioro Tai Hu, prowincję Yunnan oraz Wietnam, ale wskutek rozrostu ludzkiej populacji i przez kłusownictwo (karapaksy wykorzystuje się w medycynie chińskiej) obecnie uważa się, że pozostały tylko 4 osobniki: 2 dzikie samce oraz samica i samiec z Suzhou Zoo. Samica przybyła do ogrodu w Suzhou w maju 2008 r., ale jak dotąd żadne jajo się nie wykluło. Na razie nie wiadomo z jakiego powodu, ale specjaliści wymieniają kilka potencjalnych czynników, np. kiepską jakość spermy samca, który ma ponad 100 lat czy niewłaściwą pozycję kopulacyjną. Próbek spermy się nie pobiera, bo ryzyko zarażenia czymś żółwi jest zbyt wysokie. W 2006 r. amerykańska Koalicja na rzecz Przetrwania Żółwi poprosiła eksperta od rozmnażania tych gadów dr. Geralda Kuchlinga o określenie płci 3 ostatnich żyjących w niewoli R. swinhoei. Wtedy mieszkały one w zoo w Szanghaju i Suzhou oraz w świątyni buddyjskiej Zachodni Ogród w Suzhou. Kiedy Kuchling przyleciał do Chin, osobniki z Szanghaju i świątyni już nie żyły. W nadziei, że któryś z osobników został źle sklasyfikowany, naukowcy wysłali biuletyny do wszystkich ogrodów zoologicznych w kraju. Z zoo w Changsha przysłano zdjęcie, a po przybyciu na miejsce Kuchling i Lu Shunqing, dyrektorka tutejszego Wildlife Conservation Society, potwierdzili, że to samica. Nie mając wyjścia, specjaliści zaryzykowali i przeprowadzili ją do Suzhou. Dwóch dzikich samców z Wietnamu nie schwytano, bo mogłoby się to skończyć tragicznie... Po krótkim czasie od przyjazdu żółwicy do ogrodu gady zaczęły spółkować. Miesiąc później samica złożyła pierwsze jaja. Choć wtedy i wielokrotnie później naukowcy szukali embrionów, dotąd najwyraźniej ani razu nie doszło do zapłodnienia. Choć specjaliści myśleli o technikach wspomaganego rozrodu, naturalne zapłodnienie jest najbezpieczniejsze. Niestety, nie wiadomo, ile para z Suzhou jeszcze pożyje albo przez jaki czas będzie kopulować.
  23. Rozprzestrzenianie się idei naukowych od dawna jest przedmiotem badań. Naukowcy wiedzą, co zresztą jest zgodne z intuicją, że wiedza i wynalazki łatwiej rozprzestrzeniają się w najbliższym otoczeniu. Teraz uczeni z MIT-u zauważyli pewną zaskakującą prawidłowość. Okazuje się, że w rozprzestrzenianiu się wynalazków i idei naukowych dużą rolę odgrywa... geopolityka. Jeśli zbadamy dwa obszary położone w równej odległości od miejsca, gdzie postała idea czy pojawił się wynalazek, to informacje o tym są gorzej rozpowszechnione w miejscu, które było przedzielone granicą. I nie ma znaczenia, czy jest to granica innego państwa czy innego stanu w ramach tego samego państwa. Uczeni zbadali 4 miliony cytowań patentów z lat 1975-2004. Okazało się, że granica administracyjna stanowiła pewną przeszkodę w rozprzestrzenianiu pomysłu. Gdy ludzie pracują na tym samym obszarze geograficznym, to wiedza jest zwykle dzielona nie tylko w ramach jakiejś firmy, ale też pomiędzy firmami. Niektórzy uważają, że chodzi tylko i wyłącznie o odległość. Im jesteś bliżej, tym łatwiej informacja do ciebie dociera. Odkryliśmy jednak, że znaczenie mają tez granice stanów, chociaż ta przeszkoda z czasem odgrywa coraz mniejszą rolę. Silnejszy wpływ mają granice państw - mówi profesor Matt Marx. Szczegółowe wyliczenia pokazały, że prawdopodobieństwo zacytowania przez jedną firmę patentu drugiej firmy rośnie o 1,3 raza na porównywalnym dystansie, jeśli między firmami nie ma granicy państwowej. Zwiększa się 2-krotnie gdy firmy działają w ramach tego samego stanu, a niemal 3-krotnie - jeśli leżą w tym samym regionie metropolitalnym. Nie chodzi tylko o to, jaka odległość dzieli badaczy. Można by myśleć, że wraz z rozwojem internetu granice nie powinny odgrywać roli. Ale odgrywają - mówi Marx. Co ciekawe, znaczenie granic jest tak silne, że wydaje się ważniejsze od wpływu tej samej metropolii. Badania 60 obszarów metropolitalnych, które rozciągają się w więcej niż jednym stanie - np. obszar metropolitalny Cincinnatii znajduje się w Ohio, Kentucky i Indianie - wykazały, że i tutaj granice stanów odgrywają rolę. Istnieje większe prawdopodobieństwo, że patent zostanie zacytowany w stanie, w którym powstał. Naukowcy uważają, że przyczyną, dla której granice stanów odgrywają rolę, ale jednak rola ta słabnie, jest dostępność patentów online. To ułatwia dotarcie do nich i ich cytowanie. Znaczenia granic państwowych nietrudno się domyślić - tutaj mogą wchodzić w grę np.różnice językowe. Istnieje jednak jeszcze dodatkowe wyjaśnienie tego fenomenu. Niewykluczone, że amerykański przemysł staje się coraz bardziej wyspecjalizowany - mówi Marx. A to może oznaczać, że specjalistyczne patenty są rzadziej cytowane za granicą, gdyż są mniej przydatne w innych krajach lub trudniej jest przełożyć je na rzeczywistość gospodarki tych państw. Ważne są również lokalne interesy. Politycy i biznesmeni są zainteresowani, by ich region rozkwitał, dlatego starają się wzmacniać pozytywny wpływ idei i wynalazków, które w nim powstały. Inni naukowcy specjalizujący się w tym zagadnieniu, podkreślją, że badania Marksa i jego grupy są niezwykle interesujące. Zauważają, że teraz niezwykle ważne byłoby odkrycie i opisanie mechanizmu wpływu granic na rozprzestrzenianie się idei.
  24. Ludzie, którzy sądzą, że stres niekorzystnie wpływa na ich zdrowie, są w większym stopniu zagrożeni zawałem serca. Naukowcy analizowali dane uzyskane w ramach brytyjskiego studium Whitehall II. Prześledziwszy losy kilku tysięcy londyńskich pracowników służby cywilnej, autorzy opracowania z European Heart Journal odkryli, że u osób, które uważały, że stres wpływa na ich zdrowie w "dużym bądź ekstremalnym stopniu", zagrożenie zawałem było ponad 2-krotnie większe niż u ludzi niewierzących w jego znaczące oddziaływanie. Nawet po wzięciu poprawki na biologiczne, behawioralne i psychologiczne czynniki ryzyka prawdopodobieństwo wystąpienia/zgonu w wyniku zawału było w tej grupie aż o 50% wyższe. Wcześniejsze badania wykazywały, że stres niekorzystnie oddziałuje na zdrowie, lecz związkom percepcji wpływu stresu na zdrowie i ryzyka chorób serca przyglądano się po raz pierwszy. Międzynarodowy zespół doktora Hermana Nabiego z INSERM-u analizował przypadki 7268 kobiet i mężczyzn (losy śledzono maksymalnie przez 18 lat, odkąd w 1991 r. po raz pierwszy do kwestionariusza wprowadzono pytanie dotyczące postrzegania wpływu stresu na zdrowie). Średnia wieku wyniosła 49,5 roku. W okresie objętym studium odnotowano 352 zawały lub zgony w wyniku zawału. Ochotników pytano, w jakim, wg nich, stopniu codzienny stres wpływa na ich zdrowie: 1) w ogóle, 2) lekko, 3) umiarkowanie, 4) bardzo i 5) skrajnie. Naukowcy podzielili uzyskane odpowiedzi na 3 grupy: 1) w ogóle, 2) lekko lub umiarkowanie oraz 3) bardzo lub ekstremalnie. Pracowników służby cywilnej pytano również o nasilenie przeżywanego stresu oraz o tryb życia: palenie, spożycie alkoholu, dietę i aktywność fizyczną. Poza tym zbierano dane odnośnie do ciśnienia krwi, cukrzycy, wskaźnika masy ciała, stanu cywilnego, wieku, płci, pochodzenia etnicznego i statusu socjoekonomicznego. Dzięki informacjom z British National Health Service naukowcy mogli sprawdzić, ile osób przeszło do 2009 r. zawał (pod uwagę brano także zgony z tego powodu). Gdy wzięto poprawkę na czynniki socjoekonomiczne, okazało się, że ludzie, którzy na początku studium wspominali o dużym bądź ekstremalnym wpływie stresu na ich zdrowie, byli ponad 2-krotnie (2,12) bardziej zagrożeni zawałem od osób niedostrzegających żadnego wpływu. Gdy uwzględniono biologiczne, behawioralne i psychologiczne czynniki ryzyka, w tym poziom stresu i wsparcie społeczne, ryzyko było mniejsze, ale nadal podwyższone (49%). Ustaliliśmy, że związek między [...] indywidualną percepcją wpływu stresu na zdrowie i ryzykiem zawału był niezależny od czynników biologicznych, niezdrowych zachowań i innych czynników psychologicznych. Choć uważa się, że w ostatnich latach stres i lęk [...] urosły w siłę, odkryliśmy, że ryzyko choroby niedokrwiennej serca było podwyższone wyłącznie u ochotników wspominających o dużym lub ekstremalnym wpływie stresu na zdrowie (8%). W przyszłości powinno się przeprowadzić randomizowane badania, które wykażą, czy zagrożenie chorobą można zmniejszyć, skupiając uwagę [...] na jednostkach przekonanych o dużym wpływie stresu na zdrowie.
  25. Astrofizycy badający tajemnicze sygnały radiowe wykluczyli, by mogły one pochodzić z Ziemi. Na podstawie ich jasności uznali, że sygnały te zostały wyemitowane gdy wszechświat był o połowę młodszy niż obecnie, a w ich narodzinach brało udział jakieś relatywistyczne źródło, takie jak czarna dziura czy gwiazda neutronowa. Przed sześcioma laty odkryto pojedynczy sygnał pochodzący spoza naszej galaktyki. Dotychczas nie wiedzieliśmy czym on był, a nawet, czy był prawdziwy. Przez cztery lata szukaliśmy więcej takich nagłych, krótkotrwałych sygnałów. W naszym artykule opisujemy cztery kolejne sygnały tego typu. Mamy zatem pewność, że są prawdziwe. Każdy z nich trwal kilka milisekund, a najdalszy z nich narodził się miliardy lat świetlnych stąd - mówi szef grupy badawczej Dan Thornton, doktorant z University of Manchester i pracownik australijkiej Commonwealth Scientific and Industrial Research Organization. Co więcej, uczeni uważają, że nieboskłon powinien być pełen takich sygnałów. Obecnie, by je zarejestrować, trzeba mieć szczęście i skierować radiotelekop w odpowiednim czasie w odpowiednie miejsce. Gdyby jednak badaniami objąć całe niebo, powinniśmy rejestrować tego typu sygnały bez przerwy. Międzynarodowy zespół, w skład którego wchodzą uczeni z Wielkiej Brytanii, Niemiec, Włoch, USA i Australii, korzystał z australijskiego teleskopu Parkes. Profesor Matthew Bailes ze Swinburne University of Technology uważa, że źródłem sygnałów może być pewien szczególny typ gwiazd neutronowych, magnetar. Magnetary mogą w ciągu milisekund wyemitować więcej energii niż Słońce emituje w ciągu 300 000 lat. Są one najbardziej prawdopodobnym źródłem sygnałów - stwierdził uczony. Naukowcy mają nadzieję, że takie sygnały uda się wykorzystać do badania przestrzeni kosmicznej pomiędzy ich źródłem a Ziemią. Wciąż nie jesteśmy pewni, z czego składa się przestrzeń pomiędzy galaktykami. Będziemy mogli wykorzystać te sygnały w roli próbników umożliwiających poszukiwania zaginionej materii we wszechświecie - stwierdził Ben Stappers z University of Manchester.
×
×
  • Dodaj nową pozycję...