Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36964
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Masywne skaliste planety okrążające swoje gwiazdy w ciągu kilku dni mogą być pozostałościami po gazowych olbrzymach, które przywędrowały z odległych obszarów układu planetarnego i zostały odarte przez gwiazdę z zewnętrznych warstw. Niedawno przeprowadzone badania tych tzw. gorących Ziem sugerują, że planety te mogły powstać w inny sposób niż Ziemia. Planety o masie Ziemi mogą powstawać wedle różnych scenariuszy, uważa teoretyk Arieh Konigl z University of Chicago. Warz ze swoimi kolegami badał on gorące Ziemie w celu odkrycia ich pochodzenia. Badania zostały zainspirowane opublikowanym w ubiegłym roku artykułem, którego autorzy donosili o odkryciu nowej klasy gorących Ziem, znajdujących się niezwykle blisko gwiazd. Autorzy tamtego artykułu spekulowali, że mogą to być jądra gorących Jowiszów odarte z zewnętrznych powłok. Zespół Konigla postanowił więc teoretycznie zbadać, co się stanie, gdy gorący Jowisz straci atmosferę. W Układzie Słonecznym wszystkie gazowe olbrzymy znajdują się na stabilnych orbitach położonych z dala od Słońca, w chłodniejszych regionach układu, poza pasem asteroid. Wszystkie planety naszego układu powstały wskutek stopniowego łączenia się pyłu i skał. W wewnętrznych częściach Układu Słonecznego nasza gwiazda wypaliła większość wodoru i helu. Jednak w częściach zewnętrznych gazy pozostały nietknięte i zgromadziły się wokół planet, tworząc gazowe giganty. Z czasem planety te przesunęły się na stabilne orbity, na których pozostają do dzisiaj. Jednak nie wszystkie układy planetarne są stabilne. Planety mogą wejść ze sobą w tak silne interakcje grawitacyjne, że jedna z nich może zostać skierowana w stronę gwiazdy, gdzie oddziaływanie grawitacji i wysokiej temperatury pozbawi ją gazowej otoczki, pozostawiając skaliste jądro. Konigl i jego zespół odkryli, że sposób, w jaki planety tracą otoczę, ma znaczenie. Dlatego też przypisali takie planety, gorące Ziemie, do dwóch kategorii, znajdujących się po obu stronach granicy Roche'a, czyli obszaru, po przekroczeniu którego, oddziaływanie grawitacyjne cięższego ciała może zniszczyć ciało lżejsze. Uczeni z Chicago mówią tutaj o planetach klasyfikowanych jako „wczesne jądra” i „późne jądra”, a klasyfikacja do konkretnej kategorii zależy od prędkości, z jaką gazowy olbrzym tracił gazową otoczkę. Planety klasyfikowane jako wczesne jądra to te, które przybyły z odległych obszarów układu planetarnego. Mają wysoce eliptyczne orbity, przez co z łatwością przekraczają granice Roche'a. Gdy już ją przekroczą, tracą gazową otoczkę, a oddziaływanie gwiazdy powoduje, że ich orbita staje się bardziej kołowa. Jednocześnie są przesuwane poza granicę Roche'a, więc mają dłuższe orbity i okrążają gwiazdę w ciągu kilku ziemskich dni. Z kolei planety określone jako późna jądra to takie, które stopniowo zacieśniały swoją orbitę przybliżając się do gwiazdy. Stopniowo przekraczały granicę Roche'a, proces utraty atmosfery trwał w ich przypadku dłużej i w końcu znalazły się na tak bliskiej orbicie, że okrążają gwiazdę w ciągu jednego ziemskiego dnia. Pierwszą pozasłoneczną planetę krążącą wokół gwiazdy podobnej do Słońca odkryto 6 października 1995 roku. Jest nią gazowy olbrzym 51 Pegasi b. W kolejnych latach astronomowie znajdowali coraz więcej gazowych olbrzymów. Dopiero jednak wystrzelenie Teleskopu Keplera i pierwsze obserwacje dokonane w roku 2010 pozwoliły na odkrycie mniejszych planet. Były wśród nich również gorące Ziemie. Okazało się, że – podobnie jak w przypadku gorących Jowiszów – populacja gorących Ziem stanowi około 0,5% planet odkrywanych przez Keplera. To wskazywało, że między tymi typami planet istnieje jakiś związek, mówi Konigl. Wraz z gorącymi Ziemiami Kepler zauważył też inne planety o czasie obiegu nie dłuższym niż dzień (UPS – ultra-short-period). Początkowo sądzono, że mogą być one pozostałościami jąder gorących Jowiszów, jednak kolejne badania wykazały, że nie jest to możliwe, zatem w ogóle odrzucono koncepcję, by jakiekolwiek planety były pozostałościami jąder. Stało się tak, gdyż sądzono, że gorące Jowisze nie mogą zbyt długo przebywać poza granicą Roche'a. Zostałyby tam zniszczone. Teraz grupa Konigla stwierdziła, że takie podejście było błędne. Wczesne jądra po przekroczeniu granicy Roche'a tracą gazową otoczkę i przesuwają się poza granicę Roche'a, gdzie pozostają poza niszczycielskim wpływem gwiazdy, a późne jądra stopniowo zbliżają się do gwiazdy. Wszystko wydaje się wspierać tę hipotezę. Tym bardziej, że nie znaleziono żadnych gorących Jowiszy o czasie obiegu krótszym niż doba. To sugeruje, że gorące Jowisze, które przekroczą granicę Roche'a tracą otaczający je gaz i stają się gorącymi Ziemiami. Modele Konigla będzie można stosunkowo szybko zweryfikować. Przewidują one bowiem, że zarówno w przypadku gorących Ziem z kategorii późnych jak i wczesnych jąder, prawdopodobieństwo, że wokół tej samej gwiazdy będzie krążyła jeszcze jakaś planeta inna niż UPS, jest mniejsze, niż w przypadku innych planet. A w przypadku późnych jąder to prawdopodobieństwo jest jeszcze mniejsze. Ma to wynikać z faktu, że zbliżający się do swojej gwiazdy gorący Jowisz doprowadziłby do wyrzucenia innych planet z układu. Gdy tylko zyskamy doskonalsze narzędzia pozwalające na odkrycie kolejnych niewielkich planet, będziemy mogli zweryfikować te hipotezy. « powrót do artykułu
  2. Różnice w chemii mózgu zapewniły ludziom (społeczną) przewagę na innymi naczelnymi. Próbując zrozumieć dominującą pozycję naszego gatunku, naukowcy od lat badają anatomię mózgu ludzi i innych naczelnych. Wielu z nich zakłada, że odpowiadają za to nie tylko same rozmiary mózgu, bo nasi wcześni przodkowie angażowali się w złożone zachowania jeszcze przed wyewoluowaniem większego mózgu. W grę mogą zatem wchodzić różnice w chemii tego narządu. Jak tłumaczą akademicy, ponieważ neuroprzekaźniki odpowiadają m.in. za kontakty społeczne, mogło to prowadzić do rozwoju lepszych zdolności językowych itp. By przetestować tę teorię, Amerykanie prowadzili badania na 6 gatunkach: ludziach, makakach, pawianach, szympansach, gorylach i kapucynkach (próbki pozyskano od zwierząt, które umarły w zoo z przyczyn naturalnych). Autorzy publikacji z pisma PNAS skupili się na prążkowiu, które w mózgu odgrywa rolę przekaźnika chemicznego. Uczeni przyglądali się serotoninie, dopaminie i neuropeptydowi Y, które regulują zachowania społeczne i kooperacyjne. Okazało się, że u człowiekowatych, w tym u ludzi, w jądrach podstawy występuje więcej neuropeptydu Y i serotoniny. Naukowcy zauważyli też, że ludzie mają w prążkowiu więcej dopaminy niż małpy, a z drugiej strony, w porównaniu do szympansów i goryli, cechuje ich niższy poziom acetylocholiny. Mary Ann Raghanti z Kent State University i inni uważają, że taki profil neurochemiczny w dużym stopniu zwiększa wrażliwość na wskazówki społeczne i sprzyja empatii, altruizmowi czy konformizmowi. Ekipa postuluje, że wczesna forma tego profilu wyłoniła się u hominidów w wyniku doboru naturalnego i poprzedzała albo towarzyszyła rozwojowi wyprostowanej postawy ciała. « powrót do artykułu
  3. Przeciwnicy walki z globalnym ociepleniem uważają, że ludzkość nie powinna ograniczać emisji dwutlenku węgla do atmosfery chociażby dlatego, że więcej CO2 jest korzystne dla roślin, zatem możemy spodziewać się zwiększenia pokrywy roślinnej i większych plonów roślin uprawnych. Argument ten jest prawdziwy, ale bałamutny, gdyż nie oddaje całego problemu. Dwutlenek węgla jest niezbędny do fotosyntezy, mówi Richard Norby z Oak Ridge National Laboratory. Jeśli w laboratorium wyizolujemy liść i poddamy go działaniu zwiększonego poziomu CO2, jego fotosynteza zwiększy się. To dobrze znany mechanizm, dodaje. Jednak, jak zauważa uczony, zjawiska zachodzące w laboratoriach rzadko mają bezpośrednie przełożenie na znacznie bardziej złożone systemy działające poza laboratoriami. Wzrost roślin zależy od wielu czynników, nie tylko od obecności dwutlenku węgla. Jednym z głównych składników kontrolujących wzrost roślin jest dostępność azotu. Jeśli ilość azotu jest ograniczona, korzyści ze zwiększonej ilości CO2 również są ograniczone, stwierdza Norby. Od dziesięcioleci naukowcy prowadzą badania polowe nad wpływem „nawożenia CO2” wybranych połaci lasu. W takich eksperymentach wybiera się określony obszar lasu i sztucznie zwiększa się tam ilość dwutlenku węgla. Okazuje się, że gdy ilość tego gazu zostanie zwiększona dwukrotnie w stosunku do epoki preindustrialnej, produktywność lasu rośnie o około 23%. Warto jednak zauważyć, że podczas jednego z takich długotrwałych eksperymentów z czasem doszło do zmniejszenia wzrostu produktywności, gdyż w glebie nie było wystarczającej ilości azotu. Nie możemy zakładać, że efekt „nawożenia CO2” będzie trwał w nieskończoność, wyjaśnia Norby. Naukowcy zwracają też uwagę, że sam wzrost temperatury i wywołane tym susze czy fale upałów, mają negatywny wpływ na roślinność. Jednocześnie mogą występować zjawiska pozytywne i negatywne. Ważna jest ich suma, podkreśla Norby. Dlatego też, mimo iż argument o wpływie wzrostu CO2 na rośliny jest prawdziwy, to nie oddaje złożoności sytuacji. Profesor Frances Moore z University of California, Davies, badała wraz ze swoim zespołem wpływ zwiększonej ilości dwutlenku węgla na rośliny uprawne. W przypadku większości z nich zwiększenie CO2 wiąże się z większymi plonami. Przy CO2 dwukrotnie wyższym niż w czasach sprzed rewolucji przemysłowej plony pszenicy zwiększają się o około 11,5%, a plony kukurydzy o około 8,5%. Ponadto niedobory azotu i innych składników odżywczych nie powinny być problemem, gdyż pola uprawne można nawozić. Moore i jej grupa zauważyli jednak, że wzrost produktywności jest coraz bardziej ograniczony. Im więcej dwutlenku węgla, tym mniej korzyści, a coraz więcej problemów. Przy wzroście temperatury o 1 – 2 stopnie występują takie zjawiska jak spadek wilgotności gleby, bezpośrednie niszczenie roślin przez wysoką temperaturę oraz zakłócanie procesów reprodukcyjnych przez temperaturę. Kolejnym problemem związanym z roślinami uprawnymi i dwutlenkiem węgla jest spadek wartości odżywczych. Wiemy na pewno, że rośliny hodowane w warunkach zwiększonej ilości CO2 mają mniej składników odżywczych, zauważa Samuel Myers z Uniwersytetu Harvarda. Zboża tracą proteiny, a inne rośliny tracą znaczące ilości żelaza i cynku, dodaje. Myers i jego zespół zbadali, co się stanie, gdy poziom CO2 w atmosferze osiągnie około 550 części na milion. Prognozuje się, że taka koncentracja będzie miała miejsce około roku 2050. Z badań wynika, że utrata składników odżywczych przez rośliny uprawne spowoduje, że niedobory protein pojawią się u dodatkowych 150 milionów ludzi, a niedobory cynku dotkną dodatkowych 150-200 milionów ludzi. Ponadto około 1,4 miliarda kobiet w wieku rozrodczym i dzieci, które już teraz żyją w krajach o wysokim odsetku anemii, utracą ze swojej diety około 3,8% żelaza. Naukowcy wciąż nie wiedzą, dlaczego wzrost stężenia atmosferycznego CO2 wiąże się ze zmniejszeniem wartości odżywczych roślin. Wiemy jednak, że większe stężenie dwutlenku węgla zmniejsza ilość składników odżywczych w uprawach na całym świecie, mówi Myers. Problem z argumentem przeciwników walki z globalnym ociepleniem jest więc taki, że zasadniczo argument jest prawdziwy, jednak działa on tylko wówczas, jeśli z całego złożonego systemu zależności wybierzemy jeden czynnik. Jest to jednak argumentacja myląca, gdyż system nie opiera się wyłącznie na tym jednym czynniku. « powrót do artykułu
  4. Zespół specjalistów z kilku chińskich instytucji zidentyfikował składnik jadu skolopendry z podgatunku Scolopendra subspinipes mutilans, który pozwala jej obezwładnić o wiele większe od siebie ofiary. Znaleziono także antidotum, co na pewno ucieszy wszystkich cierpiących ugryzionych, trafiających na izby przyjęć w Azji czy na Hawajach. Autorzy publikacji z pisma PNAS po kolei testowali wszystkie składniki jadu 3-g skolopendry, która potrafi w ciągu 30 s obezwładnić nawet 45-g myszy, czyli zwierzęta 15-krotnie od siebie większe. W końcu udało im się wskazać poszukiwaną substancję - nazwano ją upiorna toksyną SSm (ang. Ssm Spooky Toxin; człon Ssm podchodzi od łacińskiej nazwy stawonoga). Okazało się, że upiorna toksyna blokuje kanały potasowe KCNQ, przez co mózg nie sygnalizuje sercu, by biło. Ponieważ potas odgrywa także ważną rolę w komórkach dróg oddechowych, ofiara ugryzienia zaczyna mieć problemy z oddychaniem. Wszystko wskazuje więc na to, że toksyna wyewoluowała w taki sposób, by obierając na cel kanały KCNQ, symultanicznie zaburzać układy sercowo-naczyniowy, mięśniowy i nerwowy. Bolesne ukąszenia przez skolopendrę są dość powszechne, szczególnie na Hawajach. W latach 2004-08 odpowiadały one za ok. 1 na 10 zgłoszeń na izbę przyjęć z przyczyn naturalnych. Ugryzienia te rzadko bywają jednak śmiertelne. Wcześniejsze badania wykazały, że działanie kanałów KCNQ można przywrócić za pomocą retygabiny (stosuje się ją jako lek przeciwpadaczkowy). Warto przypomnieć, że jakiś czas temu koreańscy naukowcy zidentyfikowali produkowany przez S. S. mutilans kationowy peptyd (skolopendrazynę VII), który działa na różne typy komórek białaczkowych. Nieco później okazało się także, że stymuluje on chemotaksję makrofagów. « powrót do artykułu
  5. Podczas testów kurkumina, żółto-pomarańczowy barwnik z bulw ostryżu długiego, wywierała korzystny wpływ na pamięć i nastrój osób z łagodnymi związanymi z wiekiem zaburzeniami pamięci. Naukowcy Uniwersytetu Kalifornijskiego w Los Angeles badali wpływ łatwo wchłanialnego suplementu kurkuminy na osiągi pamięciowe osób bez demencji. Sprawdzali też, czy oddziałuje on jakoś na mikroblaszki amyloidowe i splątki neurofibrylarne, które można zaobserwować w przebiegu choroby Alzheimera (ChA). Wcześniejsze badania laboratoryjne wykazały, że kurkumina ma właściwości przeciwzapalne i przeciwutleniające. Sugerowano także, że to ona odpowiada za niższą częstość występowania ChA i lepsze funkcjonowanie poznawcze seniorów z Indii (kurkumina to substancja zawarta w kurkumie, która jest przyprawą wykorzystywaną samodzielnie lub jako składnik mieszanki curry; w Indiach spożywa się ich naprawdę sporo). Nie wiadomo dokładnie, jak działa kurkumina, ale niewykluczone, że wpływa na mózg przeciwzapalnie (a stan zapalny powiązano zarówno z ChA, jak i z dużą depresją) - opowiada dr Gary Small. W podwójnie ślepym badaniu z grupą placebo (ani naukowcy, ani ochotnicy nie wiedzieli, kogo gdzie wylosowano) wzięło udział 40 osób w wieku 50-90 lat. Narzekały one na drobne kłopoty z pamięcią. Przez 18 miesięcy członkowie jednej grupy zażywali 2 razy dziennie 90 mg kurkuminy, a druga grupa dostawała placebo. Na początku eksperymentu i później co pół roku ochotnicy przechodzili testy poznawcze. Poziom kurkuminy w ich krwi określano na początku badania i po upływie 18 miesięcy. Trzydzieści osób przeszło pozytonową tomografię emisyjną (PET), która miała zobrazować ilość beta-amyloidu i białka tau w ich mózgach. W tym przypadku badanie także wykonywano na starcie i po upływie 1,5 roku. Okazało się, że u ludzi zażywających kurkuminę nastąpiła znacząca poprawa pamięci i uwagi. Jak podkreśla Small, po 18 miesiącach poprawa w testach pamięciowych sięgała nawet 28%. Naukowcy stwierdzili także niewielką poprawę nastroju. Skany PET zademonstrowały ponadto, że w porównaniu do grupy kontrolnej, ludzie zażywający kurkuminę mieli znacząco mniej beta-amyloidu i białka tau. Naukowcy wyliczają, że u 4 osób przyjmujących kurkuminę i 2 zażywających placebo wystąpiły lekkie skutki uboczne: ból brzucha czy mdłości. Zespół planuje badania zakrojone na szerszą skalę. Próba miałaby objąć chorych z łagodną depresją. Akademicy mogliby także sprawdzić, czy propamięciowe działanie kurkuminy różni się w zależności od wieku, zakresu problemów poznawczych czy przynależności do grupy genetycznego ryzyka alzheimera. « powrót do artykułu
  6. Co prawda sonda Cassini zakończyła swoją historyczną misję we wrześniu ubiegłego roku, jednak nadesłane przez nią dane wciąż są przedmiotem analiz i pozwalają na odkrycie kolejnych tajemnic Układu Słonecznego. Naukowcy z Cornell University informują, że z pomiarów Tytana wykonanych przez Cassini wynika, że na tym księżycu Saturna istnieje odpowiednik ziemskiego poziomu morza. Ziemia i Tytan to jedyne obiekty w Układzie Słonecznym, o których wiemy, że posiadają płyn na swojej powierzchni. O ile jednak na Ziemi płynem tym jest woda, na Tytanie mamy do czynienia z jeziorami i oceanami płynnych węglowodorów, pod którymi znajduje się zamarznięta woda. Z wykonanych przez Cassini pomiarów radarowych dowiadujemy się, że trzy morza Tytana mają stałe wyniesienie w stosunku do grawitacji księżyca. Zmierzyliśmy wyniesienie płynnej powierzchni na obiekcie znajdującym się w odległości 10 jednostek astronomicznych od Słońca. Dokładność pomiaru wynosi 40 centymetrów. Dzięki tak niesamowitej precyzji możemy stwierdzić, że różnice wyniesienia powierzchni płynnej zmieniają się w granicach 11 metrów względem centrum masy Tytana, co jest zmianą spodziewaną wobec jego potencjału grawitacyjnego, mówi główny autor badań, Alex Hayes. Takie wyniki sugerują, że płyn na powierzchni Tytana jest ze sobą połączony. Albo przemieszcza się przez skały, jak woda na Ziemi, albo też istnieją kanały łączące zbiorniki na powierzchni księżyca Saturna. Uczeni z Cornell badali też poziomy jezior. Okazało się, że na Tytanie – tutaj mamy koleje podobieństwo z Ziemią – jeziora są położone zwykle setki metrów nad poziomem morza. Naukowcy zauważyli też, że na danej powierzchni wyschnięte baseny jezior zawsze położone są na większych wysokościach, natomiast baseny na mniejszych wysokościach są wypełnione. Nie zauważyliśmy żadnych pustych basenów znajdujących się poniżej poziomu lokalnych wypełnionych basenów. Jeśli bowiem taki basen by powstał, zostałby on wypełniony. To sugeruje, że pod powierzchnią ma miejsce przepływ płynu i że zbiorniki są ze sobą połączone. To również dowód, że płynne węglowodory znajdują się pod powierzchnią Tytana, dodaje Hayes. « powrót do artykułu
  7. Amerykańska Narodowa Fundacja Nauki (NFS) poinformowała, że po raz pierwszy w historii Chiny prześcignęły USA w liczbie publikacji naukowych. Stany Zjednoczone wciąż jednak pozostają światowym liderem pod względem jakości badań naukowych, przyciągania studentów z innych krajów oraz przekładania wyników badań na wartościową własność intelektualną. Powyższe wnioski płyną z właśnie opublikowanego raportu, w którym NFS podkreśla rosnącą konkurencję na polu naukowym ze strony Chin i innych rozwijających się krajów, które szybko zwiększają nakłady na naukę. USA wciąż są globalnym liderem w nauce i technologii, ale świat się zmienia. Nie możemy zasypiać gruszek w popiele, mówi Maria Zuber, geofizyk z MIT, przewodnicząca Narodowej Rady Nauki, która nadzoruje prace NFS i stworzyła raport. Z dokumentu dowiadujemy się, że w 2016 roku w Chinach powstało 426 000 artykułów naukowych umieszczonych w bazie danych Scopus. W tym samym czasie w USA stworzono 409 000 artykułów. Gdy jednak przyjrzano się, skąd pochodzą naukowcy, których artykuły były najczęściej cytowane, USA uplasowały się na trzecim miejscu, za Szwecją i Szwajcarią. Na czwartej pozycji znalazły się kraje Unii Europejskiej, a Chiny trafiły na piąte miejsce. USA wciąż kształcą najwięcej osób z tytułem doktorskim i są najpopularniejszym kierunkiem wyjazdu dla studentów, którzy chcą zdobywać wyższe stopnie naukowe. Warto jednak zauważyć, że odsetek takich ludzi spada. Jeszcze w roku 2000 aż 25% studentów, którzy po naukę wyjeżdżali za granicę, jako cel podróży wybierało USA. W roku 2014 było to 19%. Stany Zjednoczone wydają też najwięcej na prace badawczo-rozwojowe. W 2015 roku było to 500 miliardów dolarów, czyli 26% światowych wydatków. Chiny, z wydatkami rzędu 400 miliardów USD, uplasowały się na drugim miejscu. Jednak o ile wydatki w USA pozostają na tym samym poziomie w stosunku do wielkości gospodarki, Chiny w ostatnich latach zwiększyły ten odsetek. Dla porównania dodajmy, że w 2015 roku nakłady na prace badawczo-rozwojowe w Polsce wyniosły 18 miliardów pln, czyli około 4,5 miliarda USD. W Stanach Zjednoczonych coraz częściej słychać obawy o stan nauki. Mark Muro z waszyngtońskiego think-tanku Brookings Institution mówi, że raport powinien być dzwonkiem alarmowym. Jego zdaniem, wydatki na naukę są źle kierowane, w nauce jest zbyt mała reprezentacja kobiet i mniejszości etnicznych. Uważa on również, że w tak kluczowych gałęziach przemysłu, jak przemysł półprzewodnikowy, powstaje poważna luka, gdyż produkcja jest przenoszona za granicę. Najnowszy raport jest pierwszym, w którym NFS w analizach statystycznych uwzględniła też transfery technologii i innowacje. Z danych wynika, że USA są światowym liderem pod względem patentów, dochodów z własności intelektualnej oraz kapitału zaangażowanego w innowacyjne technologie. Muro dodaje, że więcej uwagi należy poświęcić innowacjom na szczeblu lokalnym i regionalnym. "Zdolność do innowacji to jedno z głównych kół zamachowych produktywności, a zatem i zamożności kraju, przypomina analityk. « powrót do artykułu
  8. Rzecznik generalny Europejskiego Trybunału Sprawiedliwości wydał formalną opinię, w której stwierdził, że takie techniki modyfikacji genetycznych jak CRISPR-Cas9 niekoniecznie podlegają pod dyrektywę Unii Europejskiej regulującą produkty GMO. W skład Trybunału wchodzi 11 rzeczników generalnych. Ich opinie nie są wiążące, jednak często wyroki Trybunału pokrywają się z nimi. Naukowcy z Europy z zadowoleniem przywitali opinię rzecznika. Chcieliby używać technik pozwalających na wprowadzanie do genomu niewielkich precyzyjnych zmian, jednak nie są pewni, czy tak zmodyfikowane organizmy mogłyby trafić na rynek. Uchwalona w 2001 roku dyrektywa dotycząca GMO powstała, zanim opracowano wiele współczesnych precyzyjnych technik manipulacji genetycznych. Od lat toczy się spór, czy dyrektywa dotyczy nowoczesnych technik, jednak na wszelki wypadek wprowadzono moratorium na stosowanie zmodyfikowanych organizmów poza laboratorium. Mamy poczucie, że ta opinia idzie w kierunku wyjaśnienia wątpliwości. Przynajmniej nie jest w niej powiedziane, że wszystkie produkty zmodyfikowane za pomocą nowych technik edycji genów powinny automatycznie podlegać pod wszelkie wymogi opisane dyrektywą o GMO, mówi Ralf Wilhem z Instytutu im. Juliusa Kühna, czołowego niemieckiego ośrodka badawczego nad roślinami uprawnymi. Problem naprawdę jest poważny, gdyż jeśli wszystkie produkty o edytowanych genach uznano by za podlegające dyrektywie, to stawiane przez nią obostrzenia dotyczące kontroli i innych ograniczeń spowodowałyby, że rozwój takich produktów byłby zbyt drogi dla małych firm i ośrodków akademickich. Ponadto opinia publiczna, wiedząc, że podlegają one dyrektywie o GMO, mogłaby uznać je za GMO i je odrzucić. Dlatego też mowa jest tutaj o edytowaniu genów, czyli stosowaniu bardziej precyzyjnych metod manipulacji genetycznej. Dyrektywa, o której mowa, dotyczy organizmów, w których zmieniono całe geny czy przeniesiono całe łańcuchy nukleotydów. Wyłączono jednak spod jej działania te rośliny czy zwierzęta, których genomy zostały zmienione za pomocą dostępnych w czasie jej uchwalania technik mutagenezy, takich jak napromieniowanie. Zwolennicy wyłączenia nowoczesnych technik edycji genów spod działania dyrektywy argumentują, że techniki te są rodzajem mutagenezy, gdyż prowadzą do zmian w pojedynczych nukleotydach. Przeciwnicy twierdzą zaś, że celowo wprowadzane zmiany prowadzą do powstania zmodyfikowanego genetycznie organizmu, który powinny podlegać dyrektywie o GMO. Przed 15 miesiącami francuski rząd zwrócił się do Europejskiego Trybunału Sprawiedliwości z prośbą o interpretację prawną dyrektywy. Znamy już opinię rzecznika generalnego, Czecha Michala Bobka. Jest ona bardzo złożona, a wszyscy zainteresowani zastanawiają się, co w praktyce może ona oznaczać. Bardzo ważnym elementem opinii wydaje się stwierdzenie, że dyrektywa nie zabrania krajom członkowskim uchwalenia własnych praw dotyczących edycji genów. To może otwierać drzwi do powstania różnych rozwiązań prawnych w ramach Unii Europejskiej. « powrót do artykułu
  9. Niewykluczone, że w obliczu zmian klimatycznych ludzkość będzie musiała im zapobiegać poprzez takie działania jak np. rozpylanie w atmosferze dwutlenku siarki, który blokując dostęp promieni słonecznych pozwoli na schłodzenie powierzchni planety. Autorzy badań nad wpływem geoinżynierii na klimat ostrzegają, że nagłe zaprzestanie praktyk geoinżynieryjnych może być niezwykle niebezpieczne. Wyniki badań, których autorami są profesor Alan Robock, Lili Xia i Brain Zambri z Rutgers University oraz ich koledzy z University of Maryland, Yale University i Stony Brook University, zostały opublikowane w piśmie Nature Ecology & Evolution. Szybkie ocieplenie następujące po zaprzestaniu działań geoinżynieryjnych byłoby olbrzymim zagrożeniem dla środowiska naturalnego i bioróżnorodności. Jeśli działania geoinżynieryjne zostaną nagle przerwane, będzie to miało katastrofalny wpływ. Musimy więc być pewni, że działania takie możemy kończyć stopniowo, mówi profesor Robock. Rozpylanie dwutlenku siarki w górnych warstwach atmosfery jest najbardziej popularnym z pomysłów na geoinżynierię. Siarka spowoduje formowanie się chmur, które zablokują promienie słoneczne. Jednak po zaprzestaniu takich działań chmury znikną w ciągu roku lub dwóch, dlatego też samoloty rozpylające siarkę musiałyby latać praktycznie nieprzerwanie. Naukowcy zbadali scenariusz, w którym rozpylono tyle dwutlenku siarki, iż doprowadziło to do umiarkowanego schłodzenia Ziemi, a następnie zaprzestano takich działań. Na potrzeby symulacji przyjęli, że w latach 2020 – 2070 samoloty rozpylały każdego roku na równiku 5 milionów ton dwutlenku siarki. Takie działania powinny doprowadzić do równego rozłożenia się chmur na obu półkulach i obniżenia temperatury Ziemi o około 1 stopień Celsjusza. Z badań wynika jednak, że jeśli działania takie zostałyby nagle zaniechane, to dojdzie do 10-krotnie szybszego ocieplenia, niż gdyby w ogóle nie prowadzono geoinżynierii. Uczeni postanowili też sprawdzić, jak szybko musiałyby przemieszczać się organizmy, by przetrwać takie tempo ocieplenia. Problem w tym, że w wielu przypadkach trzeba się przemieszać w jednym kierunku, by odnaleźć temperatury podobne do tych, do jakich dany organizm jest przyzwyczajony, a w innym kierunku, by odnaleźć odpowiednią ilość opadów. Rośliny w ogóle nie są w stanie przemieszczać się w odpowiednim tempie. Niektórym zwierzętom może się do udać, innym nie. Profesor Robock zauważa też, że rezerwaty czy parki narodowe stanowią obecnie schronienie dla wielu gatunków roślin i zwierząt. W warunkach gwałtownego ocieplania się, nawet jeśli dany gatunek będzie przemieszczał się odpowiednio szybko, może nie znaleźć poza obszarami chronionymi miejsca, gdzie będzie mógł przebywać i gdzie zdobędzie pożywienie. Jednym z zaskakujących wyników symulacji było stwierdzenie, że jeśli nagle zakończymy działania geoinżynieryjne, to El Niño może tak ogrzać tropikalne obszary Pacyfiku, że spowoduje to katastrofalne susze w Amazonii. « powrót do artykułu
  10. NASA prowadzi prace nad projektem Kilopower, nowym bezpiecznym źródłem energii dla misji kosmicznych. Rozwijany w Glenn Research Center system wykorzystujący rozpad jądra atomu ma nieprzerwanie przez co najmniej 10 lat dostarczać do 10 kW mocy. To wystarczająca ilość do zasilenia dwóch przeciętnych gospodarstw domowych. Cztery jednostki Kilopower wystarczyłyby do zasilenia niewielkiej bazy kosmicznej. Naukowcy z Glenn Research Center, Marshall Space Flight Center i Los Alamos National Laboratory rozpoczęli ostatnio testy rdzenia reaktora dostarczonego przez Y12 National Security Complex. Jeszcze w bieżącym miesiącu rdzeń ma zostać połączony z resztą systemu i rozpoczną się testy całości. Na marzec zaplanowano zaś 28-godzinny eksperyment, podczas którego Kilopower będzie pracował pełną mocą. Tego typu system będzie konieczny do zapewnienia energii bazom kosmicznym. Na Marsie ilość energii dostarczanej przez Słońce jest silnie uzależniona od pory roku, a pojawiające się na Czerwonej Planecie burze piaskowe mogą trwać całymi miesiącami, blokując dostęp promieniowania słonecznego i zasypując ogniwa fotowoltaiczne. Z kolei na księżycu noce trwają po 14 dób. Potrzebujemy źródła energii, które będzie działało w ekstremalnych warunkach. Zastosowanie systemu Kilopower daje nam dostęp do całej powierzchni Marsa, w tym do obszarów podbiegunowych, gdzie może znajdować się woda. Na księżycu Kilopower pozwoli na poszukiwanie zasobów naturalnych w wiecznie zacienionych kraterach, mówi Lee Mason, główny technolog NASA odpowiedzialny za przechowywanie energii. Kilopower ma być niedużym, niezawodnym i lekkim systemem, który zapewni odpowiednią ilość energii. « powrót do artykułu
  11. Kocice o wiele częściej używają prawej łapy niż kocury. Naukowcy z Queen's University Belfast zebrali grupę 44 wysterylizowanych kotów (20 kotek i 24 kotów). O ile w populacji generalnej nie było preferencji, którą można by porównać do ludzkiej dominacji prawej ręki, o tyle w obrębie płci preferencje łapy były już widoczne. Dotychczasowe badania preferencji kończyn u zwierząt koncentrowały się na wymuszonych wyzwaniach eksperymentalnych. Studium autorów artykułu z pisma Animal Behaviour prowadzono zaś w naturalnych warunkach domowych. Właściciele mieli odnotowywać, w jaki sposób ich koty pokonują schody czy przeszkody na swojej drodze i czy śpią na prawym, czy na lewym boku. Przeprowadzano też test, w ramach którego zwierzę musiało sięgnąć po przekąskę schowaną w 3-piętrowym karmidle. Większość kotów wykazywała preferencję łapy podczas sięgania po pokarm (73%), a także podczas pokonywania schodów (70%) czy przeszkód (66%), przy czym preferencja prawej bądź lewej łapy utrzymywała się w większości zadań. Kocury częściej wybierały lewą łapę, a kocice prawą. Śpiącym kotom było jednak wszystko jedno, na którym boku się położą. Dr Deborah Well podkreśla, że potrzeba dalszych badań, by ustalić, co odpowiada za różnice "łapności" między płciami, ale wg niej, chodzi o hormony. Wyniki coraz silniej wskazują na różnice w zakresie architektury nerwowej samców i samic. Well dodaje także, że ustalenie preferencji łap u podopiecznych to coś więcej niż zaspokojenie ciekawości, bo ma ona związek z podatnością na stres. Istnieją wskazówki, że zwierzęta obułapne i preferujące łapę lewą są bardziej płochliwe i wrażliwe na niekorzystne warunki niż osobniki z silniejszą dominacją prawej kończyny. Dopiero co odkryliśmy [na przykład], że lewołapne psy mają bardziej pesymistycznie usposobienie od psów prawołapnych. Dla właściciela znajomość dominacji kończyny może [więc] mieć kluczowe znaczenie. « powrót do artykułu
  12. Mech skrętek wilgociomierczy (Funaria hygrometrica) toleruje i wchłania z zanieczyszczonej wody ogromne ilości ołowiu. Można go więc wykorzystać do fitoremediacji. Naukowcy z instytutu RIKEN podkreślają, że woda zanieczyszczona ołowiem stanowi poważny problem środowiskowy. Zazwyczaj usuwanie metali ciężkich wymaga zastosowania paliw kopalnych i dużych nakładów energii. Bardziej ekologiczną alternatywą jest zaś wspomniana wcześniej fitoremediacja, w ramach której w procesie oczyszczania wykorzystuje się rośliny wyższe. Mając to na uwadze, Japończycy postanowili się bliżej przyjrzeć skrętkowi F. hygrometrica, mchowi, który rośnie w miejscach skażonych metalami, np. miedzią, cynkiem i ołowiem. Odkryliśmy, że będąc splątkiem [młodocianą fazą rozwoju gametofitu] mech może spełniać funkcje doskonałego pochłaniacza ołowiu. To oznacza, że mógłby znaleźć zastosowanie w przemyśle górniczym czy chemicznym - przekonuje Misao Itouga. By określić zdolności absorpcyjne mchu, zespół przygotował roztwory 15 metali o różnych stężeniach. Badanie spektrometrem mas wykazało, że po 22 godzinach ekspozycji komórki splątka (protonemy) zaabsorbowały tyle ołowiu, iż stanowił on do 74% ich suchej masy. W przypadku innych metali uzyskane wartości nie były tak imponujące. Wiedza o tym, gdzie ołów się akumuluje, jest ważne zarówno dla określenia wchodzących w grę mechanizmów, jak i dla optymalizacji fitoremediacji. Po dokładniejszej analizie Japończycy ustalili więc, że ponad 85% ołowiu akumulowało się w ścianach komórkowych. Mniejsze jego ilości występowały w błonach organelli oraz wewnątrz chloroplastów. Autorzy publikacji z pisma PLoS ONE wykazali, że ściany komórkowe pochłaniały ołów nawet po wyekstrahowaniu z mchu. Dwuwymiarowa spektroskopia magnetycznego rezonansu jądrowego zademonstrowała, że za absorpcję Pb odpowiada kwas poligalakturonowy. Co istotne, komórki splątka wchłaniały ołów przy pH wynoszącym od 3 do 9. « powrót do artykułu
  13. Intel apeluje, by użytkownicy nie instalowali łat przeciwko dziurom Spectre i Meltdown występującym w jego układach scalonych. Okazało się, że po instalacji łat w urządzeniach występują „nieprzewidywalne” problemy. Koncern opublikował listę chipów, które są narażone na wystąpienie problemów po zainstalowaniu łatek. Zalecamy producentom OEM, operatorom chmur komputerowych, twórcom systemów, sprzedawcom oprogramowania oraz użytkownikom końcowym, by nie instalowali obecnej wersji łaty, gdyż może ona powodować restarty systemu oraz inne nieprzewidywalne zachowania. Opublikowaliśmy pełną listę platform, których dotyczy ten problem – ostrzega koncern Koncern poprosił też swoich partnerów, by jak najszybciej przystąpili do testów wczesnych wersji nowych łatek, tak, by można było dostarczyć je jak najwcześniej. Na opublikowanej przez Intela liście systemów dotkniętych problemem znajdziemy ponad 40 rodzajów procesorów. Są tam całe serie Xeonów, Phi, Atomów, Celeronów, Pentium, Core oraz Core M, i3, i5 a także i7. « powrót do artykułu
  14. Wszystko wskazuje na to, że osunięcia gruntu mogą wywoływać katastrofalne trzęsienia ziemi. W sercu Teneryfy znajduje się stratowulkan Pico del Teide. Jest on najwyższym szczytem Hiszpanii i najwyższym szczytem na jakiejkolwiek atlantyckiej wyspie. Od setek tysięcy lat przechodzi cykl wielkich erupcji, zapadania i odbudowy. Wcześniejsze badania naukowców z Narodowego Centrum Oceanografii w Southampton wykazały, że historyczne erupcje wiązały się z wieloetapowymi podmorskimi osunięciami (osuwiska i osady wulkaniczne miały zbliżony wiek i skład). Dalsze badania osuwisk pokazały, że materiał z eksplozywnej erupcji występuje tylko w warstwach położonych najbliżej powierzchni. To sugeruje, że początkowe etapy każdego osunięcia zachodziły pod wodą i przed wybuchem wulkanu i że de facto mogły one uruchamiać erupcje. Brytyjczycy przyjrzeli się cienkim warstwom gliny między osadami z osuwisk i erupcji i w oparciu o czas potrzebny do osiadania tego materiału oszacowali minimalny czas, jaki upływał między wstępnym podmorskim osuwaniem a wybuchem. Wg nich, wynosił on ok. 10 godzin. Zasadniczo nowe badania pokazują, że od początkowego osunięcia do ostatecznego uruchomienia erupcji może upłynąć od 10 godzin do kilku tygodni. Wygląda to więc zupełnie inaczej niż w przypadku erupcji wulkanu St. Helens z 18 maja 1980 r. Nastąpiła ona bowiem niemal natychmiast po osunięciu całego północnego stoku góry - podkreśla dr James Hunt. Dr Hunt sugeruje, że różnica może być spowodowana tym, że płytki zbiornik magmowy Teide nie zawiera wystarczająco dużo związków lotnych, by doprowadzić do natychmiastowej erupcji eksplozywnej. Wybranie części materiału wulkanicznego przez osuwisko może jednak wyzwalać podnoszenie magmy z niżej położonych, wypełnionych parą komór. Miesza się ona z tutejszą magmą, co skutkuje odroczonym wybuchem i powstaniem kaldery. « powrót do artykułu
  15. Celuloza występująca w biofilmie bakteryjnym różni się od celulozy roślinnej. Naukowcy uważają, że to może być pięta achillesowa patogenów. Mimo że specjaliści od lat badają biofilmy, które często odpowiadają za przekształcenie infekcji ostrej w chroniczną, nie poczynili na tym polu większych postępów. By dowiedzieć się więcej o biofilmach tworzonych przez pałeczki okrężnicy (Escherichia coli), międzynarodowy zespół posłużył się spektroskopią magnetycznego rezonansu jądrowego. Okazało się, że typowa dla nich celuloza różni się od celulozy roślinnej, bo występuje w niej fosfoetanolaminowy łańcuch boczny. To z kolei pozwala na uzyskanie celulozy gęstszej i bardziej opornej na działanie sił ścinających. Autorom publikacji z pisma Science udało się wskazać odpowiedzialny za to gen - bcsG (wydaje się, że koduje on enzym, tranferazę fosfoetanolaminy). Gdy go wyłączono, powstawały słabsze biofilmy. Zespół sugeruje, że powtórzenie tego zabiegu u bakterii powodujących zakażenie mogłoby zwiększać przenikalność biofilmu i ułatwiać zadanie antybiotykom. Akademicy podkreślają, że zmodyfikowaną celulozę produkują również przedstawiciele rodzaju Salmonella. « powrót do artykułu
  16. Ważący ok. 250 kg dziki delfin butlonosy potrzebuje dziennie do 33 tysięcy kalorii. Dla porównania, podczas intensywnych treningów pływacy olimpijscy spalają "tylko" ok. 12 tys. kalorii dziennie. Autorzy raportu z pisma Royal Society Open Science podkreślają, że badanie tempa metabolizmu waleni, w tym delfinów, ma znaczenie m.in. dla planowania ich ochrony. Zespół Andreasa Fahlmana z Woods Hole Oceanographic Institution ustalił, że butlonos zwyczajny potrzebuje dziennie od 10 do 25 kg ryb. Badania prowadzono na delfinach żyjących w Sarasota Bay, lagunie zlokalizowanej u wybrzeży Florydy. Młodociane i dorosłe osobniki chwytano, by zmierzyć ich przemianę materii w stanie spoczynku (ang. resting metabolic rate, RMR). Później można zsumować tę wartość dla [konkretnej] populacji delfinów i oszacować, ile ryb/ofiar potrzebuje stado o tej liczebności. Ma to kluczowe znaczenie dla zarządzania łowiskami i upewniania się, że kwoty nie są zbyt wysokie (gdyby tak było, zwierzętom pozostawiano by zbyt mało pokarmu). Zgodnie z wyliczeniami naukowców, dziki butlonos potrzebuje od 16,5 do 33 tys. kalorii dziennie. Zapotrzebowanie energetyczne zależy od zachowania zwierzęcia - tego, czy odpoczywa, śpi, nurkuje czy pływa - a także od temperatury wody. Ekipa chwali się, że po raz pierwszy zmierzono także funkcję płuc dzikich delfinów. Analizowanie tego parametru w różnych częściach świata pozwoliłoby na ocenę stanu zdrowia różnych populacji, a pośrednio również środowiska. Jeśli delfiny są chore, być może coś jest nie tak z ich środowiskiem - podsumowuje Fahlman. « powrót do artykułu
  17. Bardzo wysokie temperatury, typowe m.in. dla fal upałów, znacząco obniżają jakość spermy zeberek timorskich (Taeniopygia guttata), czyli ptaków teoretycznie przystosowanych do życia w suchych środowiskach. Naukowcy, których pracami kierowali specjaliści z Macquarie University, zauważyli, że u ptaków wystawianych na oddziaływanie wysokiej temperatury (40°C) przez zaledwie 3 dni znacząco rosła częstość wad plemników. Zjawisko to nasilało się z czasem trwania ekspozycji. U zeberek obserwowano też wzrost temperatury ciała, który utrzymywał się po obniżeniu temperatury otoczenia do 30°C. Autorzy publikacji z pisma Royal Society Journal Proceedings B zauważyli, że co prawda jakość spermy poprawiała się po 12 dniach niższych temperatur, ale nigdy nie wracała już do wskaźników występujących przed ekspozycją. Zespół stwierdził, że skrajne temperatury w ograniczonym stopniu wpływały na prędkość ruchu plemników czy odsetek ruchliwych komórek. Zeberki timorskie są zdolne do rozmnażania przez cały rok. Rozród występuje, gdy średnia temperatura wynosi od 2,2°C do 36°C. Gdy największy odsetek populacji aktywnie się rozmnaża, maksymalne temperatury regularnie przekraczają jednak 40°C. Biorąc pod uwagę fakt, że przed kopulacją samce magazynują plemniki w strukturze umiejscowionej blisko powierzchni ciała, upały mogą na nie wpływać na różnych ważnych etapach, w tym spermatogenezy. To pierwsze studium, w ramach którego badano wpływ skrajnych temperatur środowiska na jakość spermy ptaków. Wcześniejsze badania wykazały jedynie, że wysokie temperatury (32-35°C) mogą prowadzić do niepłodności ptactwa domowego. Dr Laura L. Hurley podkreśla, że tylko przed zapłodnieniem samice przechowują plemniki w specjalnych strukturach w drogach rodnych i wydaje się, dostają się tam wyłącznie plemniki o prawidłowej morfologii. Choć do zapłodnienia wystarczy jeden plemnik, to by proces zapłodnienia postępował, błonę ptasiej komórki jajowej muszą spenetrować liczne plemniki. Ponieważ pomyślne zapłodnienie wymaga większej liczby plemników dobrej jakości, każde zjawisko, które zmniejsza ich pulę, może mieć negatywny wpływ na płodność. « powrót do artykułu
  18. Afrykańscy myśliwi i wojownicy od wieków używają toksyny o nazwie ouabain. To uzyskiwana z roślin strofantyna, która jest szybko działającym silnym inhibitorem pompy sodowo-potasowej. Zwierzęta i ludzie trafieni strzałą pokrytą strofantyną doświadczają zatrzymania akcji serca. Współczesna medycyna wykorzystuje ten środek w leczeniu arytmii i nadciśnienia. Niewykluczone, że na jego bazie uda się stworzyć lek antykoncepcyjny dla mężczyzn o odwracalnym działaniu. Shameem Sultana Syeda z University of Minnesota, która stoi na czele grupy badawczej zajmującej się strofantyną, informuje, że odpowiednio zmanipulowany środek powoduje selektywny paraliż plemników i uniemożliwia im dotarcie do jaja. Jak czytamy na łamach Journal of Medicinal Chemistry, środek przygotowany na University of Minnesota wpływa na motorykę i aktywację spermy, a odpowiednio przygotowana strofantyna to obiecująca struktura chemiczna, która może posłużyć do stworzenia precyzyjnego męskiego środka antykoncepcyjnego. Pompa sodowo-potasowa składa się z dwóch podjednostek: alfa i beta. Ouabain łączy się z podjednostką alfa, przez co blokuje cały kanał, koncentracja jonów w komórce znacząco rośnie i w komórkach serca może to np. powodować bardzo silne skurcze. Plemniki również korzystają z jednego z tych kanałów. Jest on niezbędny do tego, by wić się poruszała, a zatem, by plemnik mógł płynąć. Jeśli zablokujemy kanał, wić przestaje się poruszać. Jednak w plemnikach podjednostka alfa pompy sodowo-potasowej nieco różni się od tej podjednostki w innych komórkach ciała. Odmiana w plemnikach oznaczona została jako alfa4, w innych komórkach to alfa1, alfa2 i alfa3. To właśnie ta różnica zainspirowała zespół pani Syedy. Naukowcy wysunęli hipotezę, że może być możliwa zmiana struktury chemicznej strofantyny tak, by trucizna atakowała tylko podjednostkę alfa4. Związek unieruchamiałby plemniki, ale nie szkodziłby innym komórkom. Naukowcy zaczęli więc tworzyć modele pompy sodowo-potasowej o różnej strukturze chemicznej. Znaleźli w ten sposób kilka, które mogły blokować wyłącznie alfa4. Eksperymenty wykazały, że po dodaniu zmodyfikowanej strofantyny do szczurzej spermy plemniki zostały unieruchomione. Środek został następnie podany szczurom. U zwierząt nie zaobserwowano żadnych skutków zatrucia, produkcja spermy była w normie, jednak plemniki były o 50% mniej ruchliwe. Uczeni mówią, że do opracowania opartej na strofantynie pigułki antykoncepcyjnej dla mężczyzn jeszcze długa droga, jednak jest to trop, którym warto podążać. Ich badania dają bowiem nadzieję, na stworzenie środka blokującego funkcje spermy bez uszkadzania niezróżnicowanych komórek rozrodczych, co pozwoli na czasowe i odwracalne zablokowanie męskiej płodności. « powrót do artykułu
  19. Wyciąg z czosnku turkiestańskiego (Allium stipitatum) może pomóc w zwalczaniu lekooporności gruźlicy. Brytyjscy naukowcy mają nadzieję, że jego antybakteryjne właściwości wzmocnią działanie istniejących antybiotyków, w tym izoniazydu czy ryfampicyny. Autorzy publikacji z pisma Scientific Reports badali wyciągi z cebul A. stipitatum. Później, by lepiej zrozumieć i zoptymalizować ich antybakteryjny potencjał, syntetyzowali występujące w nich związki. Testy 4 takich substancji wykazały, że wszystkie prowadziły do znaczącego spadku liczebności wielolekoopornych prątków gruźlicy. Najbardziej obiecujący składnik (z najwyższym indeksem terapeutycznym) hamował wzrost izolatów prątków o ponad 99,9%. Szukając nowych czynników antydrobnoustrojowych, skupiamy się przeważnie na związkach na tyle silnych, by opłacało się je produkować i sprzedawać jako samodzielnie działające leki. My jednak wykazaliśmy, że hamując lekooporność wśród prątków, można odwracać lekooporność i zwiększać skuteczność istniejących antybiotyków - podkreśla dr Sanjib Bhakta of Birkbeck, University of London. Ze względu na swoją popularność w kuchni irańskiej A. stipitatum bywa nazywana szalotką perską. « powrót do artykułu
  20. W Parku Narodowym Bateke Plateau w Gabonie po raz pierwszy od 20 lat odnotowano krokutę (hienę) cętkowaną. Zwierzę utrwaliły aparaty pułapkowe. Niegdyś mieszkało tu wiele gatunków zwierząt, w tym duże drapieżniki, ale zostały one przetrzebione w wyniku dziesięcioleci kłusownictwa. Biolodzy przypominają, w 2015 r. kamery utrwaliły powrót innego drapieżnika - samca lwa - który najpierw przyszedł tu na zwiad, a później zamieszkał. [...] Niestety, nadal pozostaje samotny i nawołuje samice. Powrót dużych drapieżników to czytelny sygnał, że wysiłki naszych strażników i partnerów mają korzystny wpływ na przyrodę Bateke - podkreśla prof. Lee White, dyrektor gabońskiej Agencji Parków Narodowych. Ludzie do tego stopnia odzwyczaili się od widoku hieny cętkowanej, że gdy badacze pokazali ujęcia z aparatów pułapkowych strażnikom, nie mieli pojęcia, co to za zwierzę. Dopiero starsi mieszkańcy wiosek położonych na północ od parku od razu zorientowali się, co widzą. Badacze ustawili aparaty w 2001 r. Wtedy udało im się jednak sfotografować wyłącznie antylopy oraz licznych kłusowników, którzy dostawali się do parku z Konga. « powrót do artykułu
  21. Komputery lepiej od ludzi grają w szachy, pokonują nas w coraz większej liczbie dziedzin. Rodzi się więc pytanie, czy można nauczyć je też współpracy i kompromisu, a nie tylko rywalizacji czy świetnego samodzielnego wykonywania różnych zadań. Zespół naukowy złożony m.in. ze specjalistów z Brigham Young University (BYU) oraz MIT-u stworzył algorytm, który dowodzi, że współpraca pomiędzy maszynami i dochodzenie przez nie do kompromisu jest nie tylko możliwa, ale czasami jest bardziej efektywna niż współpraca pomiędzy ludźmi. Naszym celem było opisanie współpracy międzyludzkiej za pomocą formuł matematycznych oraz zrozumienie, jaki atrybuty są potrzebne sztucznej inteligencji, by zaimplementować w niej umiejętności społeczne, mówi Jacob Crandall z BYU. SI musi umieć na nas reagować i komunikować nam, co robi. Musi być w stanie wchodzić w interakcje z ludźmi, dodaje uczony. Na potrzeby swoich badań naukowcy rozwinęli algorytm nazwany S# i uruchomili go na całej serii gier dla dwóch graczy. Podczas gier testowano interakcje maszyna-maszyna, maszyna-człowiek i człowiek-człowiek. Okazało się, że w większości przypadków maszyny z algorytmem S# były lepsze od ludzi w znajdowaniu rozwiązań kompromisowych, które przynosiły korzyści obu stronom. Dwoje ludzi, jeśli obaj byli uczciwi i lojalni względem siebie, równie dobrze znajdowało kompromis czo dwie maszyny. Jednak około połowa ludzi była w jakimś momencie nieuczciwa. Ten algorytm uczy się, że dobrze jest być uczciwym. Zaprogramowaliśmy go tak by nie kłamał i by kontynuował współpracę, gdy już pierwszy raz ją rozpocznie, mówi Crandall. W algorytmie zaimplementowano też możliwość wypowiadania krótkich fraz. Gdy człowiek godził się na współpracę z maszyną, mógł usłyszeć: Super. Będziemy bogaci czy Zgadzam się na tę propozycję. Gdy zaś oszukał maszynę czy wycofał się z umowy, komputer mówił: A niech Cię...! czy Zapłacisz za to!. Okazało się, że – niezależnie od gry czy rozgrywających – tego typu odzywki zwiększały liczbę przypadków współpracy. Ponadto gdy maszyny się odzywały ludzie często nie byli w stanie stwierdzić, czy grają z drugim człowiekiem czy z maszyną. Crandall ma nadzieję, że jego badania będą miały znaczenie dla relacji międzyludzkich. W naszym życiu różne relacje cały czas się zmieniają. Ludzie, którzy całe życie byli przyjaciółmi, nagle stają się wrogami. Jako, że maszyny często lepiej sobie radzą z dochodzeniem do kompromisowych rozwiązań, potencjalnie mogą nauczyć nas, jak to lepiej robić, dodaje Crandall. « powrót do artykułu
  22. Na University of Bristol udowodniono, po raz pierwszy w historii, że możliwe jest wykorzystanie fal dźwiękowych do stabilnej lewitacji obiektów większych niż długość fali. To daje nadzieję na stabilne lewitowanie całych kapsuł z lekami czy mikroimplantów wewnątrz ludzkiego ciała. Niewykluczone, że w przyszłości możliwe będzie nawet lewitowanie ludzi. Dotychczas sądzono, że lewitatory akustyczne nadają się jedynie do lewitowania bardzo małych obiektów. Wszelkie próby lewitacji przedmiotów większych niż długość fali dźwiękowej kończyły się ich niekontrolowanym obracaniem się. Działo się tak, gdyż obracające się pole dźwiękowe przekazywało część swojego ruchu do lewitowanego obiektu, tak przyspieszając jego ruch obrotowy, że w końcu obiekt był wystrzeliwany z zasięgu fal dźwiękowych. Naukowcy z Bristolu opisali na łamach Physical Review Letter jak wykorzystali akustyczne wiry podlegające szybkim fluktuacjom. Odkryli, że prędkość obrotową obiektu można precyzyjnie kontrolować poprzez zmiany kierunku obrotu wirów akustycznych. To stabilizuje cały strumień akustyczny. Gdy zwiększono średnicę wirów okazało się, że możliwe jest lewitowanie większych obiektów. Naukowcy wykorzystali fale ultradźwiękowe o częstotliwości 40 kHz i byli w stanie stabilnie lewitować polistyrenową sferę o średnicy 2 centymetrów. Specjaliści nie wykluczają, że za pomocą podobnej metody uda się w przyszłości lewitować znacznie większe obiekty. W przyszłości, zwiększając moc urządzenia, możliwe będzie lewitowanie większych obiektów. Dotychczas sądzono, że jest to możliwe jedynie za pomocą słyszalnych niebezpiecznych dla ludzi fal dźwiękowych o niskiej częstotliwości, mówi współautor badań, doktor Mihai Caleap. Akustyczne lewitatory mogą mieć wiele różnych zastosowań. Mnie szczególnie interesuje pomysł bezdotykowych linii produkcyjnych, gdzie delikatne obiekty są bezdotykowo składane, dodaje profesor Bruce Drinkwater, który nadzorował badania. « powrót do artykułu
  23. Zespół specjalistów z Niemiec i Włoch opracował nanocząsteczkowy środek wziewny do leczenia niewydolności serca. Nanocząstki fosforanu wapnia mają mniej niż 50 nm średnicy. Są biokompatybilne i biodegradowalne. Potrafią się szybko przemieścić z układu oddechowego do krwiobiegu, a stąd są wychwytywane przez kardiomiocyty. Gdy się tam dostaną, uwalniają lek, którego zadaniem jest naprawa kanałów wapniowych (dzięki temu można odtworzyć prawidłową czynność elektryczną mięśnia sercowego). Najpierw autorzy publikacji z pisma Science Translational Medicine prowadzili badania na myszach i szczurach z kardiomiopatią cukrzycową. Po zastosowaniu środka wziewnego mierzyli pojemność wyrzutową lewej komory. Okazało się, że o ile przed leczeniem wynik myszy z uszkodzonymi sercami był o 17 punktów procentowych niższy niż w przypadku zdrowych myszy, o tyle po podaniu nanocząstek z ładunkiem wynik wzrósł średnio o 15 punktów procentowych. Później akademicy testowali swoje rozwiązanie na świniach (ich układ oddechowy bardziej przypomina ludzki). Szczególnie ważną kwestią była szybkość gromadzenia nanocząstek w tkance serca. Okazało się, że spełniała ona oczekiwania uczonych z nawiązką. Dr Michele Miragoli z Uniwersytetu w Padwie i jego ekipa podkreślają, że nie zaobserwowano żadnego toksycznego wpływu na tkankę gryzoni. « powrót do artykułu
  24. Chińsko-amerykański zespół naukowy przybliżył nas do momentu wynalezienia skutecznej uniwersalnej szczepionki przeciwko grypie. Grypa to jedna z najpoważniejszych chorób trapiących ludzkość. Z danych WHO dowiadujemy się, że każdego roku grypa powoduje na świecie od 3 do 5 milionów poważnych zachorowań i zabija od 290 od 650 tysięcy osób. Jednym z większych wyzwań jest przewidzenie, jakie szczepy będą atakowały w danym sezonie. Grupa naukowa pracująca pod kierunkiem specjalistów z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) poinformowała o stworzeniu przeciwgrypowej szczepionki, która wywołuje silną reakcję immunologiczną bez jednoczesnego powodowania choroby u pacjenta. W przeciwieństwie do zwykłych szczepionek ta nowa pobudza do silnego działania limfocyty typu T. To bardzo istotne, gdyż limfocyty samodzielnie rozpoznają szczepy grypy, zatem możemy mieć tutaj do czynienia z uniwersalną szczepionką. Tradycyjne szczepionki przeciwgrypowe zawierają mieszaninę różnych szczepów wirusów grypy. Wirusy te są martwe. Po wstrzyknięci do organizmu nasze ciało produkuje przeciwciała. Te przyczepiają się do wirusów zapobiegając rozpowszechnianiu się infekcji. Jednak taka metoda nie wywołuje silnej reakcji ze strony limfocytów T, gdyż wstrzyknięte wirusy są martwe. W nowej szczepionce wykorzystano zaś żywe wirusy. To powoduje zarówno pojawienie się przeciwciał jak i silną reakcję limfocytów T. Skuteczność metody potwierdzono na myszach i fretkach. "To wspaniałe połączenie świetnej odpowiedzi ze strony przeciwciał i bardzo silnej reakcji limfocytów T. Mamy w ten sposób dwie linie obrony. Jeśli wirus poradzi sobie z przeciwciałami, zostanie zaatakowany przez limfocyty T, dzięki którym nie zachorujemy", mówi Kathleen Sullivan, szefowa Wydziału Alergologii i Immunologii. Naukowcy przeprowadzili szczegółową analizę wirusa grypy badając, jak mutacje w różnych jego fragmentach reagują na interferon, białko wytwarzane w organizmie w odpowiedzi na atak wirusa. W ten sposób zidentyfikowali te mutacje, które z największym prawdopodobieństwem spowoduję działanie interferonu. Następnie stworzyli zmutowanego wirusa grypy, który dobrze się rozprzestrzenia, jednak jest wysoce podatny na działanie interferonu. Taki wirus świetnie sprawdził się u myszy i fretek, najpowszechniej używanych modeli dla ludzkich wirusów. Jeśli testy kliniczne potwierdzą jego skuteczność u ludzi niewykluczone, że nie będą już potrzebne coroczne szczepienia przeciwko grypie. Co prawda nie wiadomo, jak długo ich szczepiona będzie chroniła ludzi, jednak odpowiedź ze strony limfocytów T zwykle chroni na dłużej niż ta ze strony przeciwciał. W związku z użyciem żywego wirusa mogą pojawić się obawy, że po wstrzyknięciu do organizmu powróci on do swojej oryginalnej, niebezpiecznej formy. Naukowcy twierdzą jednak, że to mało prawdopodobne, gdyż wprowadzili doń aż osiem mutacji genetycznych. Uważają też, że ich metodę można wykorzystać w walce z innymi wirusami. Uczeni z The Scripps Research Institute, których komentarz towarzyszył opublikowanemu w Science artykułowi opisującemu nową szczepionkę, uważają, że opracowanie uniwersalnej szczepionki przeciwgrypowej nie będzie łatwe. Zespół z UCLA wykazał, że ich szczepionka jest skuteczna przeciwko małej grupie szczepów grypy, w tym przeciwko typom H1N1 i H3N2, to jednak nie ma pewności, że będzie działał przeciwko wszystkim szczepom. Pani Sullivan zauważa też, że konieczne jest dokładne przetestowanie nowej szczepionki pod kątem bezpieczeństwa. Silna odpowiedź immunologiczna niszczy bowiem tkankę płuc i może okazać się śmiertelna dla ludzi zarażonych ptasią grypą H5N1. Pozostaje jeszcze wiele innych pytań dotyczących praktycznego wykorzystania jej u ludzi. Jednak to wysoce innowacyjne i ekscytujące badania - stwierdziła uczona. « powrót do artykułu
  25. Kobiety, które zażywają specjalny suplement - mieszankę chelatów 3 minerałów i 2 pochodnych aminokwasów - biegają szybciej. W początkowym eksperymencie, który objął 28 młodych kobiet, okazało się, że w grupie interwencyjnej po miesiącu średni czas pokonania dystansu 3 mil (ok. 4,8 km) spadł z 26,5 do 25,6 min. Odległość pokonywana przez 25 minut na rowerze stacjonarnym wzrastała zaś ze średnio 6 (ok. 9, 65 km) do 6,5 mili (ok. 10,4 km). Poprawę zaobserwowano też w przypadku testu wchodzenia przez 90 s na stopień o wysokości 41 cm (liczba powtórzeń rosła z 40 do prawie 44). Wszystkie zmiany były istotne statystycznie i nie występowały w grupie placebo (skrobi kukurydzianej). Autorzy publikacji z Journal of the International Society of Sports Nutrition przeprowadzili też 2. eksperyment z udziałem 36 ochotniczek. Sprawdzali, czy uda się powtórzyć wyniki 1. badania i oceniali wpływ zmniejszenia o połowę dawki jednego ze składników suplementu (w 1. zastosowano połączenie 6 mg żelaza, 15 mg cynku, 2 mg miedzi, a także 2 g karnityny oraz 400 mg fosfatydyloseryny, a w drugim zastosowano tylko 1g karnityny dziennie). Okazało się, że średni spadek czasu na 3 mile wynosił 41 s. Wiemy, że zwłaszcza młode kobiety cierpią na mikroniedobory różnych składników, a te odgrywają pewną rolę w pracy komórek podczas wysiłku fizycznego. Kobiety jedzą mniej mięsa niż mężczyźni, a menstruacja także przyczynia się do utraty minerałów - wyjaśnia Robert DiSilvestro z Uniwersytetu Stanowego Ohio. DiSilvestro pracuje nad ulepszeniem i komercjalizacją suplementu. Szacuje się, że jego miesięczny zapas kosztowałby ok. 35-40 dol. W 1. eksperymencie panie spożywały proszek zmieszany przez naukowców. Ochotniczki dostawały łyżeczkę z podziałką, za pomocą której odmierzały suplement. Trzeba go było dodać do dowolnego napoju, pitego tuż przed lub po posiłku. Dzienną dawkę należało podzielić na 2 porcje. W 2. eksperymencie suplement miał już postać kapsułek. Jak podkreślają Amerykanie, uczestniczki studium miały od 18 do 30 lat. Wszystkie regularnie wykonywały ćwiczenia aerobowe (co najmniej 2-3 godziny tygodniowo przez 1,5 miesiąca). Panie musiały być też biegaczkami. Potrzebowaliśmy ludzi, którzy już w tym momencie potrafiliby przebiec 3 mile i nie odczuwać z tego powodu skrajnego zmęczenia. Choć z wyjątkiem miedzi mężczyźni o wiele rzadziej cierpią na lekkie niedobory zastosowanych minerałów, zespół DiSilvestro chce sprawdzić, czy suplementacja przyniesie jakieś korzyści mężczyznom będącym wegetarianami. Amerykanie chcą się też przyjrzeć biegaczom długodystansowym. « powrót do artykułu
×
×
  • Dodaj nową pozycję...