Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Osoby z niską wagą urodzeniową rzadziej są dobre w sporcie w szkole i rzadziej ćwiczą na późniejszych etapach życia. Naukowcy analizowali dane uczestników National Survey for Health and Development (w ramach studium ściśle monitoruje się stan zdrowia grupy ludzi urodzonych w tym samym tygodniu w marcu 1946 r.). W najnowszym badaniu, które ukazało się w piśmie Medicine & Science in Sports & Exercise, uwzględniono dane 2.739 uczestników tego studium. O ile wcześniejsze badania pokazały, że niska waga urodzeniowa może wpływać na zdolności sportowe i poziom aktywności w młodszym wieku, o tyle badania Jednostki Zdrowia na Przestrzeni Życia i Starzenia Komitetu Badań Medycznych oraz Uniwersyteckiego College'u Londyńskiego (UCL) po raz pierwszy zademonstrowały, że wpływ rozciąga się także na poziom aktywności w dorosłości i na późniejszych etapach życia. Za niską wagę urodzeniową uznawano wagę do 2,5 kg. Okazało się, że w wieku 13 lat osoby takie były oceniane przez nauczycieli jako wypadające w sportach poniżej średniej. W wieku 36-68 lat rzadziej uprawiały też sporty i ćwiczenia. Brytyjczycy podkreślają, że biorąc pod uwagę, że dziś prawdopodobieństwo przeżycia dzieci z niską wagą urodzeniową jest wyższe niż w przypadku dzieci urodzonych w 1946 r., ustalenia będą mieć coraz większy wpływ na zdrowie publiczne obecnego i przyszłych pokoleń. Jak podkreśla dr Ahmed Elhakeem, rodzice, nauczyciele i lekarze muszą pamiętać, że osoby z niską wagą urodzeniową mogą wymagać więcej wsparcia, by wdrożyć się w podtrzymywanie aktywności fizycznej na przestrzeni życia. Prof. Rebecca Hardy dodaje, że korelacji między niską wagą urodzeniową a mniejszą ilością ćwiczeń na późniejszych etapach życia nie da się wyjaśnić czynnikami socjoekonomicznymi i szkolnymi zdolnościami sportowymi, o których wiadomo, że wiążą się z ilością ćwiczeń w dorosłości. Oznacza to, że w grę wchodzą inne procesy rozwojowe i społeczne. Naukowcy chcą je lepiej poznać w kolejnych etapach badań, by następnie opracować programy wsparcia. « powrót do artykułu
  2. Na Madagaskarze odkryto nieznany dotychczas gatunek węża. Nazwano go "wężem-duchem" od niezwykle bladego zabarwienia skóry oraz skrytej natury. Wąż został po raz pierwszy zauważony na nowo otwartym szlaku w dobrze znanym Parku Narodowym Ankarana na północy wyspy. Zwierzę odkryto w lutym 2014 roku. Od tamtego czasu jego DNA i cechy fizyczne były badane przez naukowców z Louisiana Museum of Natural History, American Museum of Natural History i Universite de Mahajunga na Madagaskarze. Uczeni potwierdzili, że to nowy, nieznany jeszcze gatunek. Zyskał on oficjalną nazwę Madagascarophis lolo. Wymowa te ostatniego wyrazu brzmi "luu luu" co w języku malgaskim znaczy "duch". Zwierzę należy do rodzaju Madagascarophis. To niewielkie węże posiadające łagodnie toksyczny jad. Długość dorosłych osobników rzadko przekracza 100 centymetrów. Mają one wielkie oczy z pionowo ułożonymi źrenicami, typowe dla węży prowadzących nocny tryb życia. Wiele takich węży zamieszkuje tereny zurbanizowane i zdegradowane pod względem środowiskowym. Jednak Madagascarophis lolo został znaleziony w parku narodowym, w miejscu występowania znanych wapiennych formacji skalnych tworzących szpiczaste iglice. Żaden inny wąż Madagaskaru nie jest tak blady i żaden nie ma tak wyjątkowego wzoru na skórze - mówi Sara Ruane z Louisiana Museum of Natural HIstory. Naukowców byli bardzo zaskoczeni, gdy analizy DNA ujawniły, iż najbliższym krewnym Madagascarophis lolo jest Madagascarophis fuchsi, który został odkryty kilkanaście lat temu w odległości około 100 kilometrów. Oba gatunki zamieszkują skaliste izolowane tereny. « powrót do artykułu
  3. Jak szybko, łatwo i nieinwazyjnie zmierzyć puls, sprawdzić poziom elektrolitów, cukru, mocznika, a nawet hormonów? Korzystając z czujników biomedycznych naklejanych na skórę. Nad rozwiązaniem pracuje Andrzej Pepłowski – doktorant na Wydziale Mechatroniki Politechniki Warszawskiej. Czujniki biomedyczne służą do wykrywania sygnałów biologicznych. Jednym z nich jest fala tętna, która rozchodzi się w naczyniach krwionośnych. Wykorzystywany do jej mierzenia czujnik jest na razie w fazie prototypowej. Opracował go dr inż. Daniel Janczyk – wyjaśnia Andrzej Pepłowski. Ja zajmuję się jego zastosowaniem i modyfikacjami. Obaj naukowcy należą do zespołu prof. Małgorzaty Jakubowskiej, który na Wydziale Mechatroniki PW zajmuje się elektroniką drukowaną. Zauważyć interakcję Czujnik do mierzenia pulsu jest wydrukowany na papierze do tatuaży tymczasowych. W trakcie badania nakleja się go wraz z drugą warstwą (wykonaną z nanopłatków grafenowych) na skórę, najlepiej na nadgarstku. Pod wpływem zewnętrznych sił uzyskujemy sygnał – tłumaczy Andrzej Pepłowski. W ten sposób możliwe staje się sprawdzenie tętna. To jednak tylko jeden z parametrów, który pozwalają monitorować czujniki biomedyczne. Wśród nich wyróżniamy też czujniki elektrochemiczne, dzięki którym można wykrywać różne substancje chemiczne znajdujące się w ludzkim organizmie: elektrolity, cukier, mocznik, hormony. Na razie te urządzenia nie były jeszcze sprawdzane na skórze. Testy odbywały się tylko w laboratorium. W opracowaniu takich czujników (ze względu na ich różne zasady działania) pomaga zespół prof. Elżbiety Malinowskiej z Wydziału Chemicznego Politechniki Warszawskiej. Jak to możliwe, że przy pomocy tak małych urządzeń jesteśmy w stanie sprawdzić poziom jakiejkolwiek substancji? To, co biologicznie dzieje się w organizmie, przekładamy na zjawisko fizyczne lub chemiczne, które jesteśmy w stanie mierzyć – opowiada Andrzej Pepłowski. Może to być sygnał elektryczny, zmiana koloru, odkształcenia… Metod jest tyle, ile zjawisk. Moim zadaniem jest dostrzeżenie potencjalnej interakcji między takim czujnikiem i organizmem, a potem doprowadzenie do momentu, kiedy faktycznie będziemy ją w stanie zauważyć. Żeby efekty badania można było zobaczyć, trzeba stworzyć stosowny sposób komunikacji. Chcielibyśmy wykorzystać do tego smartfon – mówi Andrzej Pepłowski. Czujnik ma być zbliżany do telefonu z zainstalowaną odpowiednią aplikacją, która poda informację o wyniku. Tylko kilka sekund badania Warto podkreślić, że czujniki, nad którymi pracuje naukowiec z PW, nie mają służyć do laboratoryjnych pomiarów z dokładnością do kilku miejsc po przecinku. Chodzi o to, by dzięki nim monitorować, jak zachowuje się organizm w różnych sytuacjach (np. określić, kiedy człowiek jest mniej, a kiedy bardziej zestresowany). Takie zastosowanie pozwala na dużą miniaturyzację czujników. A to tylko jedna z ich zalet. Ponadto są one nieinwazyjne, tzn. pozwalają uniknąć kłucia, dostarczania pobranej próbki do laboratorium, a potem czekania na wynik badania. Tu pomiar substancji chemicznych trwa 1–2 sekundy i od razu widać efekt. Niektórych chorób czy stanów fizjologicznych nie jesteśmy na razie w stanie monitorować w sposób ciągły – dodaje Andrzej Pepłowski. Do przeprowadzenia badania trzeba się czasem położyć do szpitala na dzień lub dwa, wieczorem albo rano jesteśmy nakłuwani czy podłączani do jakiegoś aparatu i następuje diagnostyka. Nie są to jednak normalne warunki, w których funkcjonuje człowiek. Dokonanie kilku pomiarów w ciągu doby, z wykorzystaniem opracowywanych czujników, pomoże lepiej obserwować zmiany w organizmie. Dużym udogodnieniem jest też konstrukcja czujnika. Ma on formę tatuażu elektronicznego naklejanego na skórę. To w żaden sposób nie ogranicza użytkownika, nie przeszkadza w codziennym funkcjonowaniu. Ważną zaletą urządzeń, której na pierwszy rzut oka nie widać, jest technologia zastosowana do ich wytwarzania. – Wykorzystujemy tu elektronikę drukowaną – wyjaśnia Andrzej Pepłowski. Matryce czujników wykonane są bardzo prostą techniką drukarską, zużywamy tylko tyle materiału, ile potrzebujemy. To umożliwia produkcję na wielką skalę i minimalizację kosztów. Przy dużej skali koszt jednego czujnika może wynosić 2–3 centy. Nawet jeśli jest on jednorazowego użytku, to i tak jest na tyle tani, że jego wykorzystanie opłaca się i użytkownikowi, i producentowi. Wspólna praca pełna wyzwań Andrzej Pepłowski zaznacza, że zanim urządzenia, nad którymi pracuje, na dobre pojawią się na rynku, może minąć nawet 5 lat. Na razie staramy się dostosować technologię wytwarzania samych czujników, żeby w ciągu 2–3 lat opracować przynajmniej kilka takich urządzeń – mówi. A wyzwań nie brakuje. Najważniejsze to połączenie elastyczności i niskiej wagi czujnika z wytrzymałością. Podłoże, z którego korzystamy, jest bardzo cienkie i wiotkie, wygląda jak rodzaj papieru lub folii – opowiada naukowiec z Politechniki. Jeżeli jest się nieostrożnym, łatwo ten materiał zniszczyć. Układ elektroniczny, który na niego naniesiemy naszą techniką drukarską, ma tymczasem wytrzymać przynajmniej kilka godzin użytkowania. Andrzej Pepłowski podkreśla, że on jest inżynierem biomedycznym, a żeby opracować czujniki, potrzeba wsparcia różnych specjalistów. Współpracuję z kolegami, którzy mają dużą wiedzę i pomagają od strony technologicznej i chemicznej – wyjaśnia naukowiec. W naszym zespole jest też lekarz. Czujniki biomedyczne mogą być przyszłością diagnostyki. Mamy sygnały z branży medycznej, że to wartościowy kierunek działań – mówi Andrzej Pepłowski. Myślę, że stworzenie takiego rozwiązania w krótkim czasie spotka się dużą akceptacją i zainteresowaniem tego środowiska. « powrót do artykułu
  4. Inżynierowie z Uniwersytetu Stanforda opracowali tanie plastikowe włókno, z którego ubrania mogą chłodzić lepiej niż współczesne ubrania z włókien sztucznych i naturalnych. Jeśli można schłodzić osobę, zamiast budynku, w którym przebywa, to można będzie zaoszczędzić sporo energii - mówi profesor Yi Cui z Uniwersytetu Stanforda. Osoba ubrana w odzież z nowego materiału czuje się tak, jakby było jej o prawie 4 stopnie Fahrenheita chłodniej, niż ubrana w odzież z bawełny. Nowy materiał pozwala nie tylko odparować pot - to umożliwiają też współczesne materiały - ale w większym stopniu niż inne materiały przepuszcza emitowane przez ciało promieniowanie podczerwone. Gdy siedzimy to 40-60 procent ciepła z naszego organizmu jest rozpraszane właśnie w postaci promieniowania podczerwonego. Dotychczas jednak niemal nie było badań charakterystykami emisji cieplnej przez odzież - dodaje profesor Shanhui Fan. Podstawą do stworzenia nowego materiału stał się polietylen, z którego powstaje m.in. folia spożywcza. Ma on wiele pożądanych cech: przepuszcza ciepło, powietrze i par wodną oraz jest nieprzezroczysty. Oczywiście folia spożywcza jest przezroczysta i nie przepuszcza wody. Naukowcy radzili sobie z tymi problemami krok po kroku. Najpierw znaleźli nieprzezroczysty polietylen, który jednak przepuszcza ciepło. Taki wykorzystywany jest w akumulatorach. Ten typ przemysłowego polietylenu został następnie potraktowany łagodnymi środkami chemicznymi, dzięki czemu zaczął przepuszczać parę wodną. Gdy już mieli materiał o pożądanych właściwościach połączyli go z cienką warstwą bawełny, która nadała mu wytrzymałości i odpowiedniej grubości. Uzyskali w ten sposób trójwarstwowy materiał złożony z dwóch warstw polietylenu przedzielonego warstwą bawełny. Następnie porównywali zdolność do rozpraszania ciepła ich materiału i standardowej bawełny. Badania wykazały, że skóra przykryta bawełną jest o 3,6 stopnia Fahrenheita cieplejsza, niż skóra przykryta nowym materiałem. Teraz uczeni pracują nad kolejnymi udoskonaleniami. Chcą nadać swojemu materiałowi różne kolory czy tekstury, chcą, by bardziej przypominał materiały spotykane w ubraniach. Duża zaletą ich prac jest wykorzystanie masowo produkowanego przemysłowego polietylenu, dzięki czemu produkcja nowego materiału nie powinna nastręczać większych trudności. « powrót do artykułu
  5. Mikrobiom pacjentów z oddziałów intensywnej opieki medycznej (OIOM-ów) różni się znacznie od mikroflory zdrowych osób. Naukowcy, którzy analizowali taksony bakterii z przewodu pokarmowego, jamy ustnej i skóry, zaobserwowali dysbiozę (nierównowagę), która pogarszała się w czasie pobytu pacjenta w szpitalu. W porównaniu do osób zdrowych, obserwowano utratę korzystnych dla zdrowia komensalnych bakterii. Wyższa była z kolei liczebność taksonów z patogennymi szczepami (zwiększa to podatność na zakażenia szpitalne, co może prowadzić do sepsy, a nawet zgonu). Wyniki potwierdziły to, czego się obawialiśmy. Byliśmy świadkami masywnej utraty normalnych, korzystnych dla zdrowia gatunków - opowiada Paul Wischmeyer, anestezjolog ze Szkoły Medycznej Uniwersytetu Kolorado. Wischmeyer koncentruje się na interwencjach żywieniowych, które poprawiają rokowania pacjentów w stanie krytycznym. Podkreśla, że terapie stosowane na OIOM-ach, w tym silne antybiotyki czy leki na podtrzymanie ciśnienia, zmniejszają populacje "zdrowych bakterii". Zrozumienie, jak te zmiany wpływają na rokowania pacjentów, może doprowadzić do opracowania celowanych terapii odtwarzających równowagę bakteryjną. To z kolei mogłoby ograniczać ryzyko zakażenia niebezpiecznymi patogenami. W ramach wcześniejszych badań śledzono zmiany mikrobiomu u pojedynczych pacjentów lub u niewielkich grup, jednak zespół Wischmeyera analizował mikrobiom z próbek ze skóry, kału oraz jamy ustnej 115 pacjentów OIOM-ów z 4 szpitali w USA i Kanadzie. Skład bakteryjny określano 2-krotnie: 48 godzin po przyjęciu i po 10 dniach na oddziale intensywnej terapii (lub kiedy pacjent został wypisany). Odnotowywano, co pacjent jadł, jakie leki mu podawano i jakie ewentualne infekcje u niego wystąpiły. Naukowcy porównywali uzyskane dane z informacjami dot. zdrowych uczestników projektu American Gut. Okazało się, że w próbkach pacjentów z OIOM-ów było mniej bakterii Bacteroidetes i Firmicutes i więcej proteobakterii, wśród których występuje wiele patogenów. Obserwowaliśmy szybkie zwiększenie liczebności organizmów powiązanych z chorobą. W niektórych przypadkach po kilku dniach od przyjęcia na oddział stanowiły one 95% mikroflory jelit [...]. U niektórych osób nawet w czasie przyjęcia mikrobiom przypominał mikrobiom zwłok. Zdarzało się to częściej, niż byśmy sobie tego życzyli. Wischmeyer sugeruje, by monitorować mikrobiom razem z innymi parametrami życiowymi. W ten sposób dałoby się identyfikować problematycznych pacjentów, nim wystąpiłyby u nich objawy. Amerykanie chcieliby wskazać terapie, w tym probiotyki, które pomogłyby odtworzyć równowagę bakteryjną. « powrót do artykułu
  6. Ludzie postawieni przed 100-procentową szansą otrzymania jakiejś kwoty pieniędzy lub 50-procentową szansą na otrzymanie kwoty dwukrotnie większej, zwykle wybierają pierwszą opcję. Wydaj się, że wyewoluowaliśmy jako gatunek wolący nie podejmować ryzyka. Ma to swoje uzasadnienie. W dalekiej przeszłości nasi przodkowie, tracąc całe zapasy żywności, mogli przypłacić to życiem, podczas gdy podwojenie zapasów niekoniecznie zwiększało szansę na przetrwanie. Naukowcy z Uniwersytetu Weterynarii w Wiedniu i Centrum Badań nad Wilkami z austriackiego Ernesbrunn przeprowadzili jedne z pierwszych badań na preferencjami ryzyka u zwierząt innych niż naczelne. Okazało się, że wilki są znacznie bardziej skłonne do ryzyka niż psy. Gdy wilki miały do wyboru gotowy pokarm lub szansę, że otrzymają mięso lub kamień, niemal zawsze wybierały drugą z opcji. Tymczasem psy były znacznie bardziej ostrożne. Badaliśmy skłonność do podejmowania ryzyka przez wilki i psy wychowywane w takich samych warunkach. Odkryliśmy, że wilki wybierały bardziej ryzykowną opcję znacznie częściej niż psy. Wydaje się zatem, że skłonność do podejmowania ryzyka jest wrodzona i zgodna z hipotezą mówiącą, że skłonność ta wyewoluowała jako funkcja środowiskowa - mówi Sarah Marshall-Pescini z Wiednia. Badania były prowadzone w Centrum Badań nad Wilkami w Ernsbrunn. Tam wilki i psy żyją w takich samych warunkach. Mieszkają na dużym ogrodzonym terenie, przebywają w stadach. Instytut specjalizuje się badaniu różnic między nimi. Marshall-Pescini prowadziła badania w czasie których każdy z 7 psów i 7 wilków mógł 80 razy wybierać pomiędzy dwiema miskami obróconymi do góry nogami. Wcześniej zwierzęta nauczono, że pierwsza z misek to opcja bezpieczna. Po jej wybraniu zawsze otrzymywały gotowy pokarm. Wiedziały też, że druga miska to opcja ryzykowna. Z jej wyborem wiązało się albo otrzymanie kamienia, albo smaczniejszego pożywienia. Dla pewności miski w czasie badań zamieniano miejscami, ale zwierzęta zawsze wiedziały, która reprezentuje którą opcję. Nie wiedziały jedynie, czy po wybraniu opcji ryzykowanej otrzymają kamień czy mięso. Przed przeprowadzeniem badań naukowcy upewnili się, że zwierzęta dobrze rozumieją ich zasady. Wyniki pokazały, że wilki chętniej podejmują ryzyko niż psy. Canis lupus wybierały ryzykowną opcję w 80% przypadków, podczas gdy nasi domowi towarzysze - w 58%. Naukowcy sądzą, że psy po udomowieniu wyewoluowały tak, by preferować opcję bezpieczniejszą. Wcześniejsze badania wykazały już, że gatunki polegające na przypadkowo rozłożonych niepewnych źródłach pożywienia są narażone na większe ryzyko. Na przykład szympansy, które pożywiają się owocami oraz polują na inne małpy są narażone na większe ryzyko niż bonobo żywiące się roślinnością. To źródło pożywienia jest bowiem lepiej rozłożone w czasie i przestrzeni niż owoce i małpie ofiary szympansów. Wilki polują na dużych przeżuwaczy. To ryzykowna strategia nie tylko dlatego, że polowanie często się nie udaje, ale również dlatego, że potencjalna ofiara może być niebezpieczna. Tymczasem wolno wałęsające się psy, które stanowią do 80% psiej populacji świata, żywią się głównie resztkami pozostawionymi przez człowieka. To pewne, nieskończone źródło pożywienia. Psy zatem nie muszą podejmować ryzyka, by zdobyć pożywienie i to mogło wykształcić u nich preferencje do ostrożniejszego postępowania - mówi Marshall-Pescini. « powrót do artykułu
  7. Duża dostępność pokarmu spowalnia starzenie się komórek u popielicy szarej (Glis glis). Dotąd uznawano, że za stosunkowo dużą długość życia popielicy odpowiada hibernacja. Zespół z Vetmeduni Vienna wykazał jednak, że gdy w okresie aktywności latem jest dużo pokarmu, dochodzi do spowolnienia starzenia komórkowego. Telomery skracają się z każdym podziałem komórkowym, dlatego uznaje się je [a właściwie ich długość] za biologiczny marker starzenia - podkreśla Franz Hoelzl. Jak wyjaśniają Austriacy, telomery to ochronne sekwencje z nukleotydów, które zabezpieczają przed "przycinaniem" chromosomów po ich podwojeniu w czasie podziału komórki. Kiedy stają się za krótkie, komórka przestaje się dzielić i obumiera. Przed badaniami opisanymi na łamach Journal of Experimental Biology uważano, że za spadek tempa degradacji telomerów u G. glis odpowiada spowolnienie funkcji życiowych w czasie długich okresów hibernacji. Nieoczekiwanie źródłem młodości okazała się [jednak] duża dostępność pokarmu w porze aktywności. By to zademonstrować, biolodzy przeprowadzili prosty eksperyment. Wybrali rok, w którym buki miały niewiele orzeszków. Podzielili popielice na 2 grupy. Dietę pierwszej uzupełniano słonecznikiem. druga musiała się zadowolić naturalnie dostępnym pokarmem. Przed i po eksperymencie pobierano próbki DNA zwierząt i oznaczano długość telomerów. Analizy wykazały, że długość telomerów na końcu eksperymentu korelowała bezpośrednio z dostępnością pożywienia. Tylko popielice z 1. grupy miały dłuższe telomery. Przedstawicielom 2. ledwo udawało się kompensować ich degradację. Zdolność popielic do wydłużania telomerów w zwykłych komórkach jest czymś nietypowym. U innych organizmów, w tym u ludzi, wydłużanie telomerów zachodzi tylko w komórkach macierzystych i nowotworowych. G. glis potrafiły jednak zatrzymać fizjologiczną młodość komórek, unikając przy tym nowotworzenia. « powrót do artykułu
  8. W ciągu ostatniej dekady znacząco spadła liczba słoni w Afryce. Taki wniosek płynie z Great Elephant Census. To trwający 3 lata pierwszy ogólnoafrykański spis słoni żyjących na sawannach całej Afryki, do przeprowadzenia którego użyto standaryzowanych metod zbierania i weryfikacji danych. Projekt pochłonął 7 milionów dolarów, a za jego przeprowadzenia odpowiedzialna była organizacja Elephants Without Borders. Z raportu dowiadujemy się, że liczba słoni zmniejsza się o 8% rocznie, a główną przyczyną spadku ich pogłowia jest kłusownictwo. Obecnie na sawannach 18 afrykańskich krajów żyje 352 271 słoni i jest to co najmniej 93% słoni żyjących na sawannach tych krajów. Z raportu dowiadujemy się też, że w latach 2007-2014 w 15 krajach dla których istniały dane, liczba słoni sawann zmniejszyła się o 30%. Spośród wszystkich zauważonych słoni aż 84% żyło na terenach objętych ochroną prawną. Jednocześnie jednak zauważono wiele szczątków tych zwierząt zarówno na terenach chronionych jak i niechronionych. To zaś wskazuje, że wszędzie zwierzęta te narażone są na wielkie niebezpieczeństwo. Istnieje poważne ryzyko, że słonie znikną ze znaczych części Afryki. « powrót do artykułu
  9. Po ponad 15 latach prac badawczo-rozwojowych firmach Nantero ogłosiła, że pamięci NRAM CNT (carbon nanotubes) są gotowe do produkcji i mogą być używane w układach typu system-on-a-chip (SoC). Prace nad tego typu pamięciami rozpoczęły się w 2001 roku, a celem Nantero było stworzenie nieulotnych układów NRAM wykorzystujących węglowe nanorurki. Amerykańska firma ogłosiła właśnie, że pierwszą licencję na jej technologię kupiła firma Fujitsu Semiconductor. Oba przedsiębiorstwa będą pracowały nad produkcją układów wykonanych w technologii 55 nanometrów. NRAM Nantero mają wiele zalet. Pozwalają na 1000-krotnie szybszy zapis danych niż pamięci flash i wytrzymują tysiące cykli zapisu/odczytu. Układy działają równie szybko co DRAM, ale są od nich gęstsze. Są nieulotne, w trybie spoczynku nie zużywają energii, a do zapisania pojedynczego bitu potrzebują 160 razy mniej energii niż pamięci flash. Pamięci zbudowane są z węglowych nanorurek, z których każda ma średnicę o 50 000 razy mniejszą od średnicy ludzkiego włosa. Architektura nowych układów pamięci pozwala na programowanie ich tak, by w komórkach zapisywały od 1 do 3 bitów. Pierwszy układ NRAM CNT ma mieć pojemność 32 megabajtów i będzie on kością wbudowaną. Takie produkty z logo Fujitsu Semiconductor trafią na rynek przed końcem 2018 roku. Po tej dacie Fujitsu będzie wytwarzało tez samodzielne kości NRAM. Później firma ma zamiar przejść do 40-nanometrowego procesu produkcyjnego. Nantero informuje, że jeden z partnerów firmy pracuje już nad zastosowaniem nowych układów w 28-nanometrowym procesie. « powrót do artykułu
  10. Międzynarodowy zespół naukowców zsekwencjonował szczep wirusa Zika (ZIKV), który przez Światową Organizację Zdrowia będzie traktowany jako szczep referencyjny, pozwalający na zidentyfikowanie zakażenia wirusem we krwi. Mimo że WHO zapozna się z materiałem referencyjnym dopiero w październiku, biorąc pod uwagę palącą potrzebę opracowania produktów do diagnostyki i leczenia Ziki, Organizacja już teraz dała wykorzystaniu szczepu "zielone światło". Zgoda WHO przed październikowym spotkaniem komitetu eksperckiego pokazuje, jak pilną sprawą jest, by naukowcy i firmy miały dostęp do materiału referencyjnego pozwalającego diagnozować zakażenie ZIKV. To ułatwi stworzenie wrażliwych, lepiej działających testów do wykrywania wirusa u pacjentów - podkreśla dr Sally Baylis z Instytutu Paula Ehrlicha. Sekwencję opublikowano w wydaniu Genome Announcements z 1 września. « powrót do artykułu
  11. W piśmie The Lancet ukazała się artykuł, którego autorzy donoszą, że po roku 2085 większość miast na Ziemi nie będzie mogła być gospodarzem letnich Igrzysk Olimpijskich. Wszystko z powodu ocieplającego się klimatu. Badacze z Uniwersytetu Kalifornijskiego w Berkeley wykorzystali modele klimatyczne oraz dane dotyczące odpowiedzi ludzkiego ciała na wysokie temperatury. Za punkt wyjścia uznali ryzyko zorganizowania maratonu. Stwierdzili, że miasta, w których średnia temperatura w cieniu wyniesie 26 stopni Celsjusza nadają się do zorganizowania Igrzysk. Natomiast miasta, w których istnieje więcej niż 10% szans wystąpienia wyższych temperatur, nie nadają się do organizacji takiej imprezy. Temperatura 26 stopni Celsjusza tylko pozornie nie wydaje się wysoka. Warto wspomnieć, że w Rio de Janeiro, miejscu ostatnich Igrzysk, średnie dzienne temperatury lipca i sierpnia wynoszą, odpowiednio, 21,3 i 21,8 stopnia Celsjusza. Badacze przyjrzeli się miastom na półkuli północnej i temperaturom w lipcu i sierpniu. Wykluczyli miasta znajdujące się na wysokości powyżej 1600 metrów nad poziomem morza (wysokość stanowiła problem podczas Igrzysk w Meksyku w 1968 roku) oraz miasta zamieszkane przez mniej niż 600 000 osób. Okazało się, że przy takich założeniach Igrzyska Olimpijskie w 2088 roku będą mogły odbyć się w 25 miastach Europy Zachodniej, w większości położonych w Wielkiej Brytanii, oraz w 8 innych miastach półkuli północnej. Żadne z miast, które starały się o organizację Igrzysk w 2020 roku - Tokio, Madryd i Istambuł - nie mogłoby zorganizować ich w roku 2088. Miastami, które za 72 lata będą nadawały się do organizacji Igrzysk są: Calgary, Vancouver, San Francisco, Sztokholm, Oslo, Göteborg, Helsinki, Sankt Petersburg, Ryga, Malmö, Kopenhaga, Haga, Amsterdam, Rotterdam, Dublin, Belfast, Birmingham, Bristol, Coventry, Edynburg, Glasgow, Leeds, Leicester, Liverpool, Londyn, Manchester, Newcastle, Nottingham, Sheffield, Southampton, Biszkek, Krasnojarsk i Ułan Bator. « powrót do artykułu
  12. Zabieg implantacji polskiego prototypu stentgraftu naczyniowego – specjalnej protezy stosowanej w leczeniu tętniaków aorty - przeprowadzono z w Pracowni Doświadczalnej Centrum Badawczo-Rozwojowego American Heart of Poland (CBR AHP) w Kostkowicach (Śląskie). Informację o przeprowadzonym z sukcesem zabiegu przekazało biuro prasowe Polsko-Amerykańskich Klinik Serca - podkreślając, że procedura implantacji polskiego stentgraftu daje szansę na kilkukrotnie tańsze, nowoczesne leczenie pacjentów z tętniakami aorty, stanowiącymi bezpośrednie zagrożenie dla życia. Stentgraft to specjalna proteza wewnątrznaczyniowa przeznaczona do leczenia tętniaków aorty, czyli miejscowych poszerzeń jej ściany. Ten implantowany a Kostkowicach został wyprodukowany wspólnie przez polską firmę Balton oraz Centrum Materiałów Polimerów i Węglowych PAN (CMPW PAN), we współpracy z krajowymi ośrodkami działającymi w obszarze inżynierii i medycyny. Projekt koordynowany jest przez CBR AHP. Lekarze podkreślają, że nierozpoznane i nieleczone tętniaki aorty są bardzo niebezpieczne dla chorego - szczególnie, że w większości przypadków pozostają bezobjawowe. Z czasem powiększają się, osłabiając wytrzymałość ich ściany, a to w konsekwencji prowadzić może do ich pęknięcia, krwotoku i zagrożenia życia pacjenta. Szacuje się, że w Polsce na tętniaka zlokalizowanego w brzusznym odcinku aorty choruje ok. 200 tys. osób. Jeszcze 20 lat temu podstawowym sposobem leczenia tętniaków aorty była złożona operacja chirurgiczna, ryzykowna dla pacjentów. Od lat 90. z powodzeniem zaczęto stosować również w Polsce nowoczesne leczenie endowaskularne z wykorzystaniem stentgraftów aortalnów produkowanych w innych krajach - dostępnych, ale stosunkowo drogich. Dziś takie leczenie w zakresie tętniaków aorty piersiowej jest standardem. Jak wyjaśnił dyrektor generalny CBR AHP dr hab. Krzysztof Milewski, w trakcie zabiegu małoinwazyjnego w miejsce tętniaka lekarz wprowadza stentgraft, ale bez konieczności przeprowadzenia klasycznej operacji, tylko przez niewielkie nacięcie w tętnicy obwodowej, zmniejszając tym samym ryzyko wystąpienia powikłań okołozabiegowych. W takiej sytuacji pacjent już po kilku dniach może opuścić szpital. Zabieg ma szczególne znaczenie u chorych nieoperacyjnych lub u chorych, u których ze względu na współistniejące schorzenia operacja wiązałaby się ze zbyt dużym ryzykiem - powiedział Milewski. Do tej pory kardiochirurdzy, chirurdzy naczyniowi, kardiolodzy i radiolodzy nie mogli powszechnie stosować nowoczesnej metody małoinwazyjnego wszczepienia stentgraftów ze względu na ich wysoki koszt sięgający kilkudziesięciu tysięcy złotych. Projekt prac nad pierwszym polskim prototypem stentgraftu naczyniowego prowadzi konsorcjum badawcze CardValve, w skład którego oprócz CBR AHP, Balton i CMPW PAN weszły również: Śląskie Centrum Chorób Serca w Zabrzu, Politechnika Śląska, Innovations for Heart and Vessels Sp. z o.o oraz Zakład Doświadczalny Instytutu Zootechniki PIB Grodziec Śląski. Konsorcjum to zostało pierwotnie powołane, by zaprojektować i wdrożyć pierwszą polską zastawkę aortalną implantowaną małoinwazyjnie o nazwie "InFlow". Projekt ten z całkowitym budżetem 14,8 mln zł w ramach ogłoszonego przez Narodowe Centrum Badań i Rozwoju konkursu Strategmed uzyskał dofinansowanie w wysokości 11,6 mln zł. W toku prac prowadzonych nad "InFlow" zespół badawczy konsorcjum zwrócił uwagę na potencjał materiałów i technologii używanych podczas projektu oraz możliwość ich wykorzystania przy produkcji innych wyrobów medycznych, w szczególności stentgraftów. Powołano więc prowadzący równolegle badania zespół, który stworzył prototyp stentgraftu wykorzystującego podobne do zastawki materiały i technologie. Otrzymanie stentgraftu było możliwe poprzez zastosowanie elektroprzędzenia, nowej technologii przetwórstwa materiałów polimerowych, która umożliwiła uzyskanie nanowłókniny o unikalnych własnościach - wyjaśnił kierownik Pracowni Polimerowych Materiałów Biomedycznych CMPW-PAN w Zabrzu prof. Janusz Kasperczyk. Prowadzone przez nas prace mogą zaowocować wprowadzeniem stentgraftu do codziennej praktyki klinicznej. Wpłynie to na obniżenie kosztów leczenia w porównaniu do zagranicznej konkurencji oraz na zwiększenie dostępności tej skutecznej w leczeniu tętniaków technologii - wskazał prof. Paweł Buszman – prezes AHP i kierownik projektu "InFlow". Te wstępne wyniki doświadczalne to niewątpliwy sukces zespołu badawczo-klinicznego, ale także szczególna radość z możliwości, jakie niosą polskie firmy takie jak Balton, znana z wysokiej jakości sprzętu medycznego diagnostycznego i terapeutycznego – wskazał dyrektor Śląskiego Centrum Chorób Serca w Zabrzu prof. Marian Zembala. Zaznaczył, że konieczne są kolejne badania doświadczalne i kliniczne, zanim rozwiązanie będzie mogło być bezpiecznie stosowane u chorych. « powrót do artykułu
  13. Wiedząc, że istnieje korelacja między ruchliwością bakterii a infekcją, japońscy naukowcy sprawdzają, jak na rozwój choroby wpłynie zaburzenie tworzenia napędzającej patogeny wici. W przypadku infekcji bakteryjnej pierwszą linią obrony jest zażycie antybiotyków. Celem antybiotyków jest zabicie wszystkich bakterii. Ma to jednak skutki uboczne, bo nie wszystkie bakterie w organizmie są szkodliwe. Myślimy więc, jak w inny sposób zakłócić rozwój zakażenia. Jedną z metod jest zaburzenie ruchliwości bakterii, co oznacza zaburzenie funkcji wici - wyjaśnia prof. Fadel Samatey z Okinawa Institute of Science and Technology Graduate University (OIST). Za rozwój i działanie wici odpowiadają liczne białka. Wszystkie białka tworzące widzialną część wici powstają wewnątrz bakterii, a następnie są wydzielane przez kanał, który prowadzi przez błony i w środku samej wici. Dzięki temu wić rośnie od czubka, nie od postawy. Pracowaliśmy na białku kluczowym na wczesnym etapie tworzenia wici. Umożliwia ono wzrost wici na zewnątrz bakterii. Odkryliśmy, że białko to występuje w dwóch formach, w przypadku których podstawowa chemia jest taka sama, ale występują różnice w geometrycznym ustawieniu poszczególnych elementów [konformacji przestrzennej]. Gdy wymusza się węższą strukturę geometryczną, wić nie może wyrosnąć na zewnątrz bakterii, bo nie powstają kanały pozwalające na jej wydostanie. Wić zostaje uwięziona w bakterii - wyjaśnia Samatey. Japończycy już myślą o tabletkach z drobnocząsteczkowym związkiem, który mógłby modyfikować geometrię białka. Białka tworzące wić u różnych gatunków bakterii są bardzo podobne, ale nie identyczne. Dzięki temu będzie można obrać na cel tylko specyficzne bakterie. « powrót do artykułu
  14. Wybór smartfona dostarcza istotnych informacji o jego właścicielu - do takich wniosków doszła Heather Shaw ze Szkoły Psychologii z Uniwersytetu w Lincoln podczas badań do doktoratu. Zespół Shaw przeprowadził 2 badania dotyczące różnic osobowościowych między użytkownikami smartfonów z Androidem oraz iPhone'ów. W ramach pierwszego 240 osób proszono o wypełnienie kwestionariusza; dotyczył on cech kojarzonych z użytkownikami poszczególnych marek. W drugim stereotypy przeciwstawiano rzeczywistym cechom osobowościowym 530 użytkowników smartfonów z Androidem oraz iPhone'ów. Okazało się, że użytkowników Androida postrzegano jako cechujących się wyższymi poziomami szczerości, pokory, ugodowości i otwartości. Uznawano jednak, że są mniej ekstrawertywni niż użytkownicy iPhone'ów. Wyniki drugiego studium pokazały, że większość osobowościowych stereotypów mija się z prawdą, ponieważ tylko szczerość i pokora były rzeczywiście silniej wyrażone u użytkowników Androida. Brytyjczycy ustalili, że kobiety 2-krotnie częściej miały iPhone'a niż telefon z Androidem. Stwierdzili także, że użytkownicy aparatów z Androidem unikali podobieństwa (posiadania tych samych produktów, co inni) w większym stopniu niż właściciele iPhone'ów. Dla użytkowników iPhone'ów istotniejsze było jednak posiadanie telefonu kojarzonego z wysokim statusem. Wybór smartfona to najbardziej podstawowy poziom personalizacji telefonu. Nawet to może nam coś powiedzieć o użytkowniku - mówi Shaw, dodając, że różnice osobowościowe da się dalej badać, śledząc ściągane przez kogoś aplikacje. Staje się coraz bardziej oczywiste, że smartfony są cyfrowymi miniwersjami użytkownika. Niektórzy nie lubią, gdy inni korzystają z ich telefonów, bo można się w ten sposób za dużo o nich dowiedzieć. « powrót do artykułu
  15. David J. Martinez, badacz z Sandia National Laboratories, opracował nowatorski system chłodzenia wielkich centrów bazodanowych. Thermosyphon Cooler Hybrid System działa podobnie do lodówki, ale nie potrzebuje kompresora. Martinez ma nadzieję, że pozwoli on aosczędzić miliony litrów wody, które obecnie są zużywane przez centra superkomputerowe. Samo tylko centrum obliczeniowe Sandii potrzebuje rocznie 15-19 milionów litrów. Dziesięć lat temu wygłosiłem odczyt, podczas którego postulowałem bezpośrednie chłodzenie superkomputerów wodą. Na początku odczytu słuchało mnie 30 osób, do końca pozostało 10. Mówili mi 'Dave, nie ma mowy, by woda mogła chłodzić superkomputer. Potrzebne jest powietrze'. Obecnie większość centrów bazodanowych jest chłodzonych za pomocą wody, ale ja zawsze spoglądam w przyszłość - mówi Martinez. Jego pomysł zakłada wykorzystanie chłodziwa do odprowadzenia ciepła. Najpierw komputery miałyby być chłodzone wodą, która przepływałaby do zamkniętego systemu stykającego się z systemem zawierającym chłodziwo. Schłodzona w ten sposób woda ponownie byłaby wykorzystywana do chłodzenia komputerów. Ogrzane chłodziwo odparowywałoby w zamkniętym systemie, skraplając się i wymieniając ciepło z atmosferą. Ponownie skroplone chłodziwo znów byłoby wykorzystywane do chłodzenia wody. Nie mamy tutaj żadnych strat wody, która w obecnych systemach ucieka w formie pary wodnej do atmosfery. Nie musimy też wykorzystywać dodatkowych związków chemicznych, jak biocydy, co obniża koszty. Ten system nie korzysta z kompresora. Używamy tutaj wyłącznie zmiennofazowego chłodziwa, które wymaga jedynie odpowiednio chłodnego powietrza na zewnątrz. W położonym na południu USA stanie Nowy Meksyk odpowiednia temperatura powietrza występuje jesienią, zimą i wiosną. Tradycyjnych rozwiązań trzeba by używać jedynie latem. Istnieją jednak architektury komputerowe, które pozwalają na pracę w wyższych temperaturach, a to oznacza, że tradycyjne rozwiązania mogły by być jeszcze rzadziej używane. Jeśli nie musimy schładzać komputerów do 45 stopni Fahrenheita (7,2 stopnia Celsjusza), a wystarczy pomiędzy 65 (18,3 C) a 80 (26,6 C) to całą robotę może wykonać powietrze na zewnątrz nieco tylko chłodniejsze niż centrum bazodanowe - mówi Martinez. Jeszcze niedawno w centrum bazodanowym w Sandia starano się utrzymywać temperaturę 45 stopni Fahrenheita, teraz, dzięki nowocześniejszym podzespołom i lepszym systemom zarządzania przepływem powietrza centrum pracuje przy temperaturze 65-78 stopni. Prace wymagające wyjątkowo dużych mocy obliczeniowych, które nie muszą być wykonane natychmiast, są planowane na godziny nocne, gdy powietrze na zewnątrz jest chłodniejsze. Efektywniejsze chłodzenie oznacza olbrzymie oszczędności na energii potrzebnej do chłodzenia centrów obliczeniowych, a możliwość zaoszczędzenia milionów litrów wody oznacza dalsze oszczędności. Stąd zainteresowanie systemem Martineza. « powrót do artykułu
  16. Kawałek drewna wydobyty podczas wykopalisk w pobliżu Piramidy Cheopsa pokazał po raz pierwszy, że starożytni Egipcjanie wykorzystywali w swoich łodziach metal. Niektóre metalowe elementy miały kształt litery U, w innych w środku znajdował się okrągły otwór. Stanowiły one część drugiej słonecznej barki Cheopsa. Barki zakopane w dołach przy królewskich komorach grobowych mogły być wykorzystywane w procesji pogrzebowej faraona. Umieszczone gdzie indziej miały zapewne posłużyć do podróży po zaświatach. Fragment drewna ma 8 metrów długości, 40 cm szerokości i 4 cm grubości. Jak podkreśla Mohamed Mostafa Abdel-Megeed, urzędnik z Ministerstwa Starożytności i ekspert w zakresie szkutnictwa w starożytnym Egipcie, w konstrukcji żadnej z odkrytych wcześniej łodzi nie znaleziono metalu. Elementy w kształcie litery U były prawdopodobnie dulkami, zapobiegającymi tarciu drewna wioseł o drewno - wyjaśnia Sakuji Yoshimura, egiptolog z Japonii. « powrót do artykułu
  17. NASA przedłużyła o 2,5 roku misję Teleskopu Kosmicznego Spitzera. Faza badań nazwana "Beyond" rozpocznie się 1 października bieżącego roku. Spitzer działa znacznie dłużej, niż planowano w jego oryginalnej misji. Nigdy nie przewidywaliśmy, że będzie pracował jeszcze 13 lat po wystrzeleniu i nie wyobrażaliśmy sobie nawet, że za jego pomocą będzie można dokonywać odkryć, jakie miały miejsce - mówi Michael Werner, jeden z naukowców pracujących przy Spitzerze. W ramach fazy "Beyond" teleskop otrzyma wiele zadań z zakresu astronomii i kosmologii, będzie przyglądał się planetom w Układzie Słonecznym i poza nim. Ze względu na wiek Spitzera i jego orbitę, prowadzenie nowych badań będzie związane z nowymi wyzwaniami inżynieryjnymi. Spitzer podąża za Ziemią w jej podróży wokół Słońca, jednak porusza się wolniej niż nasza planeta, dlatego znajduje się w coraz większej odległości od niej. Im jest dalej, pod tym większym kątem musi być nachylony, by jego antena mogła komunikować się z Ziemią. To zaś oznacza, że jest coraz bardziej rozgrzewany przez Słońce. Jednocześnie jego panele słoneczne ustawione są coraz mniej korzystnie względem naszej gwiazdy, akumulatory otrzymują więc mniej energii. Dla teleskopu to coraz bardziej niebezpieczne. Ma on wbudowane systemy zabezpieczeń, które inżynierowie będą musieli teraz obejść, by możliwe było dalsze używane instrumentu. W ramach fazy "Beyond" Spitzer ma m.in. przyjrzeć się najdalszym galaktykom, badać egzoplanety czy czarną dziurę w centrum Drogi mlecznej. Nigdy nie projektowaliśmy Spitzera pod kątem badania egzoplanet. W czasie, gdy został wystrzelony, taki pomysł wydawał się niedorzeczny. Teraz zaś badanie egzoplanet to ważna część pracy teleskopu - mówi Sean Carey ze Spitzer Science Center w Caltechu. Teleskop Spitzera posiada jednak unikatowe właściwości, dzięki którym świetnie nadaje się do badania egzoplanet. Wyposażono go m.in. w niezwykle dokładny system skupiania się na konkretnych gwiazdach oraz systemy pozwalające na kontrolowanie niepożądanych zmian temperatury. Dzięki stabilności środowiska wewnątrz teleskopu w 2005 roku wykryto pierwsze światło odbite od egzoplanety. Spitzer potrafi wykorzystać też mikrosoczewkowanie, dzięki czemu wraz z polskim Optical Gravitational Lensing Experiment (OGLE) odkrył w 2015 roku jedne z najodleglejszych znanych nam egzoplanet. Tego typu badania są możliwe m.in. dlatego, że Spitzer coraz bardziej oddala się od Ziemi. Wcześniej o nich nie myślano, gdyż nie planowano tak długotrwałej misji. Z kolei dzięki znajdującej się na pokładzie teleskopu Infrared Array Camera (IRAC) odkryto galaktyki odległe od nas o 12 miliardów lat świetlnych, a połączenie możliwości Spitzera i Hubble'a pozwoliło na odkrycie najodleglejszej z galaktyk - GN-z11 znajduje się w odległości 13,4 miliardów lat świetlnych. Spitzer potrafi też przyjrzeć się bliskim nam obiektom. To dzięki niemu w 2009 roku odkryto największy pierścień Saturna. W maju 2009 roku teleskopowi skończył się płynny hel, który od sierpnia 2003 roku zapewniał odpowiednią temperaturę jego instrumentom. Przestały działać Infrared Spectograph i Multiband Imaging Photometer, ale przetrwały dwa z czterech aparatów IRAC. Dzięki współpracy zespołu IRAC oraz Spitzer Science Center nauczyliśmy się lepiej niż wcześniej wykorzystywać IRAC. Teleskop jest też bardzo stabilny i znajduje się na orbicie świetnie nadającej się do obserwacji dużej części nieboskłonu - stwierdził Giovanni Fazio z CfA (Harvard-Smithsonian Center for Astrophysics), główny naukowiec odpowiedzialny za IRAC. Faza "Beyond" potrwa do czasu wystrzelenia Teleskopu Kosmicznego Jamesa Webba, który ma trafić w przestrzeń kosmiczną w październiku 2018 roku. Wśród zadań Spitzera znajduje się m.in. zidentyfikowanie interesujących obiektów badań dla Teleskopu Webba. « powrót do artykułu
  18. Amerykańska agencja antynarkotykowa DEA (Drug Enforcement Administration) ogłosiła, że ma zamiar czasowo zakazać rozpowszechniania związków chemicznych zawartych w kratomie. Kratom to popularny ziołowy suplement, który służy m.in. do zwalczania chronicznego bólu czy do terapii stresu pourazowego. O jego niezwykłych właściwościach i nadziejach z nim związanych pisaliśmy w tekście pt. "Kratom - niebezpieczny narkotyk czy zbawienny lek?". Kratom jest używany przez setki tysięcy Amerykanów, którym dokucza chroniczny ból. Jednak, jako że zawiera substancje psychoaktywne, niektóre instytucje próbują z nim walczyć. Administracja ds. żywności i leków (FDA) próbowała zakazać jego importu i konfiskowała transporty, jednak jako że kratom jest oficjalnie uznany za suplement ziołowy, FDA ma niewielkie możliwości wpływania na jego skład. Teraz do akcji wkracza DEA, która ogłosiła, że dwie substancje psychoaktywne kratomu - mitragyninę i 7-hydroksymitragyninę - zakwalifikuje do listy Schedule 1. Oznacza to, że trafią one do tej samej kategorii co heroina, LSD, marihuana czy ekstazy. Zakazując obu substancji aktywnych DEA zyska pewność, że nielegalny stanie się zarówno kratom naturalny jak i jego wersje syntetyczne. DEA ma prawo do tymczasowego umieszczenia danej substancji w Schedule 1 gdy uważa, iż zagraża ona zdrowiu publicznemu. W tym czasie agencja bada substancję. Jeśli badania wykażą, że rzeczywiście jest ona niebezpieczna, pozostaje na liście. W przeciwnym przypadku ponownie staje się legalna. To tragiczny dzień - mówi Susan Ash, założycielka i dyrektor organizacji American Kratom Association, która walczy o legalizację kratomu. Sama Ash korzysta z tej rośłiny, by nie musieć używać opioidów w związku z chronicznym bólem wywołanym boreliozą. Ona przywróciła mnie do życia. To roślina, która spowodowała, że ponownie stałam się produktywnym członkiem społeczeństwa. Boję się o swoją przyszłość. Boje się o wszystkich tych ludzi, który używają kratomu, by odstawić takie środki jak heroina. Moim zdaniem dojdzie do znacznego zwiększenia przypadków zgonów powodowanych używaniem opiatów. Ash i inni utrzymują, że kratom uzależnia nie bardziej niż kawa i tak długo, jak jest czysty, nie stanowi zagrożenia dla dorosłych. Twierdzą również, że kratomu nie można przedawkować, gdyż spożycie zbyt dużej ilości kończy się wymiotami. Ze szpitalnych izb przyjęć i od lekarzy rodzinnych dochodzą jednak wiadomości o niebezpiecznych skutkach łączenia kratomu z innymi lekami. W skrajych przypadkach dochodzi wówczas do drgawek. Oliver Grundman, farmakolog z University of Florida mówił już przed miesiącem, że sprzedaż niektórych produktów powinna być nadzorowana ze względu na bezpieczeństwo konsumentów. Jednak nie oznacza to, że wszystko związane z tą rośliną powinno trafić do Schedule 1. Byliśmy świadkami, jak umieszczenie na tej liście może zniszczyć obiecujący lek. To wyrok śmierci. Jeśli roślina i jej składniki trafią na Schedule 1 jest bardzo trudno prowadzić nad nimi badania i trudno jest cokolwiek zrobić, gdyż z umieszczeniem na tej liście wiąże się bardzo silne stygmatyzowanie. Nie wiadomo, kiedy DEA wpisze kratom na Schedule 1. Mówi się o końcu września. « powrót do artykułu
  19. Norweska Agencja Ochrony Środowiska opublikowała ostatnio zdjęcia co najmniej 323 martwych reniferów (70 to cielęta), które zginęły w czymś, co nazwano najbardziej śmiercionośnym uderzeniem pioruna w historii. Nie wiadomo, kiedy dokładnie doszło do katastrofy. Ciała zwierząt odkryła w piątek (26 sierpnia) na płaskowyżu Hardangervidda w środkowej Norwegii grupa fińskich myśliwych. Na płaskowyżu znajduje się największy park narodowy Norwegii (mieszka tu 10-11-tysięczna populacja dzikich reniferów). Specjaliści dywagują, że przy złej pogodzie zwierzęta te zbijają się w ciasne stada, co ułatwia przenikanie prądu przez wiele ciał. Choć porażenia wielu zwierząt naraz nie należą do rzadkości, rzadkością jest z pewnością skala norweskiego wypadku. Zdarzają się indywidualne zgony z powodu uderzenia piorunem. Znamy też przypadki uśmiercania grup - 10 lub nawet 20 - owiec, ale czegoś takiego nigdy nie widzieliśmy - podkreśla Kjartan Knutsen, rzecznik prasowy Norweskiej Agencji Ochrony Środowiska. National Geographic przypomina, że masowe śmiertelne porażenia zwierząt piorunem miały miejsce choćby w 1990 r., kiedy na farmie bydła w hrabstwie Orange w Wirginii burza zabiła 30 zwierząt. Z kolei w 2005 piorun uśmiercił 68 krów na farmie mlecznej koło Dorrigo w Nowej Południowej Walii. Równie duże straty (52 zwierzęta) odnotowano 3 lata później w Montevideo, gdy piorun trafił w drut ogradzający pastwisko. John Jensenius z Amerykańskiej Narodowej Służby Oceanicznej i Meteorologicznej (NOAA) wyjaśnia, że w przypadku ściśniętych grup większość osobników zabija prąd doziemny. Energia rozprzestrzenia się po powierzchni gruntu i jeśli jesteś gdziekolwiek w pobliżu pioruna, absorbujesz ją i zostajesz porażony. [...] Zwierzęta są bardziej narażone, bo ich kończyny są bardziej rozłożone (prąd doziemny łatwiej przemieszcza się przez ich ciała). Nie ma znaczenia, czy się dotykają lub w jakiej dokładnie odległości od siebie się znajdują. Liczy się tylko to, że wszystkie znajdują się w rejonie uderzenia pioruna. Olav Strand z Norwegian Institute for Nature Research udał się w niedzielę (28 sierpnia) na inspekcję obszaru zdarzenia. W wywiadzie udzielonym The New York Timesowi powiedział, że zmarłe zwierzęta wyglądały tak, jakby ktoś po prostu nacisnął [jakiś] wyłącznik. Padły dokładnie tam, gdzie stały. Renifery były ustawione jak zwykle podczas burzy. Wcześniej musiały się wspinać na wzniesienie. « powrót do artykułu
  20. Na Grenlandii znaleziono najstarsze znane skamieniałości świadczące o obecności organizmów żywych. Odpowiedź na pytanie, kiedy na Ziemi powstało życie nie jest łatwa. W cyrkonach znaleziono chemiczne sygnatury wskazujące, że pojawiło się ono około 4,1 miliarda lat temu. Jednak znalezienie dowodu w postaci skamieniałości biologicznej jest zadaniem znacznie trudniejszym. Teraz odkryto stromatolity, formacje złożone z cienkich warstw tworzonych przez bakteryjne biofilmy, których wiek oceniono na 3,7 miliarda lat. Są więc o niemal 300 milionów lat starsze niż jakiekolwiek inne skamieniałości organizmów żywych. Dotychczas najstarszymi znanymi skamieniałościami były stromatolity i komórki z Australii, które liczą sobie 3,4 miliarda lat. Najstarsze jednak znane skały na Ziemi występują na Grenlandii. Znajduje się tam grupa geologiczna Isua, a jej wiek to 3,7-3,8 miliarda lat. Specjaliści od dawna szukali tam śladów życia, ale znajdowali jedynie dowody pośrednie. Geolog Allen Nutman z australijskiego University of Wollongong postanowił wraz ze swoim zespołem znaleźć w tej grupie skały niezmienione lub jak najmniej zmienione przez metamorfizm. To jak poszukiwanie igły w stogu siana, ale wysiłek się opłacił. Do odkrycia przyczyniły się opady deszczu, które wystąpiły poza zwykłym sezonem i roztopiły śnieg pokrywający skały. Odsłoniły niezmieniony przez metamorfizm obszar Isui. Analizy skał wykazały, że są to stromatolity, a badanie rzadkich pierwiastków ujawniło, iż powstały one w płytkich wodach oceanicznych, zatem tam, gdzie i obecnie bakterie tworzą stromatolity. Z odkrycia cieszą się m.in. biolodzy z NASA. Dzięki niemu, mówią, możliwe będzie udoskonalenie technik wykrywania życia na innych planetach. « powrót do artykułu
  21. Niewykluczone, że błyskawiczna ewolucja ocali diabły tasmańskie przed zagładą ze strony zaraźliwego nowotworu. W ciągu ostatnich 20 lat populacja diabła tasmańskiego zmniejszyła się o 80%. Wszystko z powodu zaraźliwego nowotworu pyska (DFTD - devil facial tumour disease). Naukowcy postanowili sprawdzić, dlaczego wiele populacji, którym wieszczono zagładę, wciąż istnieje. Uczeni pobrali próbki DNA od setek diabłów z trzech miejsc w Tasmanii i porównali je z genomem zwierząt sprzed dziesięcioleci, kiedy to DFTD jeszcze nie występował. Okazało się, że diabły, które przeżyły rozprzestrzenianie się choroby wykazują zmiany w 7 genach. O 5 z tych genów wiadomo, że u innych ssaków - w tym u człowieka - są powiązane albo z nowotworami albo z układem odpornościowym. Autorzy badań nie wykluczają, że mamy tu do czynienia z błyskawiczną ewolucją, dzięki której układ odpornościowy zwierząt rozpoznaje i zwalcza DFTD. DFTD pojawił się u diabła tasmańskiego przed około 20 laty i jest w 100% śmiertelny. Kolejny ze znanych nam zaraźliwych nowotworów to przenoszony drogą płciową psi guz (CTVT). Ten z kolei jest obecny od co najmniej 11 000 lat i zwykle nie kończy się śmiercią u psów domowych. W ubiegłym roku odkryto kolejny zakaźny nowotwór. Choroba wywołuje białaczkę u małżów i prawdopodobnie doprowadziła do dużych spadków populacji. « powrót do artykułu
  22. Przyrost naturalny słoni afrykańskich leśnych (Loxodonta cyclotis) jest bardzo wolny, co sprawia, że kłusownictwo bardziej im zagraża. Naukowcy stwierdzili, że L. cyclotis zaczynają się rozmnażać w starszym wieku, a młode przychodzą na świat w większych odstępach czasowych niż u słoni afrykańskich (Loxodonta africana). Nie sądzę, by ktokolwiek z nas zdawał sobie sprawę, jak wrażliwy jest ten gatunek - podkreśla prof. George Wittemyer z Uniwersytetu Stanowego Kolorado. Podstawowa biologia słoni leśnych jest dopasowana do układu, gdzie rosną one wolno i wolno zwiększają swoją liczebność. Presja, jaką na nie wywieramy, by pozyskać kość słoniową, jest zbyt duża, by mogły sobie poradzić. Ostatnie badania pokazują, że między 2002 a 2013 r. populacja L. cyclotis zmniejszyła się aż o 65%. Ponieważ słonie leśne są jednymi z najwolniej rozmnażających się ssaków, wyrównanie skutków intensywnego kłusownictwa po 2002 r. zajęłoby im co najmniej 90 lat. W ramach pierwszych badań demograficznych tego gatunku naukowcy odkryli, że samice L. cyclotis zaczynają się rozmnażać dopiero po 20. r.ż. i rodzą co 5-6 lat. Zespół z Wildlife Conservation Society (WCS), Elephant Listening Project (z Laboratorium Ornitologii Uniwersytetu Cornella), Uniwersytetu Stanowego Kolorado i organizacji Save the Elephant analizował dane z ponad 2 dekad (1990-2013), zebrane w lesie Dzanga w Republice Środkowoafrykańskiej. Andrea Turkalo przyglądała się wizytom słoni w obfitującej w minerały przecince leśnej (bai). W ten sposób naukowcy mogli ustalić, w jakim wieku słonie mają pierwsze młode i jaki czas upływa między porodami. Słonice z lasu Dzanga rozmnażają się po raz pierwszy po 23. r.ż. [...] Dla odmiany słoń afrykański zaczyna się rozmnażać w wieku 12 lat. Dodatkowo samice L. cyclotis rodzą co 5-6 lat, a L. africana co 3-4 lata. Autorzy publikacji z Journal of Applied Ecology sądzą, że ma to związek z realiami życia w tropikalnym lesie, gdzie nowe przyrosty pojawiają się niemal wyłącznie w koronach drzew. Choć myślimy o lasach tropikalnych jak o bardzo produktywnych rejonach, większość produkcji roślinnej ma miejsce wysoko w koronach drzew, czyli tam, gdzie gatunki naziemne nie mogą się dostać. Poza tym roślinność w tropikalnych ekosystemach zawiera związki, które mają zapewniać ochronę przed roślinożercami, w tym słoniami - wyjaśnia Peter Wrege z Elephant Listening Project. Słonie leśne spełniają krytyczną rolę w swoich ekosystemach. Wiele gatunków drzew polega na nich przy roznoszeniu nasion. Niepowodzenia związane z ochroną L. cyclotis mogą także zaszkodzić lasom Afryki Środkowej, które odgrywają ważną rolę w pochłanianiu CO2. « powrót do artykułu
  23. Dzięki Chandra X-ray Observatory i innym teleskopom odkryto rekordowo odległą od Ziemi gromadę galaktyk. CL J1001+0220 znajduje się w odległości około 11,1 miliarda lat świetlnych od naszej planety. To zaś oznacza, że gromady galaktyk - największe struktury wszechświata utrzymywane razem przez grawitację - powstawały o 700 milionów lat wcześniej, niż dotychczas sądziliśmy. Ta gromada jest wyjątkowa nie tylko ze względu na swoją odległość. Charakteryzuje ją też niewidziane wcześniej tempo powstawania gwiazd - mówi Tao Wang z Francuskiej Komisji Energii Alternatywnych i Energii Atomowej (CEA), który stał na czele grupy badawczej. W centrum CL J1001 znajduje się 11 masywnych galaktyk, a w 9 z nich bardzo szybko powstają nowe gwiazdy. Tempo ich powstawania jest tak wielkie, jakby rocznie w centrum gromady pojawiało się 3000 gwiazd o masie Słońca. To olbrzymia liczba jak na gromadę galaktyk. Wydaje się, że zaobserwowaliśmy tę gromadę w krytycznym dla niej momencie, gdy dopiero co przeszła z grupy luźno powiązanych galaktyk, w młodą ale w pełni uformowaną gromadę - stwierdza David Elbaz z CEA. Dotychczas w takiej odległości co CL J1001 obserwowano właśnie luźne zbiory galaktyk zwane protogromadami. Wyniki badań sugerują, że galaktyki eliptyczne w gromadach mogą tworzyć gwiazdy znacznie szybciej niż galaktyki eliptyczne poza gromadami, a to z kolei może oznaczać, iż większość gwiazd w takich galaktykach powstaje po tym, jak znajdą się one w gromadzie. Naukowcy z CEA porównali też wyniki swoich badań z symulacjami komputerowymi gromad prowadzonymi przez inne zespoły naukowe i stwierdzili, że w CL J1001 masa gwiaz jest wyjątkowo duża w porównaniu z masą całej gromady. Zdaniem ekspertów albo oznacza to, że odległych gromadach gwiazdy powstają szybciej niż zakładają współczesne modele, albo też że gromady takie jak CL J1001 występują tak rzadko, iż modele ich nie uwzględniają. « powrót do artykułu
  24. Od 1999 roku, kiedy to gubernator George W. Bush podpisał ustawę deregulującą stanowy rynek produkcji energii, stan nafciarzy - Teksas - przeżywa szybki rozwój sektora energii odnawialnej. Przyczyniają się do tego zarówno subsydia federalne jak i spadający koszt instalacji słonecznych i wiatrowych. W podpisanej przed 17 lat ustawie znalazł się zapis, który przewidywał, że do roku 2009 produkcja energii odnawialnej w Teksasie osiągnie 2 GW. Taki poziom produkcji osiągnięto cztery lata wcześniej. Następca Busha, gubernator Rick Perry, założył, że do roku 2025 w Teksasie będzie powstawało 10 GW energii odnawialnej rocznie. Tymczasem w kwietniu bieżącego roku stanowa produkcja energii odnawialnej osiągnęła 19 GW. To wystarcza do zasilenia 4 milionów gospodarstw domowych i pokrywa 16% stanowego zapotrzebowania na energię. Zdecydowana większość produkcji, bo aż 18 GW, to energia wiatrowa. Teksas jest pod tym względem liderem w USA. Tak szybki rozwój sektora energii odnawialnej spowodował jednak, że wąskim gardłem stały się linie przesyłowe. Gwałtownie rośnie ilość energii produkowanej z wiatru, a jakby tego było mało, istniejące plany przewidują, że ilość energii pozyskiwanej ze Słońca wzrośnie z 1 do 6 GW. To oznacza, że problem przesyłu nie zostanie szybko rozwiązany. Drugim problemem jest fakt, że wiatr i Słońce nie zapewniają nieprzerwanej produkcji energii. Z tego też powodu producenci energii odnawialnej próbują łączyć duże systemy przechowywania energii z systemami inteligentnego zarządzania jej przepływem. Niewykluczone, że sektor energii odnawialnej zaprzęgnie do współpracy... opuszczone studnie, z których wcześniej wydobywano ropę i gaz. Jedna z firm testuje technologię, która polega na wpompowywaniu pod dużym ciśnieniem wody w takie studnie. Gdy potrzebna jest dodatkowa energia, woda jest uwalniana i napędza turbiny. « powrót do artykułu
  25. Badanie specjalistów z Uniwersytetu Minnesoty wykazało, że mikroflora jelitowa małp trzymanych w niewoli upodabnia się do ludzkiej. Wyniki sugerują, że przestawienie się na ubogą w błonnik zachodnią dietę wyplenia większość normalnych bakterii naczelnych, co przyczynia się do rozwoju mniej zróżnicowanego mikrobiomu. Ze względu na zbyt dużą liczbę zmiennych trudno prześledzić zmiany w ludzkim mikrobiomie, jakie zachodzą w miarę unowocześniania i westernizacji społeczeństw. By lepiej zrozumieć, jak zmiany w diecie czy stylu życia oddziałują na mikroflorę naczelnych, Amerykanie analizowali regiony 16S rRNA. Autorzy publikacji z pisma PNAS przyglądali się 2 gatunkom nieczłowiekowatych naczelnych: dukowi wspaniałemu (Pygathrix nemaeus) i wyjcowi płaszczowemu (Alouatta palliata). Mikrobiomy dzikich zwierząt porównywano z mikrobiomam małp żyjących w niewoli (pełnej i w rezerwatach), a także z mikroflorą ludzi z krajów rozwijających się i USA. Okazało się, że choć na wolności gatunki mają unikatowe sygnatury mikrobiomu, w niewoli tracą swoje naturalne mikrobiomy i zostają skolonizowane bakteriami Prevotella i Bacteroides, czyli 2 Gram-ujemnymi rodzajami dominującymi w mikrobiomie współczesnych ludzi. Amerykanie wykazali także, że u 8 innych nieczłowiekowatych naczelnych z różnych ogrodów zoologicznych z 3 kontynentów zaobserwowano te sam wzorzec konwergencji. Zwierzęta z rezerwatów reprezentowały stan pośredni między mikrobiomem zwierząt dzikich i trzymanych w pełnej niewoli. Nie wiemy na pewno, że nowe współczesne ludzkie mikroby są złe, ale z drugiej strony wiele badań pokazuje, że ewoluowaliśmy z naszymi bakteriami. Skoro tak, zamiana na zupełnie inny zestaw nie wydaje się raczej korzystna - dywaguje prof. Dan Knights. Głębokie sekwencjonowanie typu Shotgun, chemiczna analiza diety i określanie relatywnej częstości występowania chloroplastów wykazały, że z mikrobiomem niewoli wiążą się spadek zawartości błonnika i roślin. W odchodach zwierząt z rezerwatu, u których wykryto pośrednią wersję mikrobiomu, znajdowano o połowę mniej gatunków roślin niż u duków żyjących na wolności. Porównując zsekwencjonowane DNA z próbek kału z genomami roślin, naukowcy zauważyli, że o ile odchody dzikich naczelnych zawierały do 40% roślinnego DNA, o tyle u małp trzymanych w niewoli nie było go prawie w ogóle. Amerykanie podkreślają, że w ten sposób wykazali, że niewola wpływa na małpi mikrobiom jelit podobnie, jak westernizacja na ludzi. « powrót do artykułu
×
×
  • Dodaj nową pozycję...