Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Pasożyty nie mają dobrej opinii. Na pierwszy rzut oka, chyba nikt by się nie zmartwił na wieść, że wszystkie pasożyty na świecie wyginęły. Jednak grupa biologów ostrzega, że pasożyty należy chronić jak inne gatunki. Tym bardziej, że również i im grozi masowe wymieranie. Pasożyty odniosły duży sukces ewolucyjny. Nawet połowa ze znanych nam 7,7 miliona gatunków roślin i zwierząt prowadzi pasożytniczy tryb życia. Teraz na łamach Science Advances ukazały się badania, których autorzy ostrzegają, że do roku 2070 wyginąć może ponad 30% gatunków pasożytów. To byłaby katastrofa. W ciągu ostatniej dekady dowidzieliśmy się, że pasożyty odgrywają niezwykle ważną rolę w ekosystemie. Przez lata nauka nie brała tego pod uwagę, mówi Colin Carlson z University of California Berkeley, który prowadzi badania nad zmianami w ekosystemach. Młody uczony od dawna bada zmiany w liczebności gatunków spowodowane globalnym ocieplenie. Przed 4 laty postanowił przyjrzeć się pasożytom. W ciągu ostatnich dekad przeprowadzono wiele badań dotyczących wymierania wielkich ssaków czy reakcji upraw na zmiany klimatu. Jednak istnieje wiele gatunków roślin i zwierząt, o których niezbyt dużo wiemy", stwierdza. Naukowiec stworzył więc grupę badawczą, której celem jest stwierdzenie, jak pasożyty reagują na ocieplający się klimat. "Problem w tym, że niewiele wiemy o tym, gdzie pasożyty żyją, wyjaśnia. Swoje kroki skierował więc do National Parasite Collection. To licząca sobie 125 lat kolekcja pasożytów tworzona przez Smithsonian Institution. Znajduje się w niej ponad 20 milionów okazów reprezentujących tysiące gatunków. Większość z nich pochodzi z Ameryki Północnej, jednak znajdziemy tam przedstawicieli wszystkich kontynentów wraz z mniej lub bardziej dokładnymi informacjami na temat miejsca ich zebrania. Kurator zbiorów, Anna Phillips, wraz ze swoim zespołem przeprowadziła digitalizację, tworząc największą istniejącą bazę pasożytów. Dzięki temu można było zastosować modele komputerowe i spróbować przewidzieć, co w przyszłości stanie się z 450 gatunkami pasożytów. Badania wykazały, że nawet w najbardziej optymistycznym scenariuszu do roku 2070 wyginie 10% gatunków pasożytów. Przy mniej optymistycznych założeniach będzie to ponad 30%. Wbrew złej opinii, jaką cieszą się pasożyty, ich wyginięcie nie jest dobrą wiadomością. Wręcz przeciwnie. Będzie to miało katastrofalne skutki. Trzeba bowiem wiedzieć, że pasożyty regulują liczebność gatunków i utrzymują ekosystem w równowadze. Zabijają część z organizmów i powodują, że inne są bardziej podatne na taki drapieżników. Na przykład pardwa mszarna zarażona nicieniem wydziela silniejszy zapach, przez co łatwiej pada łupem drapieżnika, a to pozwala na kontrolowanie populacji tego ptaka. Z kolei pobrzeżka pospolita, gatunek ślimaka morskiego zamieszkujący atlantyckie wybrzeża, gdy zarazi się pewnym gatunkiem przywry, zjada znacząco mniej glonów, przez co więcej zostaje dla innych gatunków. Bardzo znamienny jest tutaj przykład krytycznie zagrożonego australijskiego ssaka, kanguroszczurnika pędzloogonowego. Jako, że jednym z powodów zanikania gatunku były choroby pasożytnicze, starano się wyeliminować pasożyty z otoczenia ratowanych zwierząt. Z czasem jednak badania ujawniły, że sytuacja jest znacznie bardziej skomplikowana, niż sądzono. Kanguroszczurnik musi współżyć z niemal 40 gatunkami pasożytów, a nie wszystkie są dla niego zagrożeniem. Po 10 latach badań naukowcy zauważyli, że pasożyty pomagają zwierzęciu w walce z chorobami, regulują rozrodczość, mają pozytywny wpływ na zachowanie kanguroszczurnika. Jest dla nas teraz całkowicie jasne, że większość pasożytów jest nieszkodliwa. Żyją w harmonii ze swoimi gospodarzami. Dopiero jeśli harmonia ta zostanie zakłócona, pojawiają się problemy, mówi profesor Andrew Thompson, który bada kanguroszczurniki. Uczeni zauważyli też, że jeśli pozbędziemy się jednych gatunków pasożytów, organizm może zostać zaatakowany przez inne gatunki, z którymi dotychczas się nie zetknął, a to stwarza dla niego bardzo poważne zagrożenie. Musimy też pamiętać, że niewiele wiemy o znanych nam pasożytach i ich interakcjach z gospodarzami, a jakby tego było mało, istnieją miliony nieodkrytych jeszcze gatunków. Trudno jest przewidywać, jaki wpływ na środowisko mają te gatunki, skoro ich nawet nie znamy. To właśnie najbardziej przerażający wniosek płynący z tych badań... powinniśmy jak najszybciej rozpoznać te gatunki, mówi Phillips. Możemy też przypuszczać, że w związku z globalnym ociepleniem będą zmieniały się zasięgi poszczególnych gatunków pasożytów. A to zła wiadomość dla ludzi. W wielu regionach mogą pojawić się choroby, które wcześniej tam nie docierały. Pasożyty będą zasiedlały organizmy ludzi, którzy nigdy się z nimi nie zetknęli. Wiele gatunków, w tym ludzie, ewoluowało obok pasożytów. Wypracowaliśmy z nimi delikatną równowagę. Pasożyty zwykle nie mają interesu w tym, by zabijać gospodarza. Jeśli jednak jedne gatunki wyginą lub zmienią swój zasięg terytorialny, pojawi się pusta nisza, w którą mogą wejść gatunki, z jakimi wcześniej nie mieliśmy do czynienia. Tego typu zjawiska już mają miejsce. Choroby tropikalne zaczynają pojawiać się w bardziej umiarkowanych strefach klimatycznych, a w 2014 roku w mózgu pewnego Chińczyka znaleziono pasożyta, który dotychczas nie atakował ludzi. Spowodował on u ofiary drgawki i zapalenie mózgu. W wielu przypadkach mamy pozytywny stosunek do zwierząt lub potrafimy nadać im wartość. Jednak w przypadku pasożytów takie odczucia są mniej prawdopodobne. Na szczęście obecnie biologia podchodzi do gatunków neutralnie jeśli chodzi o potrzebę ich ochrony i stoi na stanowisku, że należy chronić zarówno gospodarza jak i organizmy na nim pasożytujące, mówi Kevin Lafferty, ekolog z US Geological Survey. « powrót do artykułu
  2. Około 2 tygodni temu z pobocza autostrady 89, która prowadzi przez Prescott National Forest w Arizonie, w tajemniczy sposób zniknął 1-tonowy głaz, nazywany przez okolicznych mieszkańców Wizard Rock. Władze Lasów Państwowych (National Forests) apelują o pomoc w jego odnalezieniu. Wizard Rock to znana atrakcja turystyczna. Ludzie często się tu zatrzymują, by zrobić zdjęcia. Leśnicza Sarah Clawson podkreśliła w oświadczeniu prasowym, że ma nadzieję, że Wizard Rock zostanie zwrócony, a zdarzenia takie jak to spełnią rolę edukacyjną. Zabieranie minerałów z Lasów Państwowych bez pozwolenia jest nielegalne. Ktokolwiek więc ukradł Wizard Rock, musi się liczyć z grzywną w wysokości nawet 5 tys. dolarów i/lub 6 miesiącami więzienia. W ciągu ostatnich 4 miesięcy z Prescott National Forest zginęły jeszcze dwa inne głazy. Ponieważ ważyły one ok. 340-910 kg, złodzieje musieli się posłużyć specjalistycznym sprzętem.   « powrót do artykułu
  3. Izraelscy archeolodzy odsłonili bogato zdobiony bizantyjski kościół poświęcony nieznanemu męczennikowi. Zabytek odkryto w pobliżu Jerozolimy. Prace w miejscu 1500-letniej świątyni prowadzone są od 3 lat, a znalezione zabytki zostaną wystawione w jerozolimskim Muzeum Ziem Biblijnych. Na znalezionej na miejscu wykopalisk mozaice istnieje napis mówiący, że kościół powstał ku upamiętnieniu słynnego męczennika. Nie wspomniano jego imienia. Jednak inne inskrypcje upamiętniają cesarzy Justyniana I Wielkiego oraz Tyberiusza II Konstantyna. Ze względu na rozmiary kościoła i jego bogate zdobienia naukowcy sądzą, że był on popularnym miejscem pielgrzymek. Ich zdaniem został opuszczony w IX wieku w czasie kalifatu Abbasydów. Bogate ozdoby z marmuru, chrzcielnica z kalcytu naciekowego czy mozaika przestawiająca orła, symbol Bizancjum, wskazują na bogatych fundatorów i duże znaczenie świątyni. Dyrektor wykopalisk, Benjamin Storchan, posuwa się nawet do stwierdzenia, że mamy tutaj do czynienia z państwowym budynkiem kościelnym. Wyjaśnia, że państwo utrzymywało ważne świątynie, przyczyniając się w ten sposób do rozwoju szlaków pielgrzymkowych. Wspomniany kościół był jednym z takich właśnie istotnych dla państwa miejsc kultu. Wykopaliska prowadzone są na obszarze o powierzchni 1500 metrów. Znajduje się tam duży dziedziniec, korytarz i kościół. Po upadku Cesarstwa Bizantyjskiego wejście do kościoła zblokowano wielkimi głazami. Po jego otwarciu znaleziono szklane lampy, mozaiki oraz fragment sarkofagu, w którym spoczął nieznany męczennik. « powrót do artykułu
  4. Jedną z głównych przeszkód stojących na drodze ku upowszechnieniu się samochodów elektrycznych jest długi czas ładowania akumulatorów. Niewykluczone jednak, że już wkrótce możliwe będzie pełne załadowanie akumulatora w ciągu zaledwie 10 minut. Takie pojedyncze ładowanie pozwoli na przejechanie 320–480 kilometrów. Wykazaliśmy, że możliwe jest załadowanie w 10 minut akumulatora zapewniającego energię na 200–300 mil podróży, mówi profesor Chao-Yang Wang, dyrektor Electrochemical Engine Center na Pennsylvania State University. Żywotność takiego akumulatora wynosi 2500 cykli ładowania-rozładowania, co pozwala na przejechanie około pół miliona mil. Już obecnie można szybko ładować akumulatory litowo-jonowe, jednak znacząco skraca to ich żywotność, gdyż na anodzie osadza się metaliczny lit. Nie dość, że prowadzi on do spadku pojemności akumulatora, może też spowodować jego awarię. Im akumulator jest starszy, tym łatwiej dochodzi do tego niekorzystnego procesu. Wiadomo też, że jeśli akumulator zostanie podgrzany podczas ładowania, to nie dochodzi do osadzania się litu. Jednak samo podgrzewanie również skracażywotność urządzenia. Wang i jego zespół przeprowadzili eksperymenty, podczas których zauważyli, że jeśli akumulator zostanie podgrzany do temperatury do 60 stopni Celsjusza na nie dłużej niż 10 minut, a następnie szybko schłodzi się do temperatury pokojowej, to można go szybko naładować, zapobiec osadzaniu się litu i nie wpływa to negatywnie na jego żywotność. Obecnie uważa się, że podgrzanie akumulatora do 60 stopni Celsjusza nie powinno mieć miejsca, gdyż znacząco skraca to jego żywotność, mówi Wang. Uczony wraz z zespołem przeprowadzili serię eksperymentów, podczas których do elektrod komercyjnie dostępnych akumulatorów dodano folię aluminiową o grubości liczonej w mikronach. Pozwoliła ona na podgrzanie elektrod w ciągu zaledwie 30 sekund. Następnie uczeni testowali zmodyfikowane akumulatory, ładując je po podgrzaniu do 40, 49 i 60 stopni C. Ich wydajność porównano z akumulatorem testowym, pracującym w temperaturze 20 stopni. Okazało się, że przy temperaturze 20 stopni Celsjusza już po 60 cyklach ładowania-rozładowania pojawiły się problemy, które znacząco zmniejszyły wydajność. Tymczasem gdy elektrody podgrzano do 60 stopni Celsjusza akumulatory bez większych problemów wytrzymały 2500 cykli ładowania-rozładowania. Ważne było też szybkie schłodzenie akumulatora. Wang twierdzi, że można do tego wykorzystać system chłodzący pojazdu, tym bardziej, że olbrzymią różnicę robi już schłodzenie z 60 do niecałych 24 stopni Celsjusza. Uczeni chcą kontynuować swoje badania i mają nadzieję, że opracują technologię pozwalającą na pełne załadowanie akumulatora w ciągu zaledwie 5 minut. Szczegóły badań opublikowano w piśmie Joule. « powrót do artykułu
  5. Grupa brytyjskich naukowców, na czele której stanął futurysta William Higham, stworzyła Emmę – przeciętną pracownicę biurową, której wygląd będzie nas straszył za około 20 lat o ile nie zmienimy dotychczasowego trybu życia. Od wielogodzinnego wpatrywania się w monitor Emma ma suche, zaczerwienione oczy, garba, nadwagę, spuchnięte nogi, egzemę i inne nieprzyjemne objawy stresu i siedzącego trybu życia. Emma nie jest czysto teortetyczym wymysłem, a modelem stworzonym na podstawie wywiadów przeprowadzonych z ponad 3000 pracowników biurowych w Wielkiej Brytanii i Niemczech. Aż 50% z nich skarżyło się na nadwyrężone oczy, 49% uskarżało się obolałe plecy, 48% wspomniało o bólach głowy, a 45% doświadczyło drętwienia karku. Do tego dochodziło wile innych objawów związanych z trybem życia. Wywiady posłużyły do stworzenia lalki rzeczywistych rozmiarów, która ma pokazywać, jak za 20 lat może wyglądać przeciętny pracownik biurowy, jeśli nie warunki pracy nie ulegną zmianie. Musimy jednak mieć na uwadze fakt, że Emma nie jest wynikiem dogłębnych badań naukowych. Jej budowę zamówiła firma Fellowes, producent urządzeń biurowych. Można podejrzewać, że ma się stać ona częścią kampanii reklamowej promującej rozwiązania bardziej przyjazne pracownikowi biura. Tak czy inaczej Emma daje interesujący wgląd w to, co z naszym organizmem robi siedzący tryb życia.   « powrót do artykułu
  6. Naukowcy z organizacji Climate Central w Princeton ostrzegają na łamach Nature, że przed rokiem 2050 tereny zamieszkane przez 300 milionów osób będą doświadczały corocznych powodzi, a do końca wieku obszary zamieszane przez 200 milionów osób na stałe znajdą się poniżej linii wysokiego przyboru wody. Swoje wnioski uczeni wyciągnęli na podstawie nowych danych dotyczących wysokości wybrzeży nad poziomem morza. Nie od dzisiaj wiemy, że w skutek globalnego ocieplenia rośnie poziom oceanów. Szacunki mówią, że – w zależności od rozwoju sytuacji – w XXI wieku globalny poziom oceanów wzrośnie od 0,6 do ponad 2 metrów, a może jeszcze więcej. Wszystko będzie zależało od stabilności pokryw lodowych Arktyki i Antarktyki oraz poziomu emisji gazów cieplarnianych. Wiadomo też, że w związku z tym wzrostem zagrożone będą wybrzeża i mieszkający na nich ludzie. Naukowcy od dawna szacują ryzyko powodzi związanych z podnoszeniem się poziomu oceanu. Do jego wyliczenia potrzebne są m.in. dotyczące wysokości danego obszaru nad poziomem morza. Problem jednak w tym, że, poza danymi z USA, Australii i części Europy, informacje takie są albo niedostępne, albo ich zdobycie jest niezwykle kosztowne. To zaś znacząco  ogranicza możliwości rzetelnej oceny sytuacji. Dokładne pomiary wysokości dużych obszarów nad poziomem morza są kosztowne i skomplikowane. W niektórych krajach, jak USA, badania takie prowadzi się za pomocą technologii lidar. To bardzo pracochłonna i kosztowna metoda. Wymaga bowiem, by nad badanym terenem latał samolot, śmigłowiec lub dron, wyposażony w odpowiednie urządzenia laserowe. Stany Zjednoczone mogą sobie pozwolić na przeprowadzenie tego typu badań nad olbrzymimi obszarami Jednak w większości przypadków naukowcy muszą polegać na danych pochodzących z prowadzonego przez NASA projektu Shuttle Radar Topography Mission (SRTM), która mierzy wysokości za pomocą satelity. Dane SRTM są publicznie dostępne, jednak są mniej dokładne niż dane z lidar. SRTM mierzy bowiem wysokość samego gruntu oraz obiektów wystających ponad grunt. Dane takie są więc zawyżone, szczególnie na obszarach gęsto zurbanizowanych i zalesionych. Wiadomo na przykład, że dla nisko położonych części wybrzeży Australii SRTM zawyża pomiary aż o 2,5 metra. Wydaje się, że średni pomiar za pomocą SRTM odbiega od rzeczywistości o około 2 metry. W przypadku wybrzeży te 2 metry czynią olbrzymią różnicę. Naukowcy z Climate Central stworzyli cyfrowy model CoastalDEM, który jest znacząco bardziej dokładny niż SRTM, szczególnie w odniesieniu do gęsto zaludnionych obszarów. Wykorzystali przy tym ponad 51 milionów punktów danych. Okazało się, że na gęsto zaludnionych obszarach USA, gdzie zagęszczenie ludności sięga 20 000 osób na km2 – tak jest w częściach Bostonu, Miami czy Nowego Jorku – SRMT przeszacowuje wysokość nad poziomem morza średnio o 4,7 metra, podczas gdy CoastalDEM zmniejsza ten błąd do około 10 centymetrów. Po połączeniu CoastalDEM z modelami dotyczącymi wzrostu poziomu oceanów oraz modelami powodzi na wybrzeżach okazało się, że znacznie większe obszary niż dotychczas sądzono będą narażone na powodzie związane z rosnącym poziomem wód. Przy założeniu umiarkowanego ograniczenia emisji gazów cieplarnianych przewidywania oparte na modelu SRTM pokazują, że w roku 2050 na coroczne powodzie narażonych będzie 79 milionów mieszkańców wybrzeży. Takie same założenia przy wykorzystaniu modelu CoastalDEM zwiększają liczbę narażonych do 300 milionów. Wzrost poziomu oceanów dotknie przede wszystkim mieszkańców Azji. I tak w Chinach, wedle wyliczeń przy uwzględnieniu danych z CoastalDEM, corocznych powodzi na wybrzeżach mogą spodziewać się 93 miliony osób (29 milionów wg SRTM), w Bangladeszu będą to 42 miliony (SRTM: 5 milionów), w Indiach to 36 milionów (SRTM: 5 milionów). Na powodzie powinno też przygotować się 31 milionów mieszkańców Wietnamu (SRTM: 9 milionów), 23 miliony obywateli Indonezji (SRTM: 5 milionów) oraz 12 milionów zamieszkujących Tajlandię (SRTM: 1 milion). W tych sześciu krajach mieszka 75% osób, które będą narażone na coroczne powodzie spowodowane wzrostem poziomu oceanów. Naukowcy podkreślają, że w swoich badaniach brali pod uwagę zagrożenie powodzią związane z wysokością danego obszaru nad poziomem morza. Nie uwzględniali istniejących i przyszłych działań władz, mających na celu zabezpieczenie zalewanych terenów. Jako, że poziom oceanów będzie rósł również po roku 2050 uczeni wykonali modelowanie do roku 2100. Z CoastalDEM wynika, że wówczas obszary zamieszkane przez 200 milionów osób mogą na stałe znaleźć się pod wodą. I znowu najbardziej zagrożone będą kraje Azji. W Chinach, Bangladeszu, Indiach, Wietnamie, Indonezji i Tajlandii mieszka 151 milionów ludzi (tylko w Chinach są to 43 miliony), których domy mogą zostać na stałe zatopione. Podobny los może spotkać wielu mieszkańców innych krajów, od Nigerii i Egiptu, poprzez Wielką Brytanię po Brazylię. W tym też czasie doroczne powodzie będą groziły kolejnym 360 milionom osób, co oznacza, że do końca wieku 560 milionów mieszkańców wybrzeży będzie żyło w ciągłym zagrożeniu. I to przy założeniu ograniczonej redukcji emisji. Jeśli zaś emisja będzie wyższa, niż założono, zagrożone będą obszary zamieszkane przez 640 milionów osób. Skutki gospodarcze takiego rozwoju sytuacji będą trudne do przewidzenia. Dość wspomnieć, że w ostatnich dekadach przybrzeżne prowincje Chin przyciągnęły miliony emigrantów z wnętrza kraju. Podnoszący się poziom oceanów zagrozi globalnym centrom gospodarczym w prowincjach Guangdong czy Jiangsu. Autorzy badań wymienili ich słabości. Przyznają, że model CoastalDEM jest mniej dokładny niż lidar i zawyża średnią wysokość nad poziomem morza. Ponadto w swoich wyliczeniach wykorzystali dane populacji pochodząc e bazy 2010 LandScan. W ciągu ostatnich lat populacja ludności znacznie wzrosła. Ponadto wciąż nieznany jest wpływ Arktyki i Antarktyki na przyszły wzrost poziomu oceanów. W ostatnim czasie pojawiły się badania sugerujące, że szczególnie lody Antarktyki mogą być mniej stabilne niż sądzono. W analizach wykorzystano ponadto model RCP4.5, który zakłada, że na globalną skalę zostanie wdrożone porozumienie paryskie. Badania nie uwzględniają też infrastruktury chroniącej przed powodziami. Warto jednak wspomnieć, że taka infrastruktura jest kosztowna, wymaga znacznych wysiłków na jej utrzymanie i nawet w USA w 2013 roku oceniano, że jedynie 8% tego typu infrastruktury znajduje się w akceptowalnym stanie. W sieci dostępna jest też interaktywna mapa, na której można sprawdzić przyszłe ryzyko powodzi. « powrót do artykułu
  7. Naukowcy z Massachusetts General Hospital (MGH) pracują nad metodą, która pozwala badać aktywność mieszków włosowych. Amerykanie podkreślają, że przyda się ona do testowania skuteczności różnych terapii łysienia. Wyniki badań zespołu ukazały się w piśmie Scientific Reports. Technika bazuje na odkryciu, że kiedy skóra głowy jest lekko uciskana w okolicy zawierającej zdrowe mieszki włosowe, powstaje stałe pole magnetyczne, które można zmierzyć. Ponieważ badanie dotyczy włosów, naukowcy postanowili nazywać uzyskany zapis magnetotrychogramem (ang. magnetotrichogram, MTG). Aktywność mieszków włosowych w różnych miejscach skóry mierzono, gdy ochotnicy dociskali głowę do wewnętrznej powierzchni urządzenia (hełm do dcMEG zawiera 102 gradiometry, czyli urządzenia do pomiaru gradientu pola magnetycznego na małym obszarze). Dzięki temu można było stworzyć mapy MTG. Mapy MTG uzyskano dla 15 zdrowych członków grupy kontrolnej (w tym dla 5 kobiet) i dla 2 osób z łysieniem (mężczyzny i kobiety). Mapy osób z łysieniem różniły się od map ludzi zdrowych. U tych pierwszych sygnały aktywności były nieobecne. U ludzi zdrowych mapy wskazywały zaś na aktywność elektryczną o różnym natężeniu; u osób z przerzedzonymi włosami sygnał był słabszy, prawdopodobnie przez mniejsze zagęszczenie mieszków. Akademicy odkryli też 2 "niemieszkowe" źródła stałego pola magnetycznego wykrywanego nad głową. Jednym z nich są cząstki magnetytu w mózgach starszych badanych. Drugie, znaczne mniejsze źródło, daje wzorzec nazywany przez nich "skrzydłami". Ekipa tłumaczy, że bardzo trudno byłoby zmierzyć samą aktywność elektryczną, dlatego sygnały mieszkowe mogą być obserwowane jedynie pośrednio - "magnetycznie". Jak podkreślają Amerykanie, zdarzenia generujące prąd stały (ang. direct current, DC) w ludzkim ciele są nadal słabo zbadane. Większości takich wewnętrznych zdarzeń nie da się bowiem wykryć na powierzchni, bo występują duże zakłócenia związane z potencjałem elektrycznym skóry. [Opisana] metoda zapewnia ilościową i obiektywną ocenę stanu zdrowia mieszków włosowych i może być wykorzystywana jako biomarker terapii utraty włosów - podsumowuje dr Sheraz Khan. « powrót do artykułu
  8. Autorzy nowych badań twierdzą, że ojczyzną współczesnych ludzi jest Botswana. To właśnie tam, w delcie rzeki Okawango, miała przed 200 000 laty pojawić się i rozwijać pierwsza populacja człowieka współczesnego. W artykule, opublikowanym na łamach Nature, czytamy: anatomicznie współcześni ludzie pojawili się w Afryce około 200 000 lat temu. Chociaż niektóre najstarsze szczątki sugerują, że pochodzili oni ze wschodu Afryki, to południe Afryki jest domem populacji, która reprezentuje najwcześniejszą gałąź filogenetyczną. W ramach naszej pracy stworzyliśmy największą, o ile nam wiadomo, bazę słabo reprezentowanej macierzystej gałęzi L0 mitochondrialnego DNA pobranego od współczesnych mieszkańców południa Afryki. Dzięki odtworzeniu w czasie częstotliwości oraz rozkładu występowania, wykazaliśmy, że gałąź L0 pojawiła się na mokradłach Makgadikgadi-Okawango przed około 200 000 lat. Autorzy badań stwierdzili, że przedstawiciele tej linii genetycznej pozostawali na wspomnianym obszarze przez około 70 000 lat, następnie zaczęli się rozprzestrzeniać. Jest to zgodne z tym, co wiemy o ówczesnym klimacie. W tym bowiem czasie stawał się on coraz bardziej wilgotny, dzięki czemu powstały korytarze sprzyjające migracji. Ci pierwsi anatomicznie współcześni ludzie byli niewielką grupą łowców-zbieraczy ludu Khoisan. Zamieszkiwali oni obszar wielkości współczesnej Szwajcarii. Wówczas cały region Makgadikgadi-Okawango stanowiły mokradła. Jak mówi główna autorka badań, Vanessa M. Hayes, genetyk z australijskiego Garvan Institute of Medical Research, tamtejsza społeczność była wyjątkowo stabilna i przez 70 000 lat zamieszkiwała niemal niezmienione tereny przypominające dzisiejszą deltę Okawango. Autorzy badań oparli je na mitochondrialnym genomie 1217 współczesnych mieszkańców południa Afryki. Skupili się na badaniu najstarszej znanej linii mitochondrialnej L0. Badanie akumulowania się mutacji pozwala na określenie czasu, w jakim zachodziły zmiany. Zmiany takie zostały zidentyfikowane i datowane. Okazało się, że datowanie koreluje z datowaniem zmian klimatycznych oraz z archeologicznymi dowodami na migrację człowieka. Jak mówią naukowcy, najpierw przed około 130 000 laty, w wyniku zwiększania się opadów, otworzył się korytarz, który umożliwił migrację na północny-wschód. Około 110 000 lat temu obszar Makgadikgadi-Okawango stawał się coraz bardziej suchy, a jednocześnie otworzył się korytarz do migracji na południe. Dowodami na takie migracje są, zdaniem uczonych, istniejące do dzisiaj izolowane linie genetyczne L0k i L0d1'2. Te nowe badania pasują do wcześniej zdobytych dowodów genetycznych, wskazujących na istnienie migracji z południa do Afryki Wschodniej, do mieszania się z tamtejszymi populacjami i migracji poza Afrykę. Jeszcze inne, tegoroczne badania, sugerują, że migracja z południa Afryki na wschód bezpośrednio poprzedzała dużą migrację poza Afrykę. James Cole, archeolog z angielskiego University of Brighton, który nie brał udziału w badaniach grupy Hayes, chwali Australijczyków za ich osiągnięcia. Jednak zauważa, że nie uwzględnili oni w swojej pracy tak ważnych dowodów, jak np. liczący sobie 315 000 lat szkielet człowieka współczesnego znaleziony w Maroku. Hayes odpowiada, że w swoich badaniach skupiła się wyłącznie na populacji bezpośrednich przodków współcześnie żyjących ludzi, a wobec braku DNA ze szkieletu z Maroka nie znamy jego związków z dzisiejszymi H.sapiens. Na braki zwraca też uwagę Milford Wolpoff, paleonatropolog z University of Michgan. Jego zdaniem zespół Hayes zbyt wąsko podszedł do problemu. Opieranie się jedynie na dowodach mitochondrialnych może wprowadzić w błąd. Na przykład nasze związki genetyczne z neandertalczykami są widoczne wyłącznie w DNA jądrowym, a zupełnie brak ich w DNA mitochondrialnym. DNA jądrowe składa się z trzech miliardów par zasad i może ono opowiadać zupełnie inną historię o pochodzeniu człowieka współczesnego niż to, czego możemy dowiedzieć się z mitochondrialnego DNA składającego się z 16 000 par. Jak obrazowo powiedział James Cole: mamy do czynienia z puzzlami składającymi się z miliona części. Ułożyliśmy może 100 pierwszych. Paleogenetyka znacząco zwiększyła skalę problemu. Gdy mieliśmy do czynienia z danymi paleontologicznymi i archeologicznymi, wydawało się, że to układanka z 1000 puzzli. Genetyka miała pozwolić na ich całkowite ułożenie. Zamiast tego okazało się, że ten obraz jest znacznie bardziej skomplikowany niż sądziliśmy. « powrót do artykułu
  9. Specjaliści obawiają się, że w pożarze buszu w Nowej Południowej Walii zginęły setki koali. Pożar, spowodowany ponoć przez sobotnie uderzenie pioruna w pobliżu Port Macquarie, strawił ponad 2 tys. hektarów, w tym samo serce podstawowego habitatu torbaczy. Piękno tej konkretnej populacji polega na tym, że jest tak bardzo zróżnicowana genetycznie, że ma znaczenie narodowe - podkreśla Sue Ashton, dyrektorka Port Macquarie Koala Hospital. Jeszcze do czwartku-piątku przeszkoleni ratownicy nie będą mogli wybrać się na poszukiwanie zwierząt, które przeżyły. Ponieważ koale zupełnie nie radzą sobie w sytuacji pożaru, Ashton obawia się najgorszego. Generalnie, gdy się pali, koala wspina się na szczyt drzewa i zwija się w kłębek. [...] Przy intensywnych pożarach torbacze mogą [niestety] spłonąć żywcem. Nawet jeśli przetrwają pożogę, schodząc po tlących się pniach, mogą oparzyć sobie łapy i pazury, przez co nie będą już w stanie się wspinać. Port Macquarie Koala Hospital pomieści do 40 osobników. Instytucja zebrała już grupę ponad 150 ochotników, którzy pomogą poradzić sobie ze spodziewanym dużym napływem rannych koali. Na wolności pozostało ok. 43 tys. koali. Zagrażają im utrata habitatu (wycinka gajów eukaliptusowych), urbanizacja, choroby czy zmiana klimatu. « powrót do artykułu
  10. Naukowcom udało się przeprowadzić symulację okresu „ponownego ogrzewania” (reheating), który stworzył warunki do Wielkiego Wybuchu. Wielki Wybuch nastąpił około 13,8 miliardów lat temu. Jednak obecnie fizycy nie postrzegają Wielkiego Wybuchu jako wydarzenia inicjującego, które nastąpiło w czasie t=0. Współczesna kosmologia, mówiąc o Wielkim Wybuchu ma na myśli moment, na samym początku istnienia wszechświata, w którym zaistniały warunki konieczne do zaistnienia Wielkiego Wybuchu. To zaś oznacza, że ówczesny wszechświat był wypełniony wieloma różnymi typami gorącej materii, znajdującej się w termicznej równowadze. To stan równowagi zdominowany przez promieniowanie. Masy cząstek wypełniających wówczas wszechświat były znacznie mniejsze niż średnia temperatura wszechświata. W takim pojęciu mieści się więc założenie, że przed Wielkim Wybuchem miały miejsce wydarzenia, w wyniku których powstały warunki do Wielkiego Wybuchu. I właśnie te warunki postanowił zbadać profesor David I. Kaiser wraz ze swoim zespołem z MIT oraz Kenyon College. Przed Wielkim Wybuchem miała miejsce inflacja kosmologiczna. Trwała ona biliardową część sekundy, jednak w tym czasie zima materia zaczęła się gwałtownie rozszerzać, zanim procesy Wielkiego Wybuchu przejęły kontrolę, spowolniły to rozszerzanie i doprowadziły do dywersyfikacji rodzącego się wszechświata. Dokonane w ostatnim czasie obserwacje potwierdzają Wielki Wybuch oraz inflację kosmologiczną, jednak zjawiska te są tak bardzo od siebie różne, że naukowcy mieli dotychczas problem z ich połączeniem. Kaiser wraz z zespołem przeprowadzili szczegółową symulację fazy przejściowej, która połączyła inflację z Wielkim Wybuchem. Faza ta, znana pod nazwą „ponownego ogrzewania” (reheating) miała miejsce na samym końcu inflacji, a w jej wyniku z zimnej homogenicznej zupy wyłoniła się super gorąca złożona mieszanina, która dała początek Wielkiemu Wybuchowi. Postinflacyjne ponowne ogrzewanie stworzyło warunki dla Wielkiego Wybuchu. Podpaliło lont. To okres, w którym rozpętało się piekło, a materia zaczęła zachowywać się w bardzo złożony sposób, wyjaśnia Kaiser. Uczeni symulowali interakcje jaki zachodziły pomiędzy poszczególnymi rodzajami materii po zakończeniu procesu inflacji. ich badania wykazały, że olbrzymia ilość energii, która napędzała inflację, błyskawicznie się rozprzestrzeniła, tworząc warunki do Wielkiego Wybuchu. Okazało się także, że do takich gwałtownych zmian mogło dojść jeszcze szybciej i zachodziły one bardziej efektywnie, jeśli zjawiska kwantowe zmodyfikowały sposób, w jaki materia przy wysokich energiach reaguje na oddziaływanie grawitacji. Zjawiska te odbiegają od tych opisanych przez ogólną teorię względności. To pozwala nam opisanie całego ciągu wydarzeń, od inflacji, poprzez okres postinflacyjny po Wielki Wybuch i dalej. Możemy śledzić rozwój poszczególnych znanych procesów fizycznych i stwierdzić na tej podstawie, że jest to prawdopodobny rozwój wydarzeń, które doprowadziły do tego, że obecnie wszechświat jest taki, jakim go widzimy, dodaje uczony. Teoria inflacji została opracowana w latach 80. przez Alana Gutha z MIT. Mówi ona, że historia wszechświata rozpoczęła się od niezwykle małe punktu, wielkości miliardowych części średnicy protonu. Ten punkt był wypełniono wysokoenergetyczną materią. Jej energia była tak wielka, że powstały siły grawitacyjne odpychające się wzajemnie, które wywołały gwałtowną inflację. Proces ten był niezwykle gwałtowny. W czasie krótszym niż bilionowa część sekundy ten zaczątek wszechświata zwiększył swoją objętość kwadryliard (1027) razy. Kaiser i jego zespół badali, co stało się po zakończeniu inflacji, a przed Wielkim Wybuchem. Najwcześniejsza faza ponownego ogrzewania powinna charakteryzować się istnieniem rezonansów. Dominuje jedna forma wysokoenergetycznej materii która wstrząsa w tę i z powrotem całą olbrzymią przestrzenią, rezonując sama ze sobą, prowadząc do gwałtownego powstawania nowych cząstek. To nie trwa wiecznie. W miarę, jak przekazuje ona swoją energię drugiej formie materii, jej własne oscylacje stają się bardziej chaotyczne i nierówne. Chcieliśmy się dowiedzieć, jak długo trwało, zanim ten efekt rezonansowy się załamał i jak stworzone cząstki rozpraszały się na sobie nawzajem tworząc równowagę termiczną, warunki potrzebne do powstania Wielkiego Wybuchu. Uczeni do symulacji wybrali konkretny model inflacyjny i jego warunki wyjściowe. Zdecydowali się na ten, którego założenia najlepiej odpowiadają precyzyjnym pomiarom mikrofalowego promieniowania tła. Podczas symulacji śledzono zachowanie dwóch typów materii podobnych do bozonu Higgsa, które były dominującymi typami w czasie inflacji. Model zmodyfikowali też o taki rodzaj oddziaływań grawitacyjnych, jakie powinny istnieć w świecie materii o znacznie wyższych energiach, tak, jak to było w czasie inflacji. W takich warunkach siła grawitacji może być różna w czasie i przestrzeni. Symulacja wykazała, że im silniejszy wpływ grawitacji zmodyfikowanej o efekt kwantowy, tym szybciej zachodziła przemiana ze stanu zimnej homogenicznej materii, w zróżnicowane formy gorącej materii, które są charakterystyczne dla Wielkiego Wybuchu. Ponowne ogrzewanie to był szalony okres, w którym wszystko oszalało. Wykazaliśmy, że materia wchodziła w tak silne interakcje, że mogło dojść do równie szybkiego rozprężenia i pojawienia się warunków do Wielkiego Wybuchu. Nie wiemy, czy tak to wyglądało, ale tak wynika z naszych symulacji, którą przeprowadziliśmy wyłącznie z uwzględnieniem znanych nam praw fizyki, mówi Kaiser. Prace Amerykanów pochwalił profesor Richard Easther z University of Auckland. Istnieją setki propozycji dotyczących inflacji. Jednak przejście od inflacji do Wielkiego Wybuchu jest najmniej zbadanym elementem całości. Ta praca kładzie podwaliny pod precyzyjne symulowania epoki postinflacyjnej. Ze szczegółami pracy można zapoznać się na serwerze arXiv [PDF]. « powrót do artykułu
  11. Brytyjscy naukowcy pracują nad nową metodą diagnozowania i oceny zaawansowania choroby zwyrodnieniowej kolan. Bazuje ona na analizie emisji akustycznej, dlatego niektórzy porównują ją do podsłuchiwania odgłosów z kolana. W studium, którego wyniki ukazały się w piśmie PLoS ONE, wzięło udział 89 osób. Akademicy podkreślają więc, że potrzebne są badania na większej próbie, które stworzą podstawy do testów klinicznych. Do badania zakwalifikowano osoby z bólem kolan, które w skali Kellgrena-Lawrence'a do oceny stopnia zaawansowania zmian radiologicznych w chorobie zwyrodnieniowej stawów uzyskiwały wynik w zakresie 1-4; 1 oznacza drobne osteofity, zaś przy 4 osteofity są bardzo duże, a szpara stawowa bardzo zwężona lub niewidoczna. Jak tłumaczą Brytyjczycy, do kolana przyczepia się czujnik emisji akustycznej, który wychwytuje impulsy energii akustycznej (ang. acoustic emission, AE) generowane podczas naprężeń i tarcia między elementami stawu (wykrywane są dźwięki o wysokiej częstotliwości). Oprócz tego na Joint Acoustic Analysis System (JAAS) składa się elektrogoniometr, który umożliwia badanie zakresów ruchu w funkcji czasu. Dane dot. zgięcia stawu kolanowego i emisji akustycznych zbierano jednocześnie dla obu kolan, zespół koncentrował się jednak na kolanie uznawanym przez ochotników za bardziej bolesne. Test składał się z 2 serii 5 wstawań i siadów. Badani mieli się poruszać tak płynnie, jak to tylko możliwe z wygodną dla siebie prędkością. Zebrane dane poddano analizie komputerowej. Generalnie celem naukowców było poszukiwanie potencjalnych biomarkerów AE. Naukowcy z Uniwersytetu w Lancaster współpracowali ze specjalistami z Uniwersytetu w Manchesterze, Uniwersytetu Kumbrii i Uniwersytetu Centralnego Lancashire. Ich badania wykazały, że za pomocą JAAS można odróżnić kolana zdrowe i ze zmianami zwyrodnieniowymi i że technika sprawdza się zarówno w warunkach szpitalnych, jak i w praktyce lekarza rodzinnego. Projekt rozpoczął się w 2013 r. i jest finansowany przez Komitet Badań Naukowych. Potencjalnie możemy doprowadzić do zmiany sposobu prowadzenia choroby zwyrodnieniowej stawów. Nasze badania pozwolą na lepszą diagnostykę i dostosowanie leczenia do stanu kolana danej osoby [...] - cieszy się emerytowany profesor John Goodacre z Uniwersytetu w Lancaster. « powrót do artykułu
  12. Papierosowe filtry to najbardziej rozpowszechniony plastikowy odpad na Ziemi. Każdego roku ludzie wypalają około 5,6 biliona (5 600 000 000 000) papierosów, a 2/3 niedopałków jest wyrzucanych przez palaczy byle gdzie. To oznacza, że każdego roku na trawnikach, w lasach, na chodnikach i w rowach ląduje 4,5 biliona filtrów. Od lat 80. ubiegłego wieku niedopałki stanowią nawet do 40% wszystkich śmieci znajdowanych na ulicach miast i na plażach. Włókna z filtrów papierosowych znaleziono nawet na dnie rowów oceanicznych. Naukowcy z londyńskiej Szkoły Higieny i Medycyny Tropikalnej oraz San Diego State University apelują na łamach The British Medical Journal o wprowadzenie globalnego zakazu stosowania filtrów papierosowych. Zwracają uwagę, że w wielu krajach wprowadza się zakaz stosowania wielu jednorazowych plastikowych produktów, a tymczasem zapomina się o najbardziej rozpowszechnionym niebiodegradowalnym odpadzie na planecie. Filtry papierosowe po raz pierwszy pojawiły się w latach 50. ubiegłego wieku, wraz z pojawieniem się pierwszych pytań o szkodliwość palenia papierosów. Bardzo szybko się rozpowszechniły, a przemysł tytoniowy przekonał palaczy, że filtr czyni papierosy bezpieczniejszymi. Obecnie wiemy, że to kłamstwo. Zresztą jedno z wielu kłamstw stworzonych przez przemysł tytoniowy w celu zwiększenia sprzedaży papierosów. Kawałek plastikowego filtra pozwala producentowi z jednej strony zaoszczędzić na tytoniu, a z drugiej umożliwia przekonanie ludzi, że papierosy z filtrem są bezpieczniejsze. Tymczasem, jak odkrył chemik Claude Teague pracujący dla firmy tytoniowej RJ Reynolds, zmiana koloru filtra podczas palenia papierosa jest spowodowana przez zmianę pH octanu celulozy stosowanego w filtrach. Filtry zmniejszają ilość smoły z papierosów tylko w... maszynach testowych. Gdy papieros jest palony przez człowieka, filtr nie zatrzymuje smoły. Jak piszą autorzy artykuły, opublikowanego na łamach The British Medical Journal, przemysł tytoniowy szybko zdał sobie z tego sprawę i delikatnie zmienił pole swoich zainteresowań, z prób znalezienia skutecznego filtra na wykorzystanie faktu istnienia filtra do lepszego marketingu swoich produktów. Pojawiły się takie pojęcia jak „light”, "o niskiej zawartości smoły” czy „naturalny”. W wielu krajach użycie tych terminów jest zakazane, logicznym więc wydaje się wykonanie następnego kroku i zakazanie następnego elementu przesłania przemysłu tytoniowego: filtrów, o których wiemy, że są nieskuteczne. Autorzy propozycji zakazania filtrów zwracają uwagę, że przemysł tytoniowy, w przeciwieństwie do wielu producentów innych odpadów, nigdy nie został przymuszony do redukcji ilości odpadów związanych z paleniem papierosów. Co więcej, dzięki odpowiednim zabiegom marketingowym opinia publiczna nigdy nie zwróciła uwagi na najbardziej rozpowszechniony odpad na Ziemi – filtry papierosowe. Wielu innych producentów odpadów było celem negatywnych kampanii, politycy i opinia publiczna wymuszali na nich proekologiczne działania. Przemysłu tytoniowego nigdy to nie spotkało. Nawet teraz, gdy wiadomo, że filtry są nieskuteczne i są najbardziej rozpowszechnionym odpadem, to problemu tego w ogóle nie uwzględnia się w międzynarodowych programach walki z paleniem tytoniu. Autorzy propozycji przyznają, że nie rozumieją, dlaczego unijna dyrektywa dotycząca zakazu stosowania niektórych przedmiotów jednorazowego użytku nie obejmuje filtrów papierosowych. Przypominają jednak, że przemysł tytoniowy prowadzi intensywne działania lobbingowe, których celem jest odwrócenie uwagi od szkodliwości jego produktów. Epidemia palenia tytoniu jest główną przyczyną śmierci i niepełnosprawności na całym świecie. Problem ten, podobnie jak globalne ocieplenie, będzie istniał, póki kraje nie podejmą zdecydowanych działań. W przeszłości wiele osób wątpiło w możliwość powstania barów, pubów czy samolotów wolnych od tytoniu. Pomysł, by na paczkach papierosów pojawiało się ostrzeżenie o szkodliwości palenia wydawał się niemożliwy do zrealizowania. Może nadszedł czas na podobne radykalne działania, w których połączymy troskę o zdrowie i o środowisko. Jeśli nie wyeliminujemy bilionów filtrów, które każdego roku zaśmiecają naszą planetę, podważymy działania mające na celu zmniejszenie ilości plastikowych odpadów i stracimy możliwość zakończenia epidemii palenia tytoniu, czytamy w The British Medical Journal. « powrót do artykułu
  13. Zdumieni strażnicy z National Trust znaleźli na bezludnej wyspie Mullion u wybrzeży Kornwalii tysiące jasnobrązowych, żółtych i zielonych gumek recepturek. Wydaje się, że trafiły tu, bo ptaki morskie pomyliły je ze swoim pożywieniem. Co istotne, w regionie uprawiane są kwiaty, które wiąże się w pęczki właśnie za pomocą gumek. Gumki znajdowały się w wypluwkach (zrzutkach) wydalonych na drodze regurgitacji. Zjedzone tworzywa sztuczne i guma to kolejna pozycja na długiej liście wyzwań, z którymi mewy i inne ptaki morskie muszą się zmagać, by po prostu przeżyć. Choć mewy są hałaśliwe i wydają się rozpowszechnione, tak naprawdę ich liczebność spada - opowiada strażniczka Rachel Holder. Miejsca takie jak wyspa Mullion powinny być dla ptaków morskich ostojami, przykro więc widzieć, że stały się one ofiarami ludzkiej aktywności. W niestrawionym pokarmie znaleziono też niewielkie fragmenty sieci rybackich i sznurka. Jedna z mew zginęła po złapaniu się na 10-cm haczyk. « powrót do artykułu
  14. Rewolucyjny silnik Sabre z powodzeniem przeszedł niezwykle ważny test. Firma Reaction Engines poinformowała, że jego kluczowy element, wymiennik ciepła zapobiegający przegrzaniu silnika, przetestowano w warunkach odpowiadających lotowi z prędkością 5 Mach. Silnik Sabre samoloty, które mają latać z kilkukrotną prędkością dźwięku. Zbliżamy się do momentu, w którym lot z Londynu do Sydney będzie trwał tyle, co film wyświetlany na pokładzie samolotu. Albo i do momentu, w którym spędzimy dwutygodniowe wakacje na orbicie. Sabre to hybryda silnika odrzutowego, rakietowego i strumieniowego. Do osiągnięcia prędkości około 6 machów i wysokości 26 kilometrów ma on działać jak silnik odrzutowy. Następnie wloty powietrza zostaną zamknięte, a Sabre przełączy się w tryb silnika rakietowego. Twórca silnika, firma Reaction Engines, ma nadzieję, że trafi on do samolotów wojskowych, pasażerskich i pojazdów kosmicznych wielokrotnego użytku. W firmę zainwestowały już takie przedsiębiorstwa jak BAE Systems, Rolls-Royca i boeing. Otrzymała ona też wsparcie finansowe od brytyjskiego rządu, amerykańskiej DARPA i Europejskiej Agencji Kosmicznej. Ostatnie testy wykazały, że wymiennik ciepła Sabre jest najbardziej wydajnym urządzeniem tego typu, jakie kiedykolwiek zastosowano w silniku rakietowym. Już przed kilku laty okazało się, że w ciągu mniej niż 1/100 sekundy jest on w stanie schłodzić powietrze z 1000 do -150 stopni Celsjusza bez pojawiania się szronu. Teraz widzimy, że pracuje przy olbrzymich prędkościach. Mach 5 to ponaddwukrotnie większa prędkość niż osiągał Concorde i o ponad 50% wiięcej niż najszybszy samolot odrzutowy świata, SR-71 Blackbird, wyjaśniają przedstawiciele Reaction Engines. Udany test wymiennika ciepła oznacza, że w ciągu najbliższych 12-18 miesięcy będzie można przetestować cały silnik. Reaction Engines kończy właśnie budowę nowego zakładu w Westcott na południu Anglii, gdzie będą prowadzone kolejne testy. Inżynierowie zaczęli też zarysowywać projekty pierwszych testów silnika Sabre w powietrzu. Miałyby się one odbyć w przyszłej dekadzie. Specjaliści zastanawiają się nad wykorzystaniem drona lub istniejącego modelu samolotu. Tymczasem brytyjskie Ministerstwo Obrony chce na bazie Sabre już teraz udoskonalać silniki istniejących samolotów odrzutowych. W lipcu bieżącego roku dowódca brytyjskich sił powietrznych stwierdził, że technologia schładzania powietrza w Sabre może zostać zastosowana w silnikach EJ-200 napędzających myśliwce Typhoon. « powrót do artykułu
  15. Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute. Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran. To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko. Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości. « powrót do artykułu
  16. Iskra Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj. Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku. Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.     Trudne początki Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona. Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych. Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia. W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a. « powrót do artykułu
  17. W badaniu o układzie naprzemiennym badacze z Uniwersytetu Stanowego Pensylwanii wykazali, że u dorosłych z nadwagą bądź otyłością spożywanie 1 awokado dziennie wiąże się z niższym poziomem frakcji małych gęstych LDL (sdLDL) oraz utlenionych lipoprotein niskiej gęstości (ang. oxidised low density lipoproteins, oxLDL). To zaś oznacza obniżone ryzyko chorób sercowo-naczyniowych. Byliśmy w stanie wykazać, że kiedy ludzie uwzględnili w swoim menu jedno awokado dziennie, mieli niższy poziom sdLDL niż przed wprowadzeniem diety - podkreśla prof. Penny Kris-Etherton. Kris-Etherton dodaje, że sdLDL jest silnie aterogenną (promiażdżycową) frakcją LDL. Dzieje się tak m.in. dlatego, że cząsteczki sdLDL wykazują niskie powinowactwo do receptorów dla LDL (LDL-R) i łatwiej niż prawidłowe LDL przenikają do błony wewnętrznej tętnic. Mając to na uwadze, ludzie powinni rozważyć dodanie awokado do swojej diety [...] i np. jadać je z pełnoziarnistymi tostami albo w postaci sosu (guacamole). Wiele badań pokazuje, że utlenianie stanowi podstawę dla różnych chorób, np. nowotworów czy chorób serca. Wiemy, że gdy LDL ulega utlenieniu, rozpoczyna się reakcja łańcuchowa, która może sprzyjać miażdżycy [...]. Utlenianie nie jest dobre, jeśli więc można by sobie pomóc za pomocą konkretnych pokarmów, byłoby to bardzo korzystne. Amerykanie zebrali grupę 45 dorosłych, kobiet i mężczyzn, w wieku 21-70 lat z nadwagą lub otyłością i podwyższonym poziomem cholesterolu LDL (LDL-C). Na początku wszyscy byli przez 2 tygodnie na diecie "rozruchowej", która przypominała dietę przeciętnego Amerykanina. Następnie ochotnicy brali w losowej kolejności udział w 3 scenariuszach dietetycznych. Przez 5 tygodni przestrzegali zaleceń 1) diety niskotłuszczowej, 2) diety z umiarkowaną zawartością tłuszczu oraz 3) diety z umiarkowaną zawartością tłuszczu, która uwzględniała jedno awokado dziennie. W diecie niskotłuszczowej tłuszcz stanowił 24%, przy czym krótkołańcuchowe kwasy tłuszczowe (ang. short-chain FAs, SCFAs) stanowiły 7%, jednonienasycone kwasy tłuszczowe (ang. Monounsaturated Fatty Acids, MUFAs) 11%, a wielonienasycone kwasy tłuszczowe (ang. Polyunsaturated Fatty Acids, PUFAs) 6%. W dietach z umiarkowaną ilością tłuszczu (ang. moderate-fat diet, MF) z tłuszczu pochodziło 34% kalorii, a SCFAs, MUFAs i PUFAs stanowiły, odpowiednio, 6%, 17% i 9%. W jednej diecie MF badani mieli zjadać ważące ok. 136 g awokado Haas (~13 g MUFAs). W drugiej diecie MF profil kwasów tłuszczowych jednego awokado oddawano za pomocą kwasu oleinowego. Okazało się, że po 5 tygodniach diety awokado ochotnicy mieli znacząco niższy poziom krążącego oxLDL niż przed rozpoczęciem studium (–8,8%) lub po ukończeniu diety niskotłuszczowej bądź MF bez awokado. Po diecie MF z awokado ludzie mieli też wyższe stężenie przeciwutleniacza luteiny w osoczu (+19,6 nmol/L, +68,7%). Kris-Etherton dodaje, że powodowane przez dietę z awokado zmiany w zakresie oxLDL korelowały ze zmianą liczby cząsteczek sdLDL. Ustalenia te sugerują, że awokado mogą zmniejszać oxLDL przez mechanizm bazujący na obniżaniu sdLDL (a więc także na obniżaniu liczby cząsteczek sdLDL, które uległy utlenieniu). Kluczowe spostrzeżenie jest takie, że ludzie na diecie z awokado mieli mniej cząsteczek utlenionego LDL. Mieli za to więcej luteiny, która mogła chronić LDL przed utlenianiem. Choć wyniki są bardzo zachęcające, konieczne są dalsze badania. Awokado zawierają sporo zdrowych tłuszczów, karotenoidy, które są bardzo ważne dla zdrowia oczu, i inne składniki odżywcze. Cechuje je duża gęstość odżywcza i myślę, że dopiero zaczynamy odkrywać, w jaki sposób mogą korzystnie wpłynąć na nasze zdrowie. « powrót do artykułu
  18. Pyłomierz osobisty, dający natychmiastowy dostęp do danych o jakości powietrza w miejscu przebywania jego użytkownika, skonstruowali naukowcy z Głównego Instytutu Górnictwa (GIG) w Katowicach. Urządzenie zostało nagrodzone m.in. na niedawnej wystawie wynalazczości w Hiszpanii. Urządzenie dokonuje pomiarów w czasie rzeczywistym i informuje użytkownika, kiedy należy podjąć działania prewencyjne. Taki pyłomierz przymocowany do paska, torby czy roweru daje możliwość dokonywania nieograniczonej ilości pomiarów w ciągu dnia – powiedziała w środę PAP rzeczniczka GIG dr Sylwia Jarosławska-Sobór. Pyłomierz osobisty Dust Air to całkowicie polskie rozwiązanie, opracowane i opatentowane w Głównym Instytucie Górnictwa. Mierzy i wskazuje stężenia pyłów: PM 1 (to najbardziej niebezpieczne pyły zawieszone, o cząsteczkach mniejszych niż 1 mikrometr), PM 2,5 (drobne pyły, które bez przeszkód przedostają się do układu oddechowego i krwi) oraz PM 10 (pyły powstające podczas ogrzewania domów oraz w ruchu drogowym). Urządzenie pokazuje także temperaturę i wilgotność powietrza oraz ciśnienie atmosferyczne. Na podstawie zebranych danych określany jest wskaźnik IAQ (Indoor Air Quality), określający jakość powietrza w pomieszczeniu. Wskaźnik ten odnosi się do konkretnego punktu pomiaru. Gdy wartość wskaźnika jest poniżej 50, jakość powietrza jest satysfakcjonująca, między 50 a 100 jednostek – umiarkowana, między 101 a 150 – słaba (wówczas u części populacji mogą wystąpić negatywne skutki zdrowotne), między 51 a 200 – niezdrowa (wtedy wszyscy zaczynamy doświadczać negatywnych skutków zanieczyszczenia), między 201 a 300 – bardzo niezdrowa (może skutkować poważnymi konsekwencjami dla zdrowia), od 301 do 500 – szkodliwa, a powyżej 500 – toksyczna. Stan powietrza wizualizowany jest w postaci kolorowego emotikonu. Urządzenie współpracuje z darmową aplikacją mobilną pod nazwą „Pyłomierz Dust Air”. Aplikacja, korzystając z GPS, precyzyjnie lokalizuje pyłomierz, przesyła dane pomiarowe do serwera, nanosi wyniki na mapę pomiarów i pokazuje je na ekranie naszego smartfona. Gdy nie mamy telefonu przy sobie, kolorowe diody sygnalizują o jakości powietrza w otoczeniu. Pyłomierz może działać w dwóch trybach. W pierwszym, gdy włączony jest tylko pyłomierz, kolejne pomiary dokonują się automatycznie, a użytkownik informowany jest jedynie o przekroczeniu stanu alarmowego zanieczyszczeń powietrza. W drugim przypadku, gdy włączony jest jednocześnie pyłomierz i aplikacja mobilna, dane z automatycznych pomiarów przesyłane są do aplikacji mobilnej oraz serwera obsługującego serwis internetowy dustair.gig.eu. Wtedy, zarówno na ekranie smartfona jak i w serwisie internetowym, widzimy dane w postaci punktów pomiarowych ma mapie Google, z dostępem do pełnej historii pomiarów danego użytkownika. Administratorem systemu Dust Air jest Główny Instytut Górnictwa, który gromadzi informacje pochodzące ze wszystkich działających w terenie pyłomierzy osobistych, a ich kompleksowa prezentacja odbywa się na stronie internetowej dustair.gig.eu, na mapie zanieczyszczeń w zakładce Ranking. Przedstawiciele GIG podkreślają, że misją programu Dust Air jest udostępnianie informacji o środowisku, szczególnie zapewnianie mieszkańcom i samorządom dostępu do zróżnicowanej i pełnej informacji na temat zagrożeń smogowych. Rezultatem tych działań ma być zwiększenie świadomości społeczeństwa i lokalizacja obszarów zanieczyszczonych, co ma ułatwić rozpoznanie przyczyn tych zjawisk i pomóc w ich zwalczaniu. W październiku pyłomierz został nagrodzony Platynowym Medalem XIII Międzynarodowej Warszawskiej Wystawy Wynalazków "IWIS 219" oraz Dyplomem Prezesa Urzędu Patentowego RP, zaś w ubiegłym tygodniu otrzymał Złoty Medal z wyróżnieniem na międzynarodowej wystawie wynalazczości w hiszpańskiej Walencji. « powrót do artykułu
  19. JEDI, wart 10 miliardów kontrakt z Pentagonem, został przyznany Microsoftowi. To spore zaskoczenie dla wielu specjalistów, którzy uważali, że pewnym zwycięzcą przetargu na Joint Enterprise Defense Infrastructure, jest Amazon. Przekonanie to opierało się na opinii, że Amazon jest tak naprawdę jedyną firmą, która spełnia warunki konkursu, gdyż posiada największą chmurę, która osiągnęła najwyższy poziom bezpieczeństwa, znany jako Impact Level 6. Kontrowersje trapiły JEDI od samego początku. Na czele grupy niezadowolonych stało Oracle, które zwracało uwagę, że postawione przez Pentagon warunki faworyzują Amazona kosztem mniejszych dostawców chmur obliczeniowych. Kontestujący dotarli nawet do prezydenta Trumpa, o którym wiadomo, że nie lubi Jeffa Bezosa, założyciela i dyrektora Amazona. Podobno prezydent Trump powiedział ówczesnemu sekretarzowi obrony, Mattisowi, by wyrzucił ofertę Amazona. W lipcu Trump zaczął publicznie kwestionować zasady konkursu, a wkrótce potem nowy sekretarz obrony, Mark Esper wstrzymał program i zarządził jego przegląd. Niedawno Esper niespodziewanie oświadczył, że wycofuje się z grona osób podejmujących decyzję, gdyż jego syn pracuje dla IBM-a, który został wyeliminowany na wczesnym etapie konkursu. Po rozstrzygnięciu JEDI przedstawiciele Amazona wyrazili swoje zaskoczenie. W końcu ich chmura obliczeniowa, AWS, jest jedynym dostawcą usług w chmurze dla służb wywiadowczych USA, które od niemal sześciu lat przechowują w niej tajne dane. Jesteśmy zaskoczeni decyzją. AWS to oczywisty lider na rynku chmur obliczeniowych, a szczegółowa analiza założeń kontraktu w oczywisty sposób skłania do podjęcia innej decyzji niż ta, która zapadła, oświadczył rzecznik prasowy AWS. Na korzyść Microsoftu mogły przemówić jego związki z Pentagonem. W ubiegłym roku US Army podpisała z Microsoftem wart pół miliarda dolarów kontrakt na dostawę HoloLens, które posłużą żołnierzom zarówno do treningów jak i misji bojowych. Ponadto firma dostarcza też MS Office 365 milionom użytkowników z sektora wojskowego. Koncern nie musi nawet starać się samodzielnie o kontrakty w ramach projektu Defense Enterprise Office Solutions (DEOS). Każda firma, która chce w ramach swoich usług zaoferować wojsku również rozbudowane narzędzia biurowe do pracy grupowej, proponuje właśnie produkt Microsoftu. Celem programu JEDI jest dostarczenie Pentagonowi podobnych narzędzi i możliwości działania w chmurze, jaką dysponują wielkie firmy. Obecnie wojskowi korzystają z różnych chmur i sieci, co negatywnie wpływa na przepływ danych i wydajność. JEDI ma to zmienić i zunifikować wszystko, co robi amerykański Departament Obrony, od działań pojedynczego żołnierza, po lotniskowiec, w ramach jednego zbioru danych. Zdaniem wojskowych, taka unifikacja jest niezbędna na wypadek konfliktu z wysoko zaawansowanym technologicznie przeciwnikiem, jak np. Chiny. Wyobraźmy sobie tempo operacji na Pacyfiku, gdy nie masz czasu zastanawiać się, jak wydobyć dane, oczyścić je i przesunąc z punktu A do punktu B. Gdy prowadzę wojnę, potrzebuję maksymalnie dużo informacji, których obróbką i sortowaniem niech zajmą się algorytmy. Bardzo trudno to zrobić bez chmury, mówi generał Jack Shanahan, dowódca Joint Artificial Intelligence Center. « powrót do artykułu
  20. Po 30 latach prac konserwatorskich ponownie otwarto dla zwiedzających Willę Dwustulecia (Casa del Bicentenario) w Herkulaneum. Odkryto ją w 1938 r. - w 200. rocznicę rozpoczęcia wykopalisk w mieście zniszczonym przez wybuch Wezuwiusza, stąd nazwa - i zamknięto w 1983 r. ze względu na pogarszający się stan techniczny. [Willa] została zamknięta, bo była zaniedbywana i popadła w ruinę. Nie doprowadziła do tego żadna katastrofa, np. wojna domowa czy trzęsienie ziemi. Przyczyną [upadku] była porażka systemu publicznego w zakresie bieżącej konserwacji - podkreśla Jane Thompson, która nadzoruje Herculaneum Conservation Project. Trzykondygnacyjny dom przy głównej ulicy należał do Gajusza Petroniusza Stefanusa oraz jego żony Kalantonii Temidy. To jedna z najpiękniejszych budowli z Herkulaneum. Zachowały się w niej m.in. mozaiki oraz freski przedstawiające sceny mitologiczne czy motywy zwierzęce. Specjaliści wskazują też na wmurowany w ścianę marmurowy blat, który pozwalał użytkownikowi cieszyć się docierającymi tu promieniami słońca czy na piękną drewnianą kratownicę. Wcześniejsze prace konserwatorskie przyniosły więcej szkód niż korzyści. Freski pokryto wtedy bowiem powłoką, która miała je zabezpieczyć, ale w połączeniu z czynnikami środowiskowymi ostatecznie przyczyniła się do łuszczenia. Na szczęście udało się stwierdzić, że żel sztywny usuwa wosk i odsłania stabilną warstwę farby. Mieliśmy okazję, by opracować nowe, innowacyjne materiały oraz metody konserwacji, które będzie można wykorzystać zarówno tu, w Herkulaneum, jak i na innych stanowiskach - podkreśla Leslie Rainer z Getty Conservation Institute.   « powrót do artykułu
  21. Japońscy naukowcy odkryli nieznany dotychczas gatunek skorupiaka. I nie byłoby w tym nic dziwnego, gdyby nie miejsce, gdzie zwierzę znaleziono. Podocerus jinbe, bo tak nazwano podobnego do krewetki skorupiaka z podrzędu Gammaridea, za habitat obrał sobie... otwór gębowy rekina wielorybiego. Gammaridae to wyjątkowe zwierzęta. Przedstawicieli tego podgatunku spotyka się od wysokich gór po głębie oceaniczne. Te zwierzęta, długości zwykle 3-5 centymetrów, są niezwykłe, gdyż żyją w bardzo różnych środowiskach. Jednak nigdy bym się nie spodziewał, że żyją też w otworze gębowym rekina wielorybiego, mówi główny autor badań, profesor Ko Tomikawa z Uniwersytetu w Hiroszimie. Nowo odkryty gatunek ma długość około 5 milimetrów oraz włochate odnóża, którymi wychwytuje pokarm. Habitat, który sobie wybrał, jest zaskakujący, ale to logiczny wybór. Po pierwsze przez otwór gębowy rekina ciągle przepływa woda, z której Podocerus jinbe wychwytuje pokarm. Po drugie, środowisko, w którym żyje, jest wolne od zagrażających mu drapieżników. Profesor Tomikawa odkrył stworzenie po tym, jak został poproszony o pomoc przez akwarium na Okinawie, którego pracownicy zauważyli, że coś żyje w rekinie. Okazało się, że w otworze gębowym ryby mieszkało około 1000 przedstawicieli Podocerus jinbe. Rekin wielorybi to największa ryba na świecie. Długość jej ciała może dochodzić do 19 metrów, a waga do 14 ton. Mimo swoich imponujących rozmiarów ten piękny rekin żywi się planktonem i nie zagraża ludziom. Dożywa 70 lat. Ma też najgrubszą skórę w świecie zwierząt. Jej grubość sięga 10 centymetrów. Niestety, zwierzę jest odławiane przez ludzi, przez co średnia długość ciała rekinów wielorybich ciągle się zmniejsza, a sam gatunek jest od 3 lat uznawany za zagrożony. « powrót do artykułu
  22. Amerykańskie Narodowe Instytuty Zdrowia (NIH) nie przeniosą, wbrew zapowiedziom, wszystkich posiadanych przez siebie szympansów do specjalnych rezerwatów, ogłosił dyrektor tej instytucji Francis Collins. Przypomnijmy, że w 2013 roku NIH poinformowały, że przeniosą do schronisk 310 szympansów, które przez lata były poddawane eksperymentom. Opisywaliśmy los tych zwierząt i ich okrutne traktowanie przez naukowców. W USA eksperymenty na szympansach zostały praktycznie zakończone w 2015 roku, kiedy to NIH ogłosiły, że nie będą finansowały takich badań. Agencja zapewniła, że około 310 zwierząt przebywających w placówkach państwowych zostanie przeniesionych do sanktuariów, a eksperci spodziewali się, że podobny los spotka około 340 szympansów znajdujących się w prywatnych placówkach. Jednak cały proces przebiega niezwykle powoli. W ciągu 2 lat po ogłoszeniu decyzji NIH do sanktuariów trafiło zaledwie 51 zwierząt z laboratoriów państwowych lub finansowanych przez państwo oraz 22 szympansy z placówek prywatnych. Na szczęście po roku 2017 cały proces przyspieszył i obecnie w placówkach rządowych i finansowanych z budżetu pozostało 178 szympansów (są one przetrzymywane w Alamogordo Primate Facility w Nowym Meksyku, MD Anderson Cancer Center w Bastrop w Teksasie oraz w Texas Biomedical Research Institute w San Antonio) oraz około 190 szympansów w laboratoriach prywatnych (New Iberia Research Center w Luizjanie oraz Yerkes National Primate Research Center w Atlancie). Teraz jednak Collins powiedział, że około 40 szympansów pozostanie do końca życia w laboratorium w Nowym Meksyku, gdyż są zbyt stare lub zbyt schorowane, by się poruszać. Nie wykluczył, że podobnie stanie się ze zwierzętami z innych państwowych i prywatnych placówek. Obrońcy praw zwierząt skrytykowali taką decyzję. Stephen Ross z sanktuarium Chimp Haven, do którego zwierzęta miały trafić, powiedział: Uważamy, że każdy szympans powinien mieć szansę, by żyć do końca swoich dni w sanktuarium. Obawiamy się, że ta decyzja stanie się precedensem i zaważy na losie innych szympansów Wiele z tych zwierząt od dziesięcioleci jest przetrzymywanych w laboratoriach. To zaś oznacza, że zbliżają się do końca swojego życia. Zwierzęta całymi latami były poddawane wymyślnym eksperymentom. Cierpią na najróżniejsze schorzenia, w tym na cukrzycę czy choroby serca. Część środowiska biomedycznego zwraca uwagę, że zwierzęta te mogą nie przeżyć długiej podróży i kontaktu z nowym otoczeniem. Przypominają, że 9 sędziwych szympansów zmarło w ciągu 2 lat od przeniesienia ich z MD Anderson Cancer Center do Chimp Haven. W ubiegłym roku NIH powołał specjalny zespół weterynarzy, którzy mieli ocenić kondycję 44 zwierząt z Alamogordo. Po ich zbadaniu i konsultacji z tamtejszymi weterynarzami uznano, że wszystkie szympansy powinny do końca życia pozostać w laboratorium. Szympansy dożyją swoich dni w Alamogordo gdzie stworzyły bliskie więzi z innymi szympansami oraz ze swoimi opiekunami, stwierdził Matthew Bailey z National Association for Biomedical Research. Z opinią taką nie zgadza się organizacja Humane Society i zwraca uwagę, że cały proces oceny obarczony był błędem. W grupie powołanej przez NIH nie było weterynarzy z sanktuariów. Po prostu zatwierdzono to, co chciały laboratoria, mówi Kathleen Conlee. Dodaje, że Alamogordo chce zatrzymać szympansy, bo NIH łoży na ich utrzymanie, więc laboratorium nadal na zwierzętach zarabia. Conlee zauważa, że korzyści z przeniesienia zwierząt do sanktuarium – takie jak życie w znacznie lepszych warunkach w miejscu, gdzie nie były krzywdzone, przeniesienie całej grupy, a więc utrzymanie istniejących więzi społecznych oraz poznanie nowego otoczenia, nowych ludzi i szympansów, zatem stworzenie nowych więzi społecznych – przewyższają ryzyka związane z transportem i zmianą miejsca zamieszkania. NIH ma teraz zamiar ocenić kondycję szympansów z MD Anderson Center. Dotychczas w bieżącym roku 59 zwierząt trafiło stamtąd do Chimp Haven. Pozostały jeszcze 63 zwierzęta i wcale nie jest pewne, czy i one zostaną uwolnione z laboratorium. « powrót do artykułu
  23. Przyjmowanie witaminy D w postaci spreju doustnego jest równie skuteczne, co zażywanie kapsułek - donoszą naukowcy z Uniwersytetu w Sheffield. W ramach testu klinicznego typu head-to-head porównywano tempo zmiany statusu witaminy D podczas dostarczania witaminy D3 (3000 jednostek międzynarodowych dziennie) w postaci kapsułki i podjęzykowego spreju doustnego. Zdrowi ochotnicy przyjmowali witaminę D przez 6 tygodni w 2017 r., w szczycie zimy (między styczniem a kwietniem), gdy zapasy wielu ludzi z lata są już wyczerpane. W testach, w których uwzględniono również grupę kontrolną, wzięło udział 75 osób. Poziom kalcyfediolu 25(OH)D we krwi oceniano 6-krotnie: w punkcie wyjścia, a także w 3., 7., 14., 21. i 42 dniu suplementacji; wybrano kalcyfediol, gdyż uważa się, że status witaminy D w organizmie najlepiej odzwierciedla stężenie jej izoform 25-monohydroksylowanych. W porównaniu do grupy kontrolnej, w obu grupach terapeutycznych nastąpiły znaczące wzrosty stężenia 259OH)D. Dodatkowo okazało się, że sprej był tak samo skuteczny jak tabletki i zapewniał zbliżone tempo poprawy poziomu witaminy D u ochotników. Dla kapsułek tempo zmiany wynosiło od 0,69 do 3,93, a dla spreju 0,64-3,34 nmol/l dziennie; średnia wynosiła 2 nmol/l dziennie. Dane sugerują, że zmiany zachodzą najszybciej u ludzi z niższymi poziomami 25(OH)D. Wszyscy badani osiągnęli adekwatny poziom witaminy D po zaledwie 21 dniach korzystania ze spreju; u osób, u których na początku testów stwierdzono największe niedobory [...], wychwyt był najefektywniejszy - podkreśla dr Bernard Corfe. Witamina D jest niezbędna do zachowania zdrowych kości, zębów i mięśni. Szczególne znaczenie ma dla rozwoju dzieci. Ludziom trudno pozyskać odpowiednią ilość witaminy D z diety, a zimą słońce nie jest wystarczająco mocne, by pomóc organizmowi podwyższyć jej poziom - dodaje Corfe. Autorzy publikacji z European Journal of Clinical Nutrition opowiadają, że wśród osób, które miały jakieś preferencje w zakresie formy zażywanej witaminy D, aż 70% twierdziło, że woli sprej, bo łatwiej go stosować i ma przyjemniejszy smak. Ludzie często zapominają albo nie chcą zażywać suplementów; dotyczy to zwłaszcza osób przyjmujących liczne leki. Dzieci i osoby z zaburzeniami połykania także mają problemy z zażywaniem tabletek, dlatego ustalenie, że sprej jest tak samo skuteczny w podwyższaniu poziomu witaminy D [jak kapsułka], zapewnia realną alternatywę dla wszystkich z niedoborami. Testy przeprowadzono we współpracy z firmą BetterYou, która jako pierwsza w Wielkiej Brytanii opracowała witaminę D w doustnym spreju. « powrót do artykułu
  24. NASA poinformowała, że zanim na Księżyc trafią ludzie, wyśle tam misję, której celem będzie znalezienie źródeł wody dla astronautów. O misji VIPER (Volatiles Investigating Polar Exploration Rover) poinformowano w ostatni piątek, podczas Międzynarodowego Kongresu Astronautycznego. NASA chce, by łazik wylądował na Srebrnym Globie do grudnia 2022 roku. Misja VIPER miałaby potrwać 100 dni. W tym czasie łazik ma przejechać kilkanaście kilometrów poszukując śladów wody. Przeprowadzone przez niego badania pozwolą zdecydować, gdzie będą lądowli astronauci pracujący w ramach programu Artemis. VIPER zostanie wyposażony w cztery instrumeny do poszukiwania wody. Najważniejszy będzie Neutron Spectrometer System, który ma wykrywać wilgoć pod powierzchnią Srebrnego Globu. Następnie wiertło TRIDENT pobierze próbki, a dwa kolejne instrumenty je przeanalizują. VIPER będzie pobierał i analizował próbkiz różnych miejsc, co pozwoli stworzyć mapę obszaru, na którym z największym prawdopodobieństwem występuje woda. Woda na Księżycu będzie kluczowym elementem długotrwałej obecności ludzi na Srebrnym Globie. Potrzebna ona będzie nie tylko do picia, ale również do produkcji paliwa dla rakiet, które w przyszłości zawiozą człowieka na Marsa. Lód został znaleziony na południowym biegunie Księżyca już przed 10 laty. Tamten region jest więc przedmiotem szczególnego zainteresowania. Nie tylko zresztą NASA. We wrześniu Indie próbowały wysłać tam swój pierwszy księżycowy łazik. Niestety urządzenie rozbiło się podczas lądowania. « powrót do artykułu
  25. Na nasze pytania odpowiedział Maciej Ziemek – dziennikarz motoryzacyjny z 25-letnim doświadczeniem. Autor ponad 2000 artykułów o tematyce motoryzacyjnej, na które składają się szczegółowe testy aut, teksty o tematyce rynkowej i poradniczej z dziedziny motoryzacji oraz relacje z wydarzeń sportowych. Przetestował już ponad tysiąc samochodów. Jest jednym z dwóch polskich jurorów najbardziej prestiżowego i najstarszego międzynarodowego konkursu na najlepszy samochód w Europie – Car of the Year. Entuzjasta i miłośnik motoryzacji, kibic i pasjonat rajdów samochodowych. W roli obserwatora uczestniczył w kilkudziesięciu rajdach WRC, rozgrywanych od Meksyku, przez Europę, aż po Nową Zelandię. Licencjonowany pilot rajdowy (z powołania) i kierowca wyścigowy (z „przymusu” – z przymrużeniem oka). W jednym ze swoich artykułów napisał Pan, że prezesi największych firm motoryzacyjnych świata coraz częściej posługują się terminem „mobilność”, a nie „motoryzacja”. Skoro samochód ma służyć bardziej do przemieszczania się niż do jeżdżenia i bardziej do użytkowania niż posiadania, jak wg Pana, będzie wyglądać rynek samochodowy bliższej i dalszej przyszłości? Technologicznej rewolucji nie wywołali producenci samochodów znudzeni autami napędzanymi silnikami spalinowymi, ale urzędnicy. Jeśli chodzi o średnią emisję dwutlenku węgla na samochód dokręcili śrubę tak mocno, że bez aut o teoretycznie zerowej emisji żaden producent nie jest w stanie spełnić przyszłej normy. Tylko z tego powodu niektórzy producenci wycofali się z Europy. W bliższej przyszłości samochody wciąż będą miały cztery koła i kierownicę, a ich prowadzenie będzie wymagało udziału kierowcy, ale szybko będzie przybywać aut napędzanych silnikiem elektrycznym. Niektóre firmy zapowiadają wzrost udziału samochodów elektrycznych w ich gamie do 50% w ciągu kilku lat. Tyle jeśli chodzi o samochody. Jeżeli chodzi o ich posiadanie, coraz popularniejsze stają się wszelkiego rodzaju formy najmu niż zakup na własność. Tu decydującą rolę odgrywają nie tylko względy finansowe (czytaj – podatkowe), ale również fakt, że samochody coraz bardziej tracą status przedmiotu pożądania. Niestety. Na własne życzenie. 20 lat temu oferta Mercedesa składała się z 5 modeli, które były oferowane w 8 wersjach nadwoziowych. Dzisiaj ten sam Mercedes oferuje 20 modeli w 30 wersjach nadwoziowych. W dalszej przyszłości, za ok. 20-30 lat, samochody będą potrafiły obejść się bez kierowcy. Już potrafią, ale w ograniczonym zakresie i jedynie w określonych sytuacjach. Producenci samochodów zmienią się z dostawców aut w dostawców mobilności – dostarczą klientom ich „serwisu” taki pojazd, którego w danym momencie klient potrzebuje. Od hulajnogi w obcym mieście po auto dostawcze, którym raz na kilka lat przewiziemy nową lodówkę. Podobno przyszłość rajdów należy do samochodów elektrycznych. Wielu ludziom ta perspektywa niezbyt przypadła do gustu. Co Pan jako miłośnik tej dyscypliny sportu o tym myśli? Sport to emocje. Te buduje między innymi dźwięk, którego silnikom elektrycznym brak. Póki co nie wyobrażam sobie, żeby na myśl o podziwianiu bezszelestnie poruszającego się po odcinku specjalnym „trolejbusu” chciało mi się stać na 30-stopniowym mrozie podczas Rajdu Szwecji. Oczywiście, dźwięk można dorobić, ale to nie będzie już to samo. „Pozytywki” mogę posłuchać na kanapie w domu. W pierwszej kolejności kierowców rajdowych czeka przesiadka do samochodów hybrydowych. To już pewne, że auta klasy WRC następnej generacji, które na rajdowych trasach pojawią się już w 2021 roku będą hybrydowe. « powrót do artykułu
×
×
  • Dodaj nową pozycję...