Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37631
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. W pobliżu stolicy prowincji Jiangxi Nanchang odkryto cmentarzysko z okresu panowania zachodniej (wcześniejszej) dynastii Han (206 p.n.e.-9 n.e.). Odsłonięto ponad 10 tys. obiektów, w tym tabliczki z drewna bambusowego, figurki i 10 ton, czyli circa 2 mln miedzianych monet wuzhu (五銖). Od sierpnia, zawieszony na drewnianej platformie 9 m nad dnem grobowca, Li Xiaobin dzień w dzień spędzał ok. 6 godzin na liczeniu monet. Cmentarzysko Haihunhou to, wg doniesień prasowych, jedna z najbardziej kompletnych nekropolii z okresu zachodniej dynastii Han, na jakie kiedykolwiek natrafiono. Zajmuje powierzchnię 40 tys. m2. Oprócz 8 grobowców znaleziono także stanowisko z rydwanem. Archeolodzy podkreślają, że bogactwo artefaktów rzuca sporo światła na styl życia ówczesnej arystokracji. Na fotografiach ze stanowiska widać całe stosy monet. Są one oczyszczane, katalogowane i fotografowane. Chińczycy podkreślają, że ich prace pozwalają lepiej zrozumieć ówczesny system monetarny. Źródła historyczne wspominały, że konopne sznury z tysiącem monet stanowiły jednostkę monetarną od czasów dynastii Tang, ale dowody z Haihunhou cofają tę cezurę o 600 lat. Jak wyjaśnia Xin Lixiang z Chińskiego Muzeum Narodowego, który zawiaduje wykopaliskami, 10 sznurów miedzianych monet można było wymienić na 250 g (jeden jin) złota. Warto dodać, że w owych czasach cały majątek rodziny reprezentującej klasę średnią odpowiadał 10 jinom złota. Na stanowisku znaleziono 6 kompletnych sznurów monet. Sznury były nadgryzione zębem czasu, ale można je było zidentyfikować - opowiada Li. By stosy monet się nie osunęły, trzeba było pracować na platformie. Monety pochodziły z okresu rządów 3 cesarzy: Wudi (panującego w latach 141-87 p.n.e.), Zhaodi (87-74 p.n.e.) i Xuandi (74-49 p.n.e.). Xin podkreśla, że liczba monet wskazuje na status zmarłego. Przyszłe prace mają się koncentrować na artefaktach z trumny z centralnego mauzoleum. Naukowcy podejrzewają, że główny grobowiec należy do Liu He, wnuka cesarza Wudi. Nekropolia zachowała się tak dobrze, że archeolodzy byli w stanie zidentyfikować fundamenty grobowców Liu i jego żony oraz towarzyszących kaplic pamiątkowych. Widać też szlaki komunikacyjne i system melioracyjny. « powrót do artykułu
  2. Światowa Organizacja Meteorologiczna (WMO) poinformowała, że rok 2014 był kolejnym rokiem rekordowego stężenia gazów cieplarnianych w atmosferze. WMO informuje, że pomiędzy rokiem 1990 a 2014 wymuszenie radiacyjne - czyli zmiana bilansu promieniowania związana z zaburzeniem w systemie klimatycznym - zwiększyło się o 36%. Jest to związane z coraz większym stężeniem w atmosferze takich gazów, jak dwutlenek węgla, metan, tlenek azotu. WMO ostrzega też przed interakcją pomiędzy CO2, a najpowszechniejszym gazem cieplarnianym - parą wodną. Co prawda bardzo krótko utrzymuje się ona w atmosferze, jednak rosnący poziom CO2 prowadzi do wzrostu temperatury, co zwiększa z kolei parowania, rośnie ilość pary wodnej w atmosferze, która z kolei przyczynia się do jeszcze większego wzrostu temperatury. Każdego roku informujemy o kolejnym rekordzie stężenia gazów cieplarnianych. Każdego roku mówimy, że kończy się nam czas. Musimy działać teraz, musimy zmniejszyć emisję gazów cieplarnianych jeśli chcemy utrzymać wzrost temperatur na poziomie możliwym do zarządzania, mówi sekretarz generalny Michel Jarraud. W ubiegłym roku globalny poziom CO2 sięgnął 397,7 ppm, na półkuli północnej przekroczył zaś wiosną 400 ppm. Wiosną bieżącego roku poziom 400 ppm został przekroczony na poziomie globalnym. Już wkrótce średni poziom CO2 powyżej 400 ppm będzie codziennością, mówi Jarraud. Dwutlenku węgla nie widzimy, ale to bardzo realne zagrożenie. Oznacza on wyższe temperatury, ekstremalne zjawiska pogodowe jak fale gorąca i powodzie, topiące się pokrywy lodowe, zwiększony poziom oceanów i rosnące zakwaszenie ich wód. To dzieje się już teraz i bardzo szybko wkraczamy na nieznane nam terytorium. Nadmiarowa energia uwięziona przez CO2 i inne gazy cieplarniane podgrzewa Ziemię, powoduje większe parowanie wody, przez co zwiększa się koncentracja pary wodnej w atmosferze, co dodatkowo podgrzewa planetę. Dwutlenek węgla pozostaje w atmosferze przez setki lat, a w oceanach jeszcze dłużej. Przeszła, obecna i przyszła emisja będzie się kumulował. Prawa fizyki nie podlegają negocjacjom - mówi Jarraud. Najważniejszym gazem cieplarnianym jest dwutlenek węgla, który odpowiada za około 83% wzrostu wymuszenia radiacyjnego. W czasach preindustrialnych jego koncentracja w atmosferze wynosiła średnio 278 części na milion (ppm). Obecnie, wskutek antropogenicznej emisji, zwiększyła się do 397,7 ppm w roku 2014. Prawdopodobnie w przyszłym roku średnia całoroczna koncentracja przekroczy 400 ppm. Metan to drugi istotny gaz cieplarniany. Około 40% emitowane jest ze źródeł naturalnych. Za około 60% emisji odpowiada działalność człowieka (hodowla bydła, uprawa ryżu, wydobycie paliw kopalnych, spalanie biomasy i inne). W roku 2014 poziom metanu w atmosferze wyniósł 1883 części na miliard (ppb) i jest o 254% wyższy niż w czasach preindustrialnych. Tlenek azotu pochodzi w 60% ze źródeł naturalnych i w 40% z działalności człowieka (nawozy sztuczne, działalność przemysłowa, spalanie biomasy). W 2014 roku jego stężenie w atmosferze wynosiło około 327,1 ppb i było o 121% wyższe od poziomu sprzed rewolucji przemysłowej. Para wodna to najbardziej rozpowszechniony gaz cieplarniany. Wpływa ona na temperaturę na Ziemi głównie poprzez sprzężenie z dwutlenkiem węgla. Obecnie szacuje się, że jeśli stężenie CO2 zwiększy się dwukrotnie w porównaniu z epoką preindustrialną, czyli wyniesie około 560 ppm, to para wodna i uformowane z niej chmury doprowadzą do trzykrotnego zwiększenia wymuszenia radiacyjnego niż inne gazy cieplarniane. « powrót do artykułu
  3. Amerykańska NOAA (Narodowa Agencja Oceaniczna i Atmosferyczna) informuje o wysokim odsetku martwych urodzeń wśród delfinów, które doświadczyły wycieku ropy po katastrofie platformy Deepwater Horizon. Naukowcy z NOAA od pięciu lat obserwują delfiny butlonose z Zatoki Barataria, która została mocno zanieczyszczona przez wyciek. Z badań wynika, że środowisko naturalne będzie odczuwało skutki katastrofy przez wiele lat. Podczas badań oceniana jest liczba młodych i odsetek tych, które przeżyły. Już w 2011 roku dokonano oceny zdrowia tamtejszych delfinów i odkryto, że wiele z nich cierpi na choroby płuc oraz dysfunkcję nadnerczy. Teraz naukowcy alarmują, że jedynie 20% ciężarnych samic rodzi zdrowe młode. Przed katastrofą odsetek zakończonych sukcesem ciąż wynosił 83% i był taki, jak obecnie na obszarach nieobjętych katastrofą. Spadł też odsetek przeżywających zwierząt. Zwykle wynosi on 95%. W Zatoce Barataria spadł do 86,8%. W połączeniu z dramatycznie niższym odsetkiem urodzin oznacza to, że katastrofa Deepwater Horizon będzie miała długoterminowy negatywny wpływ na populację delfinów Zatoki. W sierpniu 2011 roku zespół złożony z naukowców z NOAA oraz niezależnych instytucji badał delfiny butlonose w położonej u wybrzeży Luizjany Zatoce Barataria. Samica Y35 była na początkowym etapie ciąży. W przeciwieństwie do wielu zbadanych wówczas delfinów zwierzę było w dobrej kondycji, nie miało niedowagi ani choroby płuc. Zauważono jednak, że występował u niej niezwykle niski poziom ważnego hormonu stresu, który jest odpowiedzialny za zachowanie się w sytuacji niebezpieczeństwa. Zjawisko takie - hypoadrenokortycyzm - nie było nigdy obserwowane u delfinów, dlatego podczas badań nie brano tej choroby pod uwagę. Po raz ostatni samicę Y35 spotkano niemal pół roku później, na 16 dni przed urodzeniem młodego. Później nigdy nie natrafiono na jej ślad. Uczeni sądzą, że nie żyje. Podobnie jak wiele innych delfinów z Zatoki Barataria, która została zanieczyszczona przez wyciek z platformy Shella. Hypoadrenokortycyzm, nigdy wcześniej nie obserwowany u delfinów, występuje u ludzi. Dzięki temu wiemy, że gdy wystąpi on u ciężarnej zagrożone jest życie zarówno dziecka jak i samej matki. Niewykluczone, że podobnie wygląda to u derfinów. Już wcześniej, np. podczas katastrofy tankowca Exxon Valdez, obserwowano gwałtowny wzrost nieudanych ciąż u delfinów. Niewykluczone, że przyczyną jest wywołany zanieczyszczeniem niedobór hormonu stresu. W Zatoce Barataria obserwowano samice, które rodziły martwe młode. Nawet tam, gdzie urodziło się żywe młode matka niejednokrotnie cierpiała na choroby płuc. Nie wiadomo, jak długo populacja delfinów u wybrzeży Luizjany będzie odczuwała skutki katastrofy, ani kiedy się ona odrodzi. « powrót do artykułu
  4. Dotąd produkujące serotoninę neurony zwykło się nazywać po prostu neuronami serotoninergicznymi. Okazuje się jednak, że istnieje kilka podtypów takich neuronów, co ma znaczenie choćby z punktu widzenia rozwoju chorób. W zeszłym roku zespół prof. Susan Dymecki z Harvardzkiej Szkoły Medycznej zdefiniował u myszy podgrupę neuronów serotoninergicznych, która odpowiada za wzrost częstości oddechu przy wzroście stężenia dwutlenku węgla w organizmie. Mając to na uwadze, Dymecki i inni postanowili spróbować systematycznie scharakteryzować neurony serotoninergiczne na poziomie molekularnym i sporządzić ich pełną klasyfikację. Pokłosiem badań na myszach jest publikacja w piśmie Neuron. Amerykanie ustalili, że istnieje co najmniej 6 głównych podtypów neuronów serotoninergicznych. Różnią się one wzorcami ekspresji setek genów. W wielu przypadkach podtypy modulują różne zachowania. Przeprowadziwszy serię eksperymentów, badacze zauważyli, że podtypy pochodzą z różnych linii rozwojowych, są także różnie rozmieszczone, inaczej się wyładowują i można je rozpoznać na podstawie rozmieszczenia receptorów na powierzchni. Ta praca pokazuje, jak zróżnicowane na poziomie molekularnym są neurony serotoninergiczne. To wyjaśnia, w jaki sposób kolektywnie mogą wypełniać tyle unikatowych funkcji - podkreśla dr Benjamin Okaty. Dymecki dodaje, że znając funkcje poszczególnych podtypów, można ustalić, jak manipulować konkretnym rodzajem neuronów, a to zapewnia ogromne korzyści terapeutyczne. Mamy do czynienia ze starym układem neuroprzekaźników, zaangażowanym w wiele różnych chorób. Obecnie możemy zadawać pytania w bardziej systematyczny sposób, próbując dociec, jakie komórki serotoninergiczne i cząsteczki są ważne np. w bólu, bezdechu sennym czy lęku - opowiada Morgan Freret. Choć badania prowadzono na myszach, Dymecki podkreśla, że układ serotoninergiczny wygląda podobnie u innych kręgowców. Naukowcy chcą więc poszukać odpowiednich sygnatur molekularnych w ludzkich tkankach. Planują także ustalić, czy i jak poszczególne podtypy neuronów serotoninergicznych wiążą się z nagłą śmiercią łóżeczkową czy autyzmem. Uczeni zaznaczają, że uzyskane przez nich wyniki pomogą także odpowiedzieć na pytania z dziedziny komórek macierzystych, m.in. jaki podtyp neuronów serotoninergicznych otrzymamy za pomocą różnych protokołów, czy możemy doprowadzić do rozwoju różnych podtypów, czy możemy się przyglądać zmianom wzorców ekspresji w czasie rozwoju poszczególnych subgrup? « powrót do artykułu
  5. Od dawna w nauce panuje przekonanie, że mózgi nie ulegają fosylizacji. W 2012 roku Nicholas Strausfeld poinformował na łamach Nature o znalezieniu pierwszego sfosylizowanego mózgu. Sensacyjne doniesienie zostało przyjęte z dużym niedowierzaniem. Wielu paleontologów twierdziło, że Strausfeld się pomylił lub też odkrył coś, co jest jednorazowym niezwykle mało prawdopodobnym wydarzeniem. Teraz profesor Strausfeld z University of Arizona, Xiaoya Ma z Uniwersytetu w Yunnan oraz Gregory Edgecombe z Muzeum Historii Naturalnej w Londynie opublikowali artykuł, w którym dowodzą, że mózgi ulegają jednak fosylizacji. Naukowcy przeanalizowali skamieniałości siedmiu przedstawicieli tego samego gatunki i w każdej z nich znaleźli coś, co bez wątpienia jest skamieniałym mózgiem. Wspomniany gatunek to Fuxianhuia protensa, wymarły stawonóg, który żył przed 520 milionami lat. Przypominał on współczesną krewetkę. Skamieniałości pochodziły z południowo-zachodnich Chin i pozwoliły stwierdzić, że mózg F. protensa wyglądał bardzo podobnie do mózgu współczesnych stawonogów. Naukowcy wykorzystali skanningową mikroskopię elektronową, dzięki której dowiedzieli się, że mózgi zwierząt zachowały się w formie spłaszczonych warstw węgla. W niektórych skamieniałościach na warstwach tych utworzyły się kryształy pirytu. Dzięki temu uczeni mogli domyślić się, jaki jest mechanizm fosylizacji mózgu. Zdaniem Strausfelda i jego współpracowników najpierw musiało dojść do gwałtownego pogrzebania zwierzęcia - na przykład wskutek osunięcia się mułu. Proces musiał mieć miejsce w wodach ubogich w tlen. Takie warunki zapobiegły zjedzeniu ciała przez padlinożerców oraz utrudniły działalność bakterii. Jednak mózg musiał jakoś przetrwać nacisk wywarty przez gwałtownie osuwający się muł. Do tego konieczne jest, by był on gęsto upakowany. Okazuje się, że układ nerwowy F. protensa, w tym mózg, ma niezwykle gęstą tkankę. Najgęstszą wśród stawonogów. Niewielka, gęsto upakowana tkanka bogata w tłuszcze i proteiny mogła przetrwać przygniecenie przez muł i ulec fosylizacji. Odwodnienie to inny proces niż wysuszenie, jest bardziej stopniowy. Podczas tego procesu mózg zachowuje swoją integralność, co prowadzi do jego spłaszczenia i zachowania. To właśnie gęsto upakowana tkanka mózgu F. protensa umożliwiła jego zachowanie - mówi Strausfeld. Ludzie, a szczególnie naukowcy, robią różne założenia. W nauce bardzo fajne jest obalanie tych założeń - stwierdził uczony. « powrót do artykułu
  6. Ina Kirmes, doktorantka z grupy dr. George'a Reida z Instytutu Biologii Molekularnej Uniwersytetu Jana Gutenberga w Moguncji, postanowiła się zająć zmianami zachodzącymi w DNA komórek pozbawionych tlenu i składników odżywczych. Stan taki jest typowy dla większości najczęstszych chorób, w tym dla zawałów, udarów czy nowotworów, co oznacza, że wyposażeni w taką wiedzę specjaliści będą mogli odkryć nowe sposoby ich leczenia. W zdrowej komórce duże części DNA są odsłonięte i dostępne. Geny mogą być łatwo odczytane i przełożone na białka. W stanie niedotlenienia DNA zbija się jednak w ciasne klastry. Genów z tych skupisk nie da się odczytać, ich aktywność ulega znaczącemu zmniejszeniu, a komórka de facto się wyłącza. To prawdopodobnie dzieje się z twoim DNA, kiedy masz udar czy zawał. Teraz, gdy wiemy, jakie zjawiska zachodzą, możemy zacząć szukać sposobów na zapobieganie ubijaniu DNA - podkreśla Reid. Odkrycie było możliwe dzięki współpracy z Aleksandrem Szczurkiem. Zespół opracował bowiem metodę stanowiącą udoskonalenie mikroskopii o superrozdzielczości, która bazuje na migotaniu fluorescencji. Pozwala ona zdefiniować położenie poszczególnych cząsteczek w komórce. « powrót do artykułu
  7. Dieta bogata w mięso może prowadzić do rozwoju raka nerki. Niektóre techniki przygotowywania mięsa, takie jak smażenie i pieczenie metodą barbecue powodują, że w mięsie powstają związki rakotwórcze. Do takich wniosków doszli naukowcy z The University of Texas MD Anderson Cancer Center. Odkryli oni również, że osoby z pewną specyficzną mutacją genetyczną są bardziej podatne na działanie szkodliwych związków powstających podczas obróbki cieplnej mięsa. Każdego roku z USA na raka nerki choruje około 60 000 osób, a umiera około 14 000. Od dziesięcioleci liczba przypadków rośnie, wielu ekspertów podejrzewa więc, że jego rozwój ma związek z zachodnią dietą. Jednym z podejrzanych składników naszej diety jest mięso, które znaczna część społeczeństwa spożywa w nadmiarze. Wiadomo, że podczas obróbki mięsa w wysokiej temperaturze powstają m.in. PhIP i MeIQx. Z kolei nerki są odpowiedzialne za odfiltrowywanie z szkodliwych związków, zatem potrzeba sprawdzenia nerek pod kątem oddziaływania na nie kancirogenów z mięsa jest jak najbardziej zasadna. Naukowcy wzięli pod uwagę 659 pacjentów, u których właśnie zdiagnozowano raka nerki oraz 699 zdrowych osób. Na podstawie kwestionariuszy oceniono ich konsumpcję mięsa oraz na ile byli wystawieni na działanie szkodliwych mutagenów powstających podczas jego obróbki cieplnej. "Odkryliśmy zwiększone ryzyko raka nerki związane zarówno ze spożywaniem mięsa, jak i z jego obróbką cieplną. To wskazuje, że sposób obróbki cieplnej mięsa ma niezależny wpływ na ryzyko zapadnięcia na nowotwór" - mówi profesor Xifeng Wu. Okazało się, że osoby, które zapadły na nowotwór jadły ogólnie więcej mięsa niż osoby zdrowe. Odkryto też, że spożywanie PhIP jest związane z 54-procentowym wzrostem ryzyka wystąpienia nowotworu, a MeIQx - z niemal 50% wzrostem ryzyka. Uczeni przeprowadzili też pierwsze badania dotyczące związku genów z wystąpieniem nowotworu nerki spowodowanego konsumpcją mięsa. Wykazano, że jedzenie mięsa obrabianego w wysokich temperaturach jest szczególnie niebezpieczne dla ludzi posiadających określone mutacje genetyczne. Szczególnie narażone są osoby z odmianą tenu ITPR2, która już wcześniej była łączona z otyłością i nowotworami nerek. Teraz okazuje się, że związek ten, przynajmniej w pewnym stopniu, da się wyjaśnić wpływem kancirogenów z mięsa. Nasze badania pokazują, że ograniczenie spożycia mięsa, szczególnie mięsa gotowanego w wysokiej temperaturze i pieczonego nad otwartym ogniem, zmniejsza ryzyko zapadnięcia na nowotwór nerki - mówi Wu. « powrót do artykułu
  8. Amerykańscy naukowcy stworzyli bezprzewodowy elastyczny implant, który może wyzwalać, a potencjalnie i hamować sygnały bólowe w ciele i rdzeniu kręgowym, nim dotrą one do mózgu. Zespół ze Szkoły Medycznej Uniwersytetu Jerzego Waszyngtona w St. Louis i Uniwersytetu Illinois w Urbana-Champaign twierdzi, że pewnego dnia implanty będzie można wykorzystać w różnych częściach organizmu, by zwalczyć ból niereagujący na inne terapie. Zasadniczo wyłączą one sygnały nocyceptywne na długo przed tym, nim dotrą one do mózgu - podkreśla dr Robert W. Gereau IV. Ponieważ implant jest miękki i rozciągliwy, można go wszczepić w poruszające się części ciała. Wcześniej opracowane urządzenia trzeba było mocować do kości. Badając neurony rdzenia lub innych rejonów poza ośrodkowym układem nerwowym, potrzebujemy jednak rozciągliwych implantów, które nie wymagają zakotwiczenia. Nowe urządzenie trzyma się w miejscu dzięki szwom. Tak jak w poprzednie modele wbudowano tu mikrodiody LED, za pomocą których można aktywować konkretne neurony. Amerykanie prowadzili eksperymenty na zmodyfikowanych genetycznie myszach, u których na pewnych komórkach nerwowych występowały światłoczułe białka. Gdy gryzonie pokonywały daną część labiryntu, naukowcy wyzwalali za pomocą światła reakcję bólową. Gdy zwierzęta opuszczały ten rejon, urządzenie się wyłączało i dyskomfort znikał. Wskutek tego myszy szybko uczyły się unikać tego obszaru labiryntu. Jak zaznaczają autorzy publikacji z pisma Nature Biotechnology, eksperyment byłoby bardzo trudno przeprowadzić ze starymi urządzeniami optogenetycznymi, bo przez konieczność podpięcia do źródła zasilania ograniczałyby one ruchy gryzoni. Dysponujemy unikatową, biokompatybilną platformą do dostarczania światła do praktycznie wszystkich narządów docelowych, w tym pęcherza, żołądka, serca czy jelit - podsumowuje dr John A. Rogers. « powrót do artykułu
  9. Po raz pierwszy udało się zmierzyć siłę interakcji pomiędzy parami antyprotonów. Autorami osiągnięcia są fizycy z Relativistic Heavy Ion Collider (RHIC) w Brookhaven National Laboratory. Podczas Wielkiego Wybuchu powstały równe ilości materii i antymaterii. Jednak obecnie antymateria niemal nie występuje. To tajemnicza sprawa. Problem ten znany jest od dekad. To jeden z największych problemów nauki. Wszystko, czego dowiemy się o naturze antymaterii może pomóc nam rozwiązać tę zagadkę - mówi Aihong Tang, fizyk pracujący przy RHIC. RHIC to idealne miejsce do badania antymaterii. Jest to jedno z niewielu urządzeń, w którym można wytworzyć wystarczającą ilośc antymaterii. Jej cząstki powstają podczas zderzeń ciężki atomów, takich jak np. złoto. W czasie takich zderzeń odtwarzane są warunki panujące podczas Wielkiego Wybuchu, a temperatura, jakiej doświadczają atomy jest 250 000 razy wyższa, niż temperatura wewnątrz Słońca. Powstaje plazma kwarkowo-gluonowa oraz tysiące cząstek materii i antymaterii. Już wcześniej we wchodzącym w skład RHIC detektorze STAR badano rzadkie formy antymaterii, w tym cząstki antyalfa - największe cząstki materii stworzone w laboratorium. Składają się one z dwóch antyprotonów i dwóch antyneutronów. Dzięki tamtym badaniom wiemy, w jaki sposób antyprotony wchodzą w interakcje z antyneutronami. Teraz jednak uczeni posunęli się dalej. Badają interakcje pomiędzy samymi antyprotonami. Przyglądając się ich zderzeniom możemy zmierzyć pewne ich właściwości, co daje nam informacje o siłach działających pomiędzy parami antyprotonów, w tym o ich wartości i odległości, na jaką działają, mówi student Zhengqiao Zhang. Dotychczas odkryto, że siły działające pomiędzy parami antyprotonów przyciągają je do siebie, czyli działają podobnie jak siły utrzymujące razem atomy materii. Odkrycie to nie było zaskoczeniem. Z tego, co wiedzieliśmy dotychczas, należało się spodziewać takiego działania. Dotychczasowe pomiary nie wykazały żadnej różnicy w zachowaniu oddziaływań silnych w materii i antymaterii. Wydaje się zatem, uwzględniając oczywiście precyzję pomiaru, że materia i antymateria są idealnie symetryczne. To z kolei oznacza, że jak dotychczas nie ma żadnej przyczyny, dla której w obecnym wszechświecie materia i antymateria pozostają w nierównowadze. "Istnieje wiele sposobów badania asymetrii materia/antymateria. Istnieje wiele precyzyjnych testów. Ale sama precyzja nie wystarczy. Musimy prowadzić badania w jakościowo nowy sposób. To właśnie jest przykład takiego badania" - mówi Richard Lednicky z Czeskiej Akademii Nauk. « powrót do artykułu
  10. W czasie badań na danio pręgowanych uczeni ze Szkoły Medycznej Case Western Reserve University zaobserwowali ruch białek w komórkach rzęsatych (włoskowatych) ucha wewnętrznego, co wskazuje na potencjalne mechanizmy odwracania utraty słuchu. Szybki ruch białek może być konieczny do podtrzymania integralności pęczków rzęsek komórek włoskowatych. Uzyskane wyniki uzmysłowiają nam, że stały ruch, zastępowanie i dostosowywanie białek pęczków odpowiada za ich konserwację, a nawet naprawę - opowiada dr Brian McDermott. W ramach studium Amerykanie zauważyli, że białka w pęczkach umiejscowionych na szczycie komórek poruszają się w bardzo dużym tempie, a ruch ten może wyjaśniać, w jaki sposób pęczki wytrzymują przez całe życie. Zespół wykorzystał mikroskop konfokalny do badania ruchu białek pęczków w czasie rzeczywistym. Do eksperymentu wybrano młode danio, bo na tym etapie rozwoju są one przezroczyste. Nagrania ujawniły wspaniałe i nieoczekiwane rzeczy. Biolodzy stwierdzili, że o ile aktyna i miozyna poruszają się powoli (na przestrzeni godzin), o tyle już fascyna 2b porusza się niebywale szybko (w ciągu sekund). Wyniki opisane na łamach Cell Reports pokazują, że wewnętrzna struktura rzęsek (sterocilia) jest dynamiczna. Prędkość ruchu fascyny 2b może ułatwiać naprawę pęknięć we włókienkach aktyny po ekspozycji na głośny dźwięk. Kiedyś uważano, że w sterocilia prawie wszystko jest relatywnie nieruchome i stacjonarne. My odkryliśmy, że prawdopodobnie stały ruch przyczynia się do trwałości konstrukcji pęczków; to dzięki temu u człowieka wytrzymują one ok. 70-90 lat. W przyszłości zespół McDermotta chce dokładnie zbadać proces naprawczy, w którym oprócz fascyny 2b uczestniczą zapewne także inne białka. « powrót do artykułu
  11. Japońskie studium wskazuje, że poranne pomiary ciśnienia są lepszym prognostykiem ryzyka udaru niż pomiary wieczorne. W studium dr. Satoshiego Hoshide z Jichi Medical University wzięło udział ponad 4300 osób z co najmniej jednym czynnikiem ryzyka chorób serca, np. nadciśnieniem, wysokim poziomem cholesterolu czy cukrzycą. Przez dwa tygodnie ochotnicy mieli mierzyć ciśnienie 2-krotnie w ciągu doby: rano i wieczorem. Później przez 4 lata śledzono ich losy. W tym czasie odnotowano 75 przypadków udarów. Naukowcy ustalili, że w porównaniu do porannego ciśnienia skurczowego poniżej 135 mmHg, ciśnienie powyżej 155 mmHg oznaczało 7-krotny wzrost ryzyka udaru, natomiast w porównaniu do wieczornych odczytów poniżej 135 mmHg, wskazania przekraczające 155 mmHg nie wiązały się z jakimkolwiek wzrostem ryzyka udaru. Jak wyjaśnia Hoshide, przyczyną, dla której poranne pomiary są bardziej miarodajne, może być wpływ na wieczorne ciśnienie wielu czynników zewnętrznych, np. gorących kąpieli czy pryszniców oraz jedzenia. Poranny wzrost ciśnienia tętniczego (ang. morning surge) wiąże się zaś z czynnikami fizjologicznymi, takimi jak aktywacja sympatycznego układu nerwowego. Hoshide dodaje, że choć z podwyższonymi odczytami porannymi powiązano większe ryzyko udaru, przyjmowanie leków na nadciśnienie rano nie okazało się bardziej skuteczne od zażywania ich wieczorem. « powrót do artykułu
  12. W Great Ormond Street Hospital (GOSH) wykorzystano nowatorską metodę edycji genów, dzięki której uratowano życie dziewczynki chorej na nieuleczalną dotychczas formę białaczki. Pacjentka, 12-miesięczna Layla, miała nawrót ostrej białaczki limfoblastycznej, która nie reagowała na leczenia. Dzięki "molekularnym nożyczkom" dziecko jest już zdrowe. Chemioterapia jest skuteczna u wielu pacjentów z białaczką, jednak zdarzają się przypadki, w których komórki nowotworowe ukryją się i są odporne na działanie leków. Od pewnego czasu pobiera się od takich pacjentów limfocyty T i poddaje się je manipulacjom genetycznym, dzięki którym są one w stanie rozpoznać i zabić komórki nowotworowe. Problem jednak w tym, że u pacjentów z agresywną odmianą choroby lub u tych, którzy przeszli wielokrotną chemioterapię nie ma już odpowiedniej liczby zdrowych limfocytów T. Na Laylę nie działała chemioterapia i jedyną opcją pozostawała terapia paliatywna. Lekarze zdecydowali się więc zastosować pobrane od dawców komórki UCART19. Za pomocą molekularnych nożyczek wycięto odpowiednie geny i dodano je do wspomnianych komórek. Geny te spowodowały, że z jednej strony komórki te stały się niewidoczne dla leków przeciwnowotworowych, które w normalnych warunkach by je zabiły, z drugiej zaś - zmienione komórki rozpoznawały i zabijały wyłącznie komórki nowotworu. Technika taka została opracowana przez uczonych z GOSH, University College London oraz firmę biotechnologiczną Cellectis. Została już zatwierdzona do testów klinicznych, które miały się wkrótce rozpocząć. Gdy okazało się, że pomocy potrzebuje niemowlę, zespół naukowy postarał się o specjalne pozwolenie na wykorzystanie swojej techniki. Nasza technika dawała świetne rezultaty w testach laboratoryjnych. Gdy usłyszałem o dziecku, któremu nie pozostała już żadna nadzieja, pomyślałem 'dlaczego by nie użyć tej terapii'. To było eksperymentalne leczenie i potrzebowaliśmy specjalnego pozwolenia, ale wydawało się, że dziecko idealnie się nadaje, mówi profesor Waseem Qasim. Rodzice Layli również wyrazili zgodę na leczenie, chociaż zdawali sobie sprawę z tego, że wspomniana technika nigdy nie była testowana na ludziach. W ramach leczenia dziecku przez 10 minut podano dożylnie 1 ml komórek UCART19. Kolejne kilka miesięcy dziewczynka spędziła w izolatce. Pierwsze oznaki poprawy pojawiły się po kilku tygodniach. Jako, że było to pierwsze zastosowanie naszej techniki, nie wiedzieliśmy czy i kiedy pojawi się poprawa. Byliśmy szczęśliwi, że się udało. Ona miała tak agresywną formę białaczki, że to niemal cud, iż wyzdrowiała, mówi profesor Paul Veys. Gdy lekarze upewnili się, że w organizmie dziewczynki nie ma już komórek nowotworowych, dziecku przeszczepiono szpik kostny, by organizm mógł odtworzyć zniszczony terapią układ odpornościowy. Obecnie Layla mieszka z rodzicami w domu. Musi jednak regularnie pojawiać się w GOSH, gdzie badany jest jej szpik oraz krew. Profesora Qasim zastrzega: Użyliśmy tej metody na jednej bardzo silnej małej dziewczynce. Nie możemy stwierdzić, że jest to metoda odpowiednia dla wszystkich dzieci. Jednak to bardzo znaczące osiągnięcie na polu nowych technik inżynierii genetycznej i w przypadku tego dziecka wyniki są niesamowite. Jeśli uda się je powtórzyć, możemy być świadkami wielkiego kroku w kierunku leczenia białaczki i innych nowotworów. Layla urodziła się w czerwcu 2014 roku. Gdy miała 14 tygodni zdiagnozowano u niej ostrą białaczkę limfoblastyczną. Dziewczynka trafiła na oddział intensywnej terapii, gdyż lekarze stwierdzili, że choroba ma niezwykle agresywny przebieg. Już następnego dnia rozpoczęto u niej chemioterapię, później poddano ją przeszczepowi szpiku. Siedem tygodni po przeszczepie rodzina Layli dowiedziała się, że nastąpił nawrót choroby. Jako, że nowotworu nie zabiły silne chemioterapeutyki podawane za pierwszym razem, dalsza chemioterapia nie wchodziła w rachubę. Dziewczynka trafiła do Sheffield na eksperymentalne leczenie, które jednak nie dało żadnych rezultatów. Dzień przed pierwszymi urodzinami rodzina Layli dowiedziała się, że dla dziewczynki nie ma ratunku i pozostała jedyna opieka paliatywna. Rodzice nie zaakceptowali tego i poprosili lekarzy, by próbowali wszystkiego co możliwe. Rodziców poinformowano o eksperymentalnym leczeniu, które dawało dobre wyniki w przypadku myszy, nie było jednak testowane na ludziach. Gdy zgodzili się na użycie tej terapii na ich córce, zebrał się specjalny komitet etyczny, który musiał zatwierdzić leczenie. Lekarze spodziewali się, że tydzień lub dwa po podaniu komórek u Layli wystąpi odpowiedź układu odpornościowego - zwykle ma to miejsce w postaci wysypki. Byłby to znak, że organizm reaguje. Jednak u Layli żadne takie oznaki się nie pojawiły. Nie było wiadomo, czy terapia w ogóle działa. Dziewczynkę już miano wypisać do domu, gdy zauważono wysypkę. Z czasem wysypka była coraz silniejsza, ale wydawało się, że Layla czuje się dobrze. Lekarze byli przygotowani, że w każdej chwili dziecko trzeba będzie przenieść na OIOM. Kilka tygodni później badania wykazały, że w organizmie dziecka nie ma już komórek nowotworowych. Dwa miesiące później Layli po raz kolejny przeszczepiono szpik. Jej stan na tyle się poprawił, że miesiąc po przeszczepie dziecko wypisano do domu. « powrót do artykułu
  13. Zespół Anny Svatikovej z Mayo Clinic wykazał, że spożycie napojów energetyzujących podwyższa ciśnienie i poziom norepinefryny. Amerykanie wylosowali 25 zdrowych osób w wieku 18 lat i starszych do grup, które w ciągu 5 minut wypijały 480-ml puszkę napoju energetyzującego lub napój placebo. Napoje spożywano w przypadkowej kolejności w dwóch różnych dniach w odstępie co najmniej 2 tygodni. Napój placebo dopasowano do napoju energetyzującego pod względem składników odżywczych, miał on także podobny smak, teksturę i kolor. Brakowało w nim jednak kofeiny (240 mg) i innych stymulantów, np. wyciągu z guarany czy tauryny (2000 mg). Przed każdym dniem badań ochotnicy pościli i powstrzymywali się od spożywania kofeiny i alkoholu. Na początku sesji i 30 min po wypiciu napoju badano stężenie kofeiny i norepinefryny w surowicy, a także poziom glukozy w osoczu. Poza tym mierzono ciśnienie i tętno. Po wypiciu napoju placebo poziom kofeiny się nie zmieniał. Po spożyciu napoju energetyzującego rósł znacząco. Wypicie napoju energetyzującego wywoływało 6,2-proc. wzrost ciśnienia skurczowego i 6,8-proc. wzrost ciśnienia rozkurczowego (średnie ciśnienie rosło o 6,4%). Między obiema grupami nie stwierdzono istotnych różnic w zakresie tętna. Średni poziom epinefryny wzrósł po spożyciu napoju energetyzującego ze 150 pg/mL do 250 pg/mL, a po wypiciu napoju placebo ze 140 pg/mL do 179 pg/mL (zmiana 74- vs. 31-proc.). Ostre zmiany hemodynamiczne i adrenergiczne predysponują do podwyższonego ryzyka sercowo-naczyniowego - podsumowują autorzy publikacji z pisma JAMA. « powrót do artykułu
  14. Przyznano tegoroczne Breakthrough Prizes, najbardziej wartościowe pod względem finansowym nagrody w nauce. Breakthrough Prizes zostały po raz pierwszy ufundowane przed trzema laty przez miliardera Jurija Milnera. Zdobywcy każdej z nich otrzymują 3 miliony dolarów, czyli ponad trzykrotnie więcej niż zdobywcy Nagrody Nobla. W bieżącym roku nagrodę otrzymali twórcy sześciu projektów naukowych. Jedną z nagród podzielą się Karl Deisseoth (Howard Hughes Medical Institute i Stanford University) oraz Ed Boyden (MIT). Obaj panowie opracowali sposób na takie zaprogramowanie neuronów, by dochodziło w nich do ekspresji aktywowanych światłem kanałów i pomp jonowych, dzięki czemu aktywność elektryczna neuronów mogła być kontrolowana za pomocą światła. Badania te otwierają nowe możliwości leczenia depresji, ślepoty oraz chorób Parkinsona i Alzheimera. Z kolei Helen Hobbs z Howard Hughes Medical Institute i University of Texas odkryła wariant genu, który zmienia poziom i rozkład cholesterolu w organizmie człowieka. Jej praca zapocząkowała badania nad nowymi metodami zapobiegania chorobom układu krążenia i wątroby. John Hardy z University College London to kolejny laureat Breakthrough Prize. W genie kodującym prekursor amyloidu odkrył on mutację, która jest związana z wczesnymi objawami choroby Alzheimera. Jedną z nagród otrzymał też Svante Pääbo z Instytutu Antropologii Ewolucyjnej im. Maksa Plancka. Uczony jest pionierem na polu sekwencjonowania DNA wczesnych hominidów, dzięki czemu coraz więcej dowiadujemy się o pochodzeniu człowieka i naszych związkach np. z neandertalczykami. Ian Agol to matematyk z Uniwersytetu Kalifornijskiego w Berkeley. Dokonał on olbrzymich postępów na polu topologii geometrycznej, dzięki którym zrewolucjonizował tę dziedzinę nauki. Ostatnią szóstą nagrodą podzieliło się pięć zespołów fizyków pracujących przy eksperymentach badających neutrino. W sumie 1370 naukowców prowadziło badania pod kierownictwem uczonych z Uniwersytetu Tokijskiego, Instytutu Fizyki Wysokich Energii w Pekinie, Uniwersytetu Kalifornijskiego w Berkeley, Uniwersytetu w Kyoto, Queens University oraz Wykrywaczu Neutrin z Płynnym Scyntylatorem Kamioka. « powrót do artykułu
  15. Serwis Laptopmag przeprowadził badania pracy działów wsparcia technicznego firm Dell, HP i Lenovo. Okazało się, że pracownicy tych działów często uważają, że problemy, z którymi dzwonią klienci, są spowodowane przez Windows 10 i doradzają... usunięcie tego systemu z laptopa. Wydaje się jednak, że problemem nie jest system, a źle wyszkoleni pracownicy oraz zła organizacja ich pracy. Redaktorzy Laptopmag zauważyli bowiem, że osoby udzielające porad często nie rozumieją ustawień systemowych, nie wiedzą np. jak ustawić cyfrowego asystenta Cortanę w tryb nasłuchu. Laptopmag donosi również, że osobom proszącym o pomoc często nie udziela się wskazówek na temat rozwiązania problemu, ale próbuje się sprzedać usługę rozszerzonej pomocy. Rzecznik prasowy Della oświadczył, że porady dotyczące odinstalowania Windows 10 to problem strukturalny. Firma zapewniła, że jest lojalnym partnerem Microsoftu i na bieżąco dostarcza koncernowi z Redmond informacji o kłopotach technicznych, z jakimi stykają się klienci. Podobne oświadczenie wydał rzecznik prasowy HP, który stwierdził jednak, że celem osób w dziale technicznym jest doprowadzenie do sytuacji, w której komputer klienta będzie działał prawidłowo, stąd mogą brać się porady dotyczące odinstalowania Windows 10. « powrót do artykułu
  16. Mimo że stale powtarza się, że za epidemią otyłości w USA i nie tylko stoi tzw. śmieciowe jedzenie, np. słodycze czy frytki, najnowsze badanie Food and Brand Lab Uniwersytetu Cornella na reprezentatywnej próbie dorosłych wykazało, że dla 95% populacji nie ma związku między wskaźnikiem masy ciała (BMI) a spożyciem takich produktów. Doktorzy David Just i Brian Wansink wykazali, że w porównaniu do ludzi z prawidłową wagą, osoby z nadwagą, ciężką otyłością, a nawet otyłością olbrzymią wcale nie konsumują więcej słodkich/słonych przekąsek, frytek i burgerów. Często jest dokładnie na odwrót. Jedynymi grupami, które średnio spożywają więcej śmieciowego jedzenia, są skrajności wagowego kontinuum - osoby z przewlekłą niedowagą i superotyłością. Badani z niedowagą spożywają ok. 70% więcej słodkich napojów, ok. 30% więcej słonych przekąsek i ok. 5% więcej słodkich przekąsek, natomiast pacjenci z superotyłością ponad 50% więcej frytek. Uwzględniając fakt, że nie ma znaczącej różnicy w spożyciu badanych produktów między ludźmi z nieprawidłową wagą i mieszczących się w granicach normy, Just i Wansink postulują, że większość problemów z wagą nie jest spowodowana samą konsumpcją słodkich napojów, słodyczy i fast foodu. To oznacza, że przez skoncentrowanie na demonizowaniu specyficznych produktów diety i kampanie zdrowotne wymierzone w zwalczanie i zapobieganie otyłości mogą nie spełniać swojej roli. Jeśli chcemy prawdziwej zmiany, musimy się przyjrzeć ogólnej diecie i aktywności fizycznej. Wąskie obieranie na cel tylko śmieciowego jedzenia jest nie tylko nieskuteczne, ale i wręcz szkodliwe, bo odwraca uwagę od prawdziwych przyczyn otyłości - podsumowuje Just. « powrót do artykułu
  17. Olbrzymia część starszych ludzi cierpi na zaćmę. Choroba ta jest odpowiedzialna za 48% przypadków utraty wzroku. Jedną z jej przyczyn jest tworzenie się skupisk białkowych prowadzących do spadku przejrzystości soczewki. Najnowsze badania przeprowadzone na myszach sugerują, że stosowanie kropli do oczu z naturalnym sterydem może wyleczyć kataraktę poprzez doprowadzenie do rozpadu nieprawidłowo uformowanych białek. To całkowicie zmienia zasady gry w leczeniu katarakty. Zaćma formuje się przez dziesiątki lat. Możliwość jej zlikwidowania w ciągu kilku tygodni za pomocą kropli do oczu to coś niesamowitego - mówi Roy Quinlan, biolog molekularny z brytyjskiego Durham University, który nie brał udziału w najnowszych badaniach. Białka tworzące soczewki w oku należą do najstarszych białek w naszym organizmie. Powstają już około 4 tygodni po zapłodnieniu. Większość z nich to krystaliny odpowiedzialne za akomodację i utrzymywanie przejrzystej soczewki. Dwie najpowszechniej występujące krystaliny to CRYAA oraz CRYAB. Powstają one w odpowiedzi na stres lub zranienie. Ich zadaniem jest zidentyfikowanie i związanie nieprawidłowo zwiniętych białek tak, by nie dochodziło do ich łączenia się. Jednak z czasem nieprawidłowych białek jest coraz więcej i w końcu CRYAA i CRYAB sobie z nimi nie radzą. Nieprawidłowe białka tworzą zbitki i rozpoczyna się zaćma. Obecnie można ją leczyć chirurgicznie, jednak jest to metoda niedostępna dla wielu ludzi na świecie. Autorem dających nadzieję badań jest Jason Gestwicki, biochemik z Uniwersytetu Kalifornijskiego w San Francisco. Wraz ze swoim zespołem wykorzystał technologię zwaną skaningową fluorometrią różnicową. Pozwala ona na zmierzenie, w jakiej temperaturze białko zaczyna się rozpadać. Uczeni zauważyli, że w jednym z typów dziedzicznej zaćmy CRYAB przybiera zmutowaną formę, która ma wyższa temperaturę rozpadu niż zdrowie białko. Naukowcy zaczęli spekulować, że jeśli obniżyliby tę temperaturę, to CRYAB funkcjonowałoby normalnie i zapobiegało tworzeniu złogów białkowych w soczewce. Zajęli się więc badaniem 2450 molekuł wykazujących podobne właściwości co CRYAA i CRYAB. Dodawali je do CRYAB i sprawdzali, czy zacznie ona prawidłowo funkcjonować. Okazało się że związek 29, steryd występujący naturalnie w krwi, może rozwiązać problem. Związek ten badano na myszach z zaćmą dziedziczną i spowodowaną przez wiek. Prawe oko było zakrapiane kroplami ze wspomnianym sterydem, lewe pozostało nieleczone. Po kilku tygodniach leczone oko było wyraźnie bardziej przejrzyste. Do oceny zaćmy stosuje się 4-stopniową skalę. Po miesiącu leczenia oko traktowane kroplami poprawiało się o 1 stopień. To już drugie przeprowadzone w tym roku badania wskazujące, że sterydy mogą leczyć zaćmę. W lipcu naukowcy z San Diego leczyli z zaćmy psy. Ich badania obejmowały jednak zarówno zakrapianie oczu jak i wstrzykiwanie sterydów do gałki ocznej. Autorzy najnowszych badań poprzestali na zakrapianiu, co jest znacznie łatwiejszą, tańszą i mniej ryzykowną techniką. Naukowcy mówią, że do testów klinicznych jeszcze długa droga. Ludzkie oko jest inne od oka myszy czy psa. Poza tym specjaliści nie wiedzą, dlaczego ich lek działa. W przyszłym roku chcą przeprowadzić badania i mają nadzieję poznać mechanizm działania nowej metody. Jeśli będą potrafili go opisać uczynią kluczowy krok w kierunku rozpoczęcia testów na ludziach. « powrót do artykułu
  18. FBI przestaje naciskać na prywatne firmy, by te umieszczały tylne drzwi w swoim oprogramowaniu. Podczas niedawno zakończonej konferencji w Bostonie główny prawnik Biura, James Baker, użył nawet argumentu przeciwników takiego rozwiązania, nazywając plan FBI "magicznym myśleniem". Jeszcze rok temu dyrektor FBI James Comey krytykował Apple'a i Google'a, które zdecydowały się na domyślnie włączenie systemu szyfrowania plików w swoich urządzeniach. Decyzja ta miała związek z ujawnieniem przez Edwarda Snowdena faktu masowej inwigilacji prowadzonej przez amerykańskie służby. Comey zapowiedział, że FBI postara się namówić prywatne firmy, by te przekazały Biuru klucze szyfrujące. Przeciwnicy takiego rozwiązania stwierdzili, że przypuszczenie, iż klucze takie pozostaną w wyłącznej dyspozycji Biura i nigdy nie wpadną w niepowołane ręce jest wspomnianym już "magicznym myśleniem". FBI skarży się, że szyfrowanie komunikacji pomaga przestępcom. Od ubiegłego roku sporo się jednak zmieniło w myśleniu FBI. W ubiegłym miesiącu wyciekły dokumenty rządowe, z których wnika, że administracja prezydencka zrezygnowała z planu przeprowadzenia przez Kongres ustawy, która zmuszałaby firmy IT do instalowania tylnych drzwi. Dyrektor Comey potwierdził prawdziwość tych dokumentów, zapowiedział jednocześnie, że FBI będzie próbowało namówić firmy, by dobrowolnie współpracowały. Minął zaledwie miesiąc, a przedstawiciele Biura zrezygnowali i z tego pomysłu. « powrót do artykułu
  19. U starszych osób większa wydolność krążeniowo-oddechowa (ang. cardiorespiratory fitness) wiąże się z silniejszymi połączeniami między różnymi regionami mózgu. Nasze studium zapewnia najsilniejsze jak dotąd dowody, że wydolność starszej populacji sprzyja zdrowiu mózgu, ujmowanemu w kategoriach połączeń funkcjonalnych różnych obszarów - opowiada prof. Arthur Kramer z Uniwersytetu Illinois. Jedną z metod określania zdrowia mózgu na przestrzeni życia jest mierzenie siły połączeń między różnymi obszarami w czasie wykonywania zadania lub odpoczynku (w drugim z wymienionych przypadków bada się spoczynkowy stan sieci połączeń czynnościowych RSFC, od ang. resting-state functional connectivity). Badania pokazały, że z wiekiem połączenia te ulegają osłabieniu, wskazując na pogarszający się stan zdrowia mózgu. Michelle Voss i jej zespół posłużyli się funkcjonalnym rezonansem magnetycznym (fMRI), by zbadać siłę połączeń u odpoczywających starszych i młodszych dorosłych. Tak jak się spodziewano, u starszych osób w większości przypadków połączenia były słabsze. Amerykanie nie poprzestali na tym ustaleniu i sprawdzali, jak się ma wydolność krążeniowo-oddechowa do RSFC seniorów (wydolność definiuje się jako skuteczność wykorzystania tlenu w czasie aktywności fizycznej). Okazało się, że związek między wydolnością a siłą połączeń między pewnymi obszarami mózgu jest niezależny od zwyczajowego poziomu aktywności fizycznej. Mogą go za to modyfikować inne czynniki, takie jak genetyka. « powrót do artykułu
  20. W ciągu najbliższych 20 lat dojdzie do rewolucji w robotyce, która całkowicie zmieni krajobraz społeczno-ekonomiczny świata. Roboty trafią na różne stanowiska pracy, będą smażyły hamburgery i opiekowały się osobami starszymi. Z jednej strony pojawienie się takich maszyn obniży koszty prowadzenia biznesu, z drugiej zaś - pogłębi nierówności społeczne. Takie obawy wyrażają autorzy 300-stronicowego raportu, przygotowanego przez analityków z Bank of America Merrill Lynch. Autorzy raportu mówią, że upowszechnienie się robotów to "czwarta rewolucja przemysłowa". Trzy poprzednie związane były z maszyną parową, masową produkcją i elektroniką. Czeka nas zmiana paradygmatu, która pociągnie za sobą zmianę naszego sposobu życia i pracy. W ciągu ostatnich lat tempo innowacji technologicznych przestało być liniowe, a stało się paraboliczne. Roboty i sztuczna inteligencja trafią do każdego sektora przemysłu, staną się nieodłączną częścią naszego codziennego życia - czytamy w raporcie. To pociąga za sobą poważne niebezpieczeństwa. Analitycy, powołując się na wcześniejsze badania przeprowadzone na Oxford University twierdzą, że doprowadzi to do zwolnienia około 35% robotników w Wielkiej Brytanii i 47% w USA. Tyle osób może zostać zastąpionych maszynami w ciągu najbliższych 20 lat. Utratą pracy najbardziej zagrożeni są ludzie najmniej wykwalifikowani. To niepokojący trend, szczególnie dla takich krajów jak Stany Zjednoczone, gdzie w ostatnich latach powstało wiele słabo płatnych stanowisk pracy związanych z prostymi pracami ręcznymi i pracami w usługach. Tego typu zajęcia są uznawane za obarczone wysokim ryzykiem zastąpienia ludzi przez maszyny - czytamy. Analitycy oceniają, że do roku 2020 globalny rynek robotów i sztucznej inteligencji będzie warty 152,7 miliarda USD. Pojawienie się maszyn zwiększy produktywność niektórych gałęzi przemysłu nawet o 30%. Autorzy raportu wskazują na już obecne silne trendy w kierunku robotyki. Na przykład w ciągu zaledwie dwóch miesięcy 2014 roku Google kupił aż osiem firm zajmujących się robotami. Od Boston Dynamics rozwijającej m.in. roboty bojowe po DeepMind, specjalizującą się w rozwoju techniki DeepLearning na potrzeby sztucznej inteligencji. W najbardziej zaawansowanych gałęziach przemysłu, np. fabrykach japońskich producentów samochodów, już działają roboty zdolne do nieprzerwanej 30-dniowej pracy bez nadzoru ze strony człowieka. Obliczono też, że o ile przeniesienie zakładów produkcyjnych do krajów o taniej sile roboczej może zapewnić do 65% oszczędności, to zastąpienie ludzi robotami daje oszczędności rzędu 90%. Z raportu dowiadujemy się też, że obecnie średnio na całym świecie pracuje 66 robotów na 10 000 robotników. Jednak w wysoce zautomatyzowanym japońskim sektorze motoryzacyjnym jest już 1520 robotów na 100 000 robotników. Roboty mogą w niedalekiej przyszłości zastąpić nie tylko osoby pracujące fizycznie. Już w 2013 roku McKinsey Global Institute wyliczył, że gdyby komputery były w stanie samodzielnie oceniać zdolności kredytowe klienta i udzielać porad finansowych, światowy sektor finansowy mógłby na samych pensjach zaoszczędzić do 9 bilionów USD rocznie. Obawy o zastąpienie ludzi maszynami nie są niczym nowym. Wystarczy przypomnieć XIX-wieczny angielki ruch ludowy z początków rewolucji przemysłowej. Członkowie tego ruchu, protestując przeciwko zastępowaniu ludzi maszynami i związanymi z tym zmianami w życiu społecznym, napadali m.in. na warsztaty włókiennicze i niszczyli maszyny. Analitycy wymienili też kilka zawodów, w których roboty już się rozpowszechniają lub wkrótce się rozpowszechnią. Wspominają o firmie Momentum Machnies z San Francisco, która zaprojektowała robota zdolnego do formowania hamburgerów, pieczenia ich, przygotowywania bułek oraz dodawania do całości pomidorów czy cebuli. Przypomnieli też o fabrykach w Japonii i Południowej Korei, gdzie maszyny coraz powszechniej zastępują robotników przy wykonywaniu najprostszych czynności. Roboty wkraczają też do medycyny. W ubiegłym roku użyto ich przy 570 000 operacji na całym świecie, a superkomputer Watson jest w stanie błyskawicznie przejrzeć gigantyczne bazy danych i pomóc lekarzowi w postawieniu diagnozy. Merrill Lynch przewiduje też, że w ciągu najbliższych 5 lat wartość rynku robotów opiekujących się osobami starszymi wzrośnie do 17 miliardów dolarów. Bogate społeczeństwa coraz bardziej się starzeją, brakuje chętnych do pracy przy opiece nad seniorami, a rozwijająca się technologia jest w stanie z czasem uzupełnić tę lukę. « powrót do artykułu
  21. Dwie żyjące w zoo słonice indyjskie posługują się trąbami jak dmuchawkami - wypuszczają przez nie strumienie powietrza, docierając w ten sposób do niedostępnych inaczej kąsków. O tym, że słonie manipulują oddechem, by zdobyć znajdujące się poza ich zasięgiem pożywienie, wspominał już Karol Darwin, dotąd jednak zachowanie to trudno było badać w warunkach eksperymentalnych. Ostatnio zajęli się nim uczeni z Graduate University for Advanced Studies i Uniwersytetu w Kioto. Japończycy przyglądali się poczynaniom Mineko i Suzuko z Kamine Zoo. Biolodzy zakładali, że im dalej znajdować się będzie kąsek, tym częściej słonice będą dmuchać, by się do niego dobrać. Na fosę wokół wybiegu słoni naniesiono wirtualną siatkę. W różnych jej punktach umieszczono 5 rodzajów pożywienia: jabłka, bambus, opadłe liście, ziemniaki i siano. Zwierzęta filmowano przez 32 dni. Ogółem wyodrębniono 128 prób; próba rozpoczynała się, gdy słychać było, że słonica zaczęła dmuchać, a kończyła się, gdy samica sięgała do kąska albo się poddawała. Japończycy analizowali częstość oraz czas trwania dmuchania, ułożenie i kształt przyjęty przez trąbę, a także trajektorię ruchu pokarmu na wirtualnej siatce (ostatni z parametrów wskazywał na skuteczność, a więc uzdolnienia słonicy). Okazało się, że średnio słonie potrzebowały 3 dmuchnięć, by zdobyć pokarm. Tak jak podejrzewano, zachowanie pojawiało się rzadziej, gdy jedzenie znajdowało się blisko. Dominująca samica Mineko radziła sobie lepiej, zwłaszcza jeśli chodzi o dostosowanie pozycji trąby, tak by trafić w konkretny punkt kąska i przesunąć go w pożądaną stronę. Kaori Mizuno uważa, że zdolność manipulowania powietrzem może być powiązana z innymi częstymi zachowaniami słoni, np. komunikacją akustyczną. Autorzy publikacji z pisma Animal Cognition zastanawiają się, czy biorąc pod uwagę wszystkie te ustalenia, w tym dużą świadomość fizycznego otoczenia, można uznać oddech słonia za narzędzie. Odnosząc się do przyjmowanej dotąd definicji, Japończycy podkreślają, że wg nich, warto by ją przeformułować, bo istotny jest proces myślowy prowadzący do rozwiązania problemu, czyli danego zachowania, a nie samo wykorzystanie fizycznego narzędzia. « powrót do artykułu
  22. Ósmego marca bieżącego roku sonda MAVEN zarejestrowała, jak promieniowanie ultrafioletowe ze Słońca i wysokoenergetyczne strumienie gazu pozbawiają Marsa resztek atmosfery. Urządzenia zanotowały olbrzymi wzrost liczby atomów tlenu i molekuł dwutlenku węgla wyrzuconych w przestrzeń kosmiczną. Naukowcy z NASA sądzą, że w ten sposób znaleźli odpowiedź na pytanie, jak to się stało, że Mars jest obecnie suchą zimną pustynią. Dzięki misji łazika Curiosity wiemy, że w przeszłości Czerwona Planeta była znacznie bardziej przyjaznym miejscem. Płynęła na niej woda i panowały wyższe temperatury. Zadaniem sondy MAVEN jest badanie górnych warstw atmosfery Marsa, jej interakcji ze Słońcem i odpowiedź na pytanie o ewolucję klimatu planety. Teraz, po roku zbierania danych, rysuje się coraz bardziej wyraźny obraz. Obecnie rozważane są dwie hipotezy na temat tego, co stało się z marsjańską wodą. Pierwsza mówi, że jest ona zamknięta pod powierzchnią w postaci lodu. Zgodnie z drugą woda uciekła do atmosfery i wraz z nią w przestrzeń kosmiczną. Próbujemy odpowiedzieć na pytanie, czy klimat Marsa zmienił się z powodu utraty atmosfery na rzecz przestrzeni kosmicznej czy w wyniku jakiegoś innego procesu - mówi główny naukowiec misji MAVEN, Bruce Jakosky. Mam nadzieję, że obliczając ile gazu uciekło w przestrzeń kosmiczną, będziemy mogli stwierdzić, na ile jest to istotny proces - dodaje. « powrót do artykułu
  23. Tom Wheeler, przewodniczący Federalnej Komisji Komunikacji USA powiedział na konferencji prasowej, że Stany Zjednoczone zaproponują przeznaczenie części pasma radiowego na przyszłą komunikację 5G. Zasadnicze pytanie brzmi, czy inne kraje będą chciały w tym uczestniczyć - mówi Wheeler. Wystąpienie przewodniczącego miało miejsce podczas pierwszego tygodnia zaplanowanej na cały miesiąc World Radiocommunication Conference w Genewie. Spotkanie takie obywa się co cztery lata i jest organizowane przez Międzynarodową Unię Telekomunikacyjną. Ambasador Decker Anstrom, szef amerykańskiej delegacji, powiedział, że uczestnicy obrad mają na ten temat różne poglądy. Warto wspomnieć, że spektrum 5G miałoby m.in. komunikacji z cywilnymi dronami i systemom kontroli lotu. Ambasador Anstrom zwrócił uwagę, że cywilne drony mogłyby np. monitorować miejsce awarii elektrowni atomowych, dokonywać inspekcji rurociągów, nadzorować rezerwaty dzikiej przyrody czy pomóc w tworzeniu prognoz pogody. Ambasador sądzi, że już w przyszłym tygodniu uda się uzgodnić spektrum służące śledzeniu lotów. « powrót do artykułu
  24. Dzięki współpracy naukowców z Centrum Zwalczania i Zapobiegania Chorobom (CDC) i brytyjskiego Muzeum Historii Naturalnej udało się postawić przedziwną diagnozę: inwazji nieprawidłowych, namnażających się i genetycznie zmienionych komórek tasiemca karłowatego (Hymenolepis nana) w ludzkich tkankach. To nowy mechanizm chorobowy, wskazujący na związki między zakażeniem a nowotworem. Kolumbijscy lekarze próbowali zdiagnozować 41-latka w 2013 r. U nosiciela wirusa HIV występowały guzy, niektóre o wielkości nawet 4 cm. W próbkach z biopsji węzła chłonnego i płuc zaobserwowano gniazda monomorficznych, niezróżnicowanych komórek. Ich cechy morfologiczne oraz inwazyjny charakter przywodziły na myśl komórki nowotworowe, ale małe rozmiary sugerowały, że nie są one pochodzenia ludzkiego. Jak wyjaśniają autorzy publikacji z New England Journal of Medicine, miały one wielkość ok. 1/10 komórki ludzkiej. To zupełnie nie miało sensu - opowiada dr Atis Muehlenbachs z CDC, który przetestował kilka teorii, w tym skurczenia ludzkich komórek nowotworowych i nowo odkrytego zakażenia. Ostatecznie badania genetyczne (reakcja łańcuchowa polimerazy) pozwoliły zidentyfikować DNA H. nana. Choć komórek nie dało się rozpoznać jako należących do tasiemca, dodatkowym potwierdzeniem było choćby barwienie immunohistochemiczne. To [moja] najdziwniejsza sprawa, która przez wiele nocy spędzała mi sen z oczu. Powinno być jasne, czy to nowotwór, czy infekcja. To niezwykłe, że przez 2 miesiące nie dało się tego rozstrzygnąć. Pacjent był tak chory, że zmarł w Medellín 3 dni po wykryciu DNA pasożyta. Naukowcy sądzą, że nie tyle tasiemiec miał nowotwór, co jedno z jego jaj przeniknęło przez wyściółkę jelit, zmutowało i ostatecznie nabrało cech nowotworu. W dowolnym momencie liczba zakażonych H. nana osób sięga nawet 75 mln. CDC podkreśla, że najlepszym sposobem uniknięcia infekcji jest mycie rąk i gotowanie warzyw. « powrót do artykułu
  25. Duński zespół jako pierwszy wykazał, że archeony Sulfolobus islandicus, które zamieszkują kwaśne wulkaniczne źródła geotermalne, można wykorzystać do dostarczania leków w ludzkim organizmie. Sara Munk Jensen z Uniwersytetu Południowej Danii skończyła właśnie pracę doktorską nt. wykorzystania lipidów z błon komórkowych organizmów ekstremofilnych w nośnikach transportujących i chroniących leki w ludzkim organizmie. Odnosi się to m.in. do hormonów, szczepionek oraz insuliny. Diabetycy muszą codziennie wstrzykiwać sobie insulinę, a byłoby lepiej, gdyby mogli zażyć ją w postaci tabletki. Chodzi przy tym nie tylko o unikanie iniekcji, ale i o fakt, że gdy insulina ulega wchłonięciu z jelita cienkiego, jest uwalniania w organizmie w bardziej naturalny sposób, co teoretycznie mogłoby zwiększyć skuteczność leczenia. Ekstremofilny S. islandicus rośnie optymalnie w temperaturach rzędu 75-80°C i przy pH równym 2-3. Jest więc zarówno termo-, jak i acydofilem. Żyje m.in. w Parku Narodowym Yellowstone, na Islandii, we Włoszech czy na Kamczatce. Duńczycy wyizolowali lipidy z błony komórkowej S. islandicus i wykorzystali je do wyprodukowania liposomów. Wypełniono je barwnikiem fluorescencyjnym kalceiną i umieszczono w roztworach o niskim pH. Sprawdzano, ile liposomów uległo zniszczeniu po 1,5 godz. Okazało się, że przetrwało ok. 10% z nich. Zaczęliśmy od surowego ekstraktu cząsteczek z błony S. islandicus. Normalnie do produkcji liposomów wykorzystuje się raczej oczyszczone związki, ale ja posłużyłam się wszystkimi cząsteczkami tłuszczu, by zobaczyć, jak dużo można uzyskać z nieoczyszczonego materiału. Jeśli w takiej sytuacji przetrwało 10% liposomów, gdyby zacząć oczyszczać cząsteczki, prawdopodobnie przetrwałoby ich jeszcze więcej. Jensen sądzi, że by koncerny farmaceutyczne mogły zacząć prace nad doustnymi lekami peptydowymi, np. insuliną czy szczepionkami, należy uzyskać procent zachowania liposomów sięgający 85. Podczas eksperymentów S. islandicus hodowano przez 4 dni w temperaturze 75°C. Później z hodowli wyizolowano składniki błony i połączono je z fosfolipidami (np. fosfatydylocholiną z żółtka jaja) i cholesterolem. Duńczycy wyprodukowali niewielkie jednowarstwowe liposomy z 18% zawartością surowego wyciągu lipidowego. Liposomy testowano przy niskich i wysokich stężeniach kwasów żółciowych, mieszczących się w fizjologicznym zakresie ludzkiego organizmu. W niskim stężeniu po 1,5 godz. utrzymywało się 75% liposomów, w wysokim tylko 10%. Jak podkreślają autorzy publikacji z International Journal of Pharmaceutics, przy stężeniu kwasu taurocholowego (soli kwasu żółciowego) rzędu 4,4 mM liposomy zawierające lipidy archeonów zatrzymywały kalceinę lepiej niż liposomy z samej fosfatydylocholiny oraz w podobnym stopniu co liposomy z fosfatydylocholiny i cholesterolu. « powrót do artykułu
×
×
  • Dodaj nową pozycję...