Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36965
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Browar Protivin z kraju południowoczeskiego zatrudnił raki do monitorowania jakości wody wykorzystywanej w zakładzie. Raki, które szybko reagują na zmiany w środowisku, umieszczono w akwariach. Przepompowuje się przez nie wodę z browarnianego ujęcia. Na skorupiakach umieszczono czujniki na podczerwień, które monitorują tętno i przemieszczanie. Dane są analizowane przez komputer. Gdy co najmniej 3 raki zaczynają się poruszać albo coś dzieje się z ich pulsem, wiemy, że zmieniły się parametry wody. Możemy działać szybko, bo wyniki są już po 3 minutach - wyjaśnia Michal Voldrich z browaru. System wodny został zaprojektowany i opatentowany przez naukowców z Wydziału Rybołówstwa i Ochrony Wód Uniwersytetu Południowoczeskiego. Wykorzystujemy raki w roli żywego laboratorium chemicznego: jako połączenie biowskaźnika i bioczujnika - wyjaśnia Pavel Kozak. Raki reagują błyskawicznie na wszystkie niespecyficzne zmiany. Pod tym względem różnią się od czujników, które co prawda szybko reagują na niskie stężenia, ale tylko konkretnych substancji. Czesi chcą ulepszyć swoją technologię. Wspominają m.in. o zastosowaniu kamer do monitorowania serc raków. « powrót do artykułu
  2. Plotkują i mężczyźni i kobiety, ale kobiety z większym prawdopodobieństwem używają plotek do oczernienia potencjalnej rywalki o względy mężczyzny. Ponadto kobiety częściej plotkują o wyglądzie innych kobiet, podczas gdy mężczyźni częściej plotkują o zasobach (np. finansowych) oraz sprawności fizycznej rywali. Zdaniem Adama Davisa z University of Ottawa, plotkowanie to skomplikowana umiejętność społeczna przydatna przy konkurowaniu o partnera. Jego zdaniem jest ona niezwykle pomocna w relacjach międzyludzkich i nie powinna być postrzegana jako wada charakteru. Davis jest głównym autorem badań opublikowanych na łamach Evolutionary Psychological Science, które dostarczyły pierwszym weryfikowalnych dowodów na istnienie pozytywnego związku pomiędzy konkurencją o partnerów, ilością rozpowszechnianych plotek oraz tym, jak osoby plotkujące czują się z faktem, że to robią. Naukowcy stwierdzili, że plotkowanie to wysoce wyewoluowana umiejętność pozwalająca na zdobycie większej ilości informacji o innych osobach służąca też egzekwowaniu norm społecznych. Jest to też sposób na dowiedzenie się więcej o rywalach oraz na kwestionowanie ich reputacji, szczególnie gdy mamy do czynienia z rywalizacją na tle uczuciowym bądź seksualnym. W badaniach wzięło udział 290 heteroseksualnych Kanadyjczyków w wieku 17-30 lat. Mieli do wypełnienia trzy kwestionariusze. Jeden z nich mierzył, jak bardzo uczestnicy badań angażują się w konkurowanie z osobami tej samej płci, szczególnie jeśli chodzi o konkurowanie o partnera seksualnego., Dwa pozostałe kwestionariusze mierzyły tendencję i prawdopodobieństwo, że badana osoba będzie plotkowała na temat innych, jak badany postrzega wartość plotki i jaką ma opinię na temat plotkowania o innych za ich plecami. Okazało się, że im bardziej ktoś skłonny do konkurowania wśród własnej płci, tym z większym prawdopodobieństwem zaangażuje się w plotkowanie i tym lepiej postrzega sam fakt plotkowania. Kobiety mają większe skłonności do plotkowania niż mężczyźni, plotki bardziej je cieszą i przykładają do nich większą wartość. Mężczyźni z większym prawdopodobieństwem niż kobiety plotkują o osiągnięciach innych. Kobiety zwykle plotkują o wyglądzie i wykorzystują plotki do rozpowszechniania informacji. Dla kobiet plotka ma większą wartość społeczną niż dla mężczyzn, dzięki czemu pozwala im zdobyć więcej informacji o potencjalnych konkurentkach o względy mężczyzny. Nasze badania pokazują, że plotka jest powiązana z konkurencją o partnera. Nie może być więc postrzegana wyłącznie poprzez negatywny stereotyp plotkującej kobiety – stwierdza Davis. « powrót do artykułu
  3. Kropki kwantowe mogą zwiększyć skuteczność istniejących antybiotyków, przez co wpływają one na lekooporne patogeny. Naukowcy z Uniwersytetu Kolorado w Boulder wykazali, że stosując kropki kwantowe, można sprawić, że antybiotyki zaczynają ponownie działać na infekcje wywoływane przez pewne izolaty bakterii. Nanocząstki są aktywowane i wyłączane przez fale światła o odpowiedniej długości. Kropki kwantowe uwalniają ponadtlenki, które oddziałują na procesy metaboliczne i komórkowe bakterii. Wyzwalają w ten sposób reakcję walki, przez co wielolekooporne mikroorganizmy - w tym wypadku pałeczki okrężnicy (Escherichia coli), Salmonella enterica i pałeczki zapalenia płuc (Klebsiella pneumoniae) - stają się podatne na antybiotyk. Mimo wysokiej lekooporności izolatów przy ponad 75% kombinacji obserwowano synergiczne działanie antybiotyków bakteriostatycznych i bakteriobójczych o różnych mechanizmach działania oraz kropek kwantowych. Reakcja walki [z kropkami] sprawia, że bakterie stają się bardziej podatne [na działanie leku] - podkreśla prof. Prashant Nagpal. Podczas eksperymentów wykazano, że kropki kwantowe 1000-krotnie obniżają oporność zakażeń bakteryjnych na antybiotyki, nie wywołując przy tym skutków ubocznych. Myślimy bardziej jak bakteria. To nowa strategia, która obniża zwykłą moc zakażenia i katalizuje antybiotyk - dodaje prof. Anushree Chatterjee. Wg autorów publikacji z pisma Science Advance, kropki kwantowe działają wybiórczo na poziomie wewnątrzkomórkowym. Akademicy wyjaśniają, że przedstawiciele rodzaju Salmonella mogą rosnąć i namnażać się wewnątrz komórek gospodarza, kropki są jednak na tyle małe, że wślizgują się do środka i likwidują infekcję od wewnątrz. Chatterjee podkreśla, że technologia kropek kwantowych daje lekarzom elastyczne, "wielopostaciowe" narzędzie do zwalczania problematycznych zakażeń. Choroby działają szybciej od nas. Medycyna również musi ewoluować. « powrót do artykułu
  4. Wystrzelenie Teleskopu Kosmicznego Jamesa Webba jest planowane na okres pomiędzy marcem a czerwcem 2019 roku. Do niedawna planowano, że teleskop zostanie wystrzelony w październiku 2018 roku. Zmiana terminu startu nei wskazuje na problemy ze sprzętem czy wydajnością techniczną. Okazało się, że integracja wszystkich elementów urządzenia trwa dłużej, niż sądziliśmy – wyjaśnia Thomas Zurbuchen, ze Science Mission Directorate. W ramach umowy podpisanej z Europejską Agencją Kosmiczną, w ramach które ESA zarezerwowała dla Webba okienko startowe na rok przed planowanym wystrzeleniem z Gujany Francuskiej, NASA przeprowadziła rutynową ocenę kalendarza prac, by sprawdzić, jak idą przygotowania i czy konieczna jest zmiana planowanego terminu startu. Wzięto pod uwagę ilość prac, które jeszcze trzeba wykonać, dane z testów środowiskowych instrumentów oraz obecne tempo prac. Kontrola wykazała, że o ile testy teleskopu i instrumentów naukowych prowadzone w Johnson Space Center w Houston idą zgodnie a planem, to prace nad integracją i testowaniem samej podstawy urządzenia i osłony słonecznej, prowadzone przez firmę Northrop Gumman, są opóźnione. Po przeprowadzeniu wszystkich testów Webb zostanie złożony i w całości poddany kolejnym testom. NASA zapewnia, że zmiana terminu startu nie spowoduje żadnych zmian w budżecie teleskopu oraz nie wpłynie na badania naukowe. Podstawa Webba i jego osłony słoneczne są większe i bardziej skomplikowane niż większość pojazdów kosmicznych. Łączenie niektórych elementów, takich jak np. ponad 100 urządzeń rozwijających osłonę słoneczną, trwa dłużej niż planowano. Jeśli do tego dodamy fakt, że podczas dotychczasowych testów przekonaliśmy się, że niektóre z nich – jak na przykład testy odporności na wibracje – powinny trwać dłużej, uznaliśmy, że cały proces integracji i testowania urządzenia potrwa dłużej. Biorąc pod uwagę już dokonane inwestycje oraz pomyślnie przeprowadzone prace stwierdzamy, po systematycznych testach urządzenie będzie gotowe do wystrzelenia wiosną 2019 roku, poinformował Eric Smith, dyraktor odpowiedzialny za program JWST. « powrót do artykułu
  5. Z najnowszych badań wynika, że brak jest dowodów, by połowa nowych zatwierdzonych w Unii Europejskiej terapii antynowotworowych przedłużała życie pacjentów lub poprawiała jego jakość. Gdy kosztowne leki, które nie przynoszą korzyści klinicznych, są zatwierdzane i opłacane z publicznych systemów opieki zdrowotnej, mogą na tym ucierpieć pacjenci, marnuje się ważne zasoby publiczne i utrudnione zostaje zapewnienie odpowiedniej rozsądnie kosztującej opieki zdrowotnej – stwierdzili badacze z King's College London i London School of Economics. Badacze przyjrzeli się lekom przeciwnowotworowym zatwierdzonym w latach 2009-2013 przez Europejską Agencję Leków (EMA). W tym czasie na potrzeby 68 terapii antynowotworowych zatwierdzono 48 nowych leków. Okazało się, że w przypadku 39 terapii leki dopuszczono na podstawie wyników zastępczego punktu końcowego, a zatem w sytuacji, gdy badania kliniczne wykazały, iż lek może przedłużać życie lub poprawiać jego jakość. Dopuszczanie na podstawie zastępczego punktu końcowego jest szeroko stosowaną praktyką, jednak zdobycie mocnych dowodów na skuteczność trwa w przypadku takich leków całymi latami po ich dopuszczeniu na rynek. Po 5 latach obecności na rynku jedynie w przypadku 35 zatwierdzonych terapii stwierdzono, że rzeczywiście – w porównaniu z wcześniej istniejącymi terapiami lub placebo – przedłużają życie lub poprawiają jego jakość. W przypadku pozostałych 33 terapii wciąż nie wiadomo, czy przynoszą one jakiekolwiek korzyści kliniczne. Zdaniem brytyjskich badaczy obecne standardy dopuszczania leków do użytku nie zachęcają do prac nad lekami, które w najlepszy sposób wychodziłyby naprzeciw potrzebom pacjentów, lekarzy i systemów opieki zdrowotnej. Wyniki badań, opisanych w British Medical Journal, skomentowała w tekście redakcyjnym profesor Vinay Prasad z Oregon Health & Science University. Wysokie koszty i toksyczność leków przeciwnowotworowych obligują nas do poddania pacjenta tego typu terapii tylko wtedy, gdy mamy powody, by sądzić, iż terapia zwiększy jego szanse na przeżycie lub poprawi jakość jego życia. Tymczasem badania te sugerują, że możemy nie spełniać tego istotnego warunku. Jeden z wydawców BMJ, doktor Deborah Cohen, zwraca uwagę, że duża liczba nowych leków oraz brak jednoznacznych dowodów, że pomagają one pacjentom stawia rządy w bardzo trudnej sytuacji gdy trzeba zdecydować, którą z terapii należy refundować ze środków publicznych. Z drugiej jednak strony to właśnie rządy są odpowiedzialne za politykę dopuszczania leków do użycia, a zła polityka prowadzi do tego, że na rynku pojawiają się leki, co do skuteczności których istnieją poważne wątpliwości, przez co trudno zdecydować, którą z terapii refundować. W ten sposób koło słabych dowodów i niepewności się zamyka. « powrót do artykułu
  6. Regularne ćwiczenia o dowolnej intensywności zabezpieczają przed depresją. Co więcej, wystarczy zaledwie godzina ruchu tygodniowo. Korzyści zdrowotne są widoczne bez względu na wiek czy płeć. Międzynarodowy zespół naukowców wyliczył, że gdyby ludzie przeznaczali na aktywność fizyczną godzinę tygodniowo, można by zapobiec 12% przypadków depresji. Wiemy od jakiegoś czasu, że ćwiczenia odgrywają pewną rolę w terapii depresji, ale po raz pierwszy udało się oszacować liczbowo prewencyjny potencjał aktywności ruchowej [...] - opowiada prof. Samuel Harvey z Uniwersytetu Nowej Południowej Walii. Nadal próbujemy ustalić, czemu ćwiczenia działają ochronnie, ale myślę, że chodzi o łączny wpływ różnych korzyści fizycznych i społecznych [...]. Autorzy publikacji z American Journal of Psychiatry wykorzystali dane 33.908 dorosłych Norwegów, zebrane w ramach Health Study of Nord-Trøndelag County. Na początku studium zdrowych ludzi poproszono, by określili częstość podejmowania aktywności fizycznej oraz jej natężenie (bez utraty tchu czy spocenia; z utratą tchu i poceniem; do wyczerpania). Później ochotnicy wypełniali kwestionariusz dot. lęku i depresji (Hospital Anxiety and Depression Scale). Akademicy wzięli poprawkę na czynniki, które mogłyby wpływać na związek między ćwiczeniami i chorobami psychicznymi, w tym na czynniki demograficzne, zażywanie środków psychoaktywnych, wskaźnik masy ciała (BMI), świeżo zdiagnozowane choroby fizyczne czy postrzegane wsparcie społeczne. Okazało się, że w przypadku osób, które na starcie wspominały, że w ogóle nie ćwiczą, ryzyko wystąpienia depresji było o 44% wyższe niż w grupie ćwiczącej 1-2 godz. tygodniowo. Nie stwierdzono, by ćwiczenia (czy ich intensywność) wpływały jakoś na ryzyko wystąpienia zaburzeń lękowych. « powrót do artykułu
  7. Wzmożony wypas zwierząt hodowlanych w chińskim rezerwacie Wanglang zniszczył 1/3 habitatu pandy wielkiej w parku. Zniszczenie habitatu koreluje z 9-krotnym wzrostem liczebności stad w parku na przestrzeni ostatnich 15 lat. Zwiększenie liczebności wolno przemieszczających się zwierząt w obrębie lasów rezerwatu fatalnie wpłynęło na bambusy, które stanowią 99% diety pand. Co gorsza, nadmierny wypas ograniczył regenerację tych roślin. Lokalna ludność wypuszcza swoje zwierzęta i pojawia się tylko 2 razy w miesiącu, by podać im sól. Nic więc dziwnego, że żerują one na bambusach przez cały rok, a zwłaszcza zimą - podkreśla prof. Binbin Li z Duke University. Rezerwat Wanglang znajduje się w górach Min Shan w prowincji Syczuan, gdzie żyje największa populacja pand w Chinach. Zespół Li przeanalizował dane z monitoringu z 20 lat. Przyglądano się zmianom rozkładu przestrzennego bambusów, pand i zwierząt hodowlanych w obrębie parku. Dzięki temu naukowcy mogli modelować, gdzie wystąpiła degradacja bądź utrata habitatu pand. Przemieszczanie zwierząt hodowlanych śledzono dzięki obrożom GPS. Długoterminowy monitoring pokazuje, że pandy są wypłaszane z obszarów silnie wykorzystywanych przez zwierzęta hodowlane, głównie z dolin. Tymczasem niżej położone rejony są kluczowe dla pand, szczególnie zimą i wiosną - opowiada prof. Stuart Pimm. Naziemne obserwacje aktywności pand w dolinach potwierdzają wyniki generowane przez model. W ostatnich latach odkryliśmy o wiele mniej znaków [obecności] pand w tych okolicach - podkreśla Luo Chunping z parku Wanglang. Jeśli wypas bydła nadal nie będzie kontrolowany, stracimy wiele zdatnych dla pand habitatów (a w ostatnich dekadach włożyliśmy tyle wysiłku w ich ochronę) - dodaje Li. Autorzy publikacji z pisma Biological Conservation podkreślają, że wiele czynników skłoniło miejscowych do wzmożonego wykorzystania obszarów parku. Wspominają m.in. o zakazie wycinki i nakazie przywrócenia lasu na stromych stokach, wykarczowanych wcześniej pod uprawy. Zespół uważa, że do obserwowanego zjawiska mogło się przyczynić zwiększone zapotrzebowanie na mięso na lokalnych rynkach, spadek ruchu turystycznego po trzęsieniu ziemi z 2008 r. czy niejasne rządowe zasady co do finansowego wynagradzania rolników wycofujących swoje zwierzęta z lasów. Naukowcy pracują z zainteresowanymi stronami, by lepiej zrozumieć socjoekonomiczne pobudki wzmożonego wypasu bydła w ostatnich latach. Zależy im również na znalezieniu rozwiązań. Takie problemy nie są unikatowe dla naszego rejonu badawczego. Występują we wszystkich pandzich rezerwatach i habitatach - twierdzi Li. Zamiast po prostu zakazywać wypasu zwierząt, musimy wytypować alternatywne metody zarobkowania. W rozmowach lokalna ludność optowała np. za turystyką czy pracą przy zarządzaniu lasem. Do naszych celów należą zmniejszenie liczebności bydła w habitatach pand, wprowadzenie lepszych metod hodowli, a także znalezienie równowagi między ochroną niedźwiedzi i lokalnym rozwojem. « powrót do artykułu
  8. Amerykańskie CDC (Centrum Kontroli i Prewencji Chorób) poinformowało, że istnieje związek pomiędzy otyłością a 40% nowotworów diagnozowanych w USA. W samym tylko roku 2014 na 13 typów nowotworów, z którymi w jakiś sposób powiązane są nadwaga i otyłość zachorowało 630 000 Amerykanów. CDC i US National Cancer Institute oficjalnie stwierdzają, że nadmierna waga może wiązać się z nowotworem mózgu, szpiczakiem mnogim, nowotworem przełyku, pomenopauzalnym nowotworem piersi, nowotworem tarczycy, pęcherzyka żółciowego, żołądka, wątroby, trzustki, nerek, jajników, jelita grubego i odbytu. Doktor Lisa Richardson, szefowa Wydziału Zapobiegania Nowotworom w CDC poinformowała na konferencji prasowej, że wstępne wyniki badań sugerują, iż utrata wagi może zmniejszać ryzyko niektórych nowotworów. Specjaliści zwracają uwagę, że od lat 90. ubiegłego wieku liczba przypadków nowotworów w USA spada, jednak notuje się wzrosty liczby nowotworów powiązanych z nadmierną wagą, co zmniejsza ogólne tempo spadku zachorowań. Spośród wspomnianych 630 000 przypadków zachorowań na nowotwory powiązane z nadmierną wagą około 2/3 dotyczyło osób w wieku 50-74 lat. Z wyjątkiem nowotworu jelita grubego, liczba przypadków nowotworów powiązanych z nadmierną wagą wzrosła o 7% w latach 2005-2014. W tym samym czasie liczba nowotworów nie powiązanych z wagą spadła. Wśród najważniejszych wniosków z opublikowanego raportu należy wspomnieć, że ze wszystkich nowotworów aż 55% nowotworów u kobiet i 24% nowotworów u mężczyzn było powiązanych z nadmierną wagą. U białych i czarnych występuje więcej nowotworów powiązanych z nadmierną wagą niż u innych grup etnicznych. Liczba nowotworów związanych z nadmierną wagą zwiększyła się o 7% w latach 2005-2014. Jednak liczba nowotworów jelita grubego spadła w tym samym czasie o 23%. Specjaliści uważają, że za spadek odpowiedzialne są prowadzone programy badań zapobiegawczych. Liczba przypadków nowotworów nie powiązanych z wagą zmniejszyła się o 13%. Z wyjątkiem nowotworu jelita grubego liczba przypadków nowotworów powiązanych z wagą wzrosła u osób przed 75. rokiem życia. World Cancer Research Fund ocenia, że 20% nowotworów w USA jest spowodowanych kombinacją zbyt dużej wagi ciała, brakiem aktywności fizycznej, nadmiernym spożyciem alkoholu i złym odżywianiem się. « powrót do artykułu
  9. Seria skomplikowanych badań i eksperymentów, podczas których pod lupę wzięto jedne z najmniej zbadanych pierwiastków tablicy okresowej, przewraca do góry nogami dotychczasowe prawdy naukowe. Badacze z Florida State University donoszą, że prawa mechaniki kwantowej w niewystarczający sposób wyjaśniają zachowanie najcięższych i najrzadszych ze znanych pierwiastków. Procesy zachodzące w 21 ostatnich pierwiastkach tabeli okresowej lepiej wyjaśnia za to teoria względności Einsteina. Mechanika kwantowa pozwala nam zrozumieć, w jaki sposób zachowują się atomy i w pełni wyjaśnia prawa rządzące większością pierwiastków. Jednak profesor Thomas Albrecht-Schmitt z FSU zauważył, że zachowaniem najcięższych pierwiastków rządzi raczej ogólna teoria względności. To tak, jakby nagle znaleźć się w alternatywnym wszechświecie, gdyż chemia tych pierwiastków jest odmienna od tego, co obserwujemy w innych pierwiastkach – mówi uczony. Badania zajęły uczonemu i jego kolegom ponad 3 lata. Naukowcy skupili się na berkelu i przeprowadzali różne reakcje chemiczne z jego udziałem. Zaobserwowali, że nie podlegają one standardowym zasadom mechaniki kwantowej. Najważniejszym odstępstwem od normy był fakt, że elektrony nie organizowały się samodzielnie wokół atomu berkelu w taki sposób, w jaki organizują się wokół atomów innych pierwiastków. Zwykle elektrony krążące wokół atomów układają się w konfiguracje opisywane przez mechanikę kwantową. Jednak Albrecht-Schmitt i jego koledzy odkryli, że w przypadku najcięższych pierwiastków zachowania elektronów nie można wyjaśnić na polu mechaniki kwantowej. Naukowcy z Florydy zdali sobie sprawę, że zachowanie to można lepiej wyjaśnić na gruncie teorii względności i opisywanej przez nią zależności masy i prędkości. Berkel jest używany głównie do syntetyzowania innych pierwiastków, takich jak dodany niedawno do tablicy okresowej pierwiastek 117 tennesine. Dotychczas jednak prowadzono niewiele badań nad zrozumieniem samego berkelu i kolejnych pierwiastków. Profesor Albrecht-Schmitt mógł przeprowadzić swoje badania dzięki temu, że otrzymał od Departamentu Energii aż 13 miligramów berkelu. To naprawdę olbrzymia ilość. Wystarczy wspomnieć, że to niemal 1000-krotnie więcej niż użyto w jakichkolwiek wcześniejszych badaniach, a w ciągu ostatnich 50 lat na całym świecie zsyntetyzowano mniej niż 1 gram berkelu. Uczeni musieli się bardzo spieszyć. Okres półrozpadu berkelu wynosi zaledwie 320 dni, więc ilość dostępnego pierwiastka szybko się zmniejszała. « powrót do artykułu
  10. Wszyscy znają już prozdrowotny wpływ herbaty zielonej. Teraz okazuje się, że czarna sprawdza się równie dobrze; zawarte w obu rodzajach herbaty polifenole zmieniają bowiem mikrobiom jelit. W badaniach na myszach naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles wykazali, że pozbawiona teiny czarna herbata zmienia metabolizm energetyczny wątroby, wpływając na metabolity jelitowe. Amerykanie zademonstrowali, że czarna i zielona herbata zmieniały proporcję bakterii w jelicie ślepym (kątnicy) gryzoni: spadał odsetek bakterii związanych z otyłością (Firmicutes), a rósł procent bakterii związanych z beztłuszczową masą ciała (Bacteroidetes). Wcześniejsze badania wskazywały, że polifenole zielonej herbaty są wchłaniane i zmieniają metabolizm energii wątroby. Nowe badanie pokazuje, że polifenole czarnej herbaty, które są zbyt duże, by ulec wchłonięciu w jelicie cienkim, stymulują wzrost bakterii przewodu pokarmowego i tworzenie krótkołańcuchowych kwasów tłuszczowych, a więc metabolitów bakteryjnych zmieniających metabolizm energetyczny wątroby. Dotąd uważano, że polifenole zielonej herbaty są bardziej skuteczne i zapewniają więcej zdrowotnych korzyści niż polifenole herbaty czarnej, ponieważ te pierwsze są wchłaniane do krwi i tkanek. Nasze nowe badania sugerują jednak, że działając za pośrednictwem specyficznego mikrobiomowego mechanizmu, czarna herbata także może sprzyjać zdrowiu i utracie wagi u ludzi - opowiada prof. Susanne Henning. Wyniki sugerują, że obie herbaty są prebiotykami. W ramach studium w oparciu o dietę wyodrębniono 4 grupy myszy. Pierwszej podawano karmę niskotłuszczową, ale bogatą w sacharozę (10,6% energii pochodziło z tłuszczu, a 25% z sacharozy). Drugiej wysokocukrową i wysokotłuszczową (32% energii pochodziło z tłuszczu, a 25% z sacharozy). W przypadku grupy 3. i 4. karmę obfitującą w tłuszcz i cukier suplementowano, odpowiednio, ekstraktem z bezkofeinowej zielonej bądź bezkofeinowej czarnej herbaty. Po miesiącu waga myszy, którym podawano ekstrakt z zielonej bądź czarnej herbaty, spadała do tego samego poziomu, co u gryzoni z 1. grupy. Autorzy publikacji z European Journal of Nutrition pobierali próbki z jelita grubego (sekwencjonując regiony 16S rRNA, identyfikowano mikrobiom), a także tkanki wątroby (do pomiaru stłuszczenia). Choć bez względu na rodzaj ekstraktu z herbaty obserwowano spadek liczebności bakterii z typu Firmicutes i zwiększenie zawartości Bacteroidetes, tylko czarna herbata prowadziła do wzrostu względnej proporcji Gram-ujemnych Pseudobutyrivibrio. Wg naukowców, to pozwala wyjaśnić różnicę we wpływie ekstraktów na metabolizm wątroby. Wg Henning, cząsteczki polifenoli zielonej herbaty są mniejsze i dlatego szybciej się wchłaniają i docierają bezpośrednio do wątroby. Związki z czarnej herbaty są większe i raczej pozostają w jelicie. Przebywając tam, nasilają wzrost korzystnych bakterii i tworzenie regulujących metabolizm energetyczny krótkołańcuchowych kwasów tłuszczowych. « powrót do artykułu
  11. Yahoo poinformowało, że podczas ataku w 2013 roku napastnicy dostali się do wszystkich 3 miliardów kont pocztowych. Do niedawna mówiono o przełamaniu przez hakerów zabezpieczeń miliarda kont. Nowe dane – wynik śledztwa i analizy przeprowadzonych przez niewymienionych z nazwiska konsultantów ds. bezpieczeństwa – oznaczają, że każda osoba, która w 2013 roku miała konto pocztowe w Yahoo padła ofiarą ataku. Otrzymaliśmy ostatnio nowe informacje i po przeanalizowaniu ich we współpracy z zewnętrznymi ekspertami doszliśmy do wniosku, że zaatakowano też dodatkowe konta. Na podstawie tej analizy Yahoo stwierdza, że ofiarą ataku padły wszystkie konta pocztowe, które istniały w sierpniu 2013 roku – oświadczyła firma. Napastnicy mogli ukraść nazwy użytkowników, adresy e-mail, numery telefonów, dany urodzenia, hasła zabezpieczone funkcją skrótu MD5 oraz, w niektórych przypadkach, zaszyfrowane i niezaszyfrowane pytania i odpowiedzi umożliwiające odzyskanie dostępu do konta. Nic natomiast nie wskazuje na to, by łupem przestępców padły niezaszyfrowane hasła, dane kart płatniczych czy kont bankowych. O ataku na serwis pocztowy Yahoo poinformowano po raz pierwszy w grudniu ubiegłego roku. Oceniano wówczas, że przestępcy skompromitowali miliard adresów e-mail. Ataku z roku 2013 nie należy mylić z atakiem z roku 2014, kiedy to przestępcy zaatakowali 500 milionów kont, a Yahoo stwierdziło, że atak był przeprowadzony przez obce państwo. W marciu bieżącego roku prokuratura oskarżyła dwóch pracowników rosyjskiego wywiadu o przygotowanie ataku z 2014 roku. Ich celem było dostanie się do kont pocztowych dziennikarzy, urzędników oraz pracowników firm technologicznych. O ataku z 2013 roku nie dowidzieliśmy się niczego nowego, oprócz tego, że dotknął on 3 miliardów kont i jest jednym z największych zdarzeń tego typu. « powrót do artykułu
  12. Paul Otellini, były dyrektor wykonawczy Intela, zmarł we śnie w ostatni poniedziałek. Otellini kierował Intelem w latach 2005-2013, a za jego rządów firma wygenerowała przychody większe niż podczas poprzednich 45 lat. Otellini był piątym CEO Intela i pierwszym nie inżynierem na tym stanowisku. Wiadomość o jego śmierci jest zaskoczeniem, gdyż mężczyzna miał 66 lat. Otellini urodził się w San Francisco, gdzie w 1972 roku zyskał tytuł licencjata z ekonomii. Dwa lata później zrobił dyplom MBA na Uniwersytecie Kalifornijskim w Berkeley i w tym samym roku rozpoczął prace w Intelu. Sprawował tam wiele różnych stanowisk, był m.in. dyrektorem Peripheral Components Operation and the Folsom Microcomputer Division. W 1989 roku stanął na czele biura dyrektora wykonawczego Andy'ego Grove'a. W latach 1990-2002 był m.in. wiceprezesem wykonawczym i głównym menedżerem w Intel Architecture Group oraz Sales and Marketing Group. Jako dyrektor Intela Otellini przeprowadził reorganizację skupiając uwagę firmy na mikroprocesorach i chipsetach dla platform domowych, mobilnych oraz biznesowych. Strategia Otelliniego wzmocniła pozycję Intela kosztem rywalizującej z nim AMD. Jednak jego rządy nie były samym pasmem sukcesów. Intel nie odniósł takiego sukcesu na rynku mobilnym jak na rynku desktopów i serwerów. Błędem, którego Otellini żałował po przejściu na emeryturę, było też odrzucenie propozycji zaprojektowania i produkcji procesora dla iPhone'a. Oni byli zainteresowani pewnym układem scalonym, chcieli za niego zapłacić konkretną kwotę i ani centa więcej. Ale ta cena była poniżej naszych szacowanych kosztów. Nie podobało mi się to. To nie była rzecz, którą można było masowo produkować, mówił. Pod względem finansowym rządy Otelliniego były dla Intela sukcesem. W ciągu tych ośmiu lat przychody firmy były wyższe niż w ciągu poprzednich 45, a zysk netto za rządów Otelliniego wyniósł 66 miliardów dolarów, podczas gdy za jego wszystkich poprzedników sięgnął on kwoty 68 miliardów USD. Po przejściu na emeryturę Otellini zajął się doradzaniem młodym ludziom oraz działalnością charytatywną, wspierają m.in. San Francisco Symphony i San Francisco General Hospital Foundation. « powrót do artykułu
  13. Specjaliści próbują ustalić, kto jest autorem znajdującej się w zbiorach Musée Condé Monna Vanny. Pewne dowody wskazują, że to wstępny szkic Mona Lizy, przygotowany przynajmniej po części przez samego Leonarda da Vinci. Testy przeprowadzane przez kilka ostatnich tygodni w Luwrze wskazują, że akt powstał w tym samym czasie, co Mona Liza, jest sporządzony tą samą techniką, a papier wykorzystany w obu dziełach pochodzi z tego samego regionu Włoch. Wiemy, że rysunek powstał za życia Leonarda da Vinci [na początku XVI w.], a papier wyprodukowano we Włoszech, gdzieś między Wenecją a Florencją. Trzecim odkryciem jest wysoka jakość szkicu w obrębie twarzy i ramion Monna Vanny. To interesujące, bo jej ramiona są takie same, jak Mona Lizy - opowiada kurator Mathieu Deldicque. Rysunek węglem ma prawie takie same wymiary, co Mona Liza, a małe dziurki wokół postaci sugerują, że wykorzystano go do naniesienia wzoru na płótno. Eksperci dodają, że nie cały szkic został wykonany przez mistrza, bo ukośne kreski na górze w pobliżu głowy narysowano prawą ręką, a Leonardo był leworęczny. Badania trwają. Rysunek jest delikatny, dlatego praca z nim jest trudna - zaznacza konserwator Bruno Mottin. Kobieta ze szkicu węglem przyjęła pozycję podobną do Mona Lizy, ale uwieczniono ją bardziej z boku, z głową silniej odchyloną w lewą stronę. Obie - Gioconda i Monna Vanna - trzymają prawą dłoń na lewym nadgarstku. Gdy w 1862 r. hrabia d'Aumale kupił Monna Vannę, szkic przypisywano Leonardowi. Analizy z początku XX w. sprawiły jednak, że dzieło zaczęto przypisywać uczniowi da Vinci. Na świecie istnieje ok. 20 aktów przypominających Mona Lizę. Do najsławniejszych należy Donna Nuda z Ermitażu. Deldicque podkreśla, że perspektywa przypisania Monna Vanny renesansowemu mistrzowi jest, oczywiście, kusząca, ale by rozstrzygnąć tę kwestię, trzeba prowadzić dalsze badania. Czeka nas następny miesiąc analiz, a potem bardzo mozolne, czasochłonne prace z zakresu historii sztuki [...]. Mottin podkreśla, że zespół ma nadzieję ujawnić tożsamość twórcy w ciągu 2 lat, a więc dokładnie na wystawę w Château de Chantilly, która upamiętni 500. rocznicę śmierci da Vinciego. « powrót do artykułu
  14. Brytyjscy naukowcy odkryli najmniejszego i najmłodszego jak dotąd ichtiozaura Ichthyosaurus communis. Jakby tego było mało, czekała ich jeszcze dodatkowa niespodzianka, bo udało się zidentyfikować zawartość jego żołądka. Skamieniałość ichtiozaura mierzy ok. 70 cm. W żołądku gada znajdowała się kałamarnica. To niesamowite, że wiemy, co stanowiło ostatni posiłek istoty sprzed blisko 200 mln lat. Między żebrami odkryliśmy wiele drobnych haczykowatych struktur. Pochodzą one z ramion prehistorycznej kałamarnicy - opowiada Dean Lomax z Uniwersytetu w Manchesterze. To interesujące, bo badania przeprowadzone przez innych naukowców na innym ichtiozaurze - stenopterygu - z młodszej epoki geologicznej pokazały, że małe, a więc młode, osobniki żywiły się wyłącznie rybami. Wykazaliśmy zatem różnice w preferencjach ofiar wśród noworodków ichtiozaurów. Okaz ichtiozaura pochodzi z kolekcji Muzeum Geologii Lapwortha Uniwersytetu w Birmingham. Został on oczyszczony i zbadany w 2016 r. przez Nigela Larkina z Uniwersytetu w Cambridge. Czyszczenie pozwoliło Lomaxowi przyjrzeć się detalom skamieniałości. Lomax, który niedawno opisał największego ichtiozaura w historii, na podstawie układu kości czaszki zidentyfikował okaz jako noworodka I. communis. Znamy kilka okazów małych ichtiozaurów, ale przeważnie są one niekompletne lub źle zachowane. Ten egzemplarz jest praktycznie kompletny i wyjątkowy [...]. Brakowało, niestety, danych nt. lokalizacji czy wieku okazu. Po uzyskaniu pozwolenia Larkin usunął jednak odrobinę skały ze szkieletu. Próbki przekazał Ianowi Boomerowi z Uniwersytetu w Birmingham i Philipowi Copestake'owi z Merlin Energy, Resources, którzy badali skałę pod kątem mikroskopijnych skamieniałości. Opierając się na ich rodzaju, naukowcy mogli stwierdzić, że ichtiozaur ma ok. 196-199 mln lat, pochodzi więc ze wczesnej jury. W przypadku wielu historycznych okazów ichtiozaurów z muzeów brakuje jakichkolwiek szczegółów geograficznych bądź geologicznych, dlatego nie są one podatowane. Z tego powodu poszukiwanie mikroskamieniałości ze skały macierzystej może być kluczem do rozwiązania ich zagadki - podkreśla Larkin. W ramach studium szkielet poddano mikrotomografii. Steve Dey z ThinkSee3D stworzył na tej podstawie model 3D. « powrót do artykułu
  15. Po raz pierwszy w historii miesięczna wartość sprzedanych układów scalonych przekroczyła 35 miliardów dolarów. Rekord padł w sierpniu i był poprzedzony 12-miesięcznym ciągłym wzrostem wartości sprzedaży, informuje Semiconductor Industry Association (SIA). Szybki wzrost wartości sprzedaży rozpoczął się w drugiej połowie bieżącego roku. Wartości rzeczywiście mogą imponować. W ciągu zaledwie trzech miesięcy wartość sprzedaży światowego przemysłu półprzewodnikowego wzrosła o 4%, a wartość rok do roku zwiększyła się aż o 24%. W sierpniu sprzedaż wzrosła wszędzie. Na każdym rynku regionalnym i w każdej kategorii produktów półprzewodnikowych zanotowano wzrost zarówno miesiąc do miesiąca, jak i rok do roku. Głównym kołem napędowym wzrostu jest sprzedaż układów pamięci, jednak w sierpniu wzrost jest widoczny nawet gdy wykluczy się układy pamięci ze statystyki, mówi John Neuffer, prezes SIA. Przemysł półprzewodnikowy doświadcza największych wzrostów od 2010 roku. Ich tempo zaskoczyło analityków, którzy prognozowali nawet dwukrotnie wolniejsze tempo zwiększania się wartości sprzedaży. W obu amerykach tempo wzrostu miesiąc do miesiąca wyniosło 8,8%,a rok do roku – 39%. W Chinach wartości te wyniosły, odpowiednio, 3,7 i 23,3%. Zdaniem Neuffera do rekordowych wzrostów w Amerykach przyczyniła się decyzja Kongresu USA, który zapowiedział reformę korporacyjnego systemu podatkowego, mającą uczynić Stany Zjednoczone bardziej konkurencyjnymi wobec innych krajów. Przemysł półprzewodnikowy USA jest światowym liderem, gdyż należy doń niemal połowa światowego rynku. Jednak amerykańskie firmy zmagają się z coraz silniejszą konkurencją z zagranicy, mówi Neuffer. « powrót do artykułu
  16. Badacze z Uniwersytetu w Limerick zauważyli, że po przyłożeniu ciśnienia kryształy lizozymu, białka śliny, łez czy mleka ssaków, zaczynają generować elektryczność. Zdolność generowania elektryczności na drodze przyłożenia ciśnienia jest nazywana piezoelektrycznością. Zjawisko to jest wykorzystywane m.in. w alarmach wibracyjnych telefonów komórkowych czy sonarach. Od dawna wiadomo, że właściwości takie wykazują kość, ścięgna czy drewno. Choć piezoelektryczność [w pewnym sensie] nas otacza, dotąd nie badano zdolności generowania elektryczności przez to konkretne białko. Tymczasem zakres piezoelektryczności kryształów lizozymu jest znaczący. Mówimy o wartościach porównywalnych do kwarcu. Ponieważ jest to jednak materiał biologiczny, nie ma mowy o toksyczności. W grę wchodzą zatem różne innowacyjne zastosowania, np. elektroaktywne powłoki przeciwbakteryjne do urządzeń medycznych - opowiada Aimee Stapleton. Kryształy lizozymu łatwo uzyskać z naturalnych materiałów. Dokładna struktura kryształów lizozymu jest znana [już] od 1965 r., ale jako pierwsi wykorzystaliśmy te kryształy do celów piezoelektrycznych - dodaje prof. Tewfik Soulimane. Kryształy to złoty standard pomiaru piezoelektryczności w materiałach niebiologicznych. Nasz zespół jako pierwszy wykazał, że identyczne podejście sprawdza się przy jej badaniu w biologii. To novum, bo do tej pory naukowcy próbowali zrozumieć biopiezoelektryczność, wykorzystując nie prostsze podstawowe składniki, lecz złożone struktury hierarchiczne, takie jak tkanki, komórki czy polipeptydy - podsumowuje szef zespołu prof. Tofail Syed. « powrót do artykułu
  17. Archeolodzy badający wyobrażenia roślin na fragmentach ceramiki znaleźli najstarsze dowody na udomowienie sorgo w Afryce. Dowody te odkryto we wschodnim Sudanie na stanowisku archeologicznym KG23. Stanowisko to, datowana na lata 3500-3000 przed Chrystusem, jest związane z kulturą znaną jako Butana Group. Sorgo to – obok ryżu, mąki, kukurydzy i jęczmienia – jedna z pięciu najważniejszych roślin uprawnych w dziejach ludzkości. Od tysięcy lat dostarcza ono pożywienia mieszkańcom Afryki. Nic więc dziwnego, że naukowcy interesują się historią sorgo. Przez ostatnich pięćdziesiąt lat wśród specjalistów pojawiała się hipoteza mówiąca, że sorgo mogło zostać udomowione poza nawiedzaną zimowymi opadami Doliną Nilu, w której dominującymi uprawami były pszenica i jęczmień. Spekulowano, że do udomowienia doszło w półsuchych tropikalnych obszarach Afryki. Nie było jednak na to żadnych dowodów archeologicznych. Najnowsze odkrycie dokonane we wschodnim Sudanie wskazuje, że przedstawiciele Butana Group intensywnie uprawiali dzikie odmiany sorgo, aż doprowadzili w nich do zmian genetycznych i pojawienia się odmian udomowionych. Warto tutaj przypomnieć, że niedawno stwierdzono, iż przed około 4500 lat na wschodnich terenach Mali doszło do udomowienia rosplenicy perłowej. Udomowienie sorgo o tysiąc lat wcześniej jeszcze bardziej przesuwa datę udomowienia pierwszych zbóż zależnych od letnich opadów deszczu. « powrót do artykułu
  18. Pomijanie śniadań wiąże się z podwyższonym ryzykiem miażdżycy. Zespół Iriny Uzhovej analizował dietę ochotników (kobiet i mężczyzn), którzy nie mieli chorób sercowo-naczyniowych ani przewlekłej choroby nerek. Do oszacowania zwykłej diety badanych wykorzystano komputerowy kwestionariusz, a wzorce spożywania śniadań ustalano w oparciu o procent energii dostarczanej z tym posiłkiem. Wydzielono 3 grupy: 1) spożywającą na śniadanie mniej niż 5% dziennej energii (pomijającą śniadania i pijącą kawę, sok lub inny napój niealkoholowy), 2) zjadającą rano ponad 20% dziennej energii (osoby jedzące śniadania) i 3) spożywającą rano między 5 a 20% kalorii (ludzi jedzących niskoenergetyczne śniadania). Okazało się, że wśród 4.052 ochotników 2,9% pomijało śniadania, 69,4% spożywało niskoenergetyczne śniadania, a 27,7% reprezentowało grupę jedzącą śniadania. Miażdżycę obserwowano częściej wśród badanych pomijających śniadania i osób spożywających niskoenergetyczne śniadania. Czynniki ryzyka kardiometabolicznego także występowały w tych grupach częściej. Ochotnicy, którzy pomijali śniadania, mieli największy obwód w pasie, najwyższy wskaźnik masy ciała (BMI), ciśnienie, poziom glukozy na czczo oraz najgorszy lipidogram. Osoby niejedzące śniadań z większym prawdopodobieństwem prowadziły ogólnie niezdrowy tryb życia (chodzi m.in. o złą dietę, częste spożycie alkoholu i palenie). Oprócz tego częściej miały one nadciśnienie, a także nadwagę bądź otyłość. Wg autorów badania, w przypadku otyłości w grę może również wchodzić zależność o odwrotnym kierunku i osoby otyłe pomijają śniadania, by schudnąć. Niekorzystne skutki pomijania śniadań można dostrzec wcześnie, bo już w dzieciństwie, w postaci otyłości i choć niejedzący śniadań generalnie próbują schudnąć, niejednokrotnie w ciągu dnia jedzą oni więcej, sięgając często po niezdrowe pokarmy. Pomijanie śniadań może wywoływać nieprawidłowości hormonalne i zaburzać rytmy biologiczne [...] - podsumowuje dr Prakash Deedwania, autor artykułu wstępnego do publikacji zespołu Uzhovej w Journal of the American College of Cardiology. « powrót do artykułu
  19. TSMC (Taiwan Semiconductor Manufacturing Co.) oznajmiło, że wybuduje pierwszą na świecie fabrykę produkującą układy scalone w technologii 3 nanometrów. Zakład powstanie w Tainan Science Park na południu Tajwanu. Oficjalne ogłoszenie kładzie kres spekulacjom, wedle których TSMC mogło wybudować swoją kolejną fabrykę w USA korzystając z zachęt, jakie oferuje administracja prezydenta Trumpa, która próbuje ściągać do kraju zakłady produkcyjne. Przed rokiem TSMC informowało, że pierwszą fabrykę produkującą 5- i 3-nanometrowe chipy wybuduje już w 2022 roku. Obecnie nie podano żadnych ram czasowych otwarcia nowego zakładu produkcyjnego. TSMC jest wdzięczne rządowi Tajwanu za działania na rzecz rozwiązania wszelkich problemów dotyczących gruntu, wody, elektryczności i ochrony środowiska, czytamy w oświadczeniu firmy. Jasnym jest, że rząd w Taipei wspomógł firmę, co mogło być jedną z przyczyn, dla której na lokalizację nowej fabryki wybrano Tajwan. Przedsiębiorstwo już wcześniej oceniało, że nowy zakład będzie wymagał 50-80 hektarów terenu i inwestycji rzędu 15,7 miliarda USD. Mówiąc wcześniej o roku 2022 firma brała też pod uwagę nieprzewidziane przerwy w pracach budowlanych. Niektóre z ostatnich inwestycji TSMC opóźniały się bowiem nawet o rok z powodu procesów związanych z publicznymi wysłuchaniami dotyczącym ich wpływu na środowisko. Firma doświadcza też problemów z zapewnieniem swoim tajwańskim zakładom odpowiedniej ilości wody i elektryczności. « powrót do artykułu
  20. Najnowszy numer Seismological Research Letters donosi o szybkim rozrastaniu się Human-Induced Earthquake Database (HiQuake). To najbardziej kompletna na świecie baza danych zawierająca informacje o trzęsieniach ziemi wywołanych aktywnością człowieka. Najwięcej, bo aż 37% z wymienionych tam 730 przypadków trzęsień ziemi zostało spowodowanych przez działalność wydobywczą. Drugą największą kategorią, obejmującą 23% trzęsień są zjawiska spowodowane przez wodę nagromadzoną za zaporami wodnymi. Jednak kategorią, która w ostatnim czasie bardzo szybko się poszerza, są trzęsienia wywołane przez szczelinowanie hydrauliczne. Technikę tę stosuje się przy wydobywaniu ropy naftowej i gazu. Każda udana operacja szczelinowania hydraulicznego wiąże się ze zjawiskami mikrosejsmicznymi, gdyż powoduje ona pękanie skał. W ostatnich latach wzrosła liczba odwiertów, zatem – co logiczne – wzrosła liczba odwiertów udanych oraz związane z tym zjawiska mikrosejsmiczne, mówi Miles Wilson, geofizyk z Durham University, pracujący przy HiQuake. Jednak znacznie ważniejszym trendem jest związek pomiędzy szczelinowaniem hydraulicznym a niezwykle dużymi trzęsieniami ziemi. Prawdopodobnie są one wywoływane przez ponowną aktywację wcześniej istniejących uskoków, dodaje uczony. Najbardziej jednak widocznym trendem w HiQuake jest obserwowana od niedawna rosnąca liczba trzęsień spowodowana projektami składowania odpadów płynnych. Wzrost ten jest powiązany ze wzrostem liczby takich projektów w USA, stwierdza Wilson. American Geophysical Union raportuje ze swojej strony, że od początku bieżącego wieku w centrum USA dramatycznie wzrosła liczba trzęsień ziemi wywołanych przez człowieka. Zdaniem U.S. Geological Survey (USGS) w latach 1978-2008 centralna część USA doświadczała rocznie średnio 21 trzęsień ziemi o sile co najmniej 3 stopni. W latach 2009-2013 średnia ta zwiększyła się do niemal 100. A w samym tylko 2014 roku zanotowano ponad 400 trzęsień. Najpotężniejszym trzęsieniem ziemi wywołanym działalnością człowieka mogło być to o sile 7,9 stopnia, które w 2008 roku nawiedziło Wenchuan. Część specjalistów przypuszcza, że trzęsienie zostało wywołane napełnieniem zbiornika Zipingpu, który znajduje się kilka kilometrów od epicentrum. Istnieją jednak alternatywne wyjaśnienia tego trzęsienia, więc obecnie brak jest jednoznacznych dowodów wiążących je z działalnością człowieka. Naukowcy zwracają jednak uwagę, że w przyszłości ludzie coraz aktywniej będą wpływali na skorupę ziemską. Planuje się bowiem wiele projektów związanych z pozyskiwaniem energii ze źródeł geotermalnych, mówi się też o składowaniu dwutlenku węgla pod ziemią. Ponadto kopalnie mogą stać się większe, sięgające głębiej, coraz powszechniej buduje się wielkie zbiorniki wodne, w miastach pojawiają się coraz większe budynku. Być może pewnego dnia trzeba będzie pomyśleć o jakiejś równowadze pomiędzy naszą ingerencją w skorupę ziemską a spodziewanym ryzykiem – stwierdza Wilson. « powrót do artykułu
  21. Dobrzy ojcowie sprawiają, że dzieci są silniejsze i zdrowsze. Przynajmniej u uistiti białouchych. U tych drobnych małpek ojcowie dzielą się opieką z matkami. Nie wszyscy ojcowie angażują się jednak w takim samym stopniu. Naukowcy z Uniwersytetu Wisconsin w Madison podzielili 24 ojców na grupy, opierając się na ich reakcji na nagrania niemowlęcych zawołań wyrażających zaniepokojenie (60% poszukiwało ich źródła). To ojcowie naprawdę zmotywowani do szybkiego zaspokajania podstawowych potrzeb potomstwa - opowiada Toni Ziegler. Jak wyliczają Amerykanie, 30. pierwszych dni przeżywało 87% dzieci reagujących ojców i tylko 45% maluchów ojców "nieczułych". Ponadto dzieci dobrych ojców zaczynały szybciej przybierać na wadze ok. 6-12 tyg. życia, gdy młode uistiti są odstawiane od piersi (ojcowie odgrywają aktywną rolę w przestawianiu dzieci na pokarm stały). Wydają dźwięki i zachęcają młode do wyjścia i spróbowania przyniesionego pokarmu [...]. Jest prawdopodobne, że komunikujący się ojcowie wkładają więcej wysiłku w podanie dzieciom pokarmu [...]. Ziegler dodaje, że pomoc otrzymywana od ojców sprawia, że samice zaczynają szybciej jajeczkować po porodzie. Korzystnie być na zawołanie, bo to oznacza, że jest się obok także wtedy, gdy chodzi o poczęcie następnego miotu. Amerykanie odkryli, że szukając źródła dźwięku, reagujący ojcowie doświadczają wzrostu poziomu testosteronu. Identyczna odpowiedź testosteronowa w odpowiedzi na płacz niemowlęcia występuje także u ludzkich ojców. Chodzi o czujność i wkroczenie do akcji, by bronić potomstwa. Ziegler podejrzewa, że uważniejsi ludzcy ojcowie wpływają podobnie korzystnie na rozwój dzieci. « powrót do artykułu
  22. Tworząc i manipulując mininerkami, organoidami z realistyczną mikroanatomią, naukowcy z Uniwersytetu Waszyngtona mogą teraz śledzić wczesne etapy rozwoju wielotorbielowatości nerek (ang. polycystic kidney disease, PKD). Organoidy wyhodowano z ludzkich pluripotencjalnych komórek macierzystych. Mimo że na wielotorbielowatość choruje sporo osób, dotąd naukowcy nie byli w stanie odtworzyć jej postępów w warunkach laboratoryjnych. Ostatnio doszło jednak do przełomu. Amerykanie wykazali, że zmieniając pewne fizyczne składowe środowiska organoidów, można nasilić lub ograniczyć tworzenie torbieli. Najpierw wykazaliśmy, że nasze organoidy mogą tworzyć torbiele jak w PKD, teraz wykorzystaliśmy ten model do zrozumienia paru fundamentalnych kwestii - opowiada prof. Benjamin Freedman. Zespół wykazał m.in. że mininerki hodowane w warunkach swobodnego unoszenia tworzyły duże, świetnie widoczne cysty (wyeliminowanie wskazówek dot. przywierania 10-krotnie nasilało cytogenezę, przez co powstawały torbiele, które rozszerzały się nawet do 1 cm średnicy). Nerki przytwierdzone do plastikowych szalek pozostawały zaś małe. Oprócz tego odkryliśmy, że powodujące PKD nieprawidłowe białka [policystyny] są wrażliwe na swoje mikrośrodowisko. Jeśli zatem moglibyśmy zmienić sposoby wchodzenia przez nie w interakcje lub to, czego doświadczają poza komórką, de facto potrafiliśmy wpłynąć na przebieg choroby - podkreśla Nelly Cruz. W innym artykule, który ukaże się w piśmie Stem Cells, zespół Freedmana rozważa, jak uzyskiwać w laboratorium i monitorować podocyty, komórki nabłonka trzewnego kłębuszka nerkowego, które spełniają kluczową rolę w filtracji osocza i powstawaniu moczu pierwotnego. Badania organoidów poddanych edycji genowej pokazały, w jaki sposób podocyty tworzą szczeliny filtracyjne. To z kolei może pomóc w opracowaniu metod zwalczania skutków mutacji powodujących inną chorobę nerek - stwardnienie kłębków nerkowych. « powrót do artykułu
  23. Naukowcy z Uniwersytetu Kalifornijskiego w Riverside (UCR) badali olej ze zmodyfikowanej genetycznie soi i stwierdzili, że choć powoduje on mniej otyłości oraz insulinooporności niż zwykły olej sojowy, to w przypadku cukrzycy i stłuszczenia wątroby oddziaływania obu rodzajów tłuszczu są podobne. Specjaliści podkreślają, że olej sojowy to najpopularniejszy olej roślinny w USA. Na świecie również jest on coraz częściej wybierany. Choć bogaty w tłuszcze nienasycone, a zwłaszcza w kwas linolowy, u myszy wywołuje otyłość, cukrzycę, insulinooporność i stłuszczenie wątroby. W ramach najnowszego studium akademicy z UCR testowali Plenish, olej ze zmodyfikowanej genetycznie soi, wypuszczony 3 lata temu przez DuPoint. Zabiegi inżynieryjne specjalistów z koncernu doprowadziły do tego, że olej zawiera mniej kwasu linolowego i ma skład zbliżony do oliwy. Autorzy artykułu z pisma Nature Scientific Reports jako pierwsi pokusili się o porównanie długoterminowych skutków metabolicznych konwencjonalnego oleju sojowego i Plenisha. Zwykły olej i Plenish zestawiano także z olejem kokosowym, który zawiera nasycone kwasy tłuszczowe. Odkryliśmy, że wszystkie oleje podnosiły poziom cholesterolu w wątrobie i krwi. W ten sposób upadł mit, że olej sojowy redukuje stężenie cholesterolu - opowiada prof. Frances Sladek. Koniec końców Plenish porównywano do oliwy z oliwek. Warto przypomnieć, że i oliwa, i Plenish zawierają dużo kwasu oleinowego, który korzystnie wpływa na ciśnienie (obniża je) i pomaga w odchudzaniu. W naszych eksperymentach na myszach okazało się, że zasadniczo oliwa dawała takie same efekty, jak Plenish - otyłość mniejszą niż w przypadku oleju kokosowego, ale większą niż w przypadku konwencjonalnego oleju sojowego - ale [jednocześnie] widać było znaczne stłuszczenie wątroby, co stanowiło spore zaskoczenie, bo zwykle oliwa jest uważana za najzdrowszy ze wszystkich tłuszczów roślinnych. Plenish, który ma skład podobny do oliwy, tak jak ona wywoływał hepatomegalię, czyli powiększenie wątroby, i zaburzenia funkcji tego narządu - podkreśla Poonamjot Deol. Kalifornijczycy dywagują, że obserwowane od lat 70. zwiększone spożycie oleju sojowego w USA może się przyczyniać do epidemii otyłości. Zespół dodaje, że jego ustalenia nie muszą się odnosić do innych produktów sojowych. Nasze wyniki niekoniecznie odnoszą się do innych produktów sojowych - sosu sojowego, tofu czy mleka sojowego - które w dużej mierze pozyskuje się z rozpuszczalnej w wodzie frakcji soi [...]. Trzeba przeprowadzić dalsze badania nt. zawartości kwasu linolowego w tych produktach. Kwas linolowy jest pozyskiwany z pokarmów, ale to zasadniczo nie oznacza, że dobrze, gdy w diecie jest go dużo. Naszym organizmom wystarczy ok. 1-2%, tymczasem średnio w diecie Amerykanów występuje aż 8-10% tego kwasu - wylicza Deol. Deol i Sladek podkreślają, że unikanie konwencjonalnego oleju sojowego może być trudne, bo jest on wykorzystywany w restauracjach i występuje w wielu przetworzonych pokarmach. Jedyną przewagą Plenisha jest to, że w porównaniu do standardowego oleju sojowego, daje mniej tłuszczów trans. [...] Biorąc jednak pod uwagę jego wpływ na wątrobę, Plenish nie powinien być olejem pierwszego wyboru. U siebie w domu wykorzystywałam wyłącznie oliwę, ale teraz zastępuję ją częściowo olejem kokosowym. Ze wszystkich badanych dotąd olejów olej kokosowy powoduje najmniej negatywnych skutków metabolicznych, mimo że składa się niemal wyłącznie z tłuszczów nasyconych. Co prawda olej kokosowy podwyższa poziom cholesterolu, ale w nie większym stopniu niż standardowy olej sojowy czy Plenish - wyjaśnia Sladek. Dotąd zespół nie analizował oddziaływań sercowo-naczyniowych oleju kokosowego. Dlatego nie wiemy, czy podwyższony cholesterol jest [w tym przypadku] szkodliwy. [Generalnie] wniosek z badań jest taki, że nie należy polegać wyłącznie na jednym źródle tłuszczu. Zróżnicowane oleje mają rozległy i złożony wpływ na metabolizm, co wymaga, oczywiście, dalszych badań. Naukowcy, którzy już wiedzą, że istnieje dodatnia korelacja między pochodnymi oksylipinowymi kwasu linolowego i otyłością, planują ustalić, czy oksylipiny powodują otyłość, a jeśli tak, to za pośrednictwem jakiego mechanizmu. Kolejnym etapem prac będzie też badanie wpływu olejów ze zwykłej i modyfikowanej genetycznie soi na przewód pokarmowy. « powrót do artykułu
  24. Przed około 5000 lat do Europy napłynęli przedstawiciele kultury grobów jamowych. Była to jedna z najważniejszych migracji w dziejach starego kontynentu. Przybysze przynieśli ze sobą bowiem tak ważne innowacje jak wozy zaopatrzone w koła oraz produkcję żywności z mleka. Przynieśli też ze sobą nowy język. Z czasem protoindoeuropejski zdominował Europę i od niego pochodzą języki, których używamy. Większość lingwistów zgadza się, że wyrazy takie jak „koło”, „wóz”, „koń”, „owca”, „krowa”, „mleko”, „wełna” pochodzą właśnie od przedstawicieli kultury grobów jamowych. Jednak nie wszystkie wyrazy, których obecnie używamy na terenie Europy biorą swój początek z języka protoindoeuropejskiego. Istnieją wyrazy określające rośliny i zwierzęta, które do języka protoindoeuropejskiego musiały trafić z językow lokalnych. Jak czytamy na łamach American Journal of Archeology, idealnym miejscem takiej wymiany kulturowej była południowa Skandynawia. Dowody archeologiczne wskazują, że pomiędzy 2800 a 2600 rokiem przed Chrystusem na terenie południowej Skandynawii współistniały dwie bardzo różniące się kultury. Jedna z nich to lokalna neolityczna kultura pucharów lejkowych, która sięgała Jutlandii, Skandynawii, Niemiec, Polski, Holandii aż po Wołyń i Podole. Jej charakterystycznymi zabytki są naczynia z brzuścem baniastym i szeroko rozchylonym kołnierzem. Druga zaś to skandynawska odmiana znanej i z terenu Polski kultury ceramiki sznurowej. Znajdowała się ona pod silnym wpływem kultury grobów jamowych. Z czasem kultura pucharów lejkowych została wyparta przez kulturę grobów jamowych, jednak we wschodniej części południowej Skandynawii proces ten zajął setki lat i w tym czasie dochodziło do wymiany kulturowej. W językach duńskim, angielskim i niemieckim – językach germańskich – znajdziemy słowa, któe nie pasują do słownictwa indoeuropejskiego. Analizy lingwistyczne takich wyrazów jak „jesiotr”, „krewetka”, „groch”, „rzepa”, „fasola” pokazują, że nie można ich wywieść z języka protoindoeuropejskiego – wyjaśnia lingwista Guus Kroonen. To pokazuje, że musiały one trafić do języka indoeuropejskiego już po tym, jak rozprzestrzenił się on po Europie. Najprawdopodobniej skandynawska odmiana kultury ceramiki sznurowej zaadoptowała terminologię rolniczą i łowiecką od kultury pucharów lejkowych. Gdy na terenie Europy Północnej język indoeuropejski wyewoluował w pragermański, zachowana została lokalna terminologia na określenie flory i fauny, dodaje uczony. Zdaniem Kroonena terminologia rolnicza mogła zaś zostać wprowadzona wraz z wymarłym językiem przyniesionym do Europy przez rolników z Anatolii, którzy migrowali na tutejsze tereny na kilka tysięcy lat przed przedstawicielami kultury grobów jamowych. « powrót do artykułu
  25. Przez ostatnich 540 milionów lat Ziemia doświadczyła 5 okresów masowego wymierania. Z każdym z nich związane było odwrócenie cyklu węglowego, w ramach którego węgiel z atmosfery trafia do oceanów. Proces odwrócenia cyklu węglowego może rozpoczynać się przez tysiące lub miliony lat. Ale za każdym razem zbiegał się on czasowo z masowym wymieraniem gatunków. Profesor geofizyki Daniel Rothman z MIT-u szczegółowo badał wymieranie permskie, największe wymieranie w dziejach Ziemi, które doprowadziło do zagłady 95% gatunków morskich. W czasie tych i wcześniejszych badań uczony stwierdził, że do masowego wymierania dochodzi, gdy zostaje spełniony jeden z dwóch warunków. Gdy mamy do czynienia z bardzo wolnymi zmianami cyklu obiegu węgla do wymierania dochodzi, gdy zmiany te przebiegają szybciej niż możliwości adaptacyjne ekosystemu. Gdy zaś zaburzenia obiegu węgla zachodzą szybko, nie jest ważne tempo zmian, a ich wielkość. Podczas dyskusji z innymi specjalistami w tej dziedzinie naukowcowi podsunięto pomysł, by zbadał prawdopodobieństwo wystąpienia szóstego wymierania. Tutaj narodziło się poważne pytanie. Jak można porówna wielkie wydarzenia z geologicznej przeszłości, które miały miejsce w bardzo długich ramach czasowych, z tym, co dzieje się obecnie, a co ma miejsce w ciągu ostatnich kilku wieków, mówi Rothman. Uczony stworzył prostą formułę matematyczną, która brała pod uwagę tempo i wielkość zmian oraz ich ramy czasowe. Za jej pomocą badał, jakie jest prawdopodobieństwo wystąpienia szóstego masowego wymierania. Na potrzeby swych badań uczony zidentyfikował 31 znaczących wydarzeń, które w ciągu 542 milionów lat wpłynęły na zaburzenia obiegu węgla. Dla każdego z tych wydarzeń, w tym i dla tych które zapoczątkowały masowe wymierania, Rothmans odnotował zmiany stosunku izotopów węgla C-12 i C-13. Na podstawie stworzonego przez siebie wzoru wyliczał ilość węgla, która w badanych okresach trafiała do oceanów. Badał też rozległość czasowa i tempo zmian. W ten sposób dla wszystkich 31 znaczących zmian Rothman znalazł granicę, poza którą rozpoczyna się masowe wymieranie. Aż 26 takich znaczących zmian w obiegu węgla nie miało większego wpływu na życie na Ziemi, cztery z nich przekroczyły wspomnianą granicę i rozpoczęło się masowe wymieranie, w przypadku zaś wymierania permskiego granica została znacząco przekroczona. Bardziej szczegółowe badania ujawniły, że krytyczną rolę w nadchodzącym wymieraniu odgrywa zakłócenie cyklu fotosyntezy i oddychania. Normalnie w cyklu ten istnieje pewnie 'wyciek', w wyniku którego w atmosferze pojawia się dodatkowy węgiel. Jest on wchłaniany przez oceany i z czasem składowany w nich w formie osadów. Jednak każda dodatkowa ilość węgla pochodząca spoza tego naturalnego procesu może go zaburzyć. Oceany posiadają jednak pewną zdolność do przyjęcia nadmiaru węgla i do katastrofy nie dojdzie, pod warunkiem jednak, że po tego typu zakłóceniu ekosystem morski będzie w stanie powrócić do stanu równowagi po wchłonięciu dodatkowego węgla. Rothman ocenił, że obecnie skala czasowa takiego powrotu wynosi 10 000 lat. Dla krótszych cykli emisji dodatkowego węgla nie jest istotne tempo zmian, a ogólna masa dodanego węgla. Na podstawie badań, zebranych danych oraz stworzonego wzoru Rothman wyliczył, że obecnie krytyczna masa dodatkowego węgla wynosi około 310 gigaton. Swoje wyliczenia porównał następnie z najnowszym raportem IPCC (Intergovernmental Panel of Climate Change), w którym zarysowano cztery scenariusze rozwoju sytuacji do roku 2100. Najbardziej optymistyczny ze scenariuszy mówi, że do końca wieku ludzkość doda do oceanów 300 gigaton węgla. Według najbardziej pesymistycznego – będzie to ponad 500 gigaton. Wszystko wskazuje więc na to, że do końca wieku albo znajdziemy się o krok od potencjalnego początku zmian prowadzących do szóstego wymierania, albo też znacznie przekroczymy próg bezpieczeństwa. Rothman mówi, że proces rozpoczynający wymieranie może trwać około 10 000 lat. Nie wiadomo, czy się ono rozpocznie, ale wszystko wskazuje na to, że po roku 2100 ludzkość może wkroczyć na zupełnie nieznane terytorium. To nie oznacza, że następnego dnia rozpocznie się katastrofa. To oznacza jednak, że jeśli nic z tym nie zrobimy, to cykl obiegu węgla może zostać zdestabilizowany i wydarzenia mogą potoczyć się w sposób nieprzewidywalny. W przeszłości zjawiska takie wiązały się z masowymi wymieraniami. Ta praca pokazuje, dlaczego musimy być ostrożni i dlaczego powinniśmy badać przeszłość, by poznać teraźniejszość, powiedział Rothmans. « powrót do artykułu
×
×
  • Dodaj nową pozycję...