Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Psycholodzy z Uniwersytetu w Toronto zmierzyli zmianę w wadze in plus oraz in minus, po której inni ludzie uznają, że ktoś wygląda zdrowiej i bardziej atrakcyjnie. Kobiety i mężczyźni przeciętnego wzrostu muszą przytyć lub schudnąć ok. 3,5-4 kg (lub 8-9 funtów), by to było widać na twarzy, ale muszą zrzucić mniej więcej dwa razy tyle, by ludzie wspominali o wzroście atrakcyjności - opowiada prof. Nicholas Rule. Rule i dr Daniel Re przyglądali się otłuszczeniu twarzy (postrzeganiu wagi na podstawie wyglądu twarzy), bo to dokładny wskaźnik czyjegoś wskaźnika masy ciała (BMI). To świetny wskaźnik czyjegoś zdrowia. Zwiększone otłuszczenie twarzy wiąże się z upośledzeniem układu odpornościowego, słabym funkcjonowaniem sercowo-naczyniowym, częstymi zakażeniami dróg oddechowych i śmiertelnością, dlatego nawet niewielkie jego zmniejszenie poprawi stan danej osoby - podkreśla Rule. Na potrzeby eksperymentu Kanadyjczycy stworzyli serie cyfrowych zdjęć kobiet i mężczyzn w wieku od 20 do 40 lat. Uwiecznione osoby miały neutralny wyraz twarzy, zaczesane do tyłu włosy i nie nosiły żadnych ozdób. Panowie zmieniali każdą fotografię w taki sposób, by uzyskać sekwencję ujęć ze wzrastającą wagą. Ochotnikom pokazywano wylosowane pary ujęć i proszono o wskazanie, która z twarzy wygląda na "cięższą". Po kilku próbach naukowcy stwierdzili, że potrzeba zmiany BMI rzędu ok. 1,33 kg/m2, by była ona zauważalna. Wyliczyliśmy próg zmiany wagi wyrażony w BMI, a nie kilogramach, dlatego ludzie każdego wzrostu i wagi mogą odnieść to do siebie [...] - wyjaśnia Re. Psychologom zależało także na ustaleniu, jak duża zmiana otłuszczenia twarzy wpłynie na postrzeganą atrakcyjność. Okazało się, że w przypadku kobiet z badanej próby przeciętny spadek BMI wymagany do wzrostu atrakcyjności wynosił 2,38 kg/m2, a w przypadku mężczyzn 2,59 kg/m2, co u osób przeciętnego wzrostu przekłada się na, odpowiednio, ok. 6,3 oraz 8,2 kg na minusie. Różnice między grupami sugerują, że atrakcyjność kobiecej twarzy może być bardziej wrażliwa na zmiany wagi. Oznacza to, że [...] kobiety muszą zrzucić nieco mniej zbędnych kilogramów niż mężczyźni, by inni ludzie zaczęli je uważać za bardziej atrakcyjne. « powrót do artykułu
  2. W Moli del Salt w hiszpańskiej Katalonii odkryto wyjątkowe dzieło sztuki. Na fragmencie łupku metamorficznego zauważono wyryty rysunek, którego wiek oceniono na 13-14 tysięcy lat. Na kawałku kamienia o wymiarach 18x8,5 centymetra widoczne są półkoliste motywy. Badający je naukowcy doszli do wniosku, że kształt i proporcje wskazują, że autor rysunku przedstawił na nim chaty. Jest to zatem najstarsze znane nam artystyczne przedstawienie osady łowców-zbieraczy. Marcos García-Diez z Uniwersytetu Kraju Basków oraz Manuel Vaquero z Katalońskiego Instytutu Paleoekologii Człowieka i Ewolucji Społecznej przeprowadzili analizę kształtów i rozmiarów widocznych linii. Wykazali formalne podobieństwo do obozowisk budowanych przez różne grupy łowców-zbieraczy, od Buszmenów z Kalahari po australijskich Aborygenów. Liczba struktur - siedem - również odpowiada typowej wielkości takiego obozowiska. Wykopaliska w Moli del Salt trwają od 1999 roku. Znajdowane są tam liczne przykłady paleolitycznej sztuki, przedstawienia zwierząt oraz figury abstrakcyjne. Uczeni mówią, że mogą być one przykładami sztuki świeckiej, w przeciwieństwie do przedstawień zwierząt, którym zwykle przypisuje się znaczenie ideologiczne czy religijne. Jeśli spojrzymy na to w ten sposób, to, jak mówi Vaquero, możemy stwierdzić, że obozowisko to przestrzenna manifestacja struktury społecznej grupy łowców-zbieraczy, a kamień z Moli del Salt może być uznane za najstarszą znaną nam reprezentację grupy społecznej. Marcos García-Diez dodaje, że analiza techniczna wykazała, iż siedem motywów powstało w krótkim czasie, za pomocą tej samej techniki i narzędzia. To sugeruje, że autor przedstawił rzeczywistość, którą miał przed oczami. « powrót do artykułu
  3. Sprawdziły się prognozy specjalistów, którzy ostrzegali, że tegoroczne El Niño będzie najsilniejszym znanym nam tego typu zjawiskiem. Już teraz widać, że jest ono silniejsze od rekordowego z lat 1997-1998. Eksperci wyciągnęli takie wnioski na podstawie kluczowego parametru, intensywności ocieplania się wód środkowego Pacyfiku. Podczas najsilniejszego znanego El Niño temperatura wody na Oceanie Spokojnym sięgnęła 26 listopada 1997 roku rekordowego poziomu 2,8 stopnia Celsjusza powyżej średniej. Tym razem jest gorzej. Już 4 listopada temperatura wody była o 2,8 stopnia Celsjusza wyższa od średniej, a 18 listopada zmierzono 3,1 stopnia Celsjusza powyżej średniej. Nigdy wcześniej nie notowano tak ciepłych wód w tym regionie. Naukowcy zajmujący się badaniem El Niño szczegółowo śledzą ewolucję tegorocznego zjawiska i chcą przekonać się, czy jego siła będzie większa od tego z lat 1997-1998. Miesięczne i tygodniowe anomalia temperaturowe na środkowym Pacyfiku jasno wskazują, że siła tegorocznego El Niño jest większa - mówi Axel Timmerman z University of Hawaii. Temperatury wody w środkowej części Pacyfiku mają największy wpływ na globalną cyrkulację atmosferyczną, a co za tym idzie, na globalną pogodę - wyjaśnia uczony. Timmerman i jego koledzy już w 2013 roku udowodnili, że w ciągu ostatnich dekad siła El Niño rośnie i jest ona największa od 400 lat. Wykazali też, że w związku ze zmianą klimatu ekstremalne El Niño będzie miało miejsce znacznie częściej niż dotychczas. Niezależne badania przeprowadzone przez Scotta Powera i zespół z Australijskiego Biura Meteorologicznego dowodzą, że z powodu zmian klimatycznych susze, opady i powodzie powodowane przez El Niño będą miały bardziej katastrofalne skutki. El Niño to nieregularna anomalia pogodowa, w czasie której w strefie równikowej Pacyfiku temperatury powierzchni wód są nieprzeciętnie wysokie. Pojawienie się El Niño powoduje, że w jednych częściach świata dochodzi do susz, a w innych do intensywnych opadów. Już teraz można stwierdzić, że El Niño jest jednym z czynników, dla których bieżący rok jest rekordowo gorący. W Indiach 2000 osób zmarło z powodu fali upałów wywołanych opóźniającym się monsunem, to jeden ze skutków tegorocznego El Niño. Obecnie, już po przybyciu monsunu, mają tam miejsce niespotykanie intensywne opady. Południowe Indie doświadczają bardzo intensywnych opadów, a przecież zbliża się zima. Dzieje się tak tylko w czasie szczególnie silnych El Niño, co potwierdza, że tegoroczne zjawisko jest wyjątkowo potężne - mówi Wenju Cai z australijskiego CSIRO. Niewykluczone też, że to El Nino jest częściowo odpowiedzialne za rekordowe pożary w Indonezji, gdyż notuje się tam zmniejszone opady. Z kolei na niektórych wyspach Pacyfiku zaobserwowano tak duży spadek poziomu wód, że odsłonięte zostały rafy koralowe. Samoańczycy nazywają takie zjawisko Taimasa czyli "śmierdzące rafy". O dużym szczęściu mogą mówić Australijczycy. Ich kraj uniknie najgorszych skutków El Niño gdyż zanika Dipol Oceanu Indyjskiego, nieregularna oscylacja temperaturowa na Oceanie Indyjskim, która zwykle intensyfikuje El Nino. Z tego też powodu Peru i Ekwador prawdopodobnie mniej intensywnie odczują tegoroczne El Niño. Timmerman mówi, że skutki obecnego El Niño dopiero odczujemy. Nikt jednak nie wie, co ono ze sobą przyniesie. Nie jest na przykład jasne, czy cierpiąca z powodu wieloletniej suszy Kalifornia będzie mogła liczyć an opady. A może będą one bardzo intensywne i przyniosą ze sobą powodzie? Obecnie modele przewidują, że rosną szanse na opady w Kalifornii. Nawet gdy El Niño się skończy nie będzie powodów do świętowania. Prawdopodobnie jest bowiem, że nadejdzie wyjątkowo silna La Niña. « powrót do artykułu
  4. W ramach najnowszych badań wykazano, w jaki sposób drapieżne bakterie z rodzaju Bdellovibrio chronią się podczas ataku przed własną bronią. Bdellovibrio bacteriovorus to Gram-ujemna bakteria, która żywi się protoplastem innych bakterii Gram-ujemnych, w tym ważnych patogenów ludzi, zwierząt i roślin uprawnych. Atakuje je za pomocą enzymów zwanych DD-endopeptydazami (ang. DD-endopeptidases), które najpierw poluzowują błonę komórkową ofiar, a później nadają im rozdęty kształt, tworząc tymczasowy dom dla myśliwego. Ponieważ Bdellovibrio ma podobne ściany komórkowe, pozostawało tajemnicą, jak zabezpiecza się przed własną bronią. Okazało się, że Bdellovibrio wykorzystuje jako tarczę ankyrinopodobne białko Bd3460. Wiąże się ono z "wierzchołkami" enzymu, blokując jego działanie do momentu bezpiecznego uwolnienia do atakowanej bakterii. Doktorzy Andrew Lovering oraz Ian Cadby z Uniwersytetu w Birmingham zastosowali rentgenografię strukturalną i w ten sposób rozszyfrowali budowę Bd3460. Stwierdzili, że na czas dezaktywacji białko wiąże się z dwiema DD-endopeptydazami. Carey Lambert, Rob Till i profesor Liz Sockett Uniwersytetu Nottingham potwierdzili funkcję Bd3460, usuwając gen odpowiedzialny za jego produkcję. Po delecji genu białka Bd3460 Bdellovibrio nie miała jak się chronić przed własną bronią. Kiedy atakowała szkodliwe bakterie za pomocą swoich uszkadzających ścianę komórkową enzymów, także odczuwała skutki. Bdellovibrio pozbawione genu bd4369 próbowały atakować ofiary, ale nagle puszyły się jak rozdymki i nie mogły dokończyć inwazji - większa komórka napastnika nie była w stanie dostać się do [mniejszej] komórki ofiary - opowiada Sockett. Jeśli chcemy wykorzystać Bdellovibrio w celach terapeutycznych, musimy zrozumieć mechanizmy leżące u podłoża zabijania ofiary i upewnić się, że żadne ochronne geny nie mogą zostać przekazane patogenom, prowadząc do ich oporności - dodaje Lovering. Lambert i Sockett wykazali, że w przypadku bd3460 jest to niemożliwe. « powrót do artykułu
  5. Nowe badania sugerują, że Słońce jest zdolne do wyemitowania superrozbłysku. Grupa naukowców pracująca pod kierunkiem uczonych z University of Warwick zaobserwowała pozasłoneczny superrozbłysk o wzorcu podobnym do rozbłysków słonecznych. Superrozbłyski są tysiące razy potężniejsze od rozbłysków i często są obserwowane na innych gwiazdach. Odkryta przez Teleskop Keplera KIC9655129 jest znana z emisji superrozbłysków. Teraz naukowcy, którzy obserwowali tę gwiazdę sugerują, że podobieństwa pomiędzy zaobserwowanym na niej superrozbłyskiem, a rozbłyskami słonecznymi mogą wskazywać na ten sam mechanizm powstawania takich zjawisk. To zaś sugeruje, że na Słońcu również może dochodzić do superrozbłysków. Typowe rozbłyski słoneczne mają energię podobną do tej, jaka zostałaby uwolniona podczas eksplozji bomby o mocy 100 milionów megaton. Wyemitowany ze Słońca superrozbłysk mógłby być 10-krotnie silniejszy. Gdyby taki rozbłysk został skierowany w stronę Ziemi miałoby to katastrofalne skutki. Systemy GPS i komunikacji radiowej zostałyby uszkodzone, doszłoby do zniszczeń sieci energetycznych spowodowanych indukcją prądu. Na szczęście - opierając sie na dotychczasowych obserwacjach Słońca - możemy stwierdzić, że pojawienie się superrozbłysku na Słońcu jest niezwykle mało prawdopodobne - mówi Chloe Pugh, szefowa grupy badawczej z University of Warwick. Podczas rozbłysku zwykle obserwujemy gwałtowny wzrost intensywności, a następnie stopniowy jej spadek. Zwykle spadek przebiega liniowo, czasem jednak dochodzi do widocznych skoków zwanych pulsacjami quasi-okresowymi (QPP). Wykorzystaliśmy techniki zwane analizą falek i modelowaniem Monte Carlo do zbadania okresu i istotności statystycznej QPP. Gdy dopasowaliśmy model do krzywej światła rozbłysku mogliśmy opisać dwie fazy spadku i dwie okresowości. Okresowości trwały 78 i 32 minuty. Ich właściwości, takie jak np. czas rozpadu, wskazują, że są niezależne. Najbardziej prawdopodobnym wyjaśnieniem istnienia dwóch niezależnych okresowości jest przyjęcie, że QPP są powodowane przez oscylacje magnetohydrodynamiczne, które często obserwuje się w rozbłyskach słonecznych. To zaś wskazuje, że ten sam proces fizyczny bierze udział w powstawaniu rozbłysków słonecznych i superrozbłysków gwiezdnych. To zaś potwierdza hipotezę, że Słońce może emitować potężne niszczące rozbłyski - mówi doktor Anne-Marie Broomhall. « powrót do artykułu
  6. Rolnicy, którzy wykorzystują pestycydy oszczędzające pszczoły (Apiformes), lecz zabijające inne owady, mogą ignorować ważną grupę zapylaczy - twierdzi międzynarodowy zespół naukowców. Jego pracami kierowała dr Romina Rader z Uniwersytetu Nowej Anglii. Dr Margie Mayfield z Uniwersytetu Queensland podkreśla, że wiele roślin uprawnych, w tym mango, kiwi, kawa czy rzepak, polega na zapylaczach innych niż pszczoły, takich jak motyle, ćmy, chrząszcze, osy, mrówki lub wciornastki. Naukowcy nie badali szerzej roli zapylaczy innych niż pszczoły w zapylaniu roślin uprawnych. Globalne poleganie na pszczołach miodnych to ryzykowna strategia, zważywszy na czyhające na hodowlane populacje zagrożenia zdrowotne, np. [wywoływaną przez pajęczaki Varroa destructor] warrorozę czy zespół masowego ginięcia pszczoły miodnej [ang. colony collapse disorder, CCD]. Zapylacze inne niż pszczoły to ubezpieczenie od spadku liczebności pszczół. Autorzy publikacji z pisma PNAS przeprowadzili 39 badań terenowych, które dotyczyły 17 roślin uprawnych z 5 kontynentów. Okazało się, że choć niepszczoły są mniej skutecznymi zapylaczami w przeliczeniu na liczbę odwiedzonych kwiatów, odwiedzają nieco więcej kwiatów. Taka kompensacja skutkuje usługami zapylającymi podobnej jakości jak w przypadku pszczół - opowiada dr Rader, wspominając o dwóch dodatkowych korzyściach. Po pierwsze, zawiązywanie owoców nasilało się przy wizytach zapylaczy innych niż pszczoły, niezależnie od wskaźnika wizyt pszczół [...]. Po drugie, te pierwsze okazały się mniej wrażliwe na fragmentację habitatu. « powrót do artykułu
  7. Tlenek grafenu można wykorzystać do uzyskania bardziej wytrzymałych plomb. Typowe wypełnienia amalgamatowe podlegają korozji, a kompozytowe nie są wystarczająco wytrzymałe. Ponieważ grafen jest 200 razy bardziej wytrzymały od stali i nie koroduje, wydaje się świetnym kandydatem do wykorzystania w plombach. W ramach studium rumuńsko-amerykański zespół sprawdzał, czy różne związki grafenu są toksyczne dla zębów. Ideą projektu było dodanie grafenu do materiałów stomatologicznych, by zwiększyć ich oporność na korozję, a także poprawić ich właściwości mechaniczne. Istnieją sprzeczne informacje nt. cytotoksyczności grafenu, chcieliśmy więc określić, jak bardzo jest on toksyczny dla zębów - wyjaśnia dr Stela Pruneanu z rumuńskiego Narodowego Instytutu Badania i Rozwoju Technologii Izotopowych i Molekularnych. Naukowcy sprawdzali, jak tlenek grafenu, grafen domieszkowany azotem czy termicznie zredukowany tlenek grafenu wpływają w warunkach in vitro na komórki macierzyste z zębów. Okazało się, że zredukowany tlenek grafenu jest wysoce toksyczny i nie nadaje się do wypełnień stomatologicznych. W wysokich dawkach (20 i 40 mikrogramów na mililitr) grafen domieszkowany azotem uszkadza błony, dałoby się więc go wykorzystać po uwzględnieniu ochronnej powłoki. Najmniej toksyczny był tlenek grafenu. Kolejnym krokiem zespołu ma być wyprodukowanie materiału stomatologicznego z tlenkiem grafenu, przetestowanie jego kompatybilności z zębami i ponowna ocena cytotoksyczności. Wyniki tych badań mają się ukazać już niebawem. « powrót do artykułu
  8. Dwoje studentów z Duńskiego Uniwersytetu Technicznego opracowało metodę wykrywania i zliczania najdrobniejszego nawet mikroplastiku. Wykorzystując system filtracyjny na rurze rufowej statku badawczego Dana, Robin Lenz i Kristina Enders zbierali mikrofragmenty tworzyw sztucznych na trasie z północnej Danii, przez Atlantyk, do Morza Sargassowego i z powrotem. To pierwszy raz, kiedy przeprowadzono zliczanie porównawcze niemal niewidzialnego mikroplastiku. Odkrywaliśmy mikroplastik wszędzie wzdłuż trasy o długości 10 tys. km - podkreśla prof. Torkel Gissel Nielsen. Ekspedycja pokonywała różne obszary: strefy przybrzeżne, otwarte wody czy wiry Morza Sargassowego (tzw. gyres). Najwięcej mikroplastiku występowało blisko brzegu, np. w Kanale la Manche czy na Azorach, oraz w wirach Morza Sargassowego. Choć płynąc przez duże obszary z wirami (tzw. gyres), stwierdziliśmy, że akumulują się tam zarówno makro-, jak i mikroplastiki i co chwilę widzieliśmy unoszące się na wodzie kawałki tworzyw sztucznych, nie nazwalibyśmy ich wyspami śmieci. Mikroplastik - od 13 do 501 cząstek na metr sześcienny wody - odkryliśmy we wszystkich próbkach [...] - opowiada Enders. O ile tradycyjne sieci do badania objętości odpadów plastikowych wychwytują zazwyczaj fragmenty większe niż 300-µmz powierzchni morza, o tyle metoda z Duńskiego Uniwersytetu Technologicznego pozwala podczas żeglowania statkiem zbierać z głębokości do 5 m mikroplastik o wielkości do 10-100 µm. Istnieją fundamentalne różnice w dystrybucji małych i dużych mikroplastików. Nasze wyliczenia pokazują, że im drobniejsze mikroodpady, tym bardziej są one rozproszone w wodzie, również na głębokość, tak że większe kawałki znajdują się na powierzchni, a mniejsze niżej w kolumnie wody - opowiada Enders. Połowa cząstek i włókien mikroplastiku (polietylen i polipropylen) waży mniej niż woda, dlatego dłużej utrzymuje się na powierzchni. Duńczycy oceniali też skuteczność identyfikacji zebranego materiału za pomocą różnych metod. Prowadzono zliczanie pod mikroskopem i spektroskopię Ramana. Jak ujawnia prof. Robin Lenz, mikroplastikiem okazało się tylko nieco ponad 60% cząstek o wymiarach 10-100 µm. Nasze eksperymenty pokazały, że wzrokowa klasyfikacja sprawdza się tylko dla mikroodpadów o gabarytach większych niż 100 µm. Przy mniejszych parametrach trudno zobaczyć strukturę i zdecydować, czy to kawałek minerału, piasek, materiał organiczny czy polimer. Co istotne, naukowcy nie znaleźli takich ilości polimerów, jakich należałoby się spodziewać na podstawie dotychczasowej wiedzy. Coś tu się nie zgadza, jeśli prawdą jest to, czego uczono nas w szkole, że trzeba ok. 20 lat, by plastiki się rozłożyły. Wiele [rzeczy] sugeruje, że wszystko zależy od warunków i że w morzu zachodzą procesy, których nie umiemy wyjaśnić, np. że polimery rozkładają się do mikrocząstek i ulegają zmieszaniu z głębokimi wodami [...] - mówi Lenz. Problem polega na tym, że wiemy, że czegoś powinno być więcej, ale nie wiemy, co się z tym dzieje - podsumowuje prof. Nielsen. « powrót do artykułu
  9. Rodzimi mieszkańcy Hawajów odnieśli znaczące zwycięstwo. Stanowy Sąd Najwyższy orzekł, że zgoda na budowę na Mauna Kea TMT (Thirty Meter Telescope), największego teleskopu świata, została wydana z naruszeniem prawa. Stanowa rada planowania przestrzennego wydała bowiem zgodę zanim rozpatrzyła wszystkie sprzeciwy. Mówiąc prost, rada postawiła powóz przed koniem wydając zgodę zanim wysłuchała wszystkich głosów sprzeciwu. W takiej sytuacji zgoda nie jest ważna - uznał Mark Recktenwald. Tym samym Sąd Najwyższy uchylił wyrok sądu niższej instancji, którzy nie dopatrzył się nieprawidłowości. Teraz, aby kontynuować budowę TMT, należy postarać się o nowe zezwolenie. Mauna Kea to dla Hawajczyków święta góra. Wierzą oni, że szczyt został stworzony przez bogów, by dusze zmarłych miały którędy wędrować do nieba. Od lat 60. ubiegłego wieku rdzenni mieszkańcy Hawajów sprzeciwiają się budowie na szczycie kolejnych teleskopów. Walka o TMT trwała przez 7 lat. W końcu wydano zgodę na budowę urządzenia. W związku z tym przeciwnicy budowy teleskopu wnieśli sprawę do sądu. « powrót do artykułu
  10. Microsoft stał się ponownie gwiazdą giełdy. Strategia przyjęta przez Satyę Nadellę spowodowała wzrost zainteresowania akcjami koncernu z Redmond. Tylko w bieżącym roku ich cena wzrosła o 18%. To znacznie więcej niż średnia dla całego rynku oraz więcej niż wzrost akcji Apple'a, Oracle'a czy IBM-a. Co więcej, od kiedy w lutym 2014 roku Nadella przejął obowiązki dyrektora wykonawczego akcje Microsoftu zdrożały o 60%, czyli dwukrotnie więcej niż wzrost indeksu Nasdaq. Cena akcji Microsoftu wynosi obecnie 55,21 USD. To zaledwie o kilka procent mniej niż rekordowa cena z grudnia 1999 roku, gdy sprzedawano je po 58,38 USD. Rynkowa kapitalizacja firmy to obecnie 441 miliardów dolarów. Niewykluczone zatem, że akcje koncernu pobiją rekord cenowy z czasów rządu współzałożyciela Microsoftu Billa Gatesa. Oczywiście w tej chwili przesądzanie o tym, że Nadella jest lepszym szefem niż Gates jest przedwczesne. Na takie porównania będzie sobie można pozwolić za wiele lat. Analitycy chwalą Nadellę za położenie nacisku na rozwój produktów w chmurach takich jak Office 360 czy Azure. Skoncentrowany na chmurze jest też Windows 10, bardzo dobrym ruchem było też zaoferowanie bezpłatnego systemu operacyjnego. Specjaliści zwracają uwagę, że pod rządami Nadelli Microsoft przywiązuje znacznie większa wagę do opinii konsumentów i analityków. Ma się poczucie, że Microsoft Nadelli jest znacznie bardziej przejrzysty. Ma on inny mniej agresywny styl zarządzania - mówi Eric Schoenstein jeden z menedżerów portfolio aktywów funduszu Jensen Quality Growth. Co prawda przychody Microsoftu ostatnio spadają, ale ma to związek z odchodzeniem od starego modelu i porządkowaniem firmy. W ramach robienia porządków koncern np. wpisał w straty 7,5 miliarda dolarów, jakie wydał na przejęcie wydziału telefonów Nokii. Ponadto Microsoft ponosi duże koszty związane z masowymi zwolnieniami po przejęciu Nokii. W bieżącym roku prace straciło 7800 osób, którym trzeba było wypłacić sowite odprawy. Jednak mimo spadających przychodów zyski firmy rosną. Dobra giełdowa passa Microsoftu może jednak obrócić się przeciwko firmie. Rosną bowiem oczekiwania zarówno co do firmy jak i Nadelli, a im wyższe będą te oczekiwania tym trudniej będzie im sprostać i w końcu wzrosty cen akcji mogą nie być tak duże, jak chcieliby inwestorzy. Ponadto niektórzy analitycy już wydają rekomendację, by wstrzymać się z zakupem akcji koncernu. Ich zdaniem są one zbyt drogie. Obawiają się oni, że spowolnienie na rynku pecetów przełoży się na spowolnienie wzrostu przychodów Microsoftu. David Bahnsen, dyrektor w HighTower Advisors mówi, że jego firma pozbyła się akcji Microsoftu. Stały się dla nas zbyt drogie. teraz byśmy ich nie kupili. Pieniądze ze sprzedaży papierów Microsoftu zainwestowano w akcje Intela, które mogą przynieść w przyszłym roku lepszy zysk. Wielu inwestorów przypomina jednak, że gdy na rynku technologicznym jakaś firma złapie wiatr w żagle, to przez długi czas może cieszyć się dużymi wzrostemi. Dlatego też nie pozbywają się akcji Microsoftu. « powrót do artykułu
  11. Akcje Yahoo! zdrożały niemal o 6% po tym, jak zarząd firmy zebrał się by omówić ewentualne pozbycie się niemal wszystkich aktywów internetowych. Rozpoczęte wczoraj spotkanie potrwa do piątku. Mimo, że na razie nie przyniosło żadnych rozstrzygnięć dowodzi ono, że strategia Marissy Mayer, która miała uratować Yahoo!, nie przyniosła oczekiwanych efektów. Obecnie rynkowa kapitalizacja Yahoo! wynosi około 34 miliardów dolarów. Niemal cała ta kwota przypada na 15-procentowe udziały w Alibabie oraz na Yahoo! Japan. Wydzielenie Alibaby byłoby ruchem, który mógłby przynieść największe korzyści finansowe, jednak wiązałoby się z koniecznością zapłacenia dużego podatku. Dlatego też rozważane jest pozbycie się mniej wartościowych elementów Yahoo!. Analitycy uważają, że gdyby sprzedano pocztę Yahoo!, samo Yahoo!, witrynę Tumblr oraz usługi mobilne to można by uzyskać kwotę od 2 do 8 miliardów dolarów. Jeśli taka decyzja zostanie podjęta, to z obecnego Yahoo! pozostaną jedynie udziały w Alibabie oraz Yahoo! Japan. Dziennikarze Wall Street Journal twierdzą, że zainteresowane zakupem wymienionych wcześniej części Yahoo! mogłyby być Verizon oraz InterActiveCorp. Źródło z Verizona twierdzi jednak, że obecnie nie są prowadzone żadne rozmowy dotyczące tej kwestii. Yahoo! od wielu lat przeżywa kłopoty. W 2008 roku zainteresowany zakupem firmy był Microsoft. Koncernowi nie udało się przejąć Yahoo! mimo hojnej oferty, jaką złożył. Przez kolejne lata Yahoo! zmieniało prezesów, a ci nie mieli pomysłu na firmę. W 2012 roku na fotel prezesa powołano gwiazdę Google'a, Marissę Mayer. Wdrożyła ona nową strategię, która jednak, jak widzimy, nie dała żadnych rezultatów. « powrót do artykułu
  12. Naukowcy z Uniwersytetu Stanowego Północnej Karoliny (NC State) potwierdzili, że przypominające naczynia krwionośne struktury, które znaleziono w skamieniałości hadrozaura sprzed 80 mln lat, naprawdę należały do zwierzęcia. Wg nich, to nie biofilm czy zanieczyszczenia. Ustalenia amerykańskich paleontologów dołączają do coraz większej liczby dowodów, które wskazują, że takie struktury jak naczynia krwionośne czy komórki mogą przetrwać miliony lat. Paleontolog molekularny Tom Cleland, obecnie pracownik Uniwersytetu Teksańskiego w Austin, rozpoczął badania jeszcze jako student NC State. Zdemineralizował fragment kości z nogi Brachylophosaurus canadensis - nieco ponad 9-m dinozaura, który zamieszkiwał dzisiejszą Montanę ok. 80 mln lat temu. Pozostałe po zabiegu struktury przypominały naczynia pod względem położenia, morfologii, elastyczności i przezroczystości. Podczas spektroskopii mas z widmem wysokiej rozdzielczości znaleziono kilka unikatowych białek z komórek naczyń, w tym miozynę związaną z mięśniami gładkimi ścian naczyń. Naukowcy potwierdzili uzyskane wyniki, powtarzając ten sam proces z kośćmi współczesnych archozaurów: kur i strusi. Zarówno w prehistorycznych, jak i współczesnych próbkach sekwencje peptydowe pasowały do tych występujących w naczyniach. Nie stwierdzono zgodności z peptydami bakterii, śluzowców czy grzybów. Za pomocą tej samej metodologii walidowano wcześniejsze doniesienia nt. sekwencji. Gdy wyekstrahowano tylko naczynia, udało się też uzyskać nowe sekwencje. To badanie jest pierwszą bezpośrednią analizą naczyń krwionośnych wymarłego organizmu i pozwala ustalić, jakie rodzaje białek i tkanek mogą przetrwać i jakim przemianom ulegają podczas fosylizacji. Paleoproteomika to trudne zadanie. Wymaga od nas myślenia, jak poprzeć nasze konkluzje dowodami innego rodzaju - dodaje dr Elena Schroeter. Wg Mary Schweitzer, zyskujemy wgląd nie tylko w to, jak białka zmieniają się na przestrzeni 80 mln lat. [...] Możemy też sprawdzić, jak te zwierzęta przystosowały się do swojego środowiska za życia. « powrót do artykułu
  13. Należąca do Western Digital HGST poinformowała o stworzeniu dysku UltraStar He10. To pierwsze wypełnione helem dyski o pojemności 8 i 10 terabajtów. Urządzenia korzystają z technologii zapisu równoległego, interfejsu SATA 6Gbps lub SAS 12Gbps, 256 megabajtów cache'u, a ich prędkość obrotowa wynosi 7200 rpm. Dyski objęte są 5-letnią gwarancją, a wskaźnik MTBF wynosi 2,5 miliona godzin. Model o pojemności 10 TB charakteryzuje prędkość transferu danych d0 249 MB/s, średni czas odczytu danych do 8 ms, a zapisu - 8,6 ms. Nowymi dyskami jest już zainteresowany Netlix. Firma zbudowała własną sieć dostarczania klientom treści i ma nadzieję, ze 10-terabajtowe dyski umożliwią jej szybko i łatwą rozbudowę oraz umożliwią streaming do większej liczby klientów. Byliśmy pierwszymi, którzy zorientowali się, jakie korzyści niosą ze sobą dyski wypełnione helem. UltraStar He10 to trzecia generacja rodziny HelioSeal, mówi David Fullagar, odpowiedzialny w Netfliksie za architekturę dostarczającą dane. « powrót do artykułu
  14. Anonimowe źródła w Microsofcie informują, że koncern z Redmond pracuje nad własnym smartfonem o nazwie Surface. W przeciwieństwie do przejętej od Nokii Lumii ma on być od początku do końca własnym projektem Microsoftu. O urządzeniu niewiele wiadomo, poza tym, że ma zadebiutować w drugiej połowie 2016 roku. Prawdopodobnie smartfon będzie korzystał z procesorów Intela, co oznacza, że bez problemu będą działały na nim aplikacje dla Windows. Będzie to szczególnie przydatne jeśli będziemy używali adaptera Continuum. Dzięki niemu smartfon będzie pełnił rolę peceta, gdyż adapter pozwoli na podłączenie doń monitora, myszy i klawiatury. Ponadto jeśli urządzenie rzeczywiście będzie obsługiwało aplikacje Win32, to programiści i firmy tworzący oprogramowanie dla Windows nie powinni mieć najmniejszych kłopotów z pisaniem aplikacji dla smartfona. Użytkownicy telefonu powinni mieć dostęp do wszystkich lub niemal wszystkich programów stworzonych dla Windows 10. Niewykluczone, że smartfon Surface zadebiutuje mniej więcej w tym samym czasie, w którym pojawi się drugi duży zestaw poprawek dla Windows 10 nazwany roboczo Redstone. Jest on zapowiadany na lato przyszłego roku. « powrót do artykułu
  15. Chińska firma Sage Microelectronic rozpoczyna sprzedaż 2,5-calowego dysku SSD o pojemności 10 terabajtów. BlackDisk 10TB SATA 2.5" SSD charakteryzuje się najwyższą na świecie gęstością zapisu danych w swojej klasie. Przed rokiem przedsiębiorstwo zaprezentowało 5-terabajtowe urządzenie i rozpoczęło pracę na dyskiem o dwukrotnie większej pojemności. Jego ambicją było zwiększenie ilości zapisywanych danych bez zwiększania grubości urządzenia, która pozostaje na standardowym poziomie 9,5 milimetra. Nowy dysk korzysta z kości MLC NAND oraz rodzimej technologii eRAID. Nowy dysk będzie prawdopodobnie znacznie wolniejszy niż produkty konkurencji. Chińczycy dopiero w kolejnym kroku chcą zwiększyć wydajność swoich urządzeń i zastosować technologie SAS czy PCIe. « powrót do artykułu
  16. Szybko spadające ceny SSD powodują, że urządzenia te stają się coraz groźniejszą konkurencją dla tradycyjnych dysków twardych. W bieżącym roku SSD znajdą się w ponad 25% nowych laptopów. W 2017 roku ich udział w rynku wzrośnie do ponad 40%. Analitycy przewidują, że do roku 2017 różnica w cenie 1 gigabajta pojemności SSD i HDD nie będzie większa niż 11 centów. oznacza to, że 250-gibatajtowy SSD nie powinien być droższy od HDD o więcej niż 28 USD. Bieżący kwartał jest już czwartym z rzędu, w którym ceny SSD spadają o ponad 10%. Mimo tak znacznego spadku cen liczba sprzedawanych urządzeń zawiodła analityków, którzy sądzili, że urządzenia te będą się lepiej sprzedawały. Producenci i dystrybutorzy pecetów wstrzymują się z zakupami SSD gdyż sprzedaż notebooków jest mniejsza niż przewidywano. Mimo to 256-gigabajtowe SSD zbliżą się cenowo do HDD zatem w przyszłym roku zwiększy się udział SSD na rynku notebooków biznesowych - mówi Alan Chen z DRAMeXchange. Jeszcze w 2012 roku średnia cena gigabajta HDD wynosiła 9 centów, a za SSD płacono 99 centów. Od tamtej pory widoczny jest błyskawiczny spadek cen SSD. W roku 2013 gigabajt kosztował 68 centów wobec 8 centów HDD, w roku 2014 cena SDD spadła do 55 centów za gigabajt, a HDD zmniejszyła się do 7 centów. Szacunki na rok bieżący mówią o cenie 39 centów za gigabajt SSD i 6 centach za HDD. W roku 2017 za gigabajt SSD trzeba będzie zapłacić 17 centów, a cena HDD utrzyma się na poziomie 6 centów. Oznacza to, że w handlu detalicznym średnia cena 1-terabajtowego HDD wyniesie w bieżącym roku 60 USD, a SSD o tej samej pojemności będzie sprzedawany średnio za 390 dolarów. W roku 2017 cena HDD utrzyma się na tym samym poziomie, a SSD spadnie do około 170 dolarów. « powrót do artykułu
  17. Badanie obrazowe ujawniło choroby ponad 400-letnich serc ze stanowiska archeologicznego z podziemi klasztoru jakobinów w Rennes. Specjaliści z Inrap (Institut national de recherches archéologiques préventives) odsłonili w podziemiach kilka grobów z końca XVI lub początku XVII w. W kryptach możnych rodzin znaleziono m.in. 5 ołowianych urn w kształcie serca. Zespół radiologów obrazował serca za pomocą rezonansu magnetycznego (MRI) i tomografii komputerowej (CT). Choć pierwsze zdjęcia robiły wrażenie, przez wykorzystane materiały balsamacyjne nie dało się, niestety, uzyskać zbyt wielu informacji zdrowotnych. Naukowcy ostrożnie oczyścili więc serca i powtórzyli MRI i CT. Na nowych zdjęciach można już było zidentyfikować różne struktury serca, takie jak komory, zastawki i tętnice wieńcowe. Po nawodnieniu tkanek w trakcie rezonansu łatwiej było wyróżnić mięśnie serca. Tkanki zbadano też m.in. pod kątem histologicznym. Jedno serce nie wykazywało objawów choroby, w tętnicach trzech odkryto blaszki miażdżycowe, jedno zaś kiepsko się zachowało i nie mogło być poddane ocenie. Ponieważ cztery z pięciu serc dobrze się zachowały, mogliśmy dostrzec symptomy współczesnych chorób serca [...] - podkreśla dr Fatima-Zohra Mokrane ze szpitala Rangueil w Tuluzie. W czasie wykopalisk archeolodzy odkryli serce mężczyzny (na podstawie inskrypcji z urny ustalono, że był nim Toussaint Perrien, kawaler Brefeillac), które pochowano ze zmarłą później małżonką szlachcica - Louise de Quengo. W tych czasach często praktykowano pochówki z sercem męża bądź żony. Tak było w przypadku jednego z naszych serc. « powrót do artykułu
  18. Język, którego nauczymy się jako pierwszego, wpływa na sposób, w jaki mózg przetwarza kolejny poznany przez nas język. Wpływ ten jest widoczny nawet wówczas, gdy już nie potrafimy mówić w pierwotnym języku. Odkrycie dokonane przez badaczy z McGill University i Montreal Neurological Institute pokazuje, w jaki sposób pod wpływem języka tworzą się połączenia pomiędzy neuronami oraz w jaki sposób połączenia te ulegają zmianie i adaptują się pod wpływem kolejnego języka. W kanadyjskich badaniach uczestniczyły trzy grupy osób w wieku od 10 do 17 lat. Młodzi ludzie zostali podzieleni ze względu na środowisko językowe, w jakim się wychowali. Pierwsza grupa składała się z osób urodzonych i wychowanych we fracuskojęzycznych rodzinach, dla których francuski był jedynym językiem używanym w domu. Grupę drugą stanowiły osoby urodzone w Chinach, które przed osiągnięciem trzeciego roku życia zostały adoptowane przez francuskojęzyczne rodziny, przestały mówić po chińsku i od tamtej pory posługiwały się wyłącznie francuskim. Grupę trzecią stanowiły osoby dwujęzyczne, równie biegłe w chińskim co we francuskim. Badani mieli za zadanie wykonywać zadania polegające na identyfikowaniu wymyślonych przez badaczy wyrazów brzmiących tak, jakby pochodziły z języka francuskiego (np. vapagne czy chansette). Podczas rozpoznawania słów mózgi badanych były skanowane za pomocą funkcjonalnego rezonansu magnetycznego. Wszyscy młodzi ludzie równie dobrze radzili sobie z zadaniem, jednak u różnych grup aktywowały się różne obszary mózgu. W grupie pierwszej, francuskojęzycznej, która nie miała kontaktu z chińskim, aktywowały się przede wszystkim lewy dolny zakręt czołowy i przednia wyspa odpowiedzialne za przetwarzanie dźwięków związanych z językiem. Tymczasem u obu grup, które miały kontakt z chińskim - zarówno u grupy dwujęzycznej jak i u tej, która początkowo używała chińskiego, a następnie go zapomniała - aktywowały się dodatkowe obszary mózgu, szczególnie środkowy prawy zakręt czołowy, środkowa przednia kora przedczołowa oraz lewy i prawy zakręt skroniowy górny. Badania wykazały zatem, że u osób, posługujących się obecnie wyłącznie językiem francuskim, które w przeszłości używały języka chińskiego, mózg działał podobnie jak u osób dwujęzycznych. "Podczas pierwszego roku życia w ramach pierwszego etapu przystosowywania się do posługiwania się językiem, mózgi dzieci są wyjątkowo mocno nastawione na zbieranie i przechowywanie informacji dotyczących dźwięków związanych z językiem" - mówi Lara Pierce z Mcgill University. Uzyskane przez nas wyniki sugerują, że osoby wystawione we wczesnym dzieciństwie na kontakt z językiem chińskim przetwarzają język francuski w inny sposób, niż dzieci, które od początku miały kontakt wyłącznie z francuskim. Naukowcy chcą teraz zbadać, czy podobne obszary mózgu będą aktywowane w przypadku osób, które 'utraciły' i 'zyskały' języki bardziej podobne do siebie niż francuski i chiński. Osobami takimi mogą być np. ludzie mówiący w dzieciństwie po hiszpańsku, a obecnie posługujące się wyłącznie francuskim. « powrót do artykułu
  19. W ostatnich 50 latach aromat świeżych pomidorów stał się słabszy. Autorzy najnowszego raportu z pisma HortScience ustalili, że mają na to wpływ nie tylko czas zbiorów, wykorzystanie regulatorów wzrostu czy temperatura/atmosfera przechowywania, ale i powszechne praktyki kuchenne, takie jak blanszowanie. Zespół z amerykańskiego Departamentu Rolnictwa wykorzystał dojrzałe czerwone pomidory. Część z nich trzymano przez 4 dni w lodówce w temperaturze 5°C, część przez 4 dni trzymano w 20°C, a później zblanszowano, zanurzając na 5 min w wodzie o temperaturze 50°C, a resztę (grupę kontrolną) przechowywano po prostu przez 4 dni w temperaturze 20°C. Przechowywanie w lodówce lub krótkie blanszowanie [...] znacząco oddziaływało na profil związków lotnych i zmniejszało stężenie związków kluczowych dla zapachu pomidorów. Jak podkreślają Amerykanie, niska temperatura przechowywania wpływała na aromat pomidorów silniej niż blanszowanie. « powrót do artykułu
  20. Komórki nowotworowe uwalniają związek, który uruchamiając kaskadę zdarzeń, powoduje, że znajdujące się w pobliżu zdrowe komórki również przechodzą przemianę nowotworową. Amerykańscy naukowcy posłużyli się trójwymiarowym systemem kohodowli, w którym, naśladując warunki panujące w ciele, umieszczano razem komórki zdrowe i nowotworowe. Okazało się, że komórki nowotworowe produkują enzym, proteazę, który rozkłada w prawidłowych komórkach adhezyjną cząsteczkę E-kadherynę (nazywaną też uvomoruliną lub Cell-CAM120/80; jest to białko transbłonowe, które na drodze zależnej od jonów wapnia bierze udział w adhezji międzykomórkowej nabłonka). Wskutek tego na zewnątrz komórki wystaje segment E-kadheryny. Ten fragment, zwany rozpuszczalną formą E-kadheryny (sE-kadheryną), oddziałuje z receptorem czynnika wzrostu naskórka (ang. epidermal growth factor receptor, EGFR), przez co zdrowe komórki przechodzą przemianę nowotworową. Surowica dorosłych pacjentów onkologicznych zawiera wysokie stężenia sE-kadheryny. Nasze badania pokazują, że komórki guza modyfikują prawidłowe komórki nabłonka. Zaburzając ich architekturę, wykorzystują je jako wspólników, by uzyskać uławiającą progresję guza sE-kadherynę - wyjaśnia dr Pratima Patil z Uniwersytetu Delaware. Jak bakterie i wirusy, komórki nowotworowe mają potencjał zakażania prawidłowych komórek i stwarzania warunków sprzyjających rozwojowi guza - dodaje prof. Ayyappan Rajasekaran. Mając to na uwadze, w przyszłości naukowcy będą musieli ustalić, czy obniżenie stężenia sE-kadheryny u pacjentów spowolni postępy choroby i zwiększy wachlarz opcji terapeutycznych. « powrót do artykułu
  21. Naukowcy z Newcastle University wykazali, że cukrzyca typu II jest wywołana akumulacją tłuszczu w trzustce oraz że wystarczy zmniejszyć ilość tego tłuszczu o mniej niż 1 gram, by pozbyć się choroby. O odkryciu poinformował zespół profesora Roya Taylora na łamach Diabetes Care oraz podczas World Diabetes Conference w Vancouver. W badaniach uczonych z Newcastle wzięło udział 18 osób cierpiących na cukrzycę typu II oraz 9, które nie cierpiały na tę chorobę. Wszystkich pacjentów zważono, określono ilość tłuszczu w trzustce oraz reakcję na insulinę przed i po operacji bariatrycznej. Pacjenci z cukrzycą cierpieli na tę chorobę nie dłużej niż 15 lat, średnio od diagnozy minęło u nich 6,9 roku. U pacjentów tych stwierdzono zwiększony poziom tłuszczu w trzustce. Wszyscy uczestnicy badań byli z powodu otyłości zakwalifikowano do operacji bariatrycznej. Pacjenci z cukrzycą po operacji przestali zażywać leki. Gdy uczestników badań zważono 8 tygodni po operacji okazało się, że obie grupy straciły na wadze średnio około 13%. Jednak, co najważniejsze, u osób, które nie cierpiały na cukrzycę ilość tłuszczu w trzustce pozostała bez zmian, zmniejszyła się natomiast u cukrzyków i powróciła do normy. Ubytek tłuszczu spowodował, że trzustka prawidłowo produkowała insulinę. Choroba u cukrzyków się cofnęła. Osoby z cukrzycą typu II powinny schudnąć, dzięki czemu pozbędą się tłuszczu z trzustki i zacznie ona prawidłowo funkcjonować. Jeśli zapytacie, jak wiele tłuszczu trzeba się pozbyć, odpowiedź brzmi - 1 gram. Jednak to jeden gram tłuszczu z trzustki. Obecnie jedynym sposobem, by się go pozbyć, jest ograniczenie liczby przyjmowanych kalorii. Szczegółowe badania za pomocą nowo opracowanej metody, w której używano rezonansu magnetycznego, pozwoliły stwierdzić, że w ciągu 8 tygodni cukrzycy pozbyli się 1,2% tłuszczu z trzustki. Jako, że średnio występowało u nich 50 mililitrów tłuszczu, oznacza to ubytek 0,6 grama. Co ciekawe, u osób nie cierpiących na cukrzycę poziom tłuszczu w trzustce nie uległ zmianie. To sugeruje, że wzrost ilości tłuszczu w tym organie jest cechą charakterystyczną osób, u których rozwija się cukrzyca typu II. Istnieją też osobnicze różnice co do ilości tłuszczu tolerowanej przed rozwinięciem się choroby. Nasze nowe badania pokazują, że zmiana ilości tłuszczu w trzustce ma związek z cukrzycą typu II. Zmniejszenie się jego ilości nie jest związane z chudnięciem. To nie jest zjawisko, które występuje u każdej osoby. Jest ono specyficzne dla cukrzycy typu II. Interesujący jest fakt, że niezależnie od wagi ciała i sposobu jej utraty krytycznym czynnikiem pozwalającym na pozbycie się cukrzycy typu II jest utrata 1 grama tłuszczu z trzustki, dodaje uczony. « powrót do artykułu
  22. Na południowym zachodzie Chin odkryto skamieniałości endokarpu brzoskwiń sprzed ponad 2,5 mln lat. Paleontolodzy podkreślają, że choć wiekowy, endokarp (cienka warstwa owocni, która drewnieje, tworząc pestkę) bardzo przypomina swój współczesny odpowiednik. Odkrycia, opublikowane na łamach pisma Scientific Reports, sugerują, że brzoskwinie wyewoluowały na drodze doboru naturalnego na długo przed udomowieniem przez człowieka. To pierwszy przypadek, kiedy udało się znaleźć sfosylizowane brzoskwinie. Brzoskwinia stanowi ważną część ludzkiej historii, dlatego powinniśmy zrozumieć, jak stała się tym, czym jest dziś. Gdy znamy źródła/korzenie naszych zasobów, możemy je lepiej wykorzystać - podkreśla prof. Peter Wilf, paleobotanik z Uniwersytetu Stanowego Pensylwanii. Prof. Tao Su z Ogrodu Tropikalnego Xishuangbanna odkrył skamieniałości w pobliżu swojego domu w Kunming w południowo-zachodnich Chinach, gdy podczas prac drogowych odsłonięto wychodnię skalną z późnego pliocenu. Uważa się, że brzoskwinie pochodzą z Chin, ale najstarsze dotąd dane archeologiczne datowały się na ok. 8 tys. lat. Dotarcie do źródeł utrudnia dodatkowo długa historia handlu. Zwierzęta, być może nawet naczelne, a ostatecznie wczesne hominidy zajadały się słodkimi owocami i roznosiły ich nasiona, odgrywając kluczową rolę w ewolucji. Dopiero o wiele później, po pojawieniu się współczesnych ludzi, brzoskwinie udomowiono i hodowano. Ludzie uzyskali nowe odmiany i większe owoce i rozprzestrzenili brzoskwinie po terenie dzisiejszych Chin i jeszcze dalej. Naukowcy sądzą, że odkrycie stanowi poparcie dla teorii o chińskim pochodzeniu brzoskwiń. Brzoskwinie nadal mają duże znaczenie kulturowe w Państwie Środka; w religijnej odmianie taoizmu uchodzą np. za symbol nieśmiertelności. Brzoskwinia była świadkiem skolonizowania Chin przez ludzi. Była tam przed nami i na przestrzeni dziejów my przystosowaliśmy się do niej, a ona do nas. Su zabrał skamieniałości do USA na Uniwersytet Stanowy Pensylwanii. Kilka testów potwierdziło, że fosylia mają ponad 2,5 mln lat. W tej samej skale z pliocenu znaleziono inne skamieniałości roślinne. Nasienie z endokarpu zostało zastąpione przez żelazo, a ścianki endokarpu uległy rekrystalizacji. Bazując na stosunku wielkości współczesnej brzoskwini do rozmiarów pestki, paleontolodzy oszacowali, że owoc z późnego pliocenu miał ok. 5 cm średnicy. « powrót do artykułu
  23. U kobiet z rakiem piersi, u których później zdiagnozowano również depresję, ryzyko zgonu ze wszystkich przyczyn jest wyższe aż o 45%. Naukowcy z Królewskiego College'u Londyńskiego analizowali karty zgłoszenia nowotworu i dokumentację szpitalną 77.173 kobiet z angielskiego regionu South East, u których raka piersi zdiagnozowano w latach 2000-2009 (ich losy śledzono do końca 2010 r.). U 422 epizod bądź epizody depresyjne wystąpiły przed zdiagnozowaniem nowotworu piersi, a u 533 depresję odnotowano dopiero po stwierdzeniu raka. Związek między nowo postawioną diagnozą depresji a przeżywalnością pozostawał istotny statystycznie nawet po wzięciu poprawki na dodatkowe czynniki, takie jak starszy wiek w momencie postawienia diagnozy, stopień zaawansowania guza, status socjoekonomiczny czy współistniejące choroby - koniec końców ryzyko zgonu w okresie monitoringu okazało się aż o 45% wyższe. Oznacza to, że współczynnik ryzyka, definiowany jako stosunek wartości ryzyka dla jednej pacjentki, tu ze "świeżą" depresją, do wartości ryzyka dla innej pacjentki, tu z występującą wcześniej depresją, wynosił 1,45. Większe wsparcie społeczne lub interwencje psychologiczne mogą pomóc ograniczyć negatywne skutki u pacjentek najbardziej zagrożonych depresją - podkreśla dr Elizabeth Davies. Brytyjczycy sugerują, że zachowania/zjawiska powiązane z depresją, np. mniej zdrowy tryb życia, przewlekły stres czy problemy z rozpoczęciem lub stosowaniem się do wybranej metody leczenia, mogą w pewnym stopniu wyjaśnić zmniejszoną przeżywalność. U kobiet z istniejącą wcześniej depresją przeżywalność także była obniżona, ale na związek wpływały głównie inne czynniki, w tym wiek w momencie postawienia diagnozy, status socjoekonomiczny i stopień zaawansowania choroby w momencie rozpoznania. Ogólnie 5 lat później żyło 55% pacjentek z depresją i 75% kobiet bez zdiagnozowanych zaburzeń nastroju. Naukowcy podkreślają, że dokumentacja medyczna może być niekompletna, bo lżejsze przypadki depresji rzadziej się odnotowuje. Autorzy publikacji z pisma Psycho-Oncology natrafili na wzmianki o depresji w rejestrach 1,2% chorych, tymczasem wcześniejsze badania polegające na prowadzeniu wywiadów z samymi pacjentkami operowanymi z powodu raka piersi wskazywały na o wiele większe rozpowszechnienie tej choroby - 10-25%. « powrót do artykułu
  24. U sportowców, którzy uprawiają nurkowanie na wstrzymanym oddechu (ang. free diving), zachodzą poważne zmiany sercowo-naczyniowe. Naukowcy podkreślają, że sport ten może być niebezpieczny, bo nurkowie muszą na długi czas wstrzymać oddech, podlegając ogromnemu ciśnieniu wody i zmianom fizjologicznym. Przez brak doświadczenia najbardziej zagrożeni są amatorzy, ale nawet wśród zawodowców zdarzają się wypadki. W czasie symulacji zespół z Uniwersytetu w Bonn badał wpływ nurkowania na wstrzymanym oddechu na układ sercowo-naczyniowy 17 czołowych nurków z Niemiec i Austrii (wiek uczestników wynosił od 23 do 58 lat). By ocenić wpływ braku tlenu na działanie serca i przepływ krwi, przed, w czasie i po maksymalnym wstrzymaniu oddechu nurkom wykonano rezonans serca i tętnic szyjnych. Dla pierwszego badania MRI średni czas wstrzymania oddechu wynosił 299 s, a dla drugiego 279 s. Maksymalny czas bezdechu w czasie skanowania wynosił 8 min 3 s. Ci sportowcy trenują, by umieć wstrzymać oddech na długi czas. Gdy wchodzą do wody, mogą nie oddychać jeszcze dłużej dzięki odruchowi na nurkowanie - wyjaśnia dr Jonas Dörner. Odruch na nurkowanie w mniejszym zakresie występuje też bez zanurzenia, w odpowiedzi na zwykłe wstrzymanie oddechu (polega on na zwolnieniu tętna i skurczu naczyń obwodowych ze wzrostem ciśnienia tętniczego, co łącznie prowadzi do centralizacji krążenia i zabezpieczeniu dopływu krwi do mózgu oraz serca). MRI wykazało, że na początku bezdechu serce pompowało silniej niż w okresie spoczynku. Później zaczynało się rozszerzać i pojawiały się problemy. Pod koniec okresu wstrzymania oddechu do mózgu nie docierało wystarczająco dużo krwi, serce nie było [bowiem] w stanie pokonać dużego oporu naczyń. Choć zmiany w ciśnieniu skurczowym nurków przypominają skurczową niewydolność serca, Dörner zaznacza, że w ich przypadku mają one charakter przejściowy. [Prawidłowa] funkcja powraca w ciągu paru minut od rozpoczęcia normalnego oddychania - dodaje dr Claas Nähle. Wydaje się, że u najlepszych nurków rozwijają się mechanizmy kompensacyjne, które pomagają im się przystosować do zmian sercowo-naczyniowych występujących na bezdechu. W przypadku kogoś, kto nie jest wytrenowany lub ma choroby serca bądź innych narządów, free diving niewątpliwie może być niebezpieczny. « powrót do artykułu
  25. Japonia poinformowała, że w przyszłym roku ponowi polowania na wieloryby. Japońscy wielorybnicy nie polowali na te zwierzęta przez rok, gdyś Międzynarodowy Trybunał Sprawiedliwości nakazał Japonii zaprzestania polowań. Teraz rząd w Tokio oświadczył, że bierze pod uwagę wyrok i zredukuje liczbę zwierząt zabijanych w ramach "programu naukowego". Decyzja ta spotkała się ze sprzeciwem obrońców środowiska oraz rządów Australii i Wielkiej Brytanii. Japonia jest stroną międzynarodowego zakazu polowań na wieloryby podpisanego w 1982 roku. Zakaz obejmuje polowania komercyjne, pozwala jednak na polowania w celach naukowcych. Japończycy od lat twierdzą zatem, że zabijają setki wielorybów w celach naukowych i masowo polują na nie od 1987 roku. Mięso upolowanych zwierząt trafia na stoły w całej Japonii. Specjaliści oceniają, że od 2005 roku japońscy wielorybnicy zabili 3600 płetwali karłowatych. Japońskie polowania nie mają nic wspólnego z badaniami naukowymi. Do ich prowadzenia nie jest bowiem potrzebne zabijanie zwierząt. Japoczycy mają zamiar zabić w przyszłym roku 333 wieloryby. « powrót do artykułu
×
×
  • Dodaj nową pozycję...