Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Prawniczka Oracle'a Annette Hurst zdradziła przed sądem dane finansowe dotyczące Androida. Przedstawiciele Google'a mają teraz pretensje o ujawnienie poufnych danych. Wspomniane informacje zostały udostępnione prawnikom Oracle'a w związku ze sporem, jaki firma ta toczy z Google'em. Wyszukiwarkowy koncern uważa, że teraz, gdy zostały one ujawnione, mogą zaszkodzić firmie. Z danych przekazanych przez Hurst dowiadujemy się, że od roku 2008 przychody z Androida wyniosły 31 miliardów USD, a dochód zamknął się kwotą 22 miliardów. W 2014 roku Google zapłacił Apple'owi 1 miliard dolarów za to, że wyszukiwarka Google'a była domyślną wyszukiwarką w przeglądarce Safari. Od niedawna w Siri i aplikacji Spotlight domyślną wyszukiwarką jest Microsoftowy Bing, jednak za utrzymanie pozycji w Safari Google słono zapłacił. Dotychczas kwestie finansowe związane z Androidem były trzymane przez Google'a w tajemnicy. Także Apple nie ujawniał, ile otrzymuje od Google'a z umowę dotyczącą Safari. Informacje te trafiły do rąk prawników Oracle'a z zastrzeżeniem, że są ściśle tajne i tylko prawnicy mogą się z nimi zapoznać. Oracle nie powinien ujawniać przed sądem delikatnych niepublicznych informacji dotyczących finansów związanych z Androidem - oświadczyli przedstawiciele Google'a. Ich ujawnienie może mieć negatywny wpływ na biznes Google'a - dodali. Wyszukiwarkowy koncern obawia się teraz, że trudniej będzie mu negocjować kolejne umowy, gdyż producenci przeglądarek mogą domagać się, by płacił im on kwoty odpowiadające tym, jakie płaci Apple'owi. Google zarabia na Androidzie na trzy sposoby. Po pierwsze od każdej płatnej aplikacji zakupionej w Google Play koncern zatrzymuje sobie 30% wpływów, po drugie - licencjonuje producentom smartfonów takie aplikacje jak YouTube, Google Search, Gmail czy Google Play Store, po trzecie w końcu, zarabia na reklamach. Spór sądowy pomiędzy Oracle'em a Google'em dotyczy wykorzystywania w Androidzie części kodu Javy. Oracle twierdzi, że Google narusza patenty i domaga się ponad miliard dolarów odszkodowania. Sprawa ciągnie się już pięć lat. « powrót do artykułu
  2. Dieta bogata w błonnik (włókna) chroni nie tylko przed cukrzycą czy chorobami serca, ale i przed chorobami płuc. Naukowcy, którzy przeanalizowali dane z National Health and Nutrition Examination Surveys (NHANES), podkreślają, że wśród osób z najwyższym spożyciem błonnika (z 4. kwartyla) aż 68,3% mogło się pochwalić prawidłową funkcją płuc (w porównaniu do 50,1% z 1. kwartyla), natomiast zwężenie dróg oddechowych występowało, odpowiednio, u 14,8 i 29,8% tych grup. Amerykanie zauważyli także, że ludzie jedzący najwięcej błonnika osiągali o wiele lepsze wyniki w dwóch testach spirometrycznych: 1) natężonej pojemności życiowej (ang. forced vital capacity, FVC), czyli największej pojemności powietrza wydmuchniętej przy maksymalnym wysiłku wydechowym po wcześniejszym największym możliwym wdechu, a także 2) natężonej pojemności wydechowej jednosekundowej (ang. forced expiratory volume in one second, FEV1); w tym przypadku mierzy się objętość powietrza wydmuchniętą w czasie 1 s. Choroba płuc to ważna kwestia z zakresu zdrowia publicznego, ważne więc, by wykrywać modyfikowalne czynniki ryzyka i im zapobiegać. Niestety, abstrahując od tych związanych z paleniem, zidentyfikowano bardzo mało strategii zaradczych. Zwiększenie spożycia błonnika może [więc] być praktycznym i skutecznym sposobem wpływania na ryzyko rozwoju choroby płuc - podkreśla dr Corrine Hanson z Centrum Medycznego Uniwersytetu Nebraski. Akademicy przejrzeli dane dotyczące 1921 dorosłych w wieku od 40 do 79 lat, którzy w latach 2009-10 brali udział w NHANES. Spożycie błonnika wyliczono w oparciu o raportowaną ilość zjadanych owoców, warzyw, roślin strączkowych i pełnych ziaren. Ludzie, w których diecie występowało ponad 17,5 g włókien dziennie, zaliczali się do najwyższego kwartyla i stanowili największą liczebnie grupę (571). Grupa o najmniejszym spożyciu (1. kwartyl) poniżej 10,75 g dziennie była zaś najmniej liczebna (360). Związek między błonnikiem a działaniem płuc występował nawet wtedy, gdy naukowcy wzięli poprawkę na różne potencjalnie istotne czynniki, w tym na palenie, wagę czy status socjoekonomiczny. Autorzy artykułu z Annals of the American Thoracic Society wskazują na kilka słabości swojego badania. Podkreślają, że nie uwzględnili wpływu aktywności fizycznej i że NHANES nie pozwoliło na monitorowanie spożycia włókien i działania płuc w dłuższej perspektywie czasowej. Zespół Hanson sugeruje, że wyjaśnienia zaobserwowanego zjawiska można szukać w wynikach wcześniejszych badań, które wykazały, że błonnik zmniejsza stan zapalny, a to właśnie on leży u podłoża wielu chorób dróg oddechowych. Drugim ważnym zjawiskiem wydaje się wpływ włókien na skład mikrobiomu jelitowego, co oddziałuje na ewentualną skłonność do infekcji. Warto też wspomnieć o wydzielanych przez bakterie ochronnych związkach. « powrót do artykułu
  3. Salwador przestrzegł kobiety, by do 2018 r. nie zachodziły w ciążę, aby u ich dzieci nie wystąpiły wady wrodzone (małogłowie) związane z zakażeniem wirusem Zika. Eksperci przypominają, że wirus Zika (po raz pierwszy wyizolowany w 1947 r. od makaków królewskich z ugandyjskiego lasu Zika, stąd nazwa) należy do rodzaju flawiwirusów i jest przenoszony przez komary z rodzaju Aedes. W 1968 r. po raz pierwszy wyizolowano go od Nigeryjczyków. Patogen wywołuje gorączkę Zika. Nie wiadomo, czemu wirus, do zeszłego roku nieznany w Amerykach, rozprzestrzenia się tak szybko w Brazylii i krajach ościennych. Naukowcy dywagują, że wszystko zaczyna się od zakażenia komórek dendrytycznych w pobliżu miejsca ukąszenia. Później wirus rozprzestrzenia się do węzłów chłonnych i krwiobiegu. Flawiwirusy generalnie namnażają się w cytoplazmie, ale antygeny wirusa Zika znaleziono w jądrach zakażonych komórek. Chcielibyśmy zasugerować wszystkim kobietom w wieku rozrodczym, by podjęły kroki zmierzające w kierunku planowania ciąży i unikały zachodzenia w nią między rokiem bieżącym a przyszłym - podkreśla salwadorski wiceminister zdrowia Eduardo Espinoza, dodając, że rząd zdecydował się na ten apel, bo w zeszłym i na początku 2016 r. w Salwadorze odnotowano 5.397 przypadków wirusa Zika. Oficjalne dane wspominają o podejrzeniu zakażenia wirusem Zika u 96 ciężarnych, dotąd nie stwierdzono jednak ani jednego przypadku mikrocefalii u dzieci. W Kolumbii władze także doradzają kobietom odroczenie ciąży, ale tylko o 6-8 miesięcy. « powrót do artykułu
  4. Nanomateriały uzyskuje się na wiele różnych sposobów. Teraz do metod ich produkcji dołączyło... tkanie. Międzynarodowy zespół naukowcy pracujący pod kierunkiem specjalistów z Lawrence Berkeley National Laboratory i Uniwersytetu Kalifornijskiego w Berkeley utkał właśnie pierwsze tkane trójwymiarowe COF (covalent organic framework, kowalencyjny szkielet organiczny). Nowe COF odznaczają się znacznie lepszą strukturalną elastyczność, prężność i odwracalność od poprzednio produkowanych COF. Materiały te mogą być potencjalnie wykorzystane do wychwytywania dwutlenku węgla i zamienianie go na cenna produkty chemiczne. Wprowadziliśmy sztukę tkacką na poziom molekularny i atomowy, dzięki czemu możemy manipulować materią w sposób dotychczas niedostępny i nadać jej unikatowe cenne właściwości mechaniczne - mówi fizyk Omar Yaghi. Od dawna chemicy szukali sposobu na opanowanie tkactwa, jest to technika nieznana też w biologii. Opracowaliśmy sposób na tkanie organicznych nici, co pozwala na tworzenie złożonych dwu- i trójwymiarowych struktur - dodaje uczony. Yaghi i jego koledzy wykorzystali miedź w roli ramy dla nici organicznego związku o nazwie fenantrolina. Stworzyli zeń strukturę, którą nazwali COF-505. Specjalistyczne badania wykazały, że jony miedzi mogą być usuwane i dodawane z COF-505 bez zmiany samej struktury. Usunięcie metalu z COF-505 skutkowało dziesięciokrotnym zwiększeniem jej elastyczności, a po ponownym wprowadzeniu jonów miedzi struktura wracała do swej oryginalnej sztywności. Prosta operacja pozwala nam przełączać pomiędzy dwoma stanami elastyczności. To pierwsze takie osiągnięcie w tego typu strukturze chemicznej. Oznacza to, że zmiana stanu przebiega bez degeneracji czy zmiany samej struktury - cieszy się Yaghi. Opracowana przez nas technika tkacka pozwala na splątywanie ze sobą długich nici kowalencyjnie połączonych molekuł w struktury krzyżujące się w regularnych odstępach. Te skrzyżowania służą jako punkty odniesienia, więc nici posiadają wiele stopni swobody i mogą przesuwać się w różne strony tych punktów bez załamywania całej struktury. To umożliwi tworzenie materiałów o wyjątkowych właściwościach mechanicznych i dynamicznych - dodaje uczony. « powrót do artykułu
  5. U ludzi doświadczających lęku bardziej aktywna jest prawa półkula mózgu, co prowadzi do odchylenia trajektorii chodu w lewo. Podczas eksperymentu dr Mario Weick z University of Kent prosił 78 ochotników (głównie kobiety), którym zawiązywano oczy, by przeszli prosto przez prostokątne pomieszczenie do wskazanego wcześniej celu. Okazało się, że osoby doświadczające zahamowania/lęku miały tendencję do skręcania w lewo, co wskazuje na silniejszą aktywację prawej półkuli. Badanie pokazuje, że półkule są związane z różnymi systemami motywacyjnymi: prawa z hamowaniem, a lewa z przybliżaniem. Autorzy publikacji z pisma Cognition chcieli sprawdzić, co stoi za zjawiskiem niejednakowego (nierównomiernego) lokowania uwagi w przestrzeni. Brytyjczycy próbowali określić łączny oraz indywidualny wkład wspomnianych wyżej systemów motywacyjnych - behawioralnego przybliżania i hamowania (BAS i BIS, od ang. behavioural approach system i behavioural inhibition system) - w bocznym odchyleniu przestrzennym podczas wykonania zadania ruchowego. Najpierw badani wypełnili test do oceny BAS i BIS (inwentarz umieszczono w baterii innych kwestionariuszy), potem mieli przejść po linii prostej do znajdującego się 6 m dalej namalowanego na podłodze iksa; w sumie wykonali 1555 prób i pokonali 8,38 km. Dzięki aparaturze do monitorowania ruchu stwierdzono, że trajektorie chodu generalnie miały lewostronne odchylenie (16 prób skończyło się osiągnięciem celu, 918 znosem lewostronnym, a 621 prawostronnym). Dla wszystkich studentów wyliczono, jaki procent z 20 prób przypadał na każdą ze stron. Średnio lewostronne odchylenie występowało w 60% prób (12 z 20). Czterdzieści osiem osób częściej (>10 prób) kończyło przechadzkę na lewo od iksa, a dwadzieścia trzy na prawo od niego. Jeden ochotnik zawsze skręcał w prawo, a siedmiu w lewo. Tendencja do skręcania w lewo nasilała się ze wzrostem punktacji BIS. BAS wiązało się z tendencją prawostronną, ale tylko wtedy, gdy BIS było niskie. « powrót do artykułu
  6. Na stanowisku Wadi Ameyra na pustyni Synaj odkryto ok. 60 rysunków oraz inskrypcji skalnych sprzed circa 5 tys. lat. Archeolodzy sądzą, że zostały one wyryte przez ekspedycje górnicze, wysyłane przez wczesnych faraonów. Jedna z inskrypcji dotyczy królowej Neith-Hotep, która ok. 5 tys. lat temu jako regentka rządziła w imieniu młodocianego faraona o imieniu Djer. Choć egiptolodzy wiedzieli wcześniej o jej istnieniu, sądzili, że była żoną Narmera, ostatniego władcy dynastii "0". Wg zespołu prof. Pierre'a Talleta z Sorbony, najstarsze inskrypcje pochodzą sprzed ok. 5200 lat, a najmłodsze sprzed 4800 i datują się na panowanie Reneba (Nebre). Inskrypcje to prawdopodobnie sposób na obwieszczenie, że obszarem zarządzało państwo egipskie. Wg profesora, na południe od Wadi Ameyra ekspedycje mogły wydobywać turkusy i miedź. Jakiś czas po rządach Reneba trasy ekspedycji uległy zmianie. Inskrypcja z Wadi Ameyra pokazuje także, że Memfis jest starsze niż pierwotnie sądzono. Greccy i rzymscy historycy, np. Herodot, twierdzili, że zostało ono zbudowane przez mitycznego króla Menesa, którego egiptolodzy często uważali za Narmera, tymczasem inskrypcja pokazuje, że starożytne miasto istniało jeszcze przed narodzinami tego władcy. Mamy w Wadi Ameyra inskrypcję, w której wymienia się nazwę Inebu-hedż (Białe Mury); jest ona związana z imieniem Iry-Hora, króla władającego Egiptem dwa pokolenia przed Namerem. Niewykluczone zatem, że starożytne miasto powstało jeszcze przed jego panowaniem. Wśród rysunków naskalnych można zobaczyć parę łodzi, w tym 3 z serechem. Tallet dodaje, że ich wygląd jest archaiczny, o wiele starszy od egzemplarzy pochowanych w piramidach, np. w Gizie. « powrót do artykułu
  7. Wszechświat jest pełen planet zdolnych do podtrzymania życia, więc wielu naukowców sądzi, że powinno się w nim roić od obcych cywilizacji. Jednak wczesne życie jest bardzo delikatne, uważamy więc, że rzadko zdąży wyewoluować na tyle, by przetrwać - mówi doktor Aditya Chopra z Australijskiego Uniwersytetu Narodowego (ANU). On i jego współpracownicy uważają, że życie mogło pojawiać się na innych planetach, jednak szybko zostało zgładzone przez ogrzewanie się lub ochładzanie planety. Młode systemy planetarne są zwykle niestabilne. Aby pojawiła się planeta zdolna do podtrzymania życia istniejące na niej formy życia muszą mieć możliwość regulowania gazów cieplarnianych, takich jak para wodna i dwutlenek węgla, by utrzymać stabilną temperaturę powierzchni - dodaje Chhopra. Uczony przypomina, że mniej więcej 4 miliardy lat temu zarówno Ziemia, Wenus jak i Mars były planetami zdolnymi do podtrzymania życia. Jednak miliard lat po uformowaniu się Wenus zamieniła się w niezwykle gorące miejsce, a Mars praktycznie zamarzł. Jeśli na planetach tych istniało jakieś wczesne życie, to nie było ono w stanie ustabilizować warunków panujących na planetach i wyginęło, dodaje współautor badań, profesor Charley Lineweaver. Obecne na Ziemi formy życia odegrały prawdopodobnie decydującą rolę w ustabilizowaniu klimatu planety - stwierdza. Wnioski, do jakich doszli australijscy uczeni, wskazują na możliwe rozwiązanie paradoksu Fermiego. Fakt, że dotychczas nie mamy żadnych dowodów na istnienie obcej cywilizacji może być spowodowany nie niskim prawdopodobieństwem pojawienia się życia na innych planetach, ale niskim prawdopodobieństwem na tyle szybkiej ewolucji życia, by jego istnienie wpłynęło na ustabilizowanie klimatu planety. Uczeni z ANU uważają, że rozwiązaniem paradoksu Fermiego jest zatem niemal uniwersalna wczesna zagłada życia. Fenomen ten nazwali Gaian Bottleneck (Wąskie gardło Gai). « powrót do artykułu
  8. Gołębie pocztowe szybciej wracają do gołębnika, gdy powietrze jest zanieczyszczone. Wykorzystując dostępne publicznie dane z agencji ekologicznych i organizujących wyścigi, naukowcy zestawiali czasy ptaków z 415 zawodów odbywających się na Nizinie Chińskiej, a więc w najbardziej zanieczyszczonym regionie Państwa Środka, z poziomami zanieczyszczeń w danym dniu. Oceniano dane z 2 lat: z roku 2013 i 2014, zwłaszcza z miesięcy jesiennych, gdy jakość powietrza na Nizinie Chińskiej jest przeważnie najgorsza. Ponieważ nawigując, gołębie polegają na powonieniu i wzroku, naukowcy założyli, że duży smog spowoduje, że trudniej im będzie wyznaczyć trasę i że będą one lecieć wolniej. Prowadząc analizy, zespół Zhongqiu Li wziął poprawkę na inne potencjalnie istotne czynniki, w tym dystans, na jakim odbywał się wyścig oraz warunki pogodowe, np. siłę i prędkość wiatru. Ku zaskoczeniu wszystkich, gdy jakość powietrza była gorsza, gołębie wracały do domu znacząco szybciej. Nie wiadomo dokładnie czemu, ale akademicy sugerują, że najwyraźniej wskazówki wzrokowe nie są dla nawigacji tak istotne, jak wcześniej sądzono, dlatego ograniczona widoczność nie zmniejszyła prędkości lotu. Powołują się przy tym na wyniki poprzednich badań, które pokazały, że gołębie trafią do domu nawet bez znanych punktów orientacyjnych i w okularach z oszronionymi szkłami. W dalszej części wywodu autorzy publikacji z pisma Scientific Reports powołali się na znaczenie wskazówek zapachowych dla wszystkich ptaków, zwłaszcza gołębi pocztowych. We mgle zawieszone są zaś różne związki organiczne i nieorganiczne, co może wzmacniać sygnał, wykorzystywany przez gołębie do wyznaczania trasy przelotu. Niewykluczone także, że do intensywniejszego lotu skłania gołębie instynkt samozachowawczy: chęć jak najszybszego wydostania się z toksycznego smogu, w którym na dodatek mogą się czaić drapieżniki. « powrót do artykułu
  9. NAJLEPIEJ SPRZEDAJĄCY SIĘ PODRĘCZNIK BIOLOGII NA ŚWIECIE Druga polska edycja fenomenalnego podręcznika biologii opracowanego przez zespół słynnych biologów amerykańskich. Perfekcyjna kompozycja materiału, mnóstwo doskonałych ilustracji, rzetelne opracowanie i przystępny język, to niezaprzeczalne atuty tej niezwykłej książki. To wydanie –zmienione, unowocześnione i znacznie poszerzone– zawiera najnowsze odkrycia i wyniki badań w tej błyskawicznie rozwijającej się gałęzi nauki, szczególnie w takich dziedzinach jak ewolucja, ekologia czy genetyka. Podręcznik stanowi nieodzowną pomoc dla uczniów i studentów kierunków medycznych i biologiczno-chemicznych ale jest także pasjonującą lekturą dla wszystkich tych, którzy po prostu są ciekawi świata i rządzących nim mechanizmów.
  10. Jak dowiedział się The Wall Street Journal tajwańska firma Foxconn zaoferowała 625 miliardów jenów (5,3 miliarda dolarów) za przeżywającego problemy japońskiego Sharpa. Koncern, który był już dwukrotnie ratowany przez banki, rozważy też konkurencyjną ofertę, którą złożył rządowy japoński fundusz inwestycyjny Innovation Network Corp. of Japan. INCJ oferuje za Sharpa 300 miliardów jenów. Japońskie władze niejednokrotnie wyrażały obawy w związku z możliwym przejęciem Sharpa przez podmiot zagraniczny. Martwi je możliwość przejęcia technologii produkcji wyświetlaczy. Dlatego też pojawiła się oferta ze strony funduszu INCJ, który już posiada pakiet kontrolny firmy Japan Display Inc., innego dużego producenta wyświetlaczy. Sharp i Japan Display podpisały w przeszłości umowę o wymianie technologii dotyczących wyświetlaczy przyszłej generacji i ich masowej produkcji. Japońska technologia jest najlepsza na świecie i chcemy, by stała się jeszcze bardziej konkurencyjna - oświadczył minister przemysłu Motoo Hayashi. Japońskie władze wolałyby, żeby Sharp trafił w ręce INCJ, jednak Foxconn oferuje większą kwotę i jest gotów spłacić długi Sharpa. Nie wiadomo natomiast, czy w ofercie INCJ mieści się też chęć zaspokojenia dłużników. Jak informuje agencja Standard & Poor's w marcu Sharp musi spłacić 510 miliardów jenów kredytów. Głównymi wierzycielami Sharpa są Mitsubishi UFJ Financial Group i Mizuho Financial Group. Tylko tym dwóm instytucjom Sharp jest winien 500-600 miliardów jenów. Foxconn, chcąc uspokoić obawy japońskiego rządu, zapewnia, że po przejęciu Sharpa nie zmieni zarządu firmy. Sharp oferuje szeroką gamę produktów, od paneli słonecznych po wyświetlacze smartfonów. Firma od kilku lat przeżywa poważne problemy. W 2012 roku Terry Gou, przewodniczący rady nadzorczej Foxconna zakupił 38% udziałów w fabryce Sharpa w Sakai. W tym samym roku podpisano umowę, na mocy której Foxconn zobowiązał się do kupna 10% akcji Sharpa, jednak została ona rozwiązana w 2013 roku gdy złe wyniki finansowe japońskiego koncernu spowodowały znaczny spadek wartości jego akcji. Analitycy uważają, że pomimo kłopotów finansowych Sharp jest łakomym kąskiem dla Foxconna. Firma ma bowiem bardzo dobrą technologię produkcji wyświetlaczy. Ponadto przejęcie znanej marki mogłoby pomóc tajwańskiemu koncernowi, jeśli sam chciałby sprzedawać produkty pod własną marką. « powrót do artykułu
  11. Jak dowiedział się serwis Guru 3D, Intel po raz kolejny odejdzie od swojego modelu tik-tak. Przypomnijmy, że od 2007 roku Intel pracuje w modelu, zgodnie z którym pierwszy krok (tik) to przejście na kolejny poziom procesu produkcyjnego już istniejącej architektury, a krok kolejny (tak) to premiera nowej architektury. W ostatnim czasie firma odeszła od tego modelu. W roku 2014 zadebiutowały układy Broadwell, czyli wersja wcześniejszych układów Haswell wykonanych w technologii 14 nm, rok później miał miejsce debiut nowej mikroarchitektury Skylake dla 6. generacji procesorów Core. Zgodnie z dotychczasowym modelem Intel powinien przejść na kolejny poziom i wyprodukować układy Skylake w mniejszej skali. Tak się jednak nie stało. W bieżącym roku zadebiutuje 14-nanometrowa Kaby Lake z natywnym wsparciem USB 3.1, nową architekturą układu graficznego poprawiającego odtwarzanie obrazu 3D oraz 4K czy natywnym wsparciem dla HDCP 2.2. Kolejny "tik" nastąpi dopiero w przyszłym roku, gdy pojawi się wersja architektury SkyLake - o nazwie kodowej CannonLake - wyprodukowana w technologii 10 nm. Po niej zaś, w roku 2018, zadebiutuje 10-nanometrowa IceLake, a w 2019 roku również 10-nanometrowa Tigerlake. Na rok 2020 Intel przewidział rozpoczęcie produkcji w technologii 5 nanometrów. Zmiana modelu produkcji jest prawdopodobnie związana z coraz większym stopniem skomplikowania prac nad coraz bardziej zminiaturyzowanymi układami scalonymi. « powrót do artykułu
  12. Przedstawiciele TSMC poinformowali, że ich firma wdroży 5-nanometrowy proces produkcyjny w ciągu 2 lat od rozpoczęcia produkcji w technologii 7 nm. Dyrektor wykonawczy firmy Mark Liu poinformował w oświadczeniu prasowym, że produkcja układów scalonych w technologii 7 nanometrów rozpocznie się w pierwszej połowie 2018 roku. Nie wiadomo, czy będzie to produkcja masowa czy jedynie testowa. Jednak z oświadczenia Liu możemy wywnioskować, że TSMC będzie gotowa do 5-nanometrowego procesu już w 2020 roku. Firma zakłada też, że w bieżącym roku jej udział w rynku 14/16-nanometrowych układów wzrośnie do ponad 70%, a procesy 16nm FinFET, 16nm FinFET Plus oraz 16nm FinFET Compact przyniosą jej ponad 20 procent wpływów. « powrót do artykułu
  13. Raport Centrum Zwalczania i Zapobiegania Chorobom (CDC) wskazuje, że amerykańscy stulatkowie żyją coraz dłużej. Najpierw w latach 2000-08 śmiertelność wzrosła dla obu płci, a później między 2008 a 2014 r. spadła wśród kobiet o 14%, a wśród mężczyzn aż o 20%. Jak wyjaśnia dr Jiaquan Xu, zauważa się nie tylko spadek ryzyka zgonu, ale i zmianę głównych przyczyn śmierci. W 2000 r. na pierwszych pięciu miejscach listy wiodących przyczyn zgonu znajdowały się choroby serca (44,5%), udar (8,7%), grypa i zapalenie płuc (7,4%), nowotwory (4,1%) oraz choroba Alzheimera (3,8%). Do 2014 r. śmiertelność z powodu ChA wzrosła jednak ponad 2-krotnie (do 8,5%), przez co awansowała ona na 2. listy. Dane zaprezentowane przez CDC pokazują też, że wskaźnik śmiertelności stulatków z powodu rozważanych łącznie grypy i zapalenia płuc zmniejszył się między 2000 a 2014 r. prawie o połowę, spadając z 7,4% do 4,0%. Gdy płci będzie się rozpatrywać osobno, okaże się, że w przypadku kobiet 100+ w 2000 r. lista 5 wiodących przyczyn zgonu wyglądała następująco: choroby serca (44,8%), udar (9,1%), grypa i zapalenie płuc (7%), choroba Alzheimera (4,2%) oraz nowotwory (3,7%). W 2014 r. na 1. miejscu nadal znajdowały się choroby serca (34%), lecz na 2. awansował alzheimer (9,3%). Na 3. miejscu uplasował się udar (6,4%), a na 4. grypa i zapalenie płuc (3,6%). Piątkę wciąż zamykały nowotwory (3,5%). W przypadku mężczyzn w 2000 r. kolejne miejsca zajmowały, odpowiednio, choroby serca (43%), grypa i choroby płuc (9,5%), udar (6,8%), nowotwory (6,6%) i przewlekłe choroby dolnych dróg oddechowych (3,2%). W 2014 r. na 1. pozycji nadal znajdowały się choroby sercowo-naczyniowe (37,1%), ale na 2. miejsce awansowały nowotwory (6,9%). Trzecie miejsce przypadło grypie i zapaleniu płuc (5,7%), 4. udarowi (5,1%), a 5. chorobie Alzheimera. Generalnie liczba Amerykanów żyjących ponad 100 lat rośnie: z 50.281 w 2000 r. do 72.197 w roku 2014. Jako że populacja się rozrasta, liczba zgonów w tej grupie także rośnie: 16 lat temu odnotowano 18.434 takie przypadki, a 2 lata temu już 25.914. « powrót do artykułu
  14. Długoterminowa ekspozycja na toksyny wytwarzane przez sinice wyzwala formowanie się w mózgach kotawców jasnonogich (Chlorocebus sabaeus) splątków i blaszek, które przypominają patologiczne zmiany występujące u ludzi z chorobą Alzheimera (ChA). O ile nam wiadomo, to pierwszy raz, kiedy w wyniku wystawienia na oddziaływanie toksyny środowiskowej u zwierzęcia doprowadzono do powstania splątków neurofibrylarnych i blaszek amyloidowych - podkreśla dr Paul Alan Cox z Instytutu Etnomedycyny. Autorzy publikacji z pisma Royal Society Proceedings B zauważyli także, że podany równocześnie z toksyną popularny suplement - L-seryna - znacząco zmniejsza liczbę splątków. Splątki neurofibrylarne i blaszki beta-amyloidu to typowe objawy neurologiczne zarówno ChA, jak i stwardnienia zanikowego bocznego-parkinsonizmu/zespołu otępiennego (stwardnienia zanikowego bocznego zachodniego Pacyfiku, ang. amyotrophic lateral sclerosis/parkinsonism dementia complex, ALS/PDC), które występuje szczególnie często u członków plemienia Czamorro z wyspy Guam. Przyczyny obu chorób są nieznane, więc próbując uchylić rąbka tajemnicy, naukowcy przeprowadzili eksperymenty na małpach. Ustalili, że przewlekła ekspozycja na występującą w diecie Czamorro toksynę sinicową (β-N-metylamino-L-alaninę, BMAA) wyzwala powstawanie splątków i blaszek, które pod względem budowy i gęstości przypominają odpowiedniki widywane w mózgach członków plemienia zmarłych na ALS/PDC. BMAA produkują sinice z korzeni sagowca Cycas micronesica; mieszkańcy wyspy Guam wytwarzają z jego nasion mąkę. Podczas eksperymentów zespół Coxa podzielił 16 ważących średnio 3,1 kg młodocianych kotawców z Behavioural Science Foundation (BSF) w St Kitts w Zachodnich Indiach na 4 grupy. Jednej przez 140 dni podawano owoc zawierający 651 mg L-BMAA, drugiej owoc z 651 mg L-seryny, trzeciej smakołyk z 651 mg L-BMAA i 651 mg L-seryny, a czwartej (placebo) owoc z dodatkiem 651 mg mąki ryżowej. Generalnie przyjęto, że dawka będzie wynosić 210 mg kg−1 d−1. Oryginalny eksperyment powtórzono z dorosłymi 7-letnimi kotawcami. W obu przypadkach monitorowano 14 regionów mózgu. Biorąc poprawkę na większą wagę, by osiągnąć tę samą dawkę, co w młodszej grupie, do wydrążonych owoców dodawano 987 mg L-BMAA, 987 mg L-BMAA i 987 mg L-seryny bądź 987 mg mąki ryżowej. By lepiej odzwierciedlić życiową dawkę Chamorro, uwzględniono też grupę z 10-krotnie mniejszą dawką toksyny (98,7 mg). W 1. eksperymencie u małp karmionych mąką i L-seryną generalnie nie było nieprawidłowego białka tau at8 i β-amyloidu 1-42. U zwierząt karmionych równymi ilościami L-BMAA i L-seryny obserwowano zaś 80-90% spadek zawartości splątków i blaszek. W 2. badaniu patologiczne zmiany rozwijały się u wszystkich osobników karmionych toksyną (zaobserwowano zależność od dawki). Łączne podawanie L-seryny ponownie okazało się zmniejszać ich gęstość. « powrót do artykułu
  15. Jedną z najpoważniejszych przeszkód na drodze do wykorzystania energii z fuzji jądrowej jest niemożność przewidzenia, w jaki sposób plazma będzie zachowywała się w warunkach wysokiej temperatury i ciśnienia wymaganych do zbliżenia do siebie atomów. Ekstremalne ciśnienie i temperatura są konieczne, by zmusić atomy deuteru i trytu do połączenia się, wskutek czego otrzymamy dodatkową energię. Wiadomo, że w takich warunkach mają miejsce liczne turbulencje, które mogą zaburzyć cały proces i spowodować ucieczkę energii w formie ciepła, co zniweczy starania o połączenie atomów. Zrozumienie tych zaburzeń pozwoliłoby na utrzymanie odpowiednich warunków dla pojawienia się fuzji. Naukowcy zajmujący się fuzją jądrową od dawna mieli problemy z pogodzeniem teoretycznych obliczeń z obserwacjami. Nie mogli zrozumieć procesów zaburzających pracę reaktora. Teraz uczeni z MIT, Uniwersytetu Kalifornijskiego w San Diego, General Atomics oraz Princeton Plasma Physics Laboratory ogłosili, że znaleźli klucz do rozwiązania zagadki. Odpowiedź jest tak nieprawdopodobna, że sami naukowcy nie mogli w nią uwierzyć. Okazało się bowiem, że pracę reaktora zaburzają zarówno turbulencje jonów, jak i elektronów. Jestem całkowicie zaskoczona, mówi profesor Anne White. Jednak przeprowadzone symulacje komputerowe zgadzają się z wynikami eksperymentów. Przez kilkanaście ostatnich lat fizycy sądzili, że turbulencje powodowane przez jony są na tyle silniejsze od turbulencji powodowanych przez mniejsze o dwa rzędy wielkości turbulencje elektronowe, iż wiry powodowane przez elektrony zostaną całkowicie zniszczone przez wiry wywołane przez jony. Jeśli nawet wiry wywołane przez elektrony by przetrwały, to ich wpływ, w porównaniu z wirami powodowanymi przez jony, będzie całkowicie pomijalny. Najnowsze badania pokazały jednak, że uczeni się całkowicie mylili. Okazuje się bowiem, że rzeczywiście istnieją oba rodzaje turbulencji, jednak tak silnie wpływają one na siebie, iż nie jest możliwe zrozumienie jednych zaburzeń bez uwzględnienia drugich. Jednak przeprowadzenie takich symulacji nie jest proste. Jeśli chcemy uwzględnić tak bardzo różne skale wielkości turbulencji, z jakimi mamy do czynienia w przypadku jonów i elektronów, potrzebujemy potężnych superkomputerów. Jak wyjaśnia Nathan Howard, konieczne było zaprzęgnięcie do pracy 17 000 procesorów z National Energy Research Scientific Center, które prowadziły obliczenia non stop przez 34 doby. Odpowiada to 15 milionom godzin obliczeń. W tym czasie przeprowadzono 6 różnych symulacji. Ich wyniki były zaskakujące. I jednoznaczne. Turbulencje powodowane przez elektrony są widoczne w symulacjach, rozciągają się na kształt długich wstąg wokół komory reaktora. Pomimo olbrzymiej temperatury turbulencje te trwają na tyle długo, że wpływają na sposób rozprzestrzeniania się ciepła. Wcześniej prowadzono, oczywiście, symulacje procesów zachodzących w tokamakach, jednak osobno symulowano turbulencje jonów i elektronów. Następnie dane dodawano do siebie, w nadziei na uzyskanie odpowiednich wyników. Te jednak nie zgadzały się z obserwacjami. Jednoczesna symulacja w wielu skalach wielkości daje najdokładniejsze z dotychczasowych wyników. Co więcej, jeden z członków grupy badawczej udowodnił, że mamy do czynienia z uniwersalnym zjawiskiem. Opisywane powyżej symulacje i obserwacje eksperymentalne wykonywano korzystając z należącego do MIT-u tokamaka Alcator C-Mod. Z kolei Juan Ruiz wykorzystał National Spherical Torus Experiment, urządzenie o innej konfiguracji, i również zauważył, że turbulencje wywoływane przez elektrony odgrywają olbrzymią rolę. Najnowsze odkrycie będzie miało olbrzymie znaczenie dla zespołów pracujących przy wszystkich 10 tokamakach, jakie obecnie istnieją na świecie. Naukowcy lepiej zrozumieją przepływy energii wewnątrz reaktorów, a to powinno przyspieszyć prace nad ich praktycznym wykorzystaniem. « powrót do artykułu
  16. Natura kontaktów między prehistorycznymi grupami zbieracko-myśliwskimi budzi wśród specjalistów spory. Część argumentów przemawia za, a część przeciwko wojnom toczonym przed rozwojem osiadłych społeczeństw. Ostatnio jednak archeolodzy znaleźli dowody na agresję między takimi grupami z Nataruk, na zachód od jeziora Turkana. W 2012 r. odkryto co najmniej 27 całkowicie bądź częściowo odsłoniętych szkieletów sprzed ok. 10 tys. lat. Ślady gwałtownej śmierci znaleziono na 10 z 12 odsłoniętych szczątków. Ponieważ na szkieletach nie było kolagenu, naukowcy badali próbki osadów znad szkieletów, a także z muszli znalezionych w pobliżu lub tuż obok ludzkich szczątków. Dodatkowo zespół przeprowadził optycznie stymulowaną luminescencję (OSL) osadów jeziornych, w których znaleziono jeden ze szkieletów. Tak jak się spodziewano, osady znad szkieletów były młodsze od muszli z laguny (7.270-8.160 cal BP; cal BP to liczba lat przed 1950 r., uzyskana metodą radiowęglową skalibrowaną innymi metodami w celu wyeliminowania wpływu zmiennej w czasie zawartości atmosferycznego 14C). Wiek z OSL (9.680±805) przypomina wiek muszli. Autorzy publikacji z Nature sądzą, że ludzie ze stanowiska Nataruk zostali zostawieni na pewną śmierć i nikt ich nie pogrzebał. Nie natrafiono bowiem na ślady dołu czy ustandaryzowany układ głowy, twarzy albo całego ciała. Z 27 odnotowanych osób większość (21) stanowili dorośli; archeolodzy wspominają o 8 kobietach, 8 mężczyznach i 5 osobach nieznanej płci. Częściowe szkielety sześciorga dzieci znaleziono pomieszane z lub zlokalizowane obok szczątków czterech kobiet i dwóch fragmentarycznych szczątków osób nieznanej płci. W jamie brzucha jednej z kobiet odkryto pozostałości 6-9-miesięcznego płodu. Wszystkie dzieci poza jednym (małym jak na swój wiek 12-15-latkiem; wiek określono na podstawie uzębienia) miały mniej niż 6 lat. U 10 szkieletów na 12 odkryto ślady urazów prowadzących do śmierci na miejscu albo zgonu w krótkiej perspektywie czasowej. Pięć lub sześć to przypadki ran głowy/szyi zadanych ostrym narzędziem, najprawdopodobniej strzałą. Naukowcy wspominają też o 5 urazach spowodowanych tępym narzędziem, 2 obustronnych wgłobieniach w obrębie stawów kolanowych, 2 przypadkach licznych złamań prawej ręki i 1 przypadku połamanych żeber. Choć nie wiadomo, co dokładnie się stało, wg prof. Roberta Foleya z Uniwersytetu w Cambridge, fakt, że tyle osób zmarło w tym samym czasie, sugeruje, że w grę wchodził jakiś konflikt. Wydaje się, że ludzie ci zostali zaatakowani przez rywalizującą z nimi grupę myśliwych-zbieraczy; byli oni uzbrojeni w drewniane pałki, strzały lub włócznie z grotami z zaostrzonego obsydianu. Masakra mogła być podyktowana chęcią przejęcia zasobów [...] - uważa szefowa zespołu dr Marta Mirazón Lahr z Uniwersytetu w Cambridge. « powrót do artykułu
  17. Jak uniknąć przynajmniej części błędów w dawkowaniu leków? Wg amerykańsko-holenderskiego duetu, wystarczy zamienić zalecenia na opakowaniu z łyżeczek bądź łyżek na mililitry. Wcześniejsze badanie doktorów Koerta van Ittersuma z Uniwersytetu w Groningen i Briana Wansinka z Cornell Food & Brand Lab pokazało, że gdy ludzie wykorzystują do odmierzania leku łyżeczkę, zaniżają ilość o 8,4%, a kiedy posługują się łyżką stołową, zawyżają ją o 11,6%. Teraz panowie zaproponowali, by w ulotce i opisie dawkowania posługiwać się mililitrami, które trudniej oszacować na oko. W takiej sytuacji część ludzi sięgnie po dokładniejsze miarki. Psycholodzy ustalili, że w grupie 177 młodych osób 34,5% wspominało o łyżkach kuchennych jako najczęściej stosowanych narzędziach do odmierzania leku. Kiedy w czasie eksperymentu dane nt. dawkowania wyrażono w łyżeczkach, aż 60,9% ochotników wybierało do odmierzania właśnie łyżeczkę (nikt nie sięgnął po naczynie z miarką mililitrową). Kiedy zalecenia odnośnie do dawkowania wyrażono w mililitrach, równie często sięgano po łyżeczkę, co po naczynie z podziałką. Naukowcy podkreślają, że prosta zmiana jednostek oznacza spadek ryzyka błędów dawkowania o ok. 50%. « powrót do artykułu
  18. Profesorowie Konstantin Batygin i Mike Brown z Caltechu (California Institute of Technology) twierdzą, że w Układzie Słonecznym istnieje dziewiąta, nieznana jeszcze, planeta. Jej masa ma być 10-krotnie większa od masy Ziemi, a planeta ma znajdować się średnio w odległości 20-krotnie większej od Słońca niż Neptun. Jej obieg wokół naszej gwiazdy ma trwać 10-20 tysięcy lat. Problem jednak w tym, że Batygin i Brown nie zaobserwowali opisywanej przez siebie planety. Obaj uczeni wykorzystali modelowanie matematyczne i symulacje komputerowe. To na ich podstawie mówią o obecności nieznanej planety. Od czasów starożytnych odkryto jedynie dwie planety. Ta byłaby trzecia. To znaczący fragment Układu Słonecznego, który czeka na odkrycie - mówi profesor Brown. Naukowiec podkreśla, że obiekt, o którym mowa, z pewnością zostałby zaliczony do planet. Jest bowiem 5000 razy bardziej masywny od Plutona, który niedawno stracił miano planety. Dziewiąta planeta dominuje grawitacyjnie nad swoim otoczeniem, a biorąc pod uwagę wielkość jej orbity, trzeba stwierdzić, że dominuje ona nad większym obszarem niż jakakolwiek inna planeta Układu Słonecznego. Batygin i Brown opisali swoje obliczenia na łamach Astronomical Journal. Zauważają oni, że obecność dziewiątej planety wyjaśnia wiele tajemnic Pasa Kuipera. Początkowo sceptycznie podchodziliśmy do pomysłu istnienia tej planety, jednak w miarę badania jej orbity oraz wpływu na zewnętrzne regiony Układu Słonecznego byliśmy coraz bardziej przekonani, że ona istnieje. Po raz pierwszy od 150 lat pojawił się solidny dowód na to, że spis planet Układu Słonecznego jest niepełny - mówi profesor Batygin. Badania Browna i Batygina zostały zainspirowane pracą byłego doktoranta profesora Browna. Chad Trujillo i jego kolega, Scott Sheppard, opublikowali pracę, w której stwierdzili, że orbity 13 z najbardziej odległych obiektów Pasa Kuipera mają podobne cechy, a podobieństwa te może wyjaśnić obecność niewielkiej planety. Profesor Brown uznał, że to mało prawdopodobne, ale nawiązał współpracę z profesorem Batyginem i przez 1,5 roku badali wspomniane obiekty z Pasa Kuipera. Brown, który bardziej polega na obserwacjach, próbował ułożyć wszystko w kontekście tego, co obserwowalne, z kolei teoretyk Batygin większy nacisk kładł na kontekst fizyczny i dynamikę badanych układów. Dzięki tej różnicy podejść mogli nawzajem weryfikować swoje spostrzeżenia. Ja mówiłem o tym, co zaobserwowałem, on używał argumentów teoretycznych i w ten sposób się spieraliśmy. Nie sądzą, byśmy mogli cokolwiek osiągnąć bez takiego wzajemnego spierania się - mówi Brown. Uczeni dość szybko zdali sobie sprawę z faktu, że sześć z trzynastu obiektów wspomnianych przez Trujillo i Shepparda ma eliptyczne orbity zwrócone w tym samym kierunku przestrzeni. To tak, jakbyśmy mieli sześć wskazówek zegarka, z których każda porusza się z różną prędkością, ale gdy na nie spojrzymy, to akurat wszystkie są w tym samym miejscu, mówi Brown, podkreślając, że prawdopodobieństwo takiego wydarzenia wynosi 1:100. Jednak to nie wszystko. Orbity wszystkich tych obiektów są identycznie nachylone pod kątem 30 stopni w dół w stosunku do płaszczyzny ekliptyki. Prawdopodobieństwo, że taki ułożenie jest przypadkowe, wynosi 0,007%. To nie powinno się wydarzyć. Pomyśleliśmy, że coś nadało kształt ich orbitom, stwierdził Brown. Początkowo naukowcy sądzili, że tym czymś są jakieś nieodkryte jeszcze obiekty z Pasa Kuipera. Szybko jednak odrzucili tę możliwość, gdy Pas musiałby mieć masę 100-krotnie większą niż obecnie. Uczeni postanowili więc symulować obecność planety. Obliczenia wykazały, że wpłynęłaby ona na wspomniane obiekty, jednak nie do końca tak, jak się one zachowywały. Później, przez przypadek, Batygin i Brown zdali sobie sprawę, że gdyby symulowana przez nich planeta miała zupełnie inną orbitę, taką, której peryhelium jest nachylone pod kątem 180 stopni do peryhelium wszystkich innych obiektów Układu Słonecznego, to wywarłaby taki wpływ na wspomnianych sześć obiektów, jaki obserwujemy. Na pierwszy rzut oka taki układ nie może być stabilny w dłuższym czasie, ponadto doprowadziłby do kolizji pomiędzy hipotetyczną planetą, a obiektami. Jednak jeśli weźmiemy pod uwagę fakt, że w czasie gdy dziewiąta planeta obiegnie Słońce czterokrotnie, odległe obiekty z Pasa Kuipera zakończą 9 orbit, to do kolizji nigdy nie dojdzie. Planeta będzie jedynie wpływała na obiekty tak, że ich konfiguracja w stosunku do niej zostanie zachowana. Dalsze symulacje i coraz bardziej szczegółowe obliczenia wykazały, że obecność dziewiątej planety wyjaśniałaby również niezwykłą orbitę Sedny, która - w przeciwieństwie do innych obiektów z Pasa, nigdy nie zbliża się do Neptuna. Podobnie zachowuje się obiekt 2012 VP113. Z wyliczeń wynika, że Sedna, 2012 VP113 i - potencjalnie - inne obiekty z Pasa Kuipera mogą pod wpływem dziewiątej planety zmieniać swoje orbity na mniej związane z Neptunem. Jednak tym, co ostatecznie przekonało Batygina i Browna było wyliczenie, że w Pasie Kuipera powinny znajdować się obiekty nachylone prostopadle do płaszczyzny planet. W ciągu ostatnich trzech lat znaleziono cztery takie obiekty. Skąd wzięła się dziewiąta planeta? Obecnie dominuje teoria, że historia Układu Słonecznego rozpoczęła się od czterech planetarnych rdzeni, wokół których z czasem powstały Jowisz, Saturn, Uran i Neptun. Z czasem wskutek wzajemnych oddziaływań i kolizji znalazły się one na obecnych orbitach, powstały też pozostałe planety. Nie ma jednak żadnego powodu, dla którego nie miałoby istnieć pięć takich rdzeni planetarnych. Dziewiąta planeta może być właśnie piątą z oryginalnych planet Układu Słonecznego. Jeśli znalazła się w pewnym momencie zbyt blisko Jowisza lub Saturna mogła zostać wyrzucona na odległą ekscentryczną orbitę. Astronomowie już przystąpili do poszukiwania dziewiątej. Jeśli obecnie znajduje się ona w dużej odległości od Słońca, zaobserwować ją będzie można jedynie za pomocą teleskopów Kecka czy Subaru. Jeśli jest bliżej, powinno ją zobaczyć wiele teleskopów. « powrót do artykułu
  19. Międzynarodowy zespół naukowców odkrył nowy gatunek ptaka, który żyje w północno-wschodnich Indiach oraz przyległych rejonach Chin. Nazwano go drozdoniem z himalajskich lasów; nazwa łacińska Zoothera salimalii to hołd złożony indyjskiemu ornitologowi dr. Sálimowi Alemu (1896-1987). Prof. Per Alström z Uniwersytetu w Uppsali i inni stwierdzili w pewnym momencie, że osobniki uznawane w północno-wschodnich Indiach za drozdonie łuskobrzuche (Zoothera mollissima) są de facto dwoma gatunkami. Pierwszą rzeczą, która przykuła uwagę naukowców, był fakt, że ptaki zamieszkujące lasy iglaste i mieszane mają raczej melodyjną pieśń, natomiast wokalizacje drozdoni ze skalistych obszarów nad linią lasu są bardziej szorstkie i niemelodyjne. Badania okazów muzealnych z kilku krajów wskazały na stale ujawniające się różnice w upierzeniu i budowie. W ten sposób okazało się, że ptaki z lasów na wschodzie Himalajów nie mają nazwy. Biolodzy ze Szwecji, Chin, USA, Indii i Rosji zaproponowali, by drozdonie łuskobrzuche z większych wysokości nazwać alpejskimi, zachowując dotychczasowy termin łaciński Z. mollissima. Dalsze analizy upierzenia, budowy, pieśni, DNA i ekologii w zasięgu drozdowca łuskobrzuchego wykazały, że w środkowych Chinach występuje 3. gatunek. Choć o istnieniu tego ptaka wiedziano już wcześniej, dotąd był on traktowany jako podgatunek drozdonia łuskobrzuchego. Ornitolodzy nazywali go drozdoniem z syczuańskiego lasu. Jego śpiew jest nawet bardziej melodyjny od zawołań Z. salimalii. DNA sugeruje, że trzy gatunki oddzieliły się od siebie kilka milionów lat temu. Analizy genetyczne 3 starych okazów muzealnych zasugerowały występowanie w Chinach kolejnego, jeszcze nienazwanego gatunku. By to potwierdzić, trzeba przeprowadzić kolejne badania. Z. salimalii są lokalnie częste. Dotąd nie dostrzeżono ich obecności ze względu na spore podobieństwo do drozdonia łuskobrzuchego. « powrót do artykułu
  20. Podawanie kilku leków jednocześnie i ich kontrolowane uwalnianie ma umożliwić materiał o nowej strukturze chemicznej, przygotowywany przez dr inż. Agnieszkę Piegat. Dzięki innowacyjnemu materiałowi organizm pacjenta będzie lepiej wchłaniał podawane mu leki. Na wytworzenie nowych materiałów do kontrolowanego uwalniania leków dr inż. Agnieszka Piegat z Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie uzyskała blisko 1,2 mln zł dofinansowania w programie Lider - Narodowego Centrum Badań i Rozwoju. To będą materiały polimerowe o zupełnie nowej strukturze chemicznej, które będą mogły wiązać się z lekami. Za dużo szczegółów nie mogę zdradzać ze względu na planowane opatentowanie. Aczkolwiek na pewno będą to nowe układy - dotychczas nieznane - stąd innowacyjność tego projektu - wyjaśnia PAP badaczka z Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie. W zwykłych warunkach szpitalnych - jak tłumaczy - wygląda to tak, że pacjent przez co najmniej dwa tygodnie przyjmuje co najmniej dwa antybiotyki. Kontrolowane systemy uwalniania leków są obecne w produktach takich jak insulina nowej generacji i implantach hormonalnych. Jeśli chodzi o choroby nowotworowe, to są już dostępne mieszaniny leków w zastrzykach, ale to dalej są to mieszaniny leków. Nie są to formy zaawansowane w strukturze - mówi PAP dr Piegat. Główną zaletą przygotowanych w projekcie materiałów będzie to, że będą nadawały się do terapii wielolekowej, w której podawane są minimum dwa-trzy leki. Będziemy mogli w nich 'zamykać' kilka leków na raz, co znacznie poprawi komfort pacjentów przy terapiach, w których wymagane jest stosowanie więcej niż jednego leku jednocześnie - mówi PAP dr Piegat. Roboczo założyłam, że leki będą podawanie doustnie w formie zawiesiny. Aplikowane w ten sposób - bardzo niewielkich rozmiarów cząstki – będą nie tylko lepiej przyjmowane, łatwiejsze w aplikacji, ale też lepiej wchłaniane przez organizm chorego - wyjaśnia autorka badań. Zgodnie z założeniami projektu, leki uwalniane będą bowiem pod wpływem określonych bodźców - wysyłanych przez sam organizm - takich jak zmiana np. pH w żołądku. To spowoduje, że zadziałają miejscowo. W trakcie pracy nad projektem będziemy symulować warunki, które panują np. w żołądku i w ten sposób zbadamy, przydatność i skuteczność nowych układów - mówi dr Piegat. Na potrzeby projektu naukowcy jako modelową przyjęli terapię zwalczania bakterii wywołujących wrzody żołądka, bo w niej stosuje się co najmniej dwa antybiotyki i dodatkowe leki z grupy inhibitorów pompy protonowej. Można myśleć o wykorzystywaniu tych materiałów w terapiach nowotworowych, gdzie bardzo często jest stosowana kombinacja kilku leków - zaznacza w rozmowie z PAP badaczka. Prace prowadzi interdyscyplinarny zespół, w którym znajdą się: chemicy, biolog - przeprowadzający badania na zwierzętach i komórkach znajdujących się w żołądku, mikrobiolog - pracujący z samymi bakteriami, wywołującymi wrzody żołądka. Pierwsze efekty projektu mogą pojawić się za około pół roku. Wtedy będzie można mówić, że jesteśmy na dobrej drodze do otrzymania nowych materiałów. Później badania aplikacyjne - miejmy nadzieję - potwierdzą słuszność naszych idei - planuje dr Piegat. « powrót do artykułu
  21. Wietnam opłakuje śmierć tutejszego symbolu pomyślności - żółwiaka szanghajskiego Cụ Rùa (dosł. żółwiego prapradziadka). Jego ciało znaleziono unoszące się na jeziorze Hoan Kiem w historycznym centrum Hanoi. Uważa się, że był jednym z zaledwie czterech ocalałych Rafetus swinhoei. Przyczyna zgonu nie jest znana (naukowcy nie są pewni, czy doprowadziło do niego zanieczyszczenie, zmiana klimatu czy po prostu zaawansowany wiek). Po zbadaniu przez ekspertów Cụ Rùa ma zostać zabalsamowany. Niektórzy postrzegają śmierć gada jako zły omen dla partii komunistycznej, której zjazd ma się odbyć już w najbliższy czwartek. O znaczeniu żółwiaka dla Wietnamczyków świadczy nadane mu imię, mianem Cụ określa się bowiem starych, szanowanych ludzi. Niektórzy potrafili czatować nad jeziorem nawet parę dni, by choć na chwilę ujrzeć gada. Jak podkreśla Douglas Hendrie, znawca dzikiej przyrody z Hanoi, Cụ Rùa miał dla Wietnamczyków znaczenie nie tylko konserwacyjne, ale i historyczne, kulturowe oraz duchowe. Jego pojawienie się w czasie ważnych dla kraju wydarzeń, np. 1000-lecia Hanoi, uznawano za dobry znak, a choroby - za zapowiedź pecha/nieszczęścia. Żółwiak, którego wiek oceniano na ponad 100 lat, co czyniło go najstarszym osobnikiem w Wietnamie, miał być inkarnacją mitycznej istoty, zamieszkującej jezioro w XV w. Wg legendy, w czasie rewolty przeciw chińskiej dynastii Ming wietnamski król Lê Lợi dostał od miejscowego bóstwa - Smoczego Króla (Long Vương) - miecz zwany Boską Wolą (Thuận Thiên). Gdy pewnego dnia Lợi pływał po jeziorze, na powierzchnię wychynął Kim Qui - Złoty Żółw - który poprosił o zwrot broni. Król doszedł do wniosku, że chce ją przekazać swojemu panu, Smoczemu Królowi. Na pamiątkę tego wydarzenia Lợi przemianował jezioro z Luc Thuy (zielona woda) na Hoan Kiem (jezioro zwróconego miecza). Ze względu na obawy związane z reakcjami społeczeństwa, cenzorzy próbowali zapobiec upublicznieniu wiadomości o zgonie Cụ Rùy. Początkowo departament propagandy zalecił nawet, że by z radością powitać kongres partii, gazety i media nie powinny obecnie donosić o wydarzeniu. Parę godzin później lokalnym gazetom pozwolono o nim napisać tak naukowo i obiektywnie, jak się da, bez spekulacji i szokujących zdjęć. « powrót do artykułu
  22. Klinika leczenia niepłodności Complete Fertility z Southampton proponuje pacjentom nową technikę zapłodnienia in vitro (IVF), która pozwala na zapłodnienie w macicy, a nie w szalce Petriego i tym samym skraca czas przebywania zarodka poza organizmem matki. Jedno podejście w ramach metody z AneVivo kosztuje 700 funtów. AneVivo to kapsułka z jajem i plemnikami, którą umieszcza się w macicy. Została ona zaaprobowana przez Human Fertilisation and Embryology Authority (HFEA), która nie znalazła dowodów na nieskuteczność bądź szkodliwość urządzenia. Na tym etapie proponujemy procedurę [wyłącznie] klientom prywatnym - podkreśla prof. Nick Macklon, dodając, że międzynarodowe testy na ok. 250 kobietach pokazały, że metoda zapewnia podobny odsetek ciąż, co konwencjonalne IVF. Celem jest zmaksymalizowanie czasu spędzanego w ciele, a nie w laboratorium, zwłaszcza że chodzi o wrażliwy okres ludzkiego rozwoju, gdy geny są włączane i wyłączane. Choć samo zapłodnienie zachodzi w ciele kobiety, zarodek i tak jest wydobywany do zbadania. Później następuje reimplantacja. « powrót do artykułu
  23. Najnowsze badania przeprowadzone w Knossos wskazują, że podczas wczesnej epoki żelaza (1100-600 p.n.e) miasto było niemal trzykrotnie większe niż dotychczas sądzono i znajdowało się w nim wiele importowanych towarów. To zaś oznacza, że nie tylko odrodziło się ono po upadku z około 1200 roku przed Chrystusem, ale że bardzo szybko rozwijało i zajmowało ważną pozycję w świecie Śródziemiomorza. Naukowcy badają ruiny Knossos od ponad 100 lat, jednak w ostatnim czasie skupili się na okresie, który nastąpił po upadku egejskich pałaców epoki brązu. W ciągu ostatnich 10 lat w ramach Knossos Urban Landscape Project znaleziono liczne pozostałości kultury materialnej epoki żelaza. Były one odkopywane na wcześniej niebadanych obszarach. Jak mówi profesor Antonis Kotsonas z University of Cincinnati, wskazuje to na znaczący wzrost osadnictwa na początku epoki żelaza oraz wzrost wymiany handlowej - zarówno jej ilości jak i jakości - z Grecją, Cyprem, Bliskim Wschodem, Egiptem, Półwyspem Apenińskim, Sardynią i zachodnimi obszarami Morza Śródziemnego. W tym czasie żaden inny egejski obszar nie prowadził tak ożywionej wymiany handlowej - stwierdza Kotsonas. Mimo, że jesteśmy na wczesnym etapie badań, to odróżniając przedmioty chowane razem ze zmarłymi od przedmiotów, które były używane w gospodarstwach domowych możemy stwierdzić, że w tym czasie mieliśmy do czynienia z dość gęstym skupionym wokół lokalnych ośrodków osadnictwem rozciągającym się co najmniej od wschodnich stoków wzgórza położonego na zachodzie do rzeki Kairatos i od strumienia Vlychia na południu niemal do połowy drogi pomiędzy minojskim pałacem a wzgórzem Kefala. « powrót do artykułu
  24. Zdjęcia satelitarne zdobyte przez agencję Associated Press potwierdzają, że Państwo Islamskie (ISIS) zniszczyło najstarszy klasztor chrześcijański w Iraku. Dair Mar Elia (klasztor św. Eliasza) z VI w. znajdował się w Niniwie w pobliżu Mosulu. Wszystko wskazuje na to, że ISIS zniszczyła budowlę pod koniec 2014 r., czyli krótko po zdobyciu miasta. Losy klasztoru były nieznane, bo bojownicy mocno ograniczyli komunikację w regionie. "Postrzegamy to jako próbę wykluczenia nas z Iraku; wyeliminowania i zakończenia naszej bytności na tych ziemiach" - twierdzi ojciec Paul Thabit Habib, który obecnie mieszka w mieście Irbil. Klasztor został założony ok. 595 r. przez Mara Elię, asyryjskiego mnicha, który wcześniej studiował w Al-Hirze, a później w klasztorze na górze Ezla (Tur-Abedeen) w Turcji. W XVII w. Hurmizd Alqushnaya zarządził renowację klasztoru. W 1743 r. szach Nadir Szah, założyciel dynastii Afszarydów, rozkazał go zaś zburzyć. Ponieważ rezydujący w nim mnisi odmówili konwersji na islam, zostali zamordowani. Na początku XX w. odnowiono część korytarzy i sal. Podczas I wojny światowej Dair Mar Elia stał się azylem, co doprowadziło do częściowej odbudowy stanowiska. Budowlą, pobliskim zbiornikiem i naturalnymi źródłami mineralnymi opiekował się kościół chaldejski. W latach 70. klasztor stał się siedzibą irackiej Gwardii Republikańskiej. W 2003 r. jedna ze ścian Dair Mar Elia została uszkodzona wieżyczką trafionego pociskiem czołgu T-72. Stephen Wood z Allsource Analysis powiedział AP, że opublikowane w środę zdjęcia satelitarne sugerują, że klasztor został zrównany z ziemią między sierpniem a wrześniem 2014 r. Widać na nich, że kamienne ściany dosłownie obrócono w proch. Dzieła dokonały buldożery, ciężki sprzęt, młoty pneumatyczne i być może materiały wybuchowe. Siły porządkowe z Niniwy niezależnie potwierdziły BBC, że bojówkarze ISIS wysadzili i kompletnie zniszczyli obiekt. Tym samym dołączył on do rozrastającej się listy ponad 100 budowli, zniszczonych na stanowiskach historycznych i w miejscach kultu Iraku oraz Syrii. « powrót do artykułu
  25. Wcześniej ustalono, że suplementacja witaminami B spowalnia spadek zdolności poznawczych u starszych osób z problemami pamięciowymi. Teraz okazało się, że wyższy poziom kwasów omega- 3 w organizmie wzmaga skutki działania witaminy B. Zespół z Uniwersytetu w Kapsztadzie, Oslo, Oksfordzie i Zjednoczonych Emiratów Arabskich badał przypadki ponad 250 osób z łagodnymi zaburzeniami poznawczymi (ang. mild cognitive impairment, MCI). Wcześniej odkryliśmy, że witaminy B mogą spowalniać lub zapobiegać atrofii mózgu i pogorszeniu pamięci u osób z MCI. Działo się tak zwłaszcza u ludzi z ponadprzeciętnym poziomem homocysteiny we krwi [warto jednak przypomnieć, że podwyższony poziom aminokwasu w osoczu to czynnik ryzyka chorób neurodegeneracyjnych]. Wychodząc od tego, że istnieje związek między poziomem omega-3, homocysteiną i tempem atrofii mózgu, chcieliśmy sprawdzić, czy omega-3 i witaminy z grupy B mogą wchodzić ze sobą w interakcje i zapobiegać deterioracji poznawczej - opowiada dr Celeste de Jager. Na początku badania ochotnicy wypełniali baterię testów poznawczych. Badano także ich krew, by określić stężenie kwasów omega-3, które powszechnie występują w tłustych rybach: kwasu dokozaheksaenowego (DHA) i kwasu eikozapentaenowego (EPA). Badanych wylosowano do 2 grup, z których jedna przez 2 lata przyjmowała suplementy z witaminami B, a druga placebo. Ponownie przeprowadzono testy poznawcze i porównano z wynikami z początku studium. Zauważyliśmy, że w przypadku osób z niskim stężeniem omega-3 suplementy miały niewielki bądź żaden wpływ. Jednak w przypadku ludzi z wysokim początkowym stężeniem kwasów, w porównaniu do placebo, witaminy B bardzo skutecznie zapobiegały spadkowi zdolności poznawczych. To współgra z poprzednimi ustaleniami, że w przypadku MCI witaminy B spowalniają tempo atrofii mózgu tylko u osób z dobrym początkowym poziomem omega-3 - dodaje dr Abderrahim Oulhaj. Choć trzeba to jeszcze potwierdzić w dalszych badaniach, wydaje się, że stężenie DHA jest ważniejsze od poziomu EPA. Kolejnym etapem badań będzie sprawdzenie, czy podanie połączenia witamin B i kwasów omega-3 może spowolnić przejście od MCI do choroby Alzheimera - podkreśla prof. David Smith. « powrót do artykułu
×
×
  • Dodaj nową pozycję...