Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Japońskie studium wskazuje, że poranne pomiary ciśnienia są lepszym prognostykiem ryzyka udaru niż pomiary wieczorne. W studium dr. Satoshiego Hoshide z Jichi Medical University wzięło udział ponad 4300 osób z co najmniej jednym czynnikiem ryzyka chorób serca, np. nadciśnieniem, wysokim poziomem cholesterolu czy cukrzycą. Przez dwa tygodnie ochotnicy mieli mierzyć ciśnienie 2-krotnie w ciągu doby: rano i wieczorem. Później przez 4 lata śledzono ich losy. W tym czasie odnotowano 75 przypadków udarów. Naukowcy ustalili, że w porównaniu do porannego ciśnienia skurczowego poniżej 135 mmHg, ciśnienie powyżej 155 mmHg oznaczało 7-krotny wzrost ryzyka udaru, natomiast w porównaniu do wieczornych odczytów poniżej 135 mmHg, wskazania przekraczające 155 mmHg nie wiązały się z jakimkolwiek wzrostem ryzyka udaru. Jak wyjaśnia Hoshide, przyczyną, dla której poranne pomiary są bardziej miarodajne, może być wpływ na wieczorne ciśnienie wielu czynników zewnętrznych, np. gorących kąpieli czy pryszniców oraz jedzenia. Poranny wzrost ciśnienia tętniczego (ang. morning surge) wiąże się zaś z czynnikami fizjologicznymi, takimi jak aktywacja sympatycznego układu nerwowego. Hoshide dodaje, że choć z podwyższonymi odczytami porannymi powiązano większe ryzyko udaru, przyjmowanie leków na nadciśnienie rano nie okazało się bardziej skuteczne od zażywania ich wieczorem. « powrót do artykułu
  2. W Great Ormond Street Hospital (GOSH) wykorzystano nowatorską metodę edycji genów, dzięki której uratowano życie dziewczynki chorej na nieuleczalną dotychczas formę białaczki. Pacjentka, 12-miesięczna Layla, miała nawrót ostrej białaczki limfoblastycznej, która nie reagowała na leczenia. Dzięki "molekularnym nożyczkom" dziecko jest już zdrowe. Chemioterapia jest skuteczna u wielu pacjentów z białaczką, jednak zdarzają się przypadki, w których komórki nowotworowe ukryją się i są odporne na działanie leków. Od pewnego czasu pobiera się od takich pacjentów limfocyty T i poddaje się je manipulacjom genetycznym, dzięki którym są one w stanie rozpoznać i zabić komórki nowotworowe. Problem jednak w tym, że u pacjentów z agresywną odmianą choroby lub u tych, którzy przeszli wielokrotną chemioterapię nie ma już odpowiedniej liczby zdrowych limfocytów T. Na Laylę nie działała chemioterapia i jedyną opcją pozostawała terapia paliatywna. Lekarze zdecydowali się więc zastosować pobrane od dawców komórki UCART19. Za pomocą molekularnych nożyczek wycięto odpowiednie geny i dodano je do wspomnianych komórek. Geny te spowodowały, że z jednej strony komórki te stały się niewidoczne dla leków przeciwnowotworowych, które w normalnych warunkach by je zabiły, z drugiej zaś - zmienione komórki rozpoznawały i zabijały wyłącznie komórki nowotworu. Technika taka została opracowana przez uczonych z GOSH, University College London oraz firmę biotechnologiczną Cellectis. Została już zatwierdzona do testów klinicznych, które miały się wkrótce rozpocząć. Gdy okazało się, że pomocy potrzebuje niemowlę, zespół naukowy postarał się o specjalne pozwolenie na wykorzystanie swojej techniki. Nasza technika dawała świetne rezultaty w testach laboratoryjnych. Gdy usłyszałem o dziecku, któremu nie pozostała już żadna nadzieja, pomyślałem 'dlaczego by nie użyć tej terapii'. To było eksperymentalne leczenie i potrzebowaliśmy specjalnego pozwolenia, ale wydawało się, że dziecko idealnie się nadaje, mówi profesor Waseem Qasim. Rodzice Layli również wyrazili zgodę na leczenie, chociaż zdawali sobie sprawę z tego, że wspomniana technika nigdy nie była testowana na ludziach. W ramach leczenia dziecku przez 10 minut podano dożylnie 1 ml komórek UCART19. Kolejne kilka miesięcy dziewczynka spędziła w izolatce. Pierwsze oznaki poprawy pojawiły się po kilku tygodniach. Jako, że było to pierwsze zastosowanie naszej techniki, nie wiedzieliśmy czy i kiedy pojawi się poprawa. Byliśmy szczęśliwi, że się udało. Ona miała tak agresywną formę białaczki, że to niemal cud, iż wyzdrowiała, mówi profesor Paul Veys. Gdy lekarze upewnili się, że w organizmie dziewczynki nie ma już komórek nowotworowych, dziecku przeszczepiono szpik kostny, by organizm mógł odtworzyć zniszczony terapią układ odpornościowy. Obecnie Layla mieszka z rodzicami w domu. Musi jednak regularnie pojawiać się w GOSH, gdzie badany jest jej szpik oraz krew. Profesora Qasim zastrzega: Użyliśmy tej metody na jednej bardzo silnej małej dziewczynce. Nie możemy stwierdzić, że jest to metoda odpowiednia dla wszystkich dzieci. Jednak to bardzo znaczące osiągnięcie na polu nowych technik inżynierii genetycznej i w przypadku tego dziecka wyniki są niesamowite. Jeśli uda się je powtórzyć, możemy być świadkami wielkiego kroku w kierunku leczenia białaczki i innych nowotworów. Layla urodziła się w czerwcu 2014 roku. Gdy miała 14 tygodni zdiagnozowano u niej ostrą białaczkę limfoblastyczną. Dziewczynka trafiła na oddział intensywnej terapii, gdyż lekarze stwierdzili, że choroba ma niezwykle agresywny przebieg. Już następnego dnia rozpoczęto u niej chemioterapię, później poddano ją przeszczepowi szpiku. Siedem tygodni po przeszczepie rodzina Layli dowiedziała się, że nastąpił nawrót choroby. Jako, że nowotworu nie zabiły silne chemioterapeutyki podawane za pierwszym razem, dalsza chemioterapia nie wchodziła w rachubę. Dziewczynka trafiła do Sheffield na eksperymentalne leczenie, które jednak nie dało żadnych rezultatów. Dzień przed pierwszymi urodzinami rodzina Layli dowiedziała się, że dla dziewczynki nie ma ratunku i pozostała jedyna opieka paliatywna. Rodzice nie zaakceptowali tego i poprosili lekarzy, by próbowali wszystkiego co możliwe. Rodziców poinformowano o eksperymentalnym leczeniu, które dawało dobre wyniki w przypadku myszy, nie było jednak testowane na ludziach. Gdy zgodzili się na użycie tej terapii na ich córce, zebrał się specjalny komitet etyczny, który musiał zatwierdzić leczenie. Lekarze spodziewali się, że tydzień lub dwa po podaniu komórek u Layli wystąpi odpowiedź układu odpornościowego - zwykle ma to miejsce w postaci wysypki. Byłby to znak, że organizm reaguje. Jednak u Layli żadne takie oznaki się nie pojawiły. Nie było wiadomo, czy terapia w ogóle działa. Dziewczynkę już miano wypisać do domu, gdy zauważono wysypkę. Z czasem wysypka była coraz silniejsza, ale wydawało się, że Layla czuje się dobrze. Lekarze byli przygotowani, że w każdej chwili dziecko trzeba będzie przenieść na OIOM. Kilka tygodni później badania wykazały, że w organizmie dziecka nie ma już komórek nowotworowych. Dwa miesiące później Layli po raz kolejny przeszczepiono szpik. Jej stan na tyle się poprawił, że miesiąc po przeszczepie dziecko wypisano do domu. « powrót do artykułu
  3. Zespół Anny Svatikovej z Mayo Clinic wykazał, że spożycie napojów energetyzujących podwyższa ciśnienie i poziom norepinefryny. Amerykanie wylosowali 25 zdrowych osób w wieku 18 lat i starszych do grup, które w ciągu 5 minut wypijały 480-ml puszkę napoju energetyzującego lub napój placebo. Napoje spożywano w przypadkowej kolejności w dwóch różnych dniach w odstępie co najmniej 2 tygodni. Napój placebo dopasowano do napoju energetyzującego pod względem składników odżywczych, miał on także podobny smak, teksturę i kolor. Brakowało w nim jednak kofeiny (240 mg) i innych stymulantów, np. wyciągu z guarany czy tauryny (2000 mg). Przed każdym dniem badań ochotnicy pościli i powstrzymywali się od spożywania kofeiny i alkoholu. Na początku sesji i 30 min po wypiciu napoju badano stężenie kofeiny i norepinefryny w surowicy, a także poziom glukozy w osoczu. Poza tym mierzono ciśnienie i tętno. Po wypiciu napoju placebo poziom kofeiny się nie zmieniał. Po spożyciu napoju energetyzującego rósł znacząco. Wypicie napoju energetyzującego wywoływało 6,2-proc. wzrost ciśnienia skurczowego i 6,8-proc. wzrost ciśnienia rozkurczowego (średnie ciśnienie rosło o 6,4%). Między obiema grupami nie stwierdzono istotnych różnic w zakresie tętna. Średni poziom epinefryny wzrósł po spożyciu napoju energetyzującego ze 150 pg/mL do 250 pg/mL, a po wypiciu napoju placebo ze 140 pg/mL do 179 pg/mL (zmiana 74- vs. 31-proc.). Ostre zmiany hemodynamiczne i adrenergiczne predysponują do podwyższonego ryzyka sercowo-naczyniowego - podsumowują autorzy publikacji z pisma JAMA. « powrót do artykułu
  4. Przyznano tegoroczne Breakthrough Prizes, najbardziej wartościowe pod względem finansowym nagrody w nauce. Breakthrough Prizes zostały po raz pierwszy ufundowane przed trzema laty przez miliardera Jurija Milnera. Zdobywcy każdej z nich otrzymują 3 miliony dolarów, czyli ponad trzykrotnie więcej niż zdobywcy Nagrody Nobla. W bieżącym roku nagrodę otrzymali twórcy sześciu projektów naukowych. Jedną z nagród podzielą się Karl Deisseoth (Howard Hughes Medical Institute i Stanford University) oraz Ed Boyden (MIT). Obaj panowie opracowali sposób na takie zaprogramowanie neuronów, by dochodziło w nich do ekspresji aktywowanych światłem kanałów i pomp jonowych, dzięki czemu aktywność elektryczna neuronów mogła być kontrolowana za pomocą światła. Badania te otwierają nowe możliwości leczenia depresji, ślepoty oraz chorób Parkinsona i Alzheimera. Z kolei Helen Hobbs z Howard Hughes Medical Institute i University of Texas odkryła wariant genu, który zmienia poziom i rozkład cholesterolu w organizmie człowieka. Jej praca zapocząkowała badania nad nowymi metodami zapobiegania chorobom układu krążenia i wątroby. John Hardy z University College London to kolejny laureat Breakthrough Prize. W genie kodującym prekursor amyloidu odkrył on mutację, która jest związana z wczesnymi objawami choroby Alzheimera. Jedną z nagród otrzymał też Svante Pääbo z Instytutu Antropologii Ewolucyjnej im. Maksa Plancka. Uczony jest pionierem na polu sekwencjonowania DNA wczesnych hominidów, dzięki czemu coraz więcej dowiadujemy się o pochodzeniu człowieka i naszych związkach np. z neandertalczykami. Ian Agol to matematyk z Uniwersytetu Kalifornijskiego w Berkeley. Dokonał on olbrzymich postępów na polu topologii geometrycznej, dzięki którym zrewolucjonizował tę dziedzinę nauki. Ostatnią szóstą nagrodą podzieliło się pięć zespołów fizyków pracujących przy eksperymentach badających neutrino. W sumie 1370 naukowców prowadziło badania pod kierownictwem uczonych z Uniwersytetu Tokijskiego, Instytutu Fizyki Wysokich Energii w Pekinie, Uniwersytetu Kalifornijskiego w Berkeley, Uniwersytetu w Kyoto, Queens University oraz Wykrywaczu Neutrin z Płynnym Scyntylatorem Kamioka. « powrót do artykułu
  5. Serwis Laptopmag przeprowadził badania pracy działów wsparcia technicznego firm Dell, HP i Lenovo. Okazało się, że pracownicy tych działów często uważają, że problemy, z którymi dzwonią klienci, są spowodowane przez Windows 10 i doradzają... usunięcie tego systemu z laptopa. Wydaje się jednak, że problemem nie jest system, a źle wyszkoleni pracownicy oraz zła organizacja ich pracy. Redaktorzy Laptopmag zauważyli bowiem, że osoby udzielające porad często nie rozumieją ustawień systemowych, nie wiedzą np. jak ustawić cyfrowego asystenta Cortanę w tryb nasłuchu. Laptopmag donosi również, że osobom proszącym o pomoc często nie udziela się wskazówek na temat rozwiązania problemu, ale próbuje się sprzedać usługę rozszerzonej pomocy. Rzecznik prasowy Della oświadczył, że porady dotyczące odinstalowania Windows 10 to problem strukturalny. Firma zapewniła, że jest lojalnym partnerem Microsoftu i na bieżąco dostarcza koncernowi z Redmond informacji o kłopotach technicznych, z jakimi stykają się klienci. Podobne oświadczenie wydał rzecznik prasowy HP, który stwierdził jednak, że celem osób w dziale technicznym jest doprowadzenie do sytuacji, w której komputer klienta będzie działał prawidłowo, stąd mogą brać się porady dotyczące odinstalowania Windows 10. « powrót do artykułu
  6. Mimo że stale powtarza się, że za epidemią otyłości w USA i nie tylko stoi tzw. śmieciowe jedzenie, np. słodycze czy frytki, najnowsze badanie Food and Brand Lab Uniwersytetu Cornella na reprezentatywnej próbie dorosłych wykazało, że dla 95% populacji nie ma związku między wskaźnikiem masy ciała (BMI) a spożyciem takich produktów. Doktorzy David Just i Brian Wansink wykazali, że w porównaniu do ludzi z prawidłową wagą, osoby z nadwagą, ciężką otyłością, a nawet otyłością olbrzymią wcale nie konsumują więcej słodkich/słonych przekąsek, frytek i burgerów. Często jest dokładnie na odwrót. Jedynymi grupami, które średnio spożywają więcej śmieciowego jedzenia, są skrajności wagowego kontinuum - osoby z przewlekłą niedowagą i superotyłością. Badani z niedowagą spożywają ok. 70% więcej słodkich napojów, ok. 30% więcej słonych przekąsek i ok. 5% więcej słodkich przekąsek, natomiast pacjenci z superotyłością ponad 50% więcej frytek. Uwzględniając fakt, że nie ma znaczącej różnicy w spożyciu badanych produktów między ludźmi z nieprawidłową wagą i mieszczących się w granicach normy, Just i Wansink postulują, że większość problemów z wagą nie jest spowodowana samą konsumpcją słodkich napojów, słodyczy i fast foodu. To oznacza, że przez skoncentrowanie na demonizowaniu specyficznych produktów diety i kampanie zdrowotne wymierzone w zwalczanie i zapobieganie otyłości mogą nie spełniać swojej roli. Jeśli chcemy prawdziwej zmiany, musimy się przyjrzeć ogólnej diecie i aktywności fizycznej. Wąskie obieranie na cel tylko śmieciowego jedzenia jest nie tylko nieskuteczne, ale i wręcz szkodliwe, bo odwraca uwagę od prawdziwych przyczyn otyłości - podsumowuje Just. « powrót do artykułu
  7. Olbrzymia część starszych ludzi cierpi na zaćmę. Choroba ta jest odpowiedzialna za 48% przypadków utraty wzroku. Jedną z jej przyczyn jest tworzenie się skupisk białkowych prowadzących do spadku przejrzystości soczewki. Najnowsze badania przeprowadzone na myszach sugerują, że stosowanie kropli do oczu z naturalnym sterydem może wyleczyć kataraktę poprzez doprowadzenie do rozpadu nieprawidłowo uformowanych białek. To całkowicie zmienia zasady gry w leczeniu katarakty. Zaćma formuje się przez dziesiątki lat. Możliwość jej zlikwidowania w ciągu kilku tygodni za pomocą kropli do oczu to coś niesamowitego - mówi Roy Quinlan, biolog molekularny z brytyjskiego Durham University, który nie brał udziału w najnowszych badaniach. Białka tworzące soczewki w oku należą do najstarszych białek w naszym organizmie. Powstają już około 4 tygodni po zapłodnieniu. Większość z nich to krystaliny odpowiedzialne za akomodację i utrzymywanie przejrzystej soczewki. Dwie najpowszechniej występujące krystaliny to CRYAA oraz CRYAB. Powstają one w odpowiedzi na stres lub zranienie. Ich zadaniem jest zidentyfikowanie i związanie nieprawidłowo zwiniętych białek tak, by nie dochodziło do ich łączenia się. Jednak z czasem nieprawidłowych białek jest coraz więcej i w końcu CRYAA i CRYAB sobie z nimi nie radzą. Nieprawidłowe białka tworzą zbitki i rozpoczyna się zaćma. Obecnie można ją leczyć chirurgicznie, jednak jest to metoda niedostępna dla wielu ludzi na świecie. Autorem dających nadzieję badań jest Jason Gestwicki, biochemik z Uniwersytetu Kalifornijskiego w San Francisco. Wraz ze swoim zespołem wykorzystał technologię zwaną skaningową fluorometrią różnicową. Pozwala ona na zmierzenie, w jakiej temperaturze białko zaczyna się rozpadać. Uczeni zauważyli, że w jednym z typów dziedzicznej zaćmy CRYAB przybiera zmutowaną formę, która ma wyższa temperaturę rozpadu niż zdrowie białko. Naukowcy zaczęli spekulować, że jeśli obniżyliby tę temperaturę, to CRYAB funkcjonowałoby normalnie i zapobiegało tworzeniu złogów białkowych w soczewce. Zajęli się więc badaniem 2450 molekuł wykazujących podobne właściwości co CRYAA i CRYAB. Dodawali je do CRYAB i sprawdzali, czy zacznie ona prawidłowo funkcjonować. Okazało się że związek 29, steryd występujący naturalnie w krwi, może rozwiązać problem. Związek ten badano na myszach z zaćmą dziedziczną i spowodowaną przez wiek. Prawe oko było zakrapiane kroplami ze wspomnianym sterydem, lewe pozostało nieleczone. Po kilku tygodniach leczone oko było wyraźnie bardziej przejrzyste. Do oceny zaćmy stosuje się 4-stopniową skalę. Po miesiącu leczenia oko traktowane kroplami poprawiało się o 1 stopień. To już drugie przeprowadzone w tym roku badania wskazujące, że sterydy mogą leczyć zaćmę. W lipcu naukowcy z San Diego leczyli z zaćmy psy. Ich badania obejmowały jednak zarówno zakrapianie oczu jak i wstrzykiwanie sterydów do gałki ocznej. Autorzy najnowszych badań poprzestali na zakrapianiu, co jest znacznie łatwiejszą, tańszą i mniej ryzykowną techniką. Naukowcy mówią, że do testów klinicznych jeszcze długa droga. Ludzkie oko jest inne od oka myszy czy psa. Poza tym specjaliści nie wiedzą, dlaczego ich lek działa. W przyszłym roku chcą przeprowadzić badania i mają nadzieję poznać mechanizm działania nowej metody. Jeśli będą potrafili go opisać uczynią kluczowy krok w kierunku rozpoczęcia testów na ludziach. « powrót do artykułu
  8. FBI przestaje naciskać na prywatne firmy, by te umieszczały tylne drzwi w swoim oprogramowaniu. Podczas niedawno zakończonej konferencji w Bostonie główny prawnik Biura, James Baker, użył nawet argumentu przeciwników takiego rozwiązania, nazywając plan FBI "magicznym myśleniem". Jeszcze rok temu dyrektor FBI James Comey krytykował Apple'a i Google'a, które zdecydowały się na domyślnie włączenie systemu szyfrowania plików w swoich urządzeniach. Decyzja ta miała związek z ujawnieniem przez Edwarda Snowdena faktu masowej inwigilacji prowadzonej przez amerykańskie służby. Comey zapowiedział, że FBI postara się namówić prywatne firmy, by te przekazały Biuru klucze szyfrujące. Przeciwnicy takiego rozwiązania stwierdzili, że przypuszczenie, iż klucze takie pozostaną w wyłącznej dyspozycji Biura i nigdy nie wpadną w niepowołane ręce jest wspomnianym już "magicznym myśleniem". FBI skarży się, że szyfrowanie komunikacji pomaga przestępcom. Od ubiegłego roku sporo się jednak zmieniło w myśleniu FBI. W ubiegłym miesiącu wyciekły dokumenty rządowe, z których wnika, że administracja prezydencka zrezygnowała z planu przeprowadzenia przez Kongres ustawy, która zmuszałaby firmy IT do instalowania tylnych drzwi. Dyrektor Comey potwierdził prawdziwość tych dokumentów, zapowiedział jednocześnie, że FBI będzie próbowało namówić firmy, by dobrowolnie współpracowały. Minął zaledwie miesiąc, a przedstawiciele Biura zrezygnowali i z tego pomysłu. « powrót do artykułu
  9. U starszych osób większa wydolność krążeniowo-oddechowa (ang. cardiorespiratory fitness) wiąże się z silniejszymi połączeniami między różnymi regionami mózgu. Nasze studium zapewnia najsilniejsze jak dotąd dowody, że wydolność starszej populacji sprzyja zdrowiu mózgu, ujmowanemu w kategoriach połączeń funkcjonalnych różnych obszarów - opowiada prof. Arthur Kramer z Uniwersytetu Illinois. Jedną z metod określania zdrowia mózgu na przestrzeni życia jest mierzenie siły połączeń między różnymi obszarami w czasie wykonywania zadania lub odpoczynku (w drugim z wymienionych przypadków bada się spoczynkowy stan sieci połączeń czynnościowych RSFC, od ang. resting-state functional connectivity). Badania pokazały, że z wiekiem połączenia te ulegają osłabieniu, wskazując na pogarszający się stan zdrowia mózgu. Michelle Voss i jej zespół posłużyli się funkcjonalnym rezonansem magnetycznym (fMRI), by zbadać siłę połączeń u odpoczywających starszych i młodszych dorosłych. Tak jak się spodziewano, u starszych osób w większości przypadków połączenia były słabsze. Amerykanie nie poprzestali na tym ustaleniu i sprawdzali, jak się ma wydolność krążeniowo-oddechowa do RSFC seniorów (wydolność definiuje się jako skuteczność wykorzystania tlenu w czasie aktywności fizycznej). Okazało się, że związek między wydolnością a siłą połączeń między pewnymi obszarami mózgu jest niezależny od zwyczajowego poziomu aktywności fizycznej. Mogą go za to modyfikować inne czynniki, takie jak genetyka. « powrót do artykułu
  10. W ciągu najbliższych 20 lat dojdzie do rewolucji w robotyce, która całkowicie zmieni krajobraz społeczno-ekonomiczny świata. Roboty trafią na różne stanowiska pracy, będą smażyły hamburgery i opiekowały się osobami starszymi. Z jednej strony pojawienie się takich maszyn obniży koszty prowadzenia biznesu, z drugiej zaś - pogłębi nierówności społeczne. Takie obawy wyrażają autorzy 300-stronicowego raportu, przygotowanego przez analityków z Bank of America Merrill Lynch. Autorzy raportu mówią, że upowszechnienie się robotów to "czwarta rewolucja przemysłowa". Trzy poprzednie związane były z maszyną parową, masową produkcją i elektroniką. Czeka nas zmiana paradygmatu, która pociągnie za sobą zmianę naszego sposobu życia i pracy. W ciągu ostatnich lat tempo innowacji technologicznych przestało być liniowe, a stało się paraboliczne. Roboty i sztuczna inteligencja trafią do każdego sektora przemysłu, staną się nieodłączną częścią naszego codziennego życia - czytamy w raporcie. To pociąga za sobą poważne niebezpieczeństwa. Analitycy, powołując się na wcześniejsze badania przeprowadzone na Oxford University twierdzą, że doprowadzi to do zwolnienia około 35% robotników w Wielkiej Brytanii i 47% w USA. Tyle osób może zostać zastąpionych maszynami w ciągu najbliższych 20 lat. Utratą pracy najbardziej zagrożeni są ludzie najmniej wykwalifikowani. To niepokojący trend, szczególnie dla takich krajów jak Stany Zjednoczone, gdzie w ostatnich latach powstało wiele słabo płatnych stanowisk pracy związanych z prostymi pracami ręcznymi i pracami w usługach. Tego typu zajęcia są uznawane za obarczone wysokim ryzykiem zastąpienia ludzi przez maszyny - czytamy. Analitycy oceniają, że do roku 2020 globalny rynek robotów i sztucznej inteligencji będzie warty 152,7 miliarda USD. Pojawienie się maszyn zwiększy produktywność niektórych gałęzi przemysłu nawet o 30%. Autorzy raportu wskazują na już obecne silne trendy w kierunku robotyki. Na przykład w ciągu zaledwie dwóch miesięcy 2014 roku Google kupił aż osiem firm zajmujących się robotami. Od Boston Dynamics rozwijającej m.in. roboty bojowe po DeepMind, specjalizującą się w rozwoju techniki DeepLearning na potrzeby sztucznej inteligencji. W najbardziej zaawansowanych gałęziach przemysłu, np. fabrykach japońskich producentów samochodów, już działają roboty zdolne do nieprzerwanej 30-dniowej pracy bez nadzoru ze strony człowieka. Obliczono też, że o ile przeniesienie zakładów produkcyjnych do krajów o taniej sile roboczej może zapewnić do 65% oszczędności, to zastąpienie ludzi robotami daje oszczędności rzędu 90%. Z raportu dowiadujemy się też, że obecnie średnio na całym świecie pracuje 66 robotów na 10 000 robotników. Jednak w wysoce zautomatyzowanym japońskim sektorze motoryzacyjnym jest już 1520 robotów na 100 000 robotników. Roboty mogą w niedalekiej przyszłości zastąpić nie tylko osoby pracujące fizycznie. Już w 2013 roku McKinsey Global Institute wyliczył, że gdyby komputery były w stanie samodzielnie oceniać zdolności kredytowe klienta i udzielać porad finansowych, światowy sektor finansowy mógłby na samych pensjach zaoszczędzić do 9 bilionów USD rocznie. Obawy o zastąpienie ludzi maszynami nie są niczym nowym. Wystarczy przypomnieć XIX-wieczny angielki ruch ludowy z początków rewolucji przemysłowej. Członkowie tego ruchu, protestując przeciwko zastępowaniu ludzi maszynami i związanymi z tym zmianami w życiu społecznym, napadali m.in. na warsztaty włókiennicze i niszczyli maszyny. Analitycy wymienili też kilka zawodów, w których roboty już się rozpowszechniają lub wkrótce się rozpowszechnią. Wspominają o firmie Momentum Machnies z San Francisco, która zaprojektowała robota zdolnego do formowania hamburgerów, pieczenia ich, przygotowywania bułek oraz dodawania do całości pomidorów czy cebuli. Przypomnieli też o fabrykach w Japonii i Południowej Korei, gdzie maszyny coraz powszechniej zastępują robotników przy wykonywaniu najprostszych czynności. Roboty wkraczają też do medycyny. W ubiegłym roku użyto ich przy 570 000 operacji na całym świecie, a superkomputer Watson jest w stanie błyskawicznie przejrzeć gigantyczne bazy danych i pomóc lekarzowi w postawieniu diagnozy. Merrill Lynch przewiduje też, że w ciągu najbliższych 5 lat wartość rynku robotów opiekujących się osobami starszymi wzrośnie do 17 miliardów dolarów. Bogate społeczeństwa coraz bardziej się starzeją, brakuje chętnych do pracy przy opiece nad seniorami, a rozwijająca się technologia jest w stanie z czasem uzupełnić tę lukę. « powrót do artykułu
  11. Dwie żyjące w zoo słonice indyjskie posługują się trąbami jak dmuchawkami - wypuszczają przez nie strumienie powietrza, docierając w ten sposób do niedostępnych inaczej kąsków. O tym, że słonie manipulują oddechem, by zdobyć znajdujące się poza ich zasięgiem pożywienie, wspominał już Karol Darwin, dotąd jednak zachowanie to trudno było badać w warunkach eksperymentalnych. Ostatnio zajęli się nim uczeni z Graduate University for Advanced Studies i Uniwersytetu w Kioto. Japończycy przyglądali się poczynaniom Mineko i Suzuko z Kamine Zoo. Biolodzy zakładali, że im dalej znajdować się będzie kąsek, tym częściej słonice będą dmuchać, by się do niego dobrać. Na fosę wokół wybiegu słoni naniesiono wirtualną siatkę. W różnych jej punktach umieszczono 5 rodzajów pożywienia: jabłka, bambus, opadłe liście, ziemniaki i siano. Zwierzęta filmowano przez 32 dni. Ogółem wyodrębniono 128 prób; próba rozpoczynała się, gdy słychać było, że słonica zaczęła dmuchać, a kończyła się, gdy samica sięgała do kąska albo się poddawała. Japończycy analizowali częstość oraz czas trwania dmuchania, ułożenie i kształt przyjęty przez trąbę, a także trajektorię ruchu pokarmu na wirtualnej siatce (ostatni z parametrów wskazywał na skuteczność, a więc uzdolnienia słonicy). Okazało się, że średnio słonie potrzebowały 3 dmuchnięć, by zdobyć pokarm. Tak jak podejrzewano, zachowanie pojawiało się rzadziej, gdy jedzenie znajdowało się blisko. Dominująca samica Mineko radziła sobie lepiej, zwłaszcza jeśli chodzi o dostosowanie pozycji trąby, tak by trafić w konkretny punkt kąska i przesunąć go w pożądaną stronę. Kaori Mizuno uważa, że zdolność manipulowania powietrzem może być powiązana z innymi częstymi zachowaniami słoni, np. komunikacją akustyczną. Autorzy publikacji z pisma Animal Cognition zastanawiają się, czy biorąc pod uwagę wszystkie te ustalenia, w tym dużą świadomość fizycznego otoczenia, można uznać oddech słonia za narzędzie. Odnosząc się do przyjmowanej dotąd definicji, Japończycy podkreślają, że wg nich, warto by ją przeformułować, bo istotny jest proces myślowy prowadzący do rozwiązania problemu, czyli danego zachowania, a nie samo wykorzystanie fizycznego narzędzia. « powrót do artykułu
  12. Ósmego marca bieżącego roku sonda MAVEN zarejestrowała, jak promieniowanie ultrafioletowe ze Słońca i wysokoenergetyczne strumienie gazu pozbawiają Marsa resztek atmosfery. Urządzenia zanotowały olbrzymi wzrost liczby atomów tlenu i molekuł dwutlenku węgla wyrzuconych w przestrzeń kosmiczną. Naukowcy z NASA sądzą, że w ten sposób znaleźli odpowiedź na pytanie, jak to się stało, że Mars jest obecnie suchą zimną pustynią. Dzięki misji łazika Curiosity wiemy, że w przeszłości Czerwona Planeta była znacznie bardziej przyjaznym miejscem. Płynęła na niej woda i panowały wyższe temperatury. Zadaniem sondy MAVEN jest badanie górnych warstw atmosfery Marsa, jej interakcji ze Słońcem i odpowiedź na pytanie o ewolucję klimatu planety. Teraz, po roku zbierania danych, rysuje się coraz bardziej wyraźny obraz. Obecnie rozważane są dwie hipotezy na temat tego, co stało się z marsjańską wodą. Pierwsza mówi, że jest ona zamknięta pod powierzchnią w postaci lodu. Zgodnie z drugą woda uciekła do atmosfery i wraz z nią w przestrzeń kosmiczną. Próbujemy odpowiedzieć na pytanie, czy klimat Marsa zmienił się z powodu utraty atmosfery na rzecz przestrzeni kosmicznej czy w wyniku jakiegoś innego procesu - mówi główny naukowiec misji MAVEN, Bruce Jakosky. Mam nadzieję, że obliczając ile gazu uciekło w przestrzeń kosmiczną, będziemy mogli stwierdzić, na ile jest to istotny proces - dodaje. « powrót do artykułu
  13. Tom Wheeler, przewodniczący Federalnej Komisji Komunikacji USA powiedział na konferencji prasowej, że Stany Zjednoczone zaproponują przeznaczenie części pasma radiowego na przyszłą komunikację 5G. Zasadnicze pytanie brzmi, czy inne kraje będą chciały w tym uczestniczyć - mówi Wheeler. Wystąpienie przewodniczącego miało miejsce podczas pierwszego tygodnia zaplanowanej na cały miesiąc World Radiocommunication Conference w Genewie. Spotkanie takie obywa się co cztery lata i jest organizowane przez Międzynarodową Unię Telekomunikacyjną. Ambasador Decker Anstrom, szef amerykańskiej delegacji, powiedział, że uczestnicy obrad mają na ten temat różne poglądy. Warto wspomnieć, że spektrum 5G miałoby m.in. komunikacji z cywilnymi dronami i systemom kontroli lotu. Ambasador Anstrom zwrócił uwagę, że cywilne drony mogłyby np. monitorować miejsce awarii elektrowni atomowych, dokonywać inspekcji rurociągów, nadzorować rezerwaty dzikiej przyrody czy pomóc w tworzeniu prognoz pogody. Ambasador sądzi, że już w przyszłym tygodniu uda się uzgodnić spektrum służące śledzeniu lotów. « powrót do artykułu
  14. Dzięki współpracy naukowców z Centrum Zwalczania i Zapobiegania Chorobom (CDC) i brytyjskiego Muzeum Historii Naturalnej udało się postawić przedziwną diagnozę: inwazji nieprawidłowych, namnażających się i genetycznie zmienionych komórek tasiemca karłowatego (Hymenolepis nana) w ludzkich tkankach. To nowy mechanizm chorobowy, wskazujący na związki między zakażeniem a nowotworem. Kolumbijscy lekarze próbowali zdiagnozować 41-latka w 2013 r. U nosiciela wirusa HIV występowały guzy, niektóre o wielkości nawet 4 cm. W próbkach z biopsji węzła chłonnego i płuc zaobserwowano gniazda monomorficznych, niezróżnicowanych komórek. Ich cechy morfologiczne oraz inwazyjny charakter przywodziły na myśl komórki nowotworowe, ale małe rozmiary sugerowały, że nie są one pochodzenia ludzkiego. Jak wyjaśniają autorzy publikacji z New England Journal of Medicine, miały one wielkość ok. 1/10 komórki ludzkiej. To zupełnie nie miało sensu - opowiada dr Atis Muehlenbachs z CDC, który przetestował kilka teorii, w tym skurczenia ludzkich komórek nowotworowych i nowo odkrytego zakażenia. Ostatecznie badania genetyczne (reakcja łańcuchowa polimerazy) pozwoliły zidentyfikować DNA H. nana. Choć komórek nie dało się rozpoznać jako należących do tasiemca, dodatkowym potwierdzeniem było choćby barwienie immunohistochemiczne. To [moja] najdziwniejsza sprawa, która przez wiele nocy spędzała mi sen z oczu. Powinno być jasne, czy to nowotwór, czy infekcja. To niezwykłe, że przez 2 miesiące nie dało się tego rozstrzygnąć. Pacjent był tak chory, że zmarł w Medellín 3 dni po wykryciu DNA pasożyta. Naukowcy sądzą, że nie tyle tasiemiec miał nowotwór, co jedno z jego jaj przeniknęło przez wyściółkę jelit, zmutowało i ostatecznie nabrało cech nowotworu. W dowolnym momencie liczba zakażonych H. nana osób sięga nawet 75 mln. CDC podkreśla, że najlepszym sposobem uniknięcia infekcji jest mycie rąk i gotowanie warzyw. « powrót do artykułu
  15. Duński zespół jako pierwszy wykazał, że archeony Sulfolobus islandicus, które zamieszkują kwaśne wulkaniczne źródła geotermalne, można wykorzystać do dostarczania leków w ludzkim organizmie. Sara Munk Jensen z Uniwersytetu Południowej Danii skończyła właśnie pracę doktorską nt. wykorzystania lipidów z błon komórkowych organizmów ekstremofilnych w nośnikach transportujących i chroniących leki w ludzkim organizmie. Odnosi się to m.in. do hormonów, szczepionek oraz insuliny. Diabetycy muszą codziennie wstrzykiwać sobie insulinę, a byłoby lepiej, gdyby mogli zażyć ją w postaci tabletki. Chodzi przy tym nie tylko o unikanie iniekcji, ale i o fakt, że gdy insulina ulega wchłonięciu z jelita cienkiego, jest uwalniania w organizmie w bardziej naturalny sposób, co teoretycznie mogłoby zwiększyć skuteczność leczenia. Ekstremofilny S. islandicus rośnie optymalnie w temperaturach rzędu 75-80°C i przy pH równym 2-3. Jest więc zarówno termo-, jak i acydofilem. Żyje m.in. w Parku Narodowym Yellowstone, na Islandii, we Włoszech czy na Kamczatce. Duńczycy wyizolowali lipidy z błony komórkowej S. islandicus i wykorzystali je do wyprodukowania liposomów. Wypełniono je barwnikiem fluorescencyjnym kalceiną i umieszczono w roztworach o niskim pH. Sprawdzano, ile liposomów uległo zniszczeniu po 1,5 godz. Okazało się, że przetrwało ok. 10% z nich. Zaczęliśmy od surowego ekstraktu cząsteczek z błony S. islandicus. Normalnie do produkcji liposomów wykorzystuje się raczej oczyszczone związki, ale ja posłużyłam się wszystkimi cząsteczkami tłuszczu, by zobaczyć, jak dużo można uzyskać z nieoczyszczonego materiału. Jeśli w takiej sytuacji przetrwało 10% liposomów, gdyby zacząć oczyszczać cząsteczki, prawdopodobnie przetrwałoby ich jeszcze więcej. Jensen sądzi, że by koncerny farmaceutyczne mogły zacząć prace nad doustnymi lekami peptydowymi, np. insuliną czy szczepionkami, należy uzyskać procent zachowania liposomów sięgający 85. Podczas eksperymentów S. islandicus hodowano przez 4 dni w temperaturze 75°C. Później z hodowli wyizolowano składniki błony i połączono je z fosfolipidami (np. fosfatydylocholiną z żółtka jaja) i cholesterolem. Duńczycy wyprodukowali niewielkie jednowarstwowe liposomy z 18% zawartością surowego wyciągu lipidowego. Liposomy testowano przy niskich i wysokich stężeniach kwasów żółciowych, mieszczących się w fizjologicznym zakresie ludzkiego organizmu. W niskim stężeniu po 1,5 godz. utrzymywało się 75% liposomów, w wysokim tylko 10%. Jak podkreślają autorzy publikacji z International Journal of Pharmaceutics, przy stężeniu kwasu taurocholowego (soli kwasu żółciowego) rzędu 4,4 mM liposomy zawierające lipidy archeonów zatrzymywały kalceinę lepiej niż liposomy z samej fosfatydylocholiny oraz w podobnym stopniu co liposomy z fosfatydylocholiny i cholesterolu. « powrót do artykułu
  16. Wydaje się, że superwulkany, kolosalne wulkany, których erupcje mogą mieć globalne konsekwencje, nie podlegają mechanizmom charakterystycznym dla tradycyjnych wulkanów. Zwykle wulkany wybuchają wskutek wzrostu ciśnienia w komorze magmowej. Tymczasem z badań przeprowadzonych przez profesor Patricię Gregg wynika, że do eksplozji superwulkanu dochodzi, gdy popęka lub zapadnie się strop nad komorą. Jeśli chcemy monitorować superwulkany, by dowiedzieć się, czy któryś z nich może wkrótce wybuchnąć, musimy lepiej poznać mechanizm ich erupcji. Bardzo możliwe, że jest ona uruchamiana przez zewnętrzny, a nie wewnętrzny, czynnik. To oznacza, że superwulkany są odmienne od mniejszych wulkanów - stwierdza uczona. O erupcji superwulkanu mówimy, gdy ilość wyrzuconej magmy przekracza 500 kilometrów sześciennych. W 1980 roku doszło do najbardziej śmiercionośnej i ekonomicznie niszczącej erupcji wulkanu w historii USA. Wybuchł wówczas Mount St. Helens. Z wulkanu wydobyło się zaledwie 1 km3 lawy. Najmniejszy superwulkan jest zatem 500-krotnie potężniejszy. Warto tutaj wspomnieć, że zwykła erupcja wulkaniczna może, na przykład, na dłuższy czas zaburzyć ruch lotniczy na dużych obszarach globu. Erupcja superwulkanu miałaby znacznie dalej idące konsekwencje. Gregg wykorzystała w swoich badaniach model numeryczny, który brał pod uwagę m.in. innymi takie czynniki jak prawo zachowania masy, energii i pędu. Jej analizy przeczą badaniom sprzed roku, w wyniku których wysunięto hipotezę o pływalności magmy, która zakłada, że magma, która może być mniej gęsta od otaczających ją skał, unosi się, zwiększa ciśnienie w komorze i wywołuje erupcję. Gdy profesor Gregg dodała do swojego modelu hipotezę o pływalności magmy, ciśnienie w komorze nie wzrostło na tyle, by wywołać erupcję superwulkanu. Czegoś tu brakowało. Przyjrzałam się temu bliżej, stwierdza uczona. Okazało się, że olbrzymie znaczenie ma wielkość komory. Wcześniejsze badania wykazały, że w miarę rozrastania się komory jej strop przesuwa się do góry i pojawiają się pęknięcia. Gdy mamy do czynienia z olbrzymią komorą strop może stać się niestabilny, stwierdza Gregg. Zgodnie z jej modelem, gdy strop pęknie w wystarczającym stopniu magma wykorzystuje pęknięcia i wystrzeliwuje na powierzchnię. Uruchamia to całą reakcję łańcuchową kolosalnej eksplozji superwulkanu. « powrót do artykułu
  17. Znaleziono sposób na znaczne zwiększenie ilości energii słonecznej zbieranej przez ogniwa fotowoltaiczne. Naukowcy z MIT-u odkryli przeoczony dotychczas efekt kwantowy. Okazało się, że gdy fotony z różnego zakresu długości światła trafiają na metal pokryty dielektrykami o wysokim indeksie załamania, powstają plazmony powierzchniowe czyli chmura oscylujących elektronów o tej samej częstotliwości co zaabsorbowane fotony. Nasze badania ujawniły coś zadziwiającego. Absorpcja światła widzialnego jest bezpośrednio kontrolowana przez głębokość, na jaką elektrony przenikają interfejs pomiędzy metalem a dielektrykiem - mówi profesor Nicholas Fang. Uczony dodaje, że siła tego zjawiska zależy wrpost od stałej dielektrycznej materiału. We wcześniejszych badaniach przeoczono to zjawisko - stwierdza naukowiec. Podczas wcześniejszych badań zauważano zwiększoną produkcję elektronów, ale przypisywano ją defektom w samym materiale. Fang mówi, że to nie wyjaśniało jednak tak dużej absorpcji w tak cienkiej warstwie materiału. Jednak nowo odkryty efekt kwantowy może ją wyjaśniać. Uczeni dowiedli też, że zmieniając skład i grubość dielektryka można kontrolować ilość energii przekazywaną przez fotony, a cały system pracuje w szerokim zakresie długości fali. Jako, że rolę dielektryka spełniają tutaj różnego rodzaju tlenki, nowe zjawisko będzie można łatwo wykorzystać. Profesor Fang uważa na przykład, że dzięki odkryciu można będzie produkować cieńsze, a zatem lżejsze i tańsze w zakupie oraz montażu panele słoneczne. Mogą tez powstać doskonalsze czujniki światła, działające z krótszymi impulsami. W pracach zespołu Fanga brali też udział uczeni z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA), Uniwersytetu Harvarda, Oadk Ridge National Laboratory oraz Sandia National Laboratories. « powrót do artykułu
  18. Badania na psach pokazują, że jedna nieprzespana noc i pół roku wysokotłuszczowej diety w podobnym stopniu upośledzają insulinowrażliwość. [Wcześniejsze] badania zademonstrowały, że niedobór snu i wysokotłuszczowa dieta skutkują upośledzoną wrażliwością na insulinę, dotąd nie było jednak wiadomo, który z tych dwóch czynników prowadzi do większej insulinooporności. Nasze studium sugeruje, że jedna nieprzespana noc jest dla insulinowrażliwości tak samo szkodliwa jak 6 miesięcy wysokotłuszczowej diety, co wskazuje na rolę odpowiedniej ilości snu w utrzymaniu prawidłowej glikemii i zmniejszaniu ryzyka chorób metabolicznych, np. otyłości i cukrzycy - wyjaśnia dr Josiane Broussard z Centrum Medycznego Cedars-Sinai. W ramach studium naukowcy mierzyli insulinowrażliwość u 8 psów przed i po rozwinięciu otyłości. Przed wprowadzeniem tłustego menu dożylny test tolerancji glukozy (ang. IV glucose tolerance test) przeprowadzono w 2 grupach samców: u zwierząt pozbawionych snu przez jedną noc i normalnie śpiących psów z grupy kontrolnej. Po pół roku wysokotłuszczowej diety zwierzęta badano ponownie. Jedna noc pozbawienia snu skutkowała 33% spadkiem insulinowrażliwości, a sama wysokotłuszczowa dieta prowadziła do jej zmniejszenia o 21%. Gdy insulinowrażliwość była już zmniejszona przez dietę, nieprzespana noc nie pogłębiała dalej tego zjawiska. Jedna bezsenna noc i pół roku wysokotłuszczowej diety skutkują u psów podobnym zakresem spadku insulinowrażliwości, nie obserwuje się jednak działania addytywnego tych czynników. Może to sugerować, że niedobór snu i zła dieta wywołują insulinooporność za pośrednictwem podobnego mechanizmu. Niewykluczone także, że po wysokotłuszczowej diecie insulinowrażliwość nie może być bardziej obniżona przez niedobór snu. Broussard dodaje, że podczas przyszłych badań należy m.in. ustalić, czy przywrócenie odpowiedniej ilości snu poprawia insulinowrażliwość. « powrót do artykułu
  19. Udziały Firefoksa w rynku przeglądarek ciągle spadają i zbliżają się do niebezpiecznego progu 10%. Z danych Net Applications wynika, że w październiku do Firefoksa należało 11,3% rynku, czyli o 0,2% mniej niż miesiąc wcześniej. To już czwarty z rzędu miesiąc spadków przeglądarki Mozilli. Obecnie udziały Firefoksa spadły do najniższego poziomu od sierpnia 2006 roku. Wówczas przeglądarka ruszała na podbój internetu. Była obecna na rynku zaledwie od dwóch lat i zaczynała zagrażać pozycji Internet Explorera, do którego należało wówczas 83% rynku. Jeszcze przed dziewięcioma miesiącami Firefoksowi groziło gwałtowne zmniejszenie liczby użytkowników. Spadek był tak szybki, że niewiele brakowało, by jego udziały zmniejszyły się do poniżej 10%. Później jednak przez kilka miesięcy udziały rosły, zwiększyły się do 12%, ale od lipca znowu spadają. Jeśli obecny trend się utrzyma, to już w kwietniu przyszłego roku rynkowe udziały Firefoksa mogą spaść poniżej 10%, a w sierpniu zmniejszyć się do mniej niż 9%. « powrót do artykułu
  20. Naukowcy z Uniwersytetu Kalifornijskiego w Riverside odkryli, że części uzyskiwane za pomocą komercyjnych drukarek 3D są toksyczne dla embrionów danio pręgowanych (Danio rerio). Rodzi to pytania dotyczące składowania zużytych elementów oraz odpadów poprodukcyjnych. Drukarki 3D są jak małe fabryki w pudełku. Fabryki muszą działać zgodnie z prawem. Nie urządzilibyśmy sobie również żadnej w domu, tymczasem zabieramy drukarki 3D do siebie, traktując je jak tostery - przekonuje prof. William Grover. W ramach studium przetestowano 2 rodzaje drukarek 3D: 1) wykorzystującą do wykonania części stopione tworzywo sztuczne i 2) streolitograficzną (SLA), czyli taką, w której fotopolimer jest utwardzany za pomocą światła. Okazało się, że części uzyskiwane za pomocą obu urządzeń były mierzalnie toksyczne dla embrionów danio; większą toksyczność zaobserwowano jednak w przypadku części z drukarki SLA. Co istotne, ich toksyczność można było zmniejszyć, stosując poprodukcyjne naświetlanie ultrafioletem. Uczeni zajęli się problemem toksyczności, bo drukarki 3D stają się coraz bardziej popularne, a ich cena spada. Za urządzenie wykorzystujące stopiony plastik trzeba zapłacić zaledwie 200 dol., a drukarka SLA, jaką wybrano do eksperymentu, jest już dostępna za mniej niż 3 tys. dol. Studium rozpoczęło się mniej więcej rok temu, gdy Grover kupił drukarkę 3D do laboratorium. Jego studentka Shirin Mesbah Oskui opracowuje narzędzia do badania danio pręgowanych i chciała wykorzystać urządzenie w swoich badaniach. Szybko jednak zauważyła, że embriony ryb umierają po ekspozycji na części z drukarki. Drążąc dalej temat, Oskui wykorzystała modele Dimension Elite (drukarkę bazującą na stopionym polimerze) oraz Form 1+ (drukarkę SLA bazującą na żywicy). Uzyskała za ich pomocą dyski o średnicy circa 1 cala. Później umieściła je w szalce Petriego z embrionami danio pręgowanego i monitorowała przeżywalność, wskaźnik wylęgu i występowanie wad rozwojowych. Okazało się, że o ile przeżywalność embrionów stykających się z częściami z 1. z drukarek była nieco niższa niż dla rybek kontrolnych, o tyle wśród embrionów stykających się z dyskiem z 2. z drukarek przeżywalność spadała już znacznie (do 3. dnia obumierała ponad połowa embrionów, a do 7. dnia wszystkie). Jeśli jakieś rybki się w ogóle wylęgały, u wszystkich bez wyjątku występowały wady rozwojowe. Szukając sposobów zmniejszenia toksyczności części z drukarki SLA, Oskui ustaliła, że skutkuje wystawienie ich na godzinę na oddziaływanie promieni UV. Uniwersyteckie Biuro Komercjalizacji Technologii złożyło już wniosek patentowy na tę metodę. W przyszłości Amerykanie chcą dalej badać toksyczność poszczególnych składników oraz ich mieszaniny w gotowej części. Zamierzają też określić, jaka ilość materiału może być toksyczna dla ludzi. Kolejną kwestią do rozwiązania jest znalezienie najlepszej metody składowania odpadów, zarówno stałych, jak i ciekłych, z drukarek 3D. Na obecnym etapie naukowcy optują za centrami odpadów niebezpiecznych. « powrót do artykułu
  21. Uczeni z Uniwersytetu Tokijskiego i Japońskiego Instytutu Badań Promieniowania Synchrotronowego stworzyli szkło, które jest bardziej wytrzymałe od wielu metali. Dokonali tego wykorzystując technikę nazwaną przez siebie lewitacją aerodynamiczną, która pozwoliła im wzbogacić szkło o tlenek glinu. Szkło, które nie rozpada się pod wpływem uderzenia byłoby niezwykle przydatnym materiałem zarówno w przemyśle samochodowym, budownictwie jak i elektronice. Dlatego też od dawna trwają prace nad jego wzmocnieniem. I nie od dzisiaj wiadomo, że dodanie tlenków glinu, szczególnie tritlenku glinu, wzmacnia szkło, gdyż związek ten ma jedną z najwyższych energii rozpraszania wśród tlenków. Problem jednak w tym, że gdy do szkła zaczniemy dodawać duże ilości Al2O3, w miejscu zetknięcia się szkła z podłożem, na którym spoczywa ono w czasie produkcji powstają niepożądane kryształy dwutlenku krzemu. Japońscy naukowcy wpadli na pomysł, w jaki sposób wymieszać formujące się szkło z odpowiednią ilością tritlenku glinu. Wystarczyło... usunąć pojemnik, w którym produkowano całość. Za pomocą tlenu wydmuchiwanego od dołu doprowadzono do lewitacji masy szklanej, a następnie użyto lasera do wmieszania w nią tritlenku glinu. W efekcie powstało szkło zawierające znacznie więcej Al2O3 niż jakiekolwiek inne szkło. Dzięki temu nowe szkło zachowuje właściwości szkła, jest przezroczyste i bezbarwne, a jednocześnie niezwykle twarde. Testy wykazały, że jest ono bardziej wytrzymałe od większości metali, niemal tak wytrzymałe jak stal. Teraz kolejnym wyzwaniem, które stoi przed naukowcami, jest opracowanie przemysłowej metody wykorzystania ich procesu technologicznego. « powrót do artykułu
  22. W Południowej Dakocie w formacji Hell Creek znaleziono szczątki największego znanego dinozaura z piórami. Dakotaraptor miał ponad 5 metrów długości. Należy on do teropodów, czyli dwunożnych, w większości mięsożernych, dinozaurów. Ten nowy drapieżny dinozaur miał pośrednią wielkość pomiędzy mniejszymi terapodami, a olbrzymimi tyranozaurami, które żyły równocześnie z nim", mówi paleontolog David Burnham z Kansas University. To żyjące w kredzie zwierzę było lekkie i prawdopodobnie równie zwinne co mniejsze terapody, jak Velociraptor - stwierdza Robert DePalma, kurator zbiorów paleontologii kręgowców w Palm Beach Museum of Natural History i główny autor badań. « powrót do artykułu
  23. Profesor Samuele Marcora z Uniwersytetu Kent sugeruje, że zmniejszanie postrzeganego wysiłku za pomocą substancji psychoaktywnych, np. kofeiny, modafinilu czy metylofenidatu, może pomóc wielu osobom wytrwać przy planie ćwiczeń. Choć Marcora przyznaje, że taka interwencja jest drastyczna i kontrowersyjna, przypomina, że poza brakiem czasu postrzegany wysiłek jest najważniejszą barierą dla aktywnego trybu życia. Wg profesora, to nic dziwnego, bo ludzie ewoluowali w kierunku "lenistwa", np. oszczędzania energii. Brytyjczyk zaznacza, że byłoby świetnie, gdyby udało się ustalić, w jaki sposób nakłonić ludzi z bardzo niską motywacją do wykonywania chociaż umiarkowanych ćwiczeń, np. spacerowania. Zmniejszenie postrzeganego wysiłku będzie również przydatne w przypadku osób z nadwagą i/lub ćwiczących po pracy czy w stanie psychicznego zmęczenia. Autor artykułu z pisma Sports Medicine zaznacza, że choć nie ma raczej obiekcji natury etycznej co do stosowania substancji psychotropowych przy wspomaganiu rzucania palenia (nikotyna) czy leczeniu otyłości (związki hamujące apetyt), przez negatywne skojarzenia z dopingiem w sporcie może być trudno zastosować stymulanty itp. w terapii nieaktywności fizycznej. Marcora liczy na to, że ze względu na fakt, że brak aktywności prowadzi do 2-krotnie większej liczby zgonów niż otyłość, jego propozycja interwencji psychofarmakologicznej doczeka się jednak poważnej dyskusji i analizy. « powrót do artykułu
  24. Google opublikowało dwie łaty dla krytycznych dziur w smartfonie Nexus oraz liczne poprawki do nękającego Androida błędu Stagefright. Najbardziej poważna z załatanych dziur - CVE-2015-6608 - pozwala na zdalne wykonanie kodu za pomocą różnych metod, od ataku poprzez e-mail czy witrynę internetową, po użycie MMS-a. Drugi z krytycznych błędów - CVE-2015-6609 - daje napastnikowi możliwość wywołania awarii podsystemu pamięci i wykonania dowolnego kodu. Ataku można dokonać za pomocą odpowiednio spreparowanego pliku, który jest przetwarzany przez urządzenie ofiary. Google załatało też cztery "poważne" i jedną "umiarkowaną" dziurę w Mediaserver, Bluetooth, libmedia i Telephony. Te błędy pozwalają na zwiększenie uprawnień i kradzeń informacji. « powrót do artykułu
  25. Wielki Zderzacz Hadronów zakończył tegoroczne eksperymenty z użyciem protonów. W 2015 roku w akceleratorze doszło do około 400 bilionów kolizji. Teraz inżynierowie z CERN-u przygotowują Zderzacz do przeprowadzania kolizji jonów ołowiu. Rozpoczęcie nowych eksperymentów zaplanowano na koniec listopada. Zderzenia ciężkich jonów pozwoli na badanie plazmy kwarkowo-gluonowej. Obecnie uważa się, że taki stan materii istniał bezpośrednio po Wielkim Wybuchu. Biorąc pod uwagę wyzwanie, jakim było przeprowadzanie zderzeń z energią 13 teraelektronowoltów (TeV), akcelerator sprawował się bardzo dobrze. Obecnie jesteśmy w stanie pracować z 2244 wiązkami protonów wystrzeliwanymi co 25 nanosekund, co jest osiągnięciem samym w sobie - mówi Mike Lamont z zespołu LHC Operations. W ramach przygotowań do nowych eksperymentów zespół Lamonta musi zainstalować w urządzeniach CMS i ATLAS kalorymetry pracujące w temperaturze bliskiej zeru absolutnemu. Będą one mierzyły energię cząstek powstających w czasie zderzeń. Najważniejszym elementem nowego eksperymentu będzie, ważący 10 000 ton, detektor ALICE. To najbardziej wyspecjalizowane narzędzie z całego LHC służące do badania interakcji jonów ołowiu. Gdy rozpędzone niemal do prędkości światła atomy ołowiu zderzają się ze sobą, dochodzi do olbrzymiej liczby zderzeń pomiędzy ich protonami i neutronami. Powstaje miniaturowa "kula ognia", w której wszystko stapia się ze sobą, tworząc plazmę kwarkowo-gluonową. Specjaliści pracujący przy detektorze ALICE z niecierpliwością czekają na pierwsze wyniki zderzeń z największymi z dotychczasowych energiami. « powrót do artykułu
×
×
  • Dodaj nową pozycję...