Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37626
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    246

Zawartość dodana przez KopalniaWiedzy.pl

  1. Sony ostrzega użytkowników notebooków Vaio, by nie aktualizowali systemu operacyjnego do Windows 10. Firma oświadczyła, że nie jest w stanie zagwarantować kompatybilności pomiędzy sprzętem a OS-em i dopiero prowadzi odpowiednie testy. Zdaniem Sony, zainstalowanie najnowszego OS-u Microsoftu na notebooku Vaio może skończyć się uszkodzeniem sterowników i oprogramowania. Japońska firma nie wyklucza nawet utraty danych i uszkodzenia sprzętu. Sony jest dotychczas jedynym sprzedawcą komputerów, który ostrzega przed aktualizacją do Windows 10. Japońska firma już nie produkuje komputerów, w 2014 roku sprzedała swój wydział pecetów firmie Japan Industrial Partners, obiecała jednak, że nadal będzie zapewniała serwis gwarancyjny. « powrót do artykułu
  2. Ledwo Google ogłosił powstanie holdingu Alphabet, a już pojawiły się pierwsze problemy. Okazało się, że domena alphabet.com oraz znak handlowy Alphabet należą do BMW. Niemiecki producent samochodów nie ma zamiaru sprzedawać swoich praw. Należąca do BMW firma Alphabet zajmuje się długoterminowym wynajmem pojazdów, oferuje usługi w dziedzinie leasingu i zarządzaniu flotą pojazdów. Na rynku istnieje też wiele innych przedsiębiorstw o nazwie Alphabet. Od firm hydraulicznych, poprzez nagraniowe po przedsiębiorstwo sprzedające fotografie. Zajęta jest również polska domena alphabet.pl, która przekierowuje na IBM-owską alphabet.com. Google'owi udało się zarejestrować domenę abc.xyz, natomiast domenę abc.wtf zarejestrował Microsoft i przekierowuje ona do Binga, wyszukiwarki konkurencyjnej wobec Google'a. Wyszukiwarkowego giganta mogą czekać kłopoty. Firma Alphabet Photography, które wykonuje i sprzedaje zdjęcia budynków oraz tworów natury wyglądających jak litery, cały swój biznes prowadzi w internecie. Powstanie drugiej internetowej firmy o nazwie Alphabet może być dla niej niekorzystne. Także prawnicy BMW badają, czy Google nie narusza ich praw. Z kolei Jason Adler, założyciel i szef firmy Alphabet Funds, grupy funduszy hedgingowych z Nowego Jorku, mówi że od kilku godzin dostaje od znajomych i przyjaciół informacje, w której piszą oni, iż Google przejęło jego nazwę. Zgodnie z zasadami Urzędu Patentowego Stanów Zjednoczonych (USPTO) do naruszenia znaku handlowego dochodzi, gdy podobny znak może wprowadzać klientów w błąd. Google działa na rynku motoryzacyjnym, pracuje nad autonomicznymi pojazdami, oferuje system operacyjny dla samochodów. O ile małe firmy jak Alphabet Funds czy Alphabet Photography raczej nie mają zasobów do prowadzenia sporów sądowych z Google'em, o tyle BMW jest w stanie walczyć o swoje prawa, jeśli uzna, że naruszono firmowy znak handlowy. « powrót do artykułu
  3. IBM ogłosił, że ma zamiar kupić firmę Merge Healthcare. Jeśli warta miliard dolarów transakcja zostanie sfinalizowana, będzie to już trzecie w bieżącym roku kupione przez IBM-a przedsiębiorstwo zajmująca się zarządzaniem danymi medycznymi. Merge specjalizuje się w przechowywaniu danych obrazowych. Klientami firmy jest 7500 amerykańskich klinik, szpitali oraz firmy farmaceutyczne i instytuty badawcze. Chce zgromadzić jak najwięcej danych medycznych po to, by na ich podstawie nauczyć superkomputer Watson diagnozować choroby. Watson miałby pomóc lekarzom w podejmowaniu decyzji o sposobie leczenia. Zbiory Merge Healthcare składają się z imponującej liczby około 30 miliardów obrazów. Jak mówi Shahram Ebadollahi, wiceprezes ds. innowacji i prezes ds. naukowych Watson Health Group, dane te są kluczowe dla projektów prowadzonych przez tę grupę. Wykorzystuje ona bowiem technologię deep learning, która polega na uczeniu się maszyny poprzez zapewnienie mu dostępu do olbrzymiej ilości danych. Watson będzie korzystał też z innych źródeł, w tym z anonimizowanych tekstowych danych o pacjentach. Technologia deep learning stoi za takimi imponującymi osiągnięciami jak automatyczny tłumacz Microsoftu przekładający w czasie rzeczywistym jeden język na drugi, czy technologia Facebooka, która rozpoznaje twarze z wyjątkowo dużą trafnością. IBM chce, by technika ta sprawdziła się na polu diagnostyki medycznej. Ocenia się, że już obecnie dane graficzne stanowią nawet 90% wszystkich danych medycznych, jednak niejednokrotnie lekarzom jest trudno na ich podstawie wyciągnąć potrzebne informacje. John Smith, odpowiedzialny w IBM Research za inteligentne systemy informacyjne mówi, że jednym z najbliższych najbardziej obiecujących zastosowań Watsona może być wykorzystanie go do diagnozowania czerniaka. Postawienie właściwej diagnozy może być bardzo trudne w przypadku tej choroby, gdyż u każdego pacjenta może ona dawać nieco inny obraz. Smith ma nadzieję, że Watson, po zapoznaniu się z tysiącami różnych obrazów czerniaka nauczy się rozpoznawać subtelne zmiany umożliwiające postawienie diagnozy. Praca Watsona miałaby polegać na porównaniu danych graficznych i tekstowych pacjenta ze swoją bazą danych i przekazanie lekarzowi najbardziej istotnych informacji. Innym miejscem, w którym wkrótce ma pomóc Watson jest wyszukiwanie oznak nowotworu płuc na zdjęciach z tomografu. Lekarze często muszą przejrzeć setki fotografii, by znaleźć nieprawidłowo rozwinięte komórki i łatwo przy tym o pomyłkę. Tymczasem, jak twierdzi Jeremy Howard, dyrektor wykonawczy start-upu Enlitic, jego firma już opracowała algorytm, który lepiej niż radiolodzy rozpoznaje nowotwór na zdjęciach z TK. Obecnie, jak mówią przedstawiciele IBM-a, największą przeszkodą na drodze rozwoju deep learningu w zastosowaniach medycznych jest fakt, że olbrzymie bazy danych są rozproszone pomiędzy różnymi instytucjami, a regulacje dotyczące ochrony danych osobowych utrudniają dostęp do nich. « powrót do artykułu
  4. Ponowne wprowadzenie diabłów tasmańskich (Sarcophilus harrisii) na kontynent australijski mogłoby wspomóc bioróżnorodność, ograniczając rozprzestrzenianie się lisów rudych i zdziczałych kotów w habitatach, gdzie wybito dingo. Diabły tasmańskie żyły kiedyś w Australii, ale wyginęły tam ok. 3 tys. lat temu, najprawdopodobniej wskutek upolowania wszystkich osobników przez dingo. Intensywne odstrzały dingo, które prowadzi się ostatnio, by chronić bydło, zmieniły równowagę ekologiczną, torując drogę inwazyjnym drapieżnikom. Te ostatnie sieją spustoszenie wśród rodzimych ssaków. Ekolodzy z Uniwersytetu Nowej Południowej Walii oszacowali po raz pierwszy wpływ reintrodukcji diabła tasmańskiego na ekosystemy leśne południowo-wschodnich obszarów Nowej Południowej Walii. Istnieją duże obszary, gdzie nie ma dingo i potrzebujemy drapieżnika, który mógłby zmniejszyć liczbę lisów. Diabeł tasmański jest oczywistą odpowiedzią. Nie stanowi poważnego ryzyka dla bydła, odegrał też ważną rolę w powstrzymywaniu lisów od zdobycia przyczółka na Tasmanii - wyjaśnia doktorant Daniel Hunter. Autorzy publikacji z pisma Biological Conservation stwierdzili, że zastępując dotychczasowe drapieżniki alfa, S. harrisii mógłby odtworzyć ważne funkcje ekosystemu. Dodatkowo reintrodukcja wspomogłaby przeżywalność odległą samego diabła, którego liczebność drastycznie spadła w ostatnich 2 dekadach wskutek raka pyska (ang. Devil Facial Tumour Disease, DFTD). Na początku Australijczycy przejrzeli wyniki wcześniejszych badań nt. ekologicznego wpływu dingo, diabłów i lisów, a następnie wprowadzili dane do swojego modelu. W ten sposób przewidywali reakcję różnych ekosystemów na obecność S. harrisii. Wydaje się, że reintrodukcja diabłów będzie skutkować mniejszą liczebnością lisów, zdziczałych kotów i takich roślinożerców jak walabie (walabie niszczą zarośla, w których mniejsze zwierzęta mogłyby się ukryć przed drapieżnikami). Podejrzewamy, że diabły tasmańskie kontrolują populacje kotów, bezpośrednio atakując zarówno dorosłe osobniki, jak i ich młode. Dane z Tasmanii pokazują, że tam, gdzie występują zdrowe populacje diabłów, tam kotów jest mniej, w dodatku zmieniają one swoje zachowanie [działa ekologia strachu] - opowiada prof. Mike Letnic. Naukowcy sądzą, że wprowadzenie diabłów na kontynent australijski będzie korzystne dla małych i średnich zwierząt, takich jak jamraje czy pałanki wędrowne, a także dla niskopiennej wegetacji. Reintrodukcja S. harrisii wpłynie za to w niewielkim stopniu na zagrożone gatunki, wrażliwe na drapieżnictwo ze strony lisów. Diabły tasmańskie nie są receptą na wszystko, ale mogą zrobić dużo dobrego [..] - podsumowuje Letnic. « powrót do artykułu
  5. Szefostwo Google'a ogłosiło znaczące zmiany organizacyjne w koncernie. Wielkim zaskoczeniem jest zmiana na stanowisku dyrektora wykonawczego firmy. Nowym CEO zostanie Sundar Pichai. Pracę w Google'u rozpoczął on w 2004 roku, a w roku ubiegłym pojawiły się pogłoski, jakoby miał zastąpić Steve'a Ballmera na stanowisku dyrektora wykonawczego Microsoftu. Teraz Pinchai, którego najbardziej znanym osiągnięciem jest nadzorowanie prac nad przeglądarką Chrome, będzie zarządzał Google'em. Jednak nie mniejszą niespodzianką jest utworzenie nad Google'em holdingu o nazwie Alphabet. Na jego czele staną założyciele Google'a - Larry Page zostanie dyrektorem wykonawczym, a Sergiej Brin - prezesem zarządu. Alphabet będzie zbiorem firm, z których największą i najważniejszą jest Google. Analitycy i inwestorzy z zadowoleniem powitali zmiany. Czynią one bowiem całą strukturę znacznie jaśniejszą niż dotychczas i pozwalają na oddzielenie i odróżnienie zasadniczych części działalności Google'a - biznesu internetowego - od przedsięwzięć w dziedzinie ochrony zdrowia czy budowy autonomicznego samochodu. Alphabet będzie więc działał na podobieństwo General Electric czy Berkshire Hathaway. Struktura holdingu staje się użyteczna w momencie, gdy firma na tyle się rozrośnie, że różne jej wydziały nie mogą być już ze sobą powiązane. Holding nadzoruje więc działalność niezależnych firm. Firmy te z jednej strony tracą ochronę, jaką zwykle firma-matka zapewnia swoim start-upom, z drugiej strony jednak rynek jest w stanie lepiej określić, jak te firmy sobie radzą. Nawet jeśli ich finanse nie są upubliczniane. Larry Page już zresztą zapowiedział, że kwestie alokacji kapitału w poszczególnych firmach będą rygorystycznie pilnowane, a nadzór ze strony Alphabet ma wymuszać sukces biznesowy każdej z firm. Przedsiębiorstwa wchodzące w skład holdingu mają przynosić mu korzyści finansowe, poza tym dobrze radzące sobie firmy można łatwiej sprzedać. Już na początku w skład Alphabet wejdą: firma biotechnologiczna Calico, która skupia się na badaniach biologii starzenia się, Life Sciences, która we współpracy z Novartisem pracuje np. nad soczewkami kontaktowymi monitorującymi organizm, Google Ventures czyli fundusz hedgingowy Google'a, Google X zajmujące się m.in. autonomicznymi samochodami czy balonami, które mają zapewniać łączność internetową, firma prowadzi też badania w dziedzinie ochrony zdrowia. Oczywiście znajdzie się tam też Google. « powrót do artykułu
  6. Kobiety, które urodziły dziecko poczęte metodą in vitro, częściej cierpią na chorobę refluksową przełyku (ang. gastroesophageal reflux disease, GERD). Tureccy naukowcy porównywali częstość GERD u kobiet, które przynajmniej rok wcześniej urodziły swoje pierwsze dziecko/dzieci. Okazało się, że w porównaniu do pań, które poczęły naturalnie, u kobiet po in vitro chorobę refluksową przełyku diagnozowano aż 3-krotnie częściej. Nie odnotowano różnic w częstości GERD między kobietami, które przeszły procedurę in vitro i urodziły jedno albo dwoje dzieci. Zespół ze Szkoły Medycznej Ege Üniversitesi przyglądał się ryzyku GERD u 156 pierworódek, które po poddaniu się zapłodnieniu in vitro co najmniej rok wcześniej urodziły bliźnięta (54) lub jedno dziecko (102). Podczas wywiadu zbierano dane nt. przebiegu ciąży. Panie wypełniały też kwestionariusz dot. refluksu. GERD diagnozowano, jeśli zgaga i/lub cofanie się kwaśnej treści żołądkowej do przełyku występowały co najmniej raz w tygodniu. Uzyskane informacje porównywano z kobietami w podobnym wieku, które poczęły naturalnie i w czasie innego studium wypełniały ten sam kwestionariusz. Okazało się, że momencie badania GERD występowała u 13,5% kobiet po in vitro i 4,5% grupy kontrolnej. W grupie in vitro częstość choroby refluksowej przełyku była nieco wyższa u pań, które urodziły bliźnięta (14,8% vs. 12,7%). Różnica nie była jednak istotna statystycznie. Nie wiadomo, czemu przejście in vitro miałoby zwiększać podatność na GERD, ale autorzy publikacji z United European Gastroenterology Journal rozważają kilka możliwości, w tym rozluźnianie dolnego zwieracza przełyku przez przyjmowane wtedy leki (wysokie dawki progesteronu i estrogenu), kwestie psychologiczne związane z zaburzeniami płodności (stres, depresję czy lęk), a także długie leżenie po zapłodnieniu in vitro w ramach zapobiegania poronieniu. Komentatorzy tureckich doniesień uznają wyniki za ciekawe, zwracają jednak uwagę na konieczność przeprowadzenia długoterminowych badań prospektywnych. « powrót do artykułu
  7. Windows 10 błyskawicznie zdobywa udziały w rynku. Ostatnie tygodniowe zestawienie danych ze StatCounter pokazuje, że pomysł na bezpłatną dystrybucję OS-u chwycił. Przed 8 dniami informowaliśmy, że do najnowszego OS-u Microsoftu należy już 2,5% rynku. Teraz dowiadujemy się, że odsetek ten wzrósł do 4,76%. W najbliższych tygodniach można spodziewać się równie szybkich wzrostów. Najpopularniejszym OS-em pozostaje Windows 7, z którego korzysta 53,48% użytkowników komputerów stacjonarnych i notebooków. Od czasu premiery Windows 10 stracił on 0,93 punktu procentowego. W tym samym czasie udziały Windows 8.1 zmniejszyły się z 16,45 do 14,25%, co dowodzi, że na Windows 10 przechodzą przede wszystkim użytkownicy tego właśnie systemu. Kolejne miejsca na liście najpopularniejszych OS-ów zajmują Windows XP (9,78%), OS X (8,45%) oraz Windows 8 (3,36%). Wszystkie pozostałe systemy są używane przez 5,92% osób. « powrót do artykułu
  8. Z Nature Physics dowiadujemy się o kolejnym znaczącym osiągnięciu naukowców z MIT-u. Otóż, jako pierwszym w historii, udało im się uzyskać kondensat Bosego-Einsteina w bardzo silnym polu magnetycznym. Pole wygenerowane za pomocą laserów, jest 100-krotnie silniejsze niż pole wytwarzane za pomocą najsilniejszych dostępnych magnesów. Dzięki temu kondensat utrzymuje stan nadpłynności przez 1/10 sekundy, a to wystarczająco długo, by go badać. Nadpłynność to stan materii osiągany przez niektóre ciecze i gazy. W temperaturze bliskiej zeru absolutnemu ich atomy zaczynają poruszać się wspólnie, jak jedna zorganizowana fala. Eksperci teoretyzują, że nadciekłe gazy i ciesze mogą poruszać się bez końca, gdyż nie tracą energii. Zatem badanie ich właściwości pomoże udoskonalić nadprzewodzące magnesy czy opracować lepsze systemy energetyczne. Problem jednak w tym, że nadpłynność natychmiast znika gdy atomów nie można utrzymać w jednym miejscu lub gdy podnosi się temperatura. Dlatego też tak ważne jest opracowanie systemu, który pozwala na zachowanie stanu nadpłynnego przez dłuższy czas. Eksperci z MIT-u połączyli technologie chłodzenia laserami z chłodzeniem przez parowanie. W ten sposób schłodzili atomy rubidu, bozony, do temperatury liczonej w ułamkach kelwina. Tak schłodzone bozony tworzą kondensat Bosego-Einsteina. Na czele grupy badawczej stał profesor Wolfgang Ketterle, który za uzyskanie kondensatu Bosego-Einsteina i inne osiągnięcia naukowe został w 2001 roku uhonorowany Nagrodą Nobla z fizyki. Dostrojenie wszystkich elementów systemu zajęło naukowcom 1,5 roku. W końcu udało się ustabilizować nadpłynny gaz na 1/10 sekundy. To wystarczy, by zobrazować stan materii, zobaczyć jej strukturę i zweryfikować obecne teorie. Naszym głównym osiągnięciem jest możliwość zweryfikowania i zidentyfikowania stanu nadpłynności. Jeśli uda nam się lepiej kontrolować pola magnetyczne, możemy przez kolejne lata prowadzić badania naukowe w tym zakresie. Otwiera się w ten sposób kolejne okienko, przez które możemy podglądać świat kwantowy, w którym materiały mają nieznane, warte zbadania, właściwości - mówi Ketterle. W najbliższym czasie naukowiec chce badać uzyskany nową techniką kondensat wprowadzając doń silne oddziaływania pomiędzy atomami poprzez manipulacje ich spinem. Takie eksperymenty stanowiłyby pomost łączący badania nad kondensatem Bosego-Einseina z badaniami nad kwantowym efektem Halla czy izolatorami topologicznymi. Spoglądamy na fizykę z nowej perspektywy. Dotykamy tego co nieznane, równocześnie zaś pokazujemy to co znane w nowym, jaśniejszym świetle - cieszy się Ketterle. « powrót do artykułu
  9. Nurkując 9 lipca br. u wybrzeży miasta Fethiye w Turcji, Lutfu Tanriover i jego koledzy natknęli się na tajemniczy obiekt: 4-m bańkę, która błyszczała po oświetleniu latarką. Unosiła się w wodzie ok. 22 m pod powierzchnią. Nurkowie twierdzili, że zbliżając się do obiektu, czuli zarówno podekscytowanie, jak i lęk. Bańka wydawała się bardzo delikatna i galaretowata. Odpowiedź na pytanie co to, pojawiła się, gdy Turcy zamieścili nagranie w Sieci. Michael Vecchione, dyrektor Narodowego Laboratorium Systematyki NOAA i kurator działu głowonogów z Narodowego Muzeum Historii Naturalnej w Waszyngtonie, tłumaczy, że to masa jaj kałamarnicy, a konkretnie należącej do rodziny strzalikowatych Ommastrephes bartramii. Amerykanin dodaje, że ekipa Tanriovera miała dużo szczęścia, napotykając masę tak blisko brzegu, ponieważ kałamarnice to zwierzęta pelagiczne. Choć nie wiadomo, ile jaj było w bańce, prawdopodobnie kilkanaście-kilkadziesiąt tysięcy. Każde z podłużnych jaj mierzy ok. 2 mm. Samica otacza je galaretowatą macierzą, która pęcznieje po zetknięciu z wodą. W 2006 r. biolodzy z USA zetknęli się w Zatoce Kalifornijskiej z półprzezroczystą szarą masą o średnicy 3-4 m. Jak ustalił zespół dr Danny Staaf, stanowiła ona dzieło kałamarnicy Humboldta (Dosidicus gigas). Bazując na gęstości jaj w 40-ml próbkach, autorzy publikacji z Journal of the Marine Biological Association of the United Kingdom wyliczyli, że w całym bąblu znajdowało się ich od 600 tys. do 2 mln. Większość (ponad 99%) zebranych jaj była zapłodniona. Skoro masy jaj są tak duże, a obie kałamarnice dość rozpowszechnione, czemu te pierwsze tak rzadko się spotyka? Naukowcy sądzą, że w grę wchodzą 2 czynniki. Po pierwsze, bańki występują na większych głębokościach i z rzadka dryfują na płytkie wody. Po drugie, na niekorzyść badaczy działa czas, w przypadku D. gigas, a w końcu O. bartramii to ta sama rodzina, Staaf i inni odkryli bowiem, że jaja z masy wylęgają się w zaledwie 3 dni. « powrót do artykułu
  10. Koncepcja wytwarzania energii z kontrolowanej fuzji jądrowej narodziła się przed ponad 60 laty, a pierwszy tokamak został uruchomiony w 1956 roku. Praktyczne wykorzystywanie energii z takiego źródła jest jednak obecnie równie odległe, jak i wówczas. Jednak najnowsze badania naukowców z MIT-u dają nadzieję, że ludzkość w końcu zacznie korzystać z fuzji jądrowej. Dzięki postępom w technologii produkcji magnesów naukowcy z MIT-u zaprojektowali kompaktowy tokamak, który można by wdrożyć do praktycznego użycia już w ciągu dekady. Profesor Dennis Whyte, dyrektor Plasma Science and Fusion Center mówi, że wykorzystanie w projekcie tokamaka nadprzewodzących taśm z tlenku barowo-miedziowego (REBCO - rare-earth barium copper oxide) zmienia wszystko. Dzięki REBCO można będzie bowiem uzyskać znacznie silniejsze pole magnetyczne. Całość będzie przy tym mniejsza niż obecnie proponowane tokamaki. Mniejszy system będzie zaś tańszy oraz będzie można go szybciej zbudować. Artykuł opisujący nowy projekt został opublikowany w piśmie Fusion Engineering and Design. Prototypowy projekt ma służyć przede wszystkim dalszym badaniom nad fuzją, jednak może być również wykorzystany w roli pierwszej komercyjnej elektrowni. Jego założenia bazują na znanych od kilkudziesięciu lat podstawach. Zmiana polega na wykorzystaniu REBCO. Znacznie silniejsze pole magnetyczne pozwala na uzyskanie znacznie większej wydajności - mówi jeden z autorów projektu, doktorant Brandon Sorbom. W reaktorach fuzyjnych ma zachodzić reakcja podobna jak we wnętrzu gwiazd. Atomy wodoru mają łączyć się, tworząc hel, czemu towarzyszy uwalnianie wielkich ilości energii. Podczas takiej reakcji kluczową rolę odgrywa pole magnetyczne. Im jest ono silniejsze, tym potężniejsza reakcja. Zależność jest tutaj jak 1:4, zatem przy dwukrotnym zwiększeniu natężenia pola magnetycznego otrzymujemy 16-krotne zwiększenie mocy. Każde zwiększenie natężenia pola niesie ze sobą olbrzymie korzyści - mówi Sorbom. Nowa technologia, zaproponowana przez naukowców z MIT-u, powoduje - dzięki użyciu REBCO - 10-krotne zwiększenie mocy fuzji w porównaniu z obecnie stosowanymi technologiami. Porównanie pomysłu z MIT-u z budowanym obecnie we Francji słynnym reaktorem ITER, wypada zdecydowanie na korzyść tego pierwszego. ITER ma kosztować około 40 miliardów dolarów. Tymczasem naukowcy z MIT-u szacują, że ich reaktor, którego średnica będzie dwukrotnie mniejsza od ITER-a, będzie miał tę samą moc, można go szybciej wybudować i to za ułamek kosztów ITER-a. Jednocześnie Amerykanie podkreślają, że poza różnicą w rozmiarach i mocy pola magnetycznego obie konstrukcje bazują na tych samych zasadach. Reaktor z MIT-u, nazwany ARC, ma jeszcze jedną zaletę. W jego wypadku wymiana rdzenia nie wymaga rozebrania całego urządzenia. A to czyni go świetnym narzędziem badawczym, gdyż ekspertom będzie znacznie łatwiej eksperymentować z różnymi materiałami. ARC, podobnie zresztą jak ITER, będzie mógł pracować w systemie ciągłym. Obecne tokamaki badawcze są w stanie pracować tylko przez kilka sekund. Wydłużenie tego czasu doprowadziłoby do przegrzania. Na tym jednak nie koniec zalet ARC-a. Reaktor korzysta z płynnego płaszcza ochronnego, dzięki, który można poddawać krążeniu i wymianie. W obecnie stosowanych reaktorach używa się płaszczy ze stałych materiałów, które ulegają szybkiej degradacji. Wymiana takiego płaszcza jest kosztownym pracochłonnym zajęciem. Twórcy projektu oceniają, że ich reaktor może wyprodukować 3-krotnie więcej energii niż potrzebuje do podtrzymania reakcji, jednak projekt można prawdopodobnie udoskonalić tak, by zwiększyć ilość energii do 5- lub 6-krotności tego, co potrzebuje reaktor. Jeśli uczeni z MIT-u mają rację, to właśnie opracowali przełomowy reaktor fuzyjny. Dotychczas żaden tokamak nie wyprodukował nadmiarowej energii. « powrót do artykułu
  11. Wiele leków przepisywanych starszym osobom może utrudniać leczenie mózgu po urazie, wynika z badań opublikowanych przez naukowców z University of East Anglia. Wyniki badań, w których brali udział naukowcy z innych uniwersytetów oraz brytyjskiego NHS, opublikowano w piśmie Brain Injury. Nawet 50% starszych osób przyjmuje przepisane przez lekarzy leki z grupy cholinolityków. Są one przepisywane na problemy z pęcherzem, bezsenność czy depresję. Wiadomo o nich, że wśród efektów ubocznych ich przyjmowania znajduje się tymczasowe zaburzenie funkcji poznawczych czy zawroty głowy. Nikt jednak wcześniej nie badał ich wpływu na uszkodzony ośrodkowy układ nerwowy. Cholinolityki są wykorzystywane też podczas rehabilitacji pacjentów neurologicznych. Służą radzeniu sobie z problemem nietrzymania moczu w odpowiedzi na pól. Tymczasem, jak donoszą naukowcy z University of East Anglia, badania 52 pacjentów neurologicznych z uszkodzeniami mózgu lub rdzenia kręgowego wykazały, iż ci, którzy mieli w organizmie wyższe stężenie tych leków musieli być rehabilitowani dłużej. Badania wykazały, że zmiany w stężeniu były bezpośrednio skorelowane z długością rehabilitacji. Ci, którzy w momencie wypisywania ze szpitala rehabilitacyjnego mieli w organizmie więcej cholinolityków niż w czasie, gdy ich przyjmowano, pozostawali na rehabilitacji dłużej, niż pacjenci, u których stężenie cholinolityków spadło w czasie pobytu na rehabilitacji. Naukowcy ostrzegają, że ich spostrzeżenia to czysta korelacja i nie oznacza ona wynikania. Nasze badania sugerują, że może istnieć statystycznie istotny związek pomiędzy ilością cholinolityków a długością rehabilitacji po uszkodzeniu mózgu lub rdzenia kręgowego - mówi główny autor badań, profesor psychiatrii klinicznej Chris Fox. To pilotażowe studium pokazuje, że konieczne jest przeprowadzenie szerzej zakrojonych badań w celu potwierdzenia wyników oraz sprawdzenie, jaki długoterminowy wpływ mają te leki na rehabilitację pacjentow. Cholinolityki są często niezbędne w procesie leczenia uszkodzeń mózgu i rdzenia kręgowego, jednak zaburzenia poznawcze wywoływane przez te leki mogą negatywnie wpływać na zdolność pacjenta do zaangażowania się w rehabilitację, potencjalnie wydłużając jego pobyt w szpitalu. « powrót do artykułu
  12. Analiza wyglądu źrenic 214 gatunków zwierząt lądowych dowodzi, że istnieje silny związek pomiędzy ich kształtem, a niszą ekologiczną, jaką zajmuje gatunek. Analizę przeprowadził zespół pracujący pod kierunkiem profesora optometrii Martina Banksa z Uniwersytetu Kalifornijskiego w Berkeley (UC Berkeley). Okazuje się, że u drapieżników polujących z zasadzki, aktywnych i za dnia i w nocy, źrenice są rozciągnięte w pionie. Tam, gdzie mamy do czynienia ze źrenicami ułożonymi w poziomie, najprawdopodobniej jest to zwierzę należące do gatunku roślinożernego i ma oczy po bokach głowy. Z kolei zaokrąglone źrenice mają gatunki aktywnych łowców, ścigających swoje ofiary. Najnowsze badania bazują na pracach profesora optometrii Gordona Wallsa z UC Berkeley, który w 1942 roku opublikował dzieło "The Vertebrate Eye and Its Adaptive Radiation". To klasyczny już tekst naukowy o fizjologii oczu. U gatunków, które są aktywne za dnia i w nocy, jak koty domowe, źrenice w kształcie szczelin dają możliwość bardzo dużej zmiany ilości wpadającego doń światła, dzięki czemu dobrze widzą przy słabym oświetleniu i nie są oślepiane w pełnym słońcu. Teoria ta nie wyjaśnia jednak, dlaczego istnieją źrenice pionowe i poziome. Nie wyjaśnia też, dlaczego nie ma źrenic ukośnych. Nasze badania są pierwszymi, które próbują dać odpowiedź na te pytania - mówi Banks. Warto tutaj przypomnieć, że np. w przypadku kotów czy gekonów różnica w powierzchni pomiędzy najbardziej zwężonymi, a najbardziej rozszerzonymi źrenicami jest, odpowiednio 135- i 300-krotna. U ludzi zaś jest ona zaledwie 15-krotna. Zespół Banksa użył modeli komputerowych, które pozwoliły na symulowanie pracy różnych źrenic. Okazało się, że poziome źrenice, ustawione równolegle do gruntu, spotykane u roślinożerców takich jak owce, konie czy jelenie zwiększają pole widzenia. Rejestrują więcej światła dochodzącego z przodu, boków i z tyłu, jednocześnie zwierzęcia nie oślepia z góry słońce, przez co lepiej widzi ono grunt. "Zwierzęta te muszą strzec się drapieżników poruszających się po ziemi, potrzebują zatem panoramicznego widzenia z minimalną liczbą martwych pól. Gdy już wykryją drapieżnika, muszą dobrze widzieć drogę ucieczki. Potrzebują zatem dobrego widzenia kątem oka, by móc biec szybko i przeskakiwać nad przeszkodami" - wyjaśnia Banks. Te wszystkie zalety poziomo ułożonych źrenic są jednak - jak się wydaje - niweczone, gdy zwierzę pochyla głowę, by pożywić się trawą. Banks spędził wiele godzin w Oakland Zoo patrząc na antylopy czy kozy, a jego współpracownik, profesor fizyki Gordon Love z brytyjskiego Durham University całymi godzinami obserwował na pobliskich farmach owce i konie. Obaj uczeni zauważyli, że jedzące trawę zwierzęta potrafią zmienić położenie swoich oczu aż o 50 stopni, czyli 10-krotnie bardziej niż człowiek. Zalety poziomo ułożonych źrenic zostają więc zachowane. Z kolei u zwierząt polujących z zasadzki, pionowa orientacja źrenic pozwala na lepszą ocenę odległości do ofiary. Trzy cechy umożliwiają dobrą ocenę odległości: widzenie stereoskopowe, paralaksa ruchu (obiekty bliższe poruszają się w polu widzenia szybciej) oraz zmiany ogniskowej (różna ostrość widzianych obiektów znajdujących się w różnych odległościach). Badacze odrzucili paralaksę ruchu, gdyż zwierzę musiałby ciągle ruszać głową, co mogłoby zdradzić jego kryjówkę. Analizy wykazały, że pionowo ułożone źrenice maksymalizują korzyści zarówno z widzenia stereoskopowego jak i zmian ogniskowej. Okazało się jednak, że nie wszystkie drapieżniki polujące z zasadzki mają pionowe źrenice. Zaskoczył nas fakt, że pionowe oczy mają te drapieżniki, które znajdują się bliżej gruntu. Tak więc koty domowe mają pionowe źrenice, ale większe koty, jak lwy czy tygrysy mają okrągłe, jak ludzie czy psy - mówi jeden z badaczy, doktor William Sprague. Spośród 65 badanych gatunków drapieżników polujących z zasadzki i mających oczu z przodu głowy, aż 44 miały pionowe źrenice, a z nich 82% to gatunki, których wysokość w kłębie nie przekraczała 42 centymetrów. Pionowo ułożone źrenice najwyraźniej pozwalają małym zwierzętom lepiej ocenić odległość do ofiary. Uczeni chcą w przyszłości przeprowadzić podobne badania w odniesieniu do zwierząt wodnych, ptaków i ssaków latających oraz zwierząt żyjących na drzewach. « powrót do artykułu
  13. Eliminując splątania, naukowcy z zespołu dr. Davida A. Weitza z Uniwersytetu Harvarda uzyskali nowy materiał na implanty medyczne - ultramiękką suchą gumę silikonową, której cechy można dostosowywać do tkanki docelowej. Dotąd właściwości ludzkich tkanek próbowano oddawać, mieszając oleje z długimi liniowymi łańcuchami polisiloksanowymi, ale choć w dziedzinie tej poczyniono duże postępy, ryzyko przeciekania nadal pozostawało. Przez metodę wytwarzania konwencjonalne elastomery są sztywne. Włókna polimerowe są bardzo długie i splątane, co przypomina zbitkę lampek na choinkę, gdzie kabel jest poplątany i pokryty węzłami - wyjaśnia dr Li-Heng Cai. Próbując rozwiązać problem, Amerykanie wymyślili nowy typ polimeru - tłustszy i pozbawiony splątań polimerów liniowych. Zwykle produkcja szczotek polimerowych wymaga skomplikowanej syntezy chemicznej, ale dzięki szczegółowemu planowi my odkryliśmy bardzo prostą strategię. Ten system generuje miękkie elastomery z taką samą łatwością jak dostępne w handlu zestawy montażowe - podkreśla dr Thomas E. Kodger. Miękkością można manipulować za pomocą zawartości polimeru usieciowanego. Jeśli nie ma sieciowania, wszystkie boczne łańcuchy są mobilne - materiał będzie się zachowywać jak lepka ciecz, np. miód. Dodanie sieciowania zestala ciecz, zwiększając sztywność materiału - opowiada Kai. By konwencjonalny elastomer stał się bardziej miękki [płynący], musi napęcznieć w cieczy. Teraz by elastomery były ultramiękkie, a jednocześnie nadzwyczajnie nieprzywierające, wystarczy jednak dostosować długość włókien szczepionych polimerów [...] - dodaje Michael Rubinstein z Uniwersytetu Północnej Karoliny. Weitz podkreśla, że niezależne kontrolowanie miękkości i właściwości cieczopodobnych pozwoli zaawansować badania. Jak [bowiem] wskazują ostatnie odkrycia, różnicowanie komórek macierzystych zależy nie tylko od miękkości materiałów, z jakimi się stykają, ale i od tego, jak bardzo są one płynne. Nasze ustalenia zapewniają całkiem nowe materiały do badania zachowania komórek na miękkich substratach. « powrót do artykułu
  14. Intel zapowiada architekturę Xeon dla notebooków. Maszyny takie mają trafić do rąk profesjonalistów, którzy potrzebują przenośnej stacji roboczej. Xeon to serwerowe procesory Intela. Koncern ma zamiar rozpocząć sprzedaż rodziny E3-1500M v5 korzystających z architektury Skylake. Coraz więcej profesjonalistów potrzebuje bardzo wydajnych przenośnych komputerów. "Mobilne stacje robocze z procesorami Xeon będą korzystały z kluczowych technologii, takich jak mechanizm automatycznej korekcji błędów, który będzie w czasie rzeczywistym wykrywał i naprawiał błędy prowadzące do uszkodzenia danych czy awarii systemu" - oświadczył Intel. Komputery takie będą też wyposażone w sprzętowe systemy bezpieczeństwa czy technologię Intel vPro oraz Thunderbolt 3 USB Type-C. Intel zaznacza jednocześnie, że w tej chwili nie jest jeszcze gotowy, by ujawnić wszystkie szczegóły na temat nowych procesorów, zapewnił jednak, że inżynierowie, projektanci i wszyscy, którzy potrzebują wydajnego przenośnego sprzętu będą z pewnością zadowoleni. Oczywiście trudno sobie wyobrazić, by do notebooków trafiły 6- czy 8-rdzeniowe Xeony. Układy takie mają bowiem duże zapotrzebowanie na energię i trudno jest je schłodzić, więc w chwili obecnej umieszczanie ich w przenośnych komputerach może okazać się niemożliwe. « powrót do artykułu
  15. Wszystko wskazuje na to, że bakterie mikrobiomu jelit mogą zapobiegać rozwojowi cukrzycy typu 1. Specjaliści z INSERM-u, Université Paris-V, francuskiego Krajowego Centrum Badań Naukowych (French National Centre for Scientific Research, CNRS), Chin i Szwecji skupili się na peptydach antydrobnoustrojowych, w tym na katelicydynach, które pełnią również funkcje immunomodualcyjne. Biorąc pod uwagę dostępne dane, zespół dywagował, że katelicydyny mogą brać udział w kontrolowaniu cukrzycy typu 1. Już na początku autorzy publikacji z pisma Immunity zaobserwowali, że komórki beta wysp trzustkowych zdrowych myszy produkowały katelicydyny, a u gryzoni chorych ich wytwarzanie było upośledzone. Iniekcje z katelicydyny hamowały rozwój zapalenia trzustki i w ten sposób nie dopuszczały do rozwoju choroby autoimmunologicznej - podkreśla Julien Diana z INSERM-u. Ponieważ produkcja katelicydyn jest kontrolowana przez krótkołańcuchowe kwasy tłuszczowe (KKT) wytwarzane przez mikroflorę jelit, Francuzi badają możliwość, że to pierwotna przyczyna związanego z cukrzycą typu 1. niedoboru katelicydyn. Już teraz zademonstrowano np., że w porównaniu do zdrowych zwierząt, u myszy z cukrzycą występuje niższy poziom KKT. Przenosząc część mikrobiomu zdrowych myszy do organizmów gryzoni z cukrzycą, przywracano prawidłowy poziom katelicydyn i ograniczano występowanie cukrzycy. « powrót do artykułu
  16. Mózgi osób z padaczką reagują na muzykę inaczej niż mózgi osób zdrowych. Sądzimy, że potencjalnie muzyka może być wykorzystywana jako metoda interwencyjna [do zapobiegania napadom] - wyjaśnia dr Christine Charyton z Centrum Medycznego Wexnera Uniwersytetu Stanowego Ohio. Amerykanie tłumaczą, że ok. 80% przypadków epilepsji stanowi tzw. padaczka skroniowa, w której gwałtowne, synchroniczne wyładowania neuronów mają miejsce właśnie w płacie skroniowym. Ponieważ muzyka jest przetwarzana przez korę słuchową w tym samym płacie, Charyton chciała ocenić jej wpływ na mózgi chorych. Zespół posłużył się EEG. Dane pozyskano m.in. od pacjentów, który między wrześniem 2012 a majem 2014 r. przebywali na uniwersyteckim oddziale monitorowania padaczki. Czynność bioelektryczną utrwalano w ramach następującego schematu: w czasie 10 min ciszy, odtwarzania Sonaty na dwa fortepiany D-dur KV448 Mozarta (części II - Andante) lub piosenki "My Favorite Things" w wykonaniu Johna Coltrane'a, drugiej 10-min ciszy, odtwarzania drugiego z wymienionych wcześniej utworów i trzeciego, ostatniego, 10-min okresu ciszy. Kolejność utworów była losowa, co oznacza, że część ochotników słuchała na początku Mozarta, a część Coltrane'a. Okazało się, że w czasie słuchania muzyki u pacjentów z epilepsją występowała znacząco większa aktywność bioelektryczna mózgu, co więcej, zaobserwowano u nich tendencję do silniejszej synchronizacji fal mózgowych, zwłaszcza w obrębie płata skroniowego, z muzyką. Byliśmy zaskoczeni wynikami - podkreśla Charyton, dodając, że wg niej, zapobiegając napadom, warto by połączyć tradycyjne leczenie oraz interwencje muzyczne. « powrót do artykułu
  17. Mozilla opublikowała pilną poprawkę łatającą dziurę w Firefoksie, która pozwalała przestępcom na wyszukiwanie plików na zaatakowanym komputerze i pobieranie ich na własny serwer. Atak odkryto na jednej z rosyjskich stron z bieżącymi informacjami. Przestępcy kradli pliki z komputerów użytkowników witryny i umieszczali je na serwerze na Ukrainie. Ich zainteresowaniem cieszyły się przede wszystkim pliki konfiguracyjne klientów FTP oraz pliki systemu kontroli wersji. Atakowani byli użytkownicy systemów Linux i Windows. Z nieznanych przyczyn nie atakowano komputerów z systemem Mac, chociaż i one są podatne na atak. Mozilla zaleca jak najszybsze zaktualizowanie Firefoksa oraz zmianę haseł. Firma podkreśla, że co prawda ataki odkryto na rosyjskiej witrynie, ale nie można wykluczyć, że są one dokonywane również w innych częściach świata. Użytkownicy Adblocka są prawdopodobnie chronieni przed atakiem, jednak zależy to, jakiego filtra używają. Szkodliwy kod jest bowiem rozpowszechniany za pomocą reklam. Dziura występuje w mechanizmie, który oddziela JavaScript od przeglądarki PDF-ów. Androidowa wersja Firefoksa jest bezpieczna, gdyż nie ma ona wbudowanej przeglądarki plików PDF. « powrót do artykułu
  18. Podczas konferencji Black Hat Microsoft poinformował, że dwukrotnie zwiększa kwotę przeznaczoną na nagrody za znalezienie dziur w firmowym OS-ie. W ramach programu Bounty for Defense specjaliści, którzy znajdą i zdradzą koncernowi informacje o dziurach będą mogli liczyć nawet na 100 000 USD. Wyobraźmy sobie, że przestępcy wykorzystują jakąś dziurę i Microsoft ją załatał. Jeśli znajdziesz obejście dla tej łaty, możesz to zgłosić do naszego programu Mitigation Bypass, a wówczas wypłacimy ci nawet 100 000 dolarów. Z kolei pomysły na dalsze zabezpieczenie naszych produktów przed atakami należy zgłaszać do programu Bounty for Defense, który ma własny budżet z maksymalną wypłatą również ustaloną na poziomie 100 000 dolarów. Ci, którzy zgłoszą zarówno metodę obejścia łaty, jak i pomysł na dalsze zabezpieczenie, mogą liczyć na nagrodę z obu programów. Wypłacamy nagrody za pomysły dotyczące jedynie najnowszej wersji Windows, tak więc obecnie dotyczą one Windows 10 - czytamy w oświadczeniu Microsoftu. « powrót do artykułu
  19. NASA przeprowadziła pierwsze badania satelitarne pożarów w Afryce Północnej i ich wpływu na opady. Każdego roku około połowy pożarów, które mają miejsce na Ziemi, wybucha w Afryce. Tamtejsza ludność od wieków wypala roślinność by oczyścić glebę pod uprawy. Dym z tych pożarów wpływa na lokalną pogodę i wzorce opadów. Teraz wykorzystano satelity, do zbadania tego wpływu. Dane uzyskane z trzech satelitów porównano z wzorcami pogodowymi i z tym, co wiemy na temat wpływu dymu na opady. Zespół, na którego czele stał Michael Tosca z Jet Propulsion Laboratory odkrył, że w miejscach, gdzie występuje dym tworzy się mniej chmur, niż w miejscach gdzie go nie ma. Cząstki emitowane podczas pożarów uniemożliwiają tworzenie się chmur, przez to nie ma opadów, co tylko pogarsza sytuację regionu, który już i tak cierpi z powodu regionalnej suszy. Mniej chmur i opadów to bardzie sucha roślinność, co tylko ułatwia farmerom jej podpalanie - mówi Tosca. Uczony zauważa, że związek pomiędzy chmurami a aerozolami obecnymi w powietrzu jest bardzo skomplikowany. Z jednej bowiem strony obecność aerozoli jest konieczna do uformowania się chmury, wokół cząstek aerozoli skrapla się woda, która w końcu opada na Ziemię. Można by więc przypuszczać, że gdzie więcej pożarów, a więc i aerozoli, tam więcej chmur. Jednak aerozole mają różny wpływ na formowanie się chmur w zależności m.in. od cech aerozoli, wysokości innych czynników. Określenie, który z czynników dominuje, wymagałoby szczegółowych badań konkretnych w konkretnej lokalizacji i sytuacji. Dym z wypalania roślinności zawiera dużo sadzy. Jako, że jest ona ciemna, bardzo efektywnie absorbuje promienie słoneczne, dzięki czemu cząsteczki sadzy podgrzewają powietrze wokół siebie. Powstaje warstwa gorącego pełnego sadzy powietrza. Gdy ogrzane od Ziemi powietrze unosi się i trafia na tę warstwę nie może wędrować już w górę, zaczyna więc przesuwać się w poziomie. W tan sposób zaburzona zostaje konwekcja, ciepłe powietrze nie może szybko się wychłodzić podążając w górę, nie powstają więc chmury. Naukowcy przeanalizowali kilkadziesiąt obrazów satelitarnych zawierających tysiące zestawów danych. Za każdym razem okazywało się, że w podobnych warunkach meteorologicznych konwekcja była silniejsza tam, gdzie nie było dymu. Tosca przypomina, że do podobnych wniosków na temat wpływu wypalania roślinności na opady naukowcy doszli już wcześniej za pomocą modeli klimatycznych. Jednak nie było w środowisku naukowym zgody, gdyż niektórzy twierdzili, że zmniejszona konwekcja zostanie skompensowana przez inne czynniki. Dane satelitarne przeczą jednak temu twierdzeniu. Wykazaliśmy nie tylko, że w obecności aerozoli zmniejsza się zachmurzenie, ale że to aerozole powstrzymują konwekcję. Taki rozwój sytuacji przewidywały teoretyczne modele, ale zobaczyć to na własne oczy to coś zupełnie innego - stwierdza Tosca. « powrót do artykułu
  20. Badanie reprezentatywnej próby Koreańczyków Południowych wykazało, że niższy poziom manganu i wyższy poziom rtęci we krwi wiązał się z częstszym występowaniem jaskry. Zespół dr. Shana C. Lina z Uniwersytetu Kalifornijskiego w San Francisco badał związek między stężeniem 5 metali śladowych (manganu, rtęci, ołowiu, kadmu i arsenu) a częstością występowania jaskry. Naukowcy analizowali dane dot. stężenia metali we krwi bądź moczu i jaskry 2680 osób w wieku ≥19 lat, które między styczniem 2008 a grudniem 2009 r. brały udział w Korea National Health and Nutrition Examination Survey. Po wzięciu poprawki na potencjalnie istotne czynniki okazało się, że niższy poziom manganu i wyższy poziom rtęci we krwi wiązał się z większą częstością występowania jaskry. Nie natrafiono na związek między diagnozą choroby a stężeniem ołowiu lub kadmu we krwi, a także poziomem arsenu w moczu. Amerykanie podkreślają, że wyniki te trzeba potwierdzić w kolejnych badaniach. Ważne też będzie prześledzenie ewentualnej roli pierwiastków śladowych w patogenezie jaskry. « powrót do artykułu
  21. NASA będzie musiała tłumaczyć się Izbie Reprezentantów ws. katastrofy rakiety Falcon 9 firmy Space X. A raczej nie z samej katastrofy ile ze swojej bierności. Deputowani chcą się dowiedzieć, dlaczego NASA nie wszczęła własnego śledztwa. Zrobiła tak przecież po ubiegłorocznym wypadku rakiety Antares firmy Orbital ATK. Oba loty, zarówno ten Antares jak i ten Falcona zorganizowano w ramach kontraktów z NASA. W obu przypadkach śledztwa, pod nadzorem Federalnej Administracji Lotniczej (FAA), prowadzili właściciele rakiet. Jednak tylko jedna z katastrof była badana też przez NASA. Różnica w podejściu NASA do tych obu podobnych przypadków każe zadać pytanie nie tylko o równe i uczciwe traktowanie kontrahentów przez NASA, ale również o wiarygodność samych śledztw - napisał przewodniczący Komitetu ds. Nauki, Kosmosu i Technologii Izby Reprezentantów Lamar Smith w liście skierowanym do szefa NASA Charlesa Boldena. Smith zauważa, że zarówno umowa podpisana przez NASA ze SpaceX jaki i Orbital ATK daje Agencji prawo do badania przedsięwzięć, w których brały udział personel lub zasoby NASA. Smitha martwi fakt, że w sprawie SpaceX NASA jedynie wprowadziła swojego przedstawiciela do firmowej komisji śledczej. Tymczasem SpaceX pracuje nad załogowym systemem lotów kosmicznych, więc NASA powinna być bardziej zainteresowana bezpieczeństwem technologii tej firmy. « powrót do artykułu
  22. Nie zawsze doceniamy jej znaczenie, ale bez niej trudno byłoby wyobrazić sobie dzisiejszy świat. To ona wspiera decyzje najwyższego szczebla, ułatwia wszelkie prognozy, symulacje i analizy, a także wspiera rozwój społeczeństwa informacyjnego i gospodarki. Mowa tu o statystyce publicznej, w ramach której udostępniane są istotne informacje dot. współczesnych zjawisk. Dziś przedstawiamy rozwiązanie, które  zmienia oblicze statystyki publicznej w Polsce. Statystyka publiczna dopiero w XIX w. na dobre weszła do życia społeczno-politycznego. Dziś trudno wyobrazić sobie współczesny świat bez dostępu do bieżących danych statystycznych, będących podstawą działania społeczeństwa informacyjnego. We wszystkich krajach należących do ONZ, do gromadzenia informacji istotnych z punktu widzenia funkcjonowania państwa, powołuje się odrębne instytucje upoważnione do zbierania i przetwarzania danych. W Polsce określa to Ustawa z dnia 29 czerwca 1995 r. o statystyce publicznej. Badania prowadzone w jej ramach dotyczą różnych dziedzin życia społecznego, gospodarczego, w tym sytuacji demograficznej oraz stanu środowiska naturalnego. Poprzez zauważalny wzrost liczby zastosowań statystyki w różnorodnych dyscyplinach, nie tylko naukowych, ale też finansach, telekomunikacji, marketingu oraz zarządzaniu, można mówić o jej niebagatelnym wpływie na rozwój społeczeństwa i gospodarki, którego podstawą jest wartościowa informacja. Opisywana tendencja poszerzania zakresu wykorzystania statystyki nieodzownie wiąże się z rozpowszechnieniem nowoczesnych narzędzi teleinformatycznych. Powstaje coraz więcej możliwości, nie tylko komunikowania się na odległość, ale również załatwiania spraw bez konieczności fizycznej obecności w danym miejscu. Asortyment usług świadczonych drogą elektroniczną systematycznie się zwiększa, również w sferze działań instytucji publicznych. Polska statystyczna Postęp w statystyce publicznej mocno zauważalny jest w Polsce. Do jej głównych założeń należy tworzenie wielowarstwowych baz danych, zapewnienie nieograniczonego dostępu do informacji oraz edukacja statystyczna. W ostatnim czasie duży nacisk kładzie się na tworzenie elektronicznego systemu umożliwiającego łatwy i co ważne powszechny dostęp do publikowanych danych. Znaczącym motorem napędowym rozwoju elektronicznej administracji (wykorzystującej nowe technologie w celu poprawy swoich usług), stały się środki z funduszy Unii Europejskiej. Szczególnie temu służy 7 Oś Priorytetowa Programu Operacyjnego Innowacyjna Gospodarka na lata 2007-2013, w ramach której realizowany jest Projekt „Portal Geostatystyczny – Faza II”. Portal Geostatystyczny to narzędzie oparte o technologie wykorzystujące dane geoprzestrzenne bazujące na tzw. Systemach Informacji Geograficznej GIS (ang. Geographic Information System). Celem jest tu wspieranie procesów decyzyjnych, bazujących na gromadzeniu, przetwarzaniu oraz wizualizacji danych geograficznych połączonych z danymi statystycznymi. W portalu są także zawarte rozwiązania będące odniesieniem do specyfikacji znajdujących się w przepisach wykonawczych do Dyrektywy INSPIRE, ustanawiającej Infrastrukturę Informacji Przestrzennej we Wspólnocie Europejskiej, a także w Ustawie z dnia 4 marca 2010 r. o infrastrukturze informacji przestrzennej. Przykładem jest np. publikowanie wyników badań statystycznych w siatce kilometrowej (grid). « powrót do artykułu
  23. Stary błąd projektowy w procesorach x86 umożliwia napastnikowi zainstalowanie rootkita w niskopoziomowym firmware. O istnieniu dziury poinformował podczas konferencji Black Hat Christopher Domas z Battelle Memorial Institute. Rootkit może zostać zainstalowany w System Management Mode (SMM) procesora. To chroniony obszar kodu odpowiedzialny m.in. za obsługę błędów pamięci i chipsetu, zarządzenie systemami bezpieczeństwa związanymi z chłodzeniem procesora, obługa konfiguracji systemu czy trybu uśpienia komputera. Rootkit zainstalowany w SMM może wykasować zawartość UEFI czy zainfekować system operacyjny, który został przeinstalowany z powodu wcześniejszej infekcji. Mechanizm Secure Boot nie chroni przed tego typu atakami, gdyż jego bezpieczeństwo jest uzależnione od działania SMM. Na szczęście wspomniana na wstępie dziura nie może być wykorzystana samodzielnie. Zainstalowanie rootkita wymaga bowiem dostępu na poziomie jądra lub administratora. Konieczne jest zatem wcześniejsze wykorzystanie innej luki dającej napastnikowi odpowiednie uprawnienia. « powrót do artykułu
  24. Zespół z Instytutu Badawczego Ellen Scripps zajmuje się obiecującym enzymem bakteryjnym, który ma szansę zostać wykorzystany w lekach pomagających rzucić palenie. Jak zaznacza prof. Kim Janda, mimo wczesnego etapu badania pokazują, że enzym ma odpowiednie właściwości, by ostatecznie zostać skutecznym lekiem. Co więcej, da się go odtworzyć w laboratorium. Terapia enzymatyczna zakłada, że nikotynę namierza i niszczy się, nim dotrze do mózgu. W ten sposób palacza pozbawia się nagrody, która mogłaby wyzwolić nawrót nałogu. Przez ponad 30 lat zespół Jandy próbował stworzyć taki enzym, ale ostatnio okazało się, że coś takiego istnieje w naturze. Chodzi o NicA2 Gram-ujemnych Pseudomonas putida. Bakterie te, oryginalnie wyizolowane z gleb upraw tytoniu, wykorzystują nikotynę jako jedyne źródło węgla i azotu. W ramach najnowszego studium naukowcy opisali enzym odpowiedzialny za rozkład nikotyny i przetestowali jego użyteczność terapeutyczną. Na początku do surowicy myszy wprowadzono ilość nikotyny odpowiadającą jednemu papierosowi. Po dodaniu NicA2 czas połowicznego rozpadu nikotyny spadł z 3 godzin do zaledwie 9-15 min. Wg Jandy, wyższa dawka enzymu z kilkoma chemicznymi modyfikacjami może skrócić go jeszcze bardziej, nie dopuszczając, by alkaloid w ogóle dotarł do mózgu. W temperaturze 36,6 st. Celsjusza enzym pozostawał stabilny przez ponad 3 tygodnie. Nie wykryto żadnych toksycznych metabolitów, związanych z rozkładem nikotyny przez NicA2. Enzym jest dość stabilny w surowicy, co czyni go dobrym kandydatem na lek - dodaje Song Xue. Jeśli stabilność uda się jeszcze zwiększyć, jeden zastrzyk może wystarczyć na miesiąc. Kolejnym krokiem naukowców ma być usunięcie bakteryjnych cech enzymu, tak by nie wywoływać reakcji układu odpornościowego. « powrót do artykułu
  25. Naukowcy odkryli, że głowy 2 brazylijskich rzekotek są wyposażone w zabójczą broń - kolce do wstrzykiwania wyjątkowo silnych toksyn. Podnosząc małą żabkę, która ukrywała się zaroślach, Carlos Jared z Instituto Butantan w São Paulo nie spodziewał się, że może mu się coś stać. Niestety, szybko poczuł promieniujący ból ręki, który utrzymywał się aż 5 godzin. Dużo czasu zajęło mi skojarzenie, że ból ma związek z beztroskim chwytaniem tych zwierząt - opowiada biolog. Okazało się, że podczas prac w Lesie Narodowym Goytacazes Jared sięgnął po rzekotkę Corythomantis greening, z której górnej wargi momentalnie wysunęły się kolce. Zagłębiły się one w skórze, uwalniając do niej toksynę. Znalezienie płazów, których wydzieliny skóry są groźniejsze niż żararak (Bothrops), było naprawdę zaskakujące - opowiada Edmund Brodie Junior z Uniwersytetu Stanowego Utah. O ile wydzielina C. greening jest 2-krotnie silniejsza od jadu przedstawicieli rodzaju Bothrops, o tyle w przypadku drugiego z opisanych na łamach Current Biology płazów - Aparasphenodon brunoi - ma już 25 razy większą moc. Wg wyliczeń ekipy, zaledwie jeden jej gram wystarczy, by zabić ponad 300 tys. myszy lub 80 ludzi. Brodie i Jared wyjaśniają, że u obu gatunków w skórze występują spoczywające w gruczołach jadowych kolce. Gdy rzekotki atakują, skóra kurczy się, przez co z wargi wysuwają się pokryte toksyną kolce (mniej jadowita C. greening może się pochwalić lepiej rozwiniętymi kolcami i pokaźniejszymi gruczołami, które wytwarzają więcej wydzieliny). Ponieważ C. greening i A. brunoi nie są blisko spokrewnione, naukowcy podejrzewają, że podobna umiejętność mogła wyewoluować równolegle u innych gatunków. W przyszłości Brazylijczyk i Amerykanin chcą lepiej scharakteryzować jad i gruczoły skórne, które go produkują. Dotąd naukowcy ustalili, że skład chemiczny wydzielin obu rzekotek jest bardzo podobny. Wykryto w nich hialuronidazę, czyli enzym obecny w jadach np. węży. Sam w sobie nie jest on toksyczny, ale wspomaga rozchodzenie się toksyn (zmniejsza lepkość ośrodka). Inne żaby i ropuchy są po prostu trujące (wydzielają substancje, które mają zniechęcić drapieżniki do ich zjadania), lecz C. greening i A. brunoi są jadowite, bo aktywnie wprowadzają toksynę do krwiobiegu wroga. « powrót do artykułu
×
×
  • Dodaj nową pozycję...