Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37658
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    249

Zawartość dodana przez KopalniaWiedzy.pl

  1. Odkryto dwa związki, które mogą leczyć naraz uzależnienie od alkoholu i papierosów. Nad wynalazkiem pracowali wspólnie naukowcy z Gallo Center na Uniwersytecie Kalifornijskim w San Francisco, Karolinska Institutet oraz Pfizera. Na łamach pisma Neuropsychopharmacology badacze opisali 2 związki, które u gryzoni znacznie obniżały spożycie alkoholu. Oba wiązały się z acetylocholinergicznymi receptorami nikotynowymi (nAChR), a konkretnie z ich podtypem α3ß4*. Receptory nAChR są białkami występującymi w ośrodkowym układzie nerwowym i to one odpowiadają za większość efektów działania nikotyny w mózgu. Najnowsze badania wykazały, że geny kodujące α3ß4* mają duże znaczenie w przypadku podatności na uzależnienie zarówno od alkoholu, jak i nikotyny. Problemem pozostawało jednak przełożenie tych ważnych odkryć genetycznych na skuteczne lekarstwa – wyjaśnia dr Selena E. Bartlett. Oba wspomniane na wstępie związki zostały opracowane przez naukowców z Pfizera. Podczas testów klinicznych wykazano, że CP-601932 jest bezpieczny dla ludzi. Teraz trzeba jednak ocenić m.in. jego skuteczność. Drugi ze związków oznaczono skrótem PF-4575180. Uzależnienia od alkoholu i nikotyny są często traktowane jako odrębne zaburzenia, mimo że od 60 do 80% osób poważnie nadużywających alkoholu pali. Istnieją bardzo skuteczne strategie leczenia tych jednostek chorobowych oddzielnie [...]. Nasze dane sugerują, że obranie na cel specyficznych podtypów nAChR może pozwolić na leczenie uzależnienia od alkoholu i nikotyny za pomocą jednego leku. Co ważne, u zwierząt CP-601932 i PF-4575180 ograniczały spożycie alkoholu, ale nie wpływały na konsumpcję sacharozy. To wskazuje, że w odróżnieniu od zatwierdzonych obecnie leków na alkoholizm, nowo odkryte związki nie zaburzają w zbyt dużym stopniu działania mózgowego układu nagrody – podsumowuje Bartlett.
  2. Naukowcy z Uniwersytetu w Buffalo wykorzystali kropki kwantowe do skuteczniejszego dostarczania leków na gruźlicę i inne choroby płuc. Dzięki temu chemioterapeutyk - doksorubicyna - trafia do specyficznych komórek płuc, zwłaszcza makrofagów pęcherzykowych, które stanowią pierwszą linię obrony przed wziewnymi patogenami, nie wywołując przy tym ostrych stanów zapalnych (Nanomedicine: Nanotechnology, Biology and Medicine). Wykorzystując fluorescencję, można sprawić, by w zależności od wielkości kropki świeciły na różne kolory. Ta właściwość jest bardzo cenna dla badaczy, ponieważ "sztuczne atomy" są świetnymi transporterami, poza tym świecą dużo dłużej od barwników, którymi zazwyczaj znakuje się badane molekuły. Dr Krishnan V. Chakravarthy ekscytuje się perspektywą docierania tylko do wybranych komórek, bez konieczności szkodzenia otaczającym tkankom, a nawet odległym narządom. Akademik podkreśla, że udało się to zarówno w hodowlach komórkowych, jak i podczas eksperymentów na modelu zwierzęcym. Na razie technologia znajduje się jeszcze w powijakach, ale gdy powstanie aerozol, będzie można poważnie pomyśleć o testach klinicznych i wdrożeniu wynalazku w szpitalach. Specjaliści z uniwersyteckiego Instytutu Laserów, Fotoniki i Biofotoniki połączyli kropki kwantowe z doksorubicyną. Obrali na cel makrofagi pęcherzykowe (aMØ), które produkują m.in. cytokiny i chemokiny, kształtując w ten sposób przebieg reakcji zapalnej. Centralna rola aMØ w reakcji na wpływy środowiskowe sprawia, że są one idealnymi kandydatami do specyficznego dostarczania leku w celu modulowania odpowiedzi immunologicznej/zapalnej [nie bez powodu makrofagi są nazywane komórkami efektorowi odpowiedzi immunologicznej]. Naukowcy przetestowali właściwości przeciwzapalne kompleksu kropka-doksorubicyna (QD-DOX), wprowadzając do organizmów myszy i szczurów albo sam chemioterapeutyk, albo kropki kwantowe połączone z lekiem. Następnie oceniano zakres uszkodzeń płuc. Okazało się, że kompleks QD-DOX zwiększał pobór medykamentu i nie wywoływał tak silnej reakcji prozapalnej jak doksorubicyna. Zespół wykazał, że lek jest uwalniany dopiero po dotarciu do komórki docelowej i co ważne, nadal zachowuje swoje właściwości.
  3. Uczeni badający genetyczne podstawy długowieczności człowieka, skupiają się na genach, które zapewniają przeżycie jak największej liczby lat. Tymczasem naukowcy z University of Miami zaproponowali inne podejście - szukają oni genów zapewniających jak najdłuższe cieszenie się zdrowiem. Podczas swoich poszukiwań skupili się na amiszach,którzy dożyli 80. roku życia bez chorób, depresji i w dobrej kondycji fizycznej. "Szukamy nie tego, co pozwala długo żyć, ale tego, co pozwala zachować dobre zdrowie w miarę starzenia się" - mówi profesor genetyki William K. Scott. Wraz ze swoją grupą wpadł on na trop jednego z takich czynników. Okazało się bowiem, że u 15% zdrowych osiemdziesięciolatków ze społeczności amiszów występuje haplogrupa X. Tymczasem ma ją jedynie 2% Europejczyków, czyli przodków amiszów. Wśród ogólnej populacji starszych amiszów - a więc także i tych, którzy na starość chorują - haplogrupę X posiada jedynie 3% osób. Haplogrupa X występuje w mitochondriach, co potwierdza wcześniejsze przypuszczenia, że odgrywają one jakąś rolę w starzeniu się. Badanie izolowanych społeczności, takich jak amisze czy mennonici ma te zalety, że pozwala wyeliminować wiele czynników środowiskowych. Członkowie tych grup nie piją, nie palą i większość z nich jest aktywna fizycznie. Z drugiej jednak strony wadą takich badań jest trudność w stwierdzeniu jaki wpływ na zdrowie mają czynniki środowiskowe, gdyż najbliższą im grupą kontrolną są... członkowie tej samej społeczności, którzy prowadzą identyczny tryb życia. Ponadto takie społeczności charakteryzują się zwykle zbyt małą różnorodnością gentyczną, co utrudnia badanie wariantów haplogrup. Na razie trudno wyrokować, na ile istotne jest odkrycie uczonych z Univeristy of Miami. Wcześniejsze badania prowadzone na aszkenazyjskich żydach, którzy przekroczyli 95. rok życia nie wykazały związku pomiędzy długowiecznością a haplogrupami. Naukowcy wciąż nie są w stanie nawet stwierdzić, na ile genetyka ma wpływ na długość życia.
  4. Uczeni z Uniwerstytetu Johnsa Hopkinsa konfigurują swój nowy superkomputer w sposób, który może zmienić zasady pomiaru wydajności takich maszyn. Argumentują przy tym, że nowa konfiguracja jest lepiej dostosowana do obliczeń naukowych, podczas których superkomputery wykorzystują gigantyczne ilości danych. Obecnie wydajność superkomputerów mierzy się we flopsach czyli w operacjach zmiennoprzecinkowych na sekundę. Uczeni z Johna Hopkinsa konfigurują swoją maszynę pod kątem osiągnięcia najlepszej wydajności mierzonej w IOPS-ach, a zatem w liczbie operacji wejścia/wyjścia na sekundę. Innymi słowy, flopsy informują nas o zdolnościach obliczeniowych komputera, a IOPS-y o tym, jakie ilości danych mogą maszynę opuszczać i być do niej przesyłane. Alexander Szalay, informatyk i astrofizyk z Institute for Data Intensive Engineering and Science wyjaśnia, że dla naukowców liczba operacji wejścia/wyjścia stała się wąskim gardłem. Ludzie uruchamiają na superkomputerach coraz większe symulacje, które zajmują olbrzymie ilości miejsca w pamięci operacyjnej, i bardzo trudno jest zapisywać dane wyjściowe na dysk. Na nowy system, nazwany Data-Scope, przeznaczono 3,1 miliona dolarów, z czego 2,1 miliona to grant z Narodowej Fundacji Nauki. Superkomputer ma rozpocząć prace w maju przyszłego roku. Już w tej chwili 20 grup naukowych z Johnsa Hopkinsa wyraziło zainteresowanie jego użyciem. Chcą go wykorzystać do obliczeń związanych z genetyką, obiegiem wody w oceanach, turbulencjami, astrofizyką itp. Uniwersytet będzie udostępniał Data-Scope także obcym uczonym. Proponowana przez uczonych z Johnsa Hopkinsa zmiana podejścia może być bardzo interesująca, gdyż powinna pozwolić na zmniejszenie kosztów użytkowania superkomputerów. Obecnie większość uczonych może na pojedynczej maszynie analizować dane o objętości nie większej niż 10 terabajtów. Do obrabiania większej ilości danych zaprzęga się kilka superkomputerów. Jak twierdzi Szalay, dzięki zmianie konfiguracji i skupieniu się na wskaźniku IOPS, możliwe będzie obniżenie kosztów analizy danych. Twórcy Data-Scope zapewniają, że wydajność wydajność IOPS superkomputera wyniesie od 400 do 500 gigabitów na sekundę. To ponaddwukrotnie więcej niż wydajność IOPS obecnego lidera listy TOP500 - superkomputera Jaguar. Jednocześnie wydajność Data-Scope'a we FLOPS-ach to zaledwie 600 TFlops, czyli trzykrotnie mniej niż Jaguara. Projektowany superkomputer składa się z około 100 serwerów, z których każdy ma do dyspozycji 24 dedykowane HDD i 4 SDD. Zapewnią one przepustowość danych rzędu 4,4 gigabity na sekundę. Za zdecydowaną większość obliczeń będą odpowiadały po dwa procesory graficzne (GPU) umieszczone w każdym z serwerów. Konstruktorzy nowego superkomputera kierują się wytycznymi Gene'a Amdahla, który stwierdził, że idealna maszyna powinna dysponować 1 bitem I/O na każdą instrukcję, którą wykonuje. Obecnie reguła ta jest ignorowana i tzw. liczba Amdahla dla typowego superkomputera wynosi .001. W przypadku Data-Scope'a będzie to .6 lub .7.
  5. Poszukując substancji skutecznie zwalczających agresywne typy nowotworów mózgu, naukowcy na występującą w cebulach żonkili narcyklazynę. Swoje odkrycia opisali na łamach listopadowego wydania The FASEB Journal. By pomóc pacjentom z pierwotnymi nowotworami mózgu, m.in. glejakami, i przerzutami, w ciągu 3-4 lat zamierzamy doprowadzić do testów klinicznych pochodnych narcyklazyny – deklaruje dr Robert Kiss z Laboratorium Toksykologii Instytutu Farmakologii Université Libre de Bruxelles. Narcyklazyna miałaby stanowić uzupełnienie tradycyjnych metod terapii. Belgijski zespół wykorzystał techniki komputerowe, by zidentyfikować cel obierany przez narcyklazynę w komórkach nowotworowych. Od początku wydawało się, że będzie nim najpewniej czynnik elongacyjny eEF1A (elongacja to wydłużanie białek na rybosomie). Już wcześniej wykazano bowiem, że jego nadekspresja może skutkować transformacją nowotworową. Naukowcy przeszczepili też genetycznie zmodyfikowanym myszom komórki z przerzutów czerniaka złośliwego do mózgu. Okazało się, że gryzonie, którym podawano narcyklazynę, przeżywały znacznie dłużej niż zwierzęta nieleczone. Członkowie zespołu Kissa sądzą, że narcyklazyna wybiórczo hamuje namnażanie agresywnych komórek nowotworowych, nie wpływając przy tym negatywnie na zdrowe komórki.
  6. Rozwiązano zagadkę konia tajemniczej rasy, odkrytego przed paroma laty w Pompejach. Ku uciesze jednych i ku zmartwieniu drugich dwoje badaczy z Uniwersytetu w Cambridge wykazało, że to nie koń, lecz osioł. Gdy naukowcy analizowali DNA z pięciu szkieletów wykopanych w jednym z domów w 2004 r., początkowo myśleli, że natknęli się na nieznaną dotąd, wymarłą rasę konia. Susan Gurney i doktor Peter Forster udowodnili jednak, że mamy do czynienia ze zwykłą pomyłką laboratoryjną, ponieważ doszło do zmieszania materiału genetycznego osła oraz konia i stworzenia sztucznej hybrydy. Akademicy przekonują, że odkrycie nadal pozostaje ważne, gdyż wskazuje, że linia występujących we Włoszech osłów spokrewnionych z somalijskimi była hodowana na tych terenach przynajmniej od czasów Cesarstwa Rzymskiego (w innych państwach europejskich osły są często potomkami osłów nubijskich). Szkielety koniowatych, które trzymano w stajniach przy Willi Niewinnych Kochanków (Casa dei Casti Amanti), nazywanej tak od widniejącego na ścianie domostwa fresku przedstawiającego zakochaną parę, zachowały się dobrze dzięki popiołowi wulkanicznemu. Uważa się, że willa należała do Kajusza Juliusza Polibiusza, bogatego polityka i piekarza. Wniosek nasuwa się sam, ponieważ w willi znaleziono otwarty piec oraz cztery żarna. Ekipa badała mitochondrialne DNA (mtDNA) każdego ze zwierząt. W przypadku czterech identyfikacja przebiegła szybko i bez zakłóceń, ale przy piątym szkielecie wydawało się, że natrafiono na typ DNA niewystępujący już współcześnie. Stąd teoria, że musi pochodzić od wymarłej rasy koni. Kiedy jednak Gurney przeanalizowała ponownie wywód, stwierdziła, że w laboratorium omyłkowo zanieczyszczono ośle mtDNA końskim, tworząc hybrydę, która de facto nigdy nie istniała. Specjalistka wyjaśnia na łamach Journal of Cellular Biochemistry, że początkowe nukleotydy (177) pasują do istniejących wzorców oślich, a pozostałe (193) do również istniejącej rasy konia. Przyglądając się wcześniejszym badaniom post factum, można rozpoznać dwa odrębne DNA osła i konia. W dodatku końskie DNA, które zostało nieumyślnie wmieszane w oślą informację genetyczną, jest tego samego rodzaju, co znalezione u konia z Herkulaneum [miasta zniszczonego wraz z Pompejami podczas wybuchu Wezuwiusza 24 sierpnia 79 roku]. Wskazywałoby to na źródło zanieczyszczenia.
  7. Hipoteza holograficznego wszechświata, którą dwa lata temu zaproponował astrofizyk Craig Hogan z amerykańskiego FermiLab, wstrząsnęła naszym rozumieniem czasoprzestrzeni. Amerykański naukowiec zapostulował bowiem, że trzeci wymiar w zasadzie nie istnieje i jest jedynie holograficznym złudzeniem, które może nas mamić jedynie z powodu ograniczonej prędkości światła (dokładnie pisaliśmy o tym rok temu). Mimo kontrowersji zdobyła sobie popularność i uznanie wielu naukowców, rozwiązywałaby bowiem wiele zagadek i paradoksów, między innymi związanych z istnieniem czarnych dziur - od opisu których zresztą wzięła swój początek. Praktycznym skutkiem przyjęcia takiego modelu wszechświata jest to, że posiada on (podobnie do czarnej dziury) płaski, tak zwany horyzont zdarzeń, zaś całe wnętrze jest właśnie hologramem, będącym odbiciem informacji zapisanej na powierzchni horyzontu. Innym skutkiem takiej budowy wszechświata byłaby ziarnistość czasoprzestrzeni (co przeczy obecnemu pojmowaniu jej jako ciągłego kontinuum), podobna do ziarna obrazu na kliszy, czy pikseli obrazu komputerowego. Z obliczeń wynikałoby, że - jeśli jest to prawdą - to wielkość podstawowych elementów czasoprzestrzeni jest o całe rzędy wielkości większa od stałej Plancka i jest w zasięgu możliwych do zbudowania instrumentów pomiarowych. To właśnie jest obecnie celem Hogana. Konstruowany przez niego holometr będzie precyzyjnym interferometrem, podobnym do tych, wykorzystywanych do szukania fal grawitacyjnych, znacznie mniejszym, bo zaledwie czterdziestometrowym, ale za to bardziej czułym. W urządzeniu tym dwie precyzyjne wiązki lasera odbijają się od lustra i powracają, stanowiąc przyrząd czuły na najmniejsze zakłócenia. Takie zakłócenia, szum nieznanego pochodzenia, rejestrowany przez interferometry poszukujące śladu fal grawitacyjnych, uważany jest za poparcie teorii holograficznego wszechświata. Nowy projekt ma zweryfikować ten pogląd. Jeśli się powiedzie, szukanie fal grawitacyjnych okaże się bezcelowe, ale zyskamy odkrycie o wiele donioślejsze. Cała sztuka w konstrukcji holometru polegać będzie na odfiltrowaniu własnych szumów urządzenia. Craig Hogan wie, jak to zrobić i kończy się budowa jednometrowego, działającego modelu holometru. Docelowo gotowe urządzenie ma zacząć zbierać dane w przyszłym roku.
  8. Przeprowadzone przez Medical Research Council badania pokazują, jak bardzo mylili się naukowcy na temat obrony immunologicznej ludzkiego organizmu przed wirusami. Okazuje się bowiem, że przeciwciała mogą zwalczać wirusy także wewnątrz komórek. Dotychczas sądzono, że są one w stanie atakować wirusy tylko poza komórkami oraz blokować im dostęp do nich. Uczeni z MRC Laboratory of Molecular Biology w Cambridge wykazali, że przeciwciała pozostają przyczepione do wirusa nawet po jego wniknięciu do komórki i uruchamiają tam mechanizmy obronne. Za całość obrony jest wówczas odpowiedzialna proteina TRIM21, która transportuje wirusa do lizosomów, czyli miejsca, gdzie przechowywane są niepotrzebne materiały. Odbywa się to na tyle szybko, że większość wirusów nie jest w stanie zaszkodzić komórce. Naukowcy z MRC wykazali przy tym, że zwiększenie ilość TRIM21 w komórkach poprawia efektywność całego procesu, co może przydać się w produkcji lepszych leków antywirusowych. Wirusy to najwięksi zabójcy ludzkości. Przyczyniają się one do śmierci dwukrotnie większej liczby osób niż umiera na nowotwory. Jednocześnie są one wyjątkowo trudne do zwalczenia. Dysponujemy obecnie olbrzymią liczbą środków zabijających bakterie, ale niewieloma, które radzą sobie z wirusami. Badania przeprowadzone przez MRC dają zatem nadzieję na zwalczenie wielu infekcji. Doktor Leo James zauważa: mimo, że jest jeszcze zbyt wcześnie by stwierdzić, czy wszystkie wirusy podlegają temu samemu procesowi wewnątrz komórek, jesteśmy podekscytowani, gdyż nasze badania otwierają liczne drogi do opracowania nowych leków antywirusowych. Te badania to dopiero jeden krok ku zrozumieniu jak i gdzie przeciwciała działają oraz w naszym rozumieniu przebiegu zagadnień infekcji i odporności - dodaje sir Greg Winter z MRC.
  9. W ogólnych zarysach działanie naszego systemu odpornościowego jest znane. Wciąż jednak zagadką są niektóre, poszczególne mechanizmy jego funkcjonowania. Australijskim naukowcom udało się odkryć sekret perforyny, białka-włamywacza. Perforyna (Perforin-1, białko kodowane przez gen PRF1) jest drobnym ale istotnym elementem. Przystępuje ona do ataku, kiedy system immunologiczny rozpozna już i oznaczy „wrogie" elementy: bakterie, czy nieprawidłowe komórki. Bez niej zniszczenie zagrożenia nie byłoby możliwe, perforyna bowiem przełamuje barierę ochronną oznaczonych komórek, wpuszczając przez stworzone mikropory enzymy, które niszczą komórki uznane za szkodliwe. Jak dokładnie ten proces przebiega - nie wiedziano do tej pory. Zespół australijskich naukowców z Monash University pod kierunkiem Jamesa Whisstocka jako pierwszy rozgryzł ten mechanizm. Przy pomocy synchrotronu poznano strukturę proteiny, zaś przy pomocy mikroskopii krioelektronowej zbadano właściwości otworu, który perforyna robi w błonie atakowanej komórki. Co ciekawe, działanie perforyny przypomina analogiczną broń, której używa wiele gatunków bakterii, jak laseczki wąglika, listerię, czy streptokoki. Profesor Joe Trapani uważa, że struktura perforyny jest ewolucyjnie wyjątkowo stara i przetrwała nawet dwa miliardy lat, zaś profesor Whisstock uważa wręcz, że system odpornościowy zwierząt przejął i wykorzystał ten mechanizm właśnie od bakterii. Nieprawidłowe działanie perforyny może być przyczyną wielu chorób, zarówno niedostatecznej odporności, czy białaczki, jak i chorób autoimmunologicznych. Poznanie jej właściwości daje nadzieję na opracowanie metod jej „regulacji", wreszcie wykorzystania tego naturalnego mechanizmu do zwalczania trudnych w leczeniu chorób: raka, malarii czy cukrzycy. Dlatego na dalsze badania australijski zespół otrzymał grant w wysokości miliona dolarów od funduszu Wellcome Trust poprzez program ARC Super Science Fellowship.
  10. Naukowcy najpierw teoretycznie przewidzieli istnienie neutrino, a po kilkudziesięciu latach nauczyli się je wykrywać. Wtedy okazało się, że neutrino oscylują pomiędzy swoimi poszczególnymi zapachami, a zatem mają masę. Dowód na potwierdzenie oscylacji neutrin zdobyto dopiero w bieżącym roku w CERN-ie. Już sam ten fakt świadczył o tym, że Model Standardowy - przewidujący brak masy neutrin - nie jest prawdziwy. Teraz naukowcy z Fermilab przeprowadzili badania, które mogą wysłać Model Standardowy na śmietnik. Amerykanie wykorzystali detektor MiniBooNE do tworzenia neutrin z protonów wysyłanych przez akcelerator Tevatron, które były wystrzeliwane w stacjonarny cel. Zadaniem MiniBooNE'a było sprawdzenie pewnych dziwnych wyników, uzyskanych przed dziesięciu laty w Los Alamos. Sugerowały one, że antyneutrina mionowe oscylują w antyneutrina elektronowe w większym stopniu niż wynikałoby to z wyliczeń. Początkowo MiniBooNE badał neutrina mionowe i nie znalazł żadnych nieprawidłowości. jednak gdy zaczęto przyglądać się antyneutrinom mionowym okazało się, że wykryto więcej antyneutrin niż powinno ich być. Dane dotyczące liczby oraz energii wydają się zbieżne z tym, co zaobserwowano wcześniej w Los Alamos. Antyneutrina po raz kolejny zaskoczyły badaczy. Już wcześniej, również w Fermilab, zaobserwowano, że różnice mas antyneutrin mogą nie być takie same jak różnice mas neutrin.
  11. Firma Coverity, specjalizująca się w poszukiwaniu luk bezpieczeństwa w kodzie źródłowym programów, która już w przeszłości badała programy opensource'owe, tym razem przyjrzała się kodowi systemu Android. Specjaliści znaleźli w jądrze Androida 359 dziur, z czego 88 oceniono jako wysoce niebezpieczne, a 271 jako średnio niebezpieczne. Wśród wysoce niebezpiecznych dziur 20 związanych jest z możliwością zakłócenia pracy podsystemu pamięci, 29 umożliwiają napastnikowi uzyskanie dostępu do pamięci, 11 dotyczy wycieków w pamięci, a 28 - niezainicjalizowanych zmiennych. Złą wiadomością dla Google'a, twórcy Androida, jest fakt, że mimo iż bazuje on na linuksowym jądrze, to w komponentach specyficznych dla Androida odsetek błędów jest wyższy, niż w Linuksie. Z kolei dobra informacja jest taka, że średnia dziur w Androidzie jest i tak niższa od średniej w przemyśle IT i wynosi 0,47 luki na 1000 linii kodu. Jeśli weźmiemy pod uwagę kod specyficzny dla Androida to średnia ta wzrasta to 0,78 dziury na 1000 linii. Specjaliści Coverity zauważają przy tym, że Android zmaga się tutaj z podobnym problemem, jaki ma całe środowisko opensource'owe. Filozofia tworzenia tego oprogramowania powoduje, że odpowiedzialność się rozmywa i nie wiadomo, do kogo należy poprawianie błędów. Czy powinien się zająć tym Google, czy developer, który jest autorem konkretnego kodu, czy też np. producent sprzętu, oferujący Androida.
  12. Naukowcy coraz bardziej zbliżają się do stworzenia egzoszkieletu, który byłby sterowany za pomocą myśli sparaliżowanych osób. Ostatnio amerykańscy specjaliści opracowali technologię nieinwazyjnego izolowania i mierzenia aktywności mózgu poruszających się ludzi. Akademicy ze Szkoły Kinezjologii University of Michigan współpracowali z kolegami z Swartz Center for Computational Neuroscience Uniwersytetu Kalifornijskiego w San Diego. Opisywana technologia stanowi kluczowy element interfejsu mózg-komputer. Zrobotyzowany egzoszkielet nie powstanie, oczywiście, szybko, ale możliwość nagrywania fal mózgowych kogoś wykonującego określone ruchy stanowi ważny krok naprzód. Za pomocą techniki swojego autorstwa naukowcy są w stanie stwierdzić, które części mózgu są aktywowane np. podczas chodzenia, i kiedy. Wcześniej można było mierzyć jedynie aktywność elektryczną mózgu ludzi pozostających w bezruchu. Daniel Ferris porównuje zastosowany zabieg do umieszczenia mikrofonu w środku orkiestry, po to by zlokalizować umiejscowienie i linię melodyczną określonych instrumentów. Podobnie jak w orkiestrze, w mózgu jest wielu hałasujących "utudniaczy". Mózg generuje bowiem dużo elektrycznego szumu. Poza tym poruszając się, nawet sama elektroda generuje zakłócenia. Amerykanom udało się zidentyfikować aktywność, o którą im chodziło, umieszczając na idącym lub biegnącym na bieżni człowieku dziesiątki czujników. Zdobyte w ten sposób dane porównano z opracowanym na postawie rezonansu magnetycznego modelem głowy. W ten sposób naukowcy mogli wskazać źródła aktywności mózgowej i zignorować resztę, jeśli nie pochodziła z mózgu. Ferris wyjaśnia, że do przełomu by nie doszło, gdyby nie nowe narzędzia komputerowe oraz doskonalsze elektrody z lepszym stosunkiem sygnał/szum. Tego typu technologiami interesuje się zarówno wojsko, jak i lekarze czy rehabilitanci, którzy mogliby skonstruować terapie lepiej dostosowane do potrzeb konkretnych pacjentów.
  13. Jak donosi Fudzilla, Times Online po wprowadzeniu opłat za treści zanotował olbrzymi spadek liczby użytkowników. Przed przyjęciem modelu opłat strona główna serwisu notowała miesięcznie 21 milionów unikatowych użytkowników. Po wprowadzeniu subskrypcji ich liczba spadła do 2,7 miliona. Serwis informuje, że za treści płaci obecnie 100 000 osób. Mimo spadku liczby odwiedzin jego przedstawiciele są zadowoleni z faktu, że nie muszą już udostępniać treści za darmo. Informują przy tym, że rozważając wprowadzenie subskrypcji spodziewali się 90-procentowego spadku ruchu. Za tygodniowy dostęp do Times Online trzeba zapłacić 2 funty, a za miesięczny - 9,99 funta.
  14. Microsoft kupi firmę Canesta, która specjalizuje się w produkcji elektroniki i oprogramowania reagujących na ruchy użytkownika. Przejęcie przedsiębiorstwa, wraz z jej produktami, technologiami, własnością intelektualną i klientami, pozwoli koncernowi z Redmond przyspieszyć prace nad naturalnymi interfejsami człowiek-maszyna. Microsoft od lat pracuje nad tego typu technologiami. Wspominał o nich jeszcze Bill Gates, a przed dwoma tygodniami Steve Ballmer podczas spotkania ze studentami z University of Washington stwierdził, że naturalne interfejsy będą kolejną rewolucją technologiczną. Jego zdaniem ludzie powinni porozumiewać się z maszynami za pomocą głosu i gestów. Prezesem Canesty jest obecnie James Spare, który w swoim czasie był menedżerem ds. rozwoju z microsoftowej grupie odpowiedzialnej za prace nad technologiami dotyczącymi telewizji.
  15. By sprawdzić, czy rana nie uległa zakażeniu, trzeba zdejmować opatrunek. Dzięki nowemu materiałowi naukowców z Fraunhofer-Einrichtung für Modulare Festkörper-Technologien (EMFT) w Monachium nie będzie to już konieczne, ponieważ w razie infekcji plaster zmieni kolor z żółtego na różowy. Zdejmowanie materiałów opatrunkowych przy większych ranach jest nie tylko bolesne dla pacjenta, ale i stwarza możliwość dostania się do nich kolejnych bakterii. Dzięki wynalazkowi Niemców rana spokojnie się zagoi, a wszelkie patologiczne zmiany widać będzie na pierwszy rzut oka. Opracowaliśmy barwnik wskaźnikowy, który reaguje na różne wartości pH. Zintegrowaliśmy go z gazą i plastrem. Zdrowa skóra i wygojone rany mają zazwyczaj pH poniżej 5. Jeśli wartość wskaźnika rośnie i odczyn zmienia się z kwasowego na zasadowy, sugeruje to komplikacje. Gdy pH wynosi od 6,5 do 8,5, często mamy do czynienia z zakażeniem i papierek wskaźnikowy staje się różowy – tłumaczy dr Sabine Trupp. Stworzenie kontrolnego paska wskaźnikowego nie było wcale proste, ponieważ trzeba było uwzględnić szereg różnych wymogów. Barwnik musiał pozostać stabilny chemicznie po związaniu z włóknami opatrunku lub plastra, aby mieć pewność, że nie dostanie się do rany. Jednocześnie wskaźnik powinien zdecydowanie zmieniać barwę i wykazywać wrażliwość na zmiany pH we właściwym zakresie. Na szczęście wszystko się udało. Powstał prototyp, który pomyślnie przeszedł wstępne testy. W przyszłości Niemcy zamierzają wbudować w opatrunek czujnik optyczny połączony z wyświetlaczem. Materiał przejdzie też testy w "terenie". Zostanie sprawdzony w klinice dermatologicznej Uniwersytetu w Ratyzbonie. Dr Trupp poszukuje w przemyśle partnera, by skomercjalizować produkt.
  16. Dziwogony (Dicruridae) z pustyni Kalahari naśladują dźwięki alarmowe wydawane przez inne gatunki zwierząt, by ukraść jedzenie. Szczególnie upodobały sobie surykatki. Śledzą je, a gdy te coś złapią, rozpoczynają przedstawienie. Biolodzy uważają, że naśladując inne zwierzęta, ptaki mogą zachować wiarygodność. Inaczej ryzyko rozszyfrowania podstępu byłoby zbyt wysokie (Proceedings of the Royal Society B). Autorem badań jest Tom Flower, doktorant z Uniwersytetu w Cambridge. Pracując na Kalahari, szybko zauważył, że surykatki reagują na okrzyki alarmowe dziwogonów. Gdyby w okolicy znajdował się jakiś drapieżnik, dźwięki wydawane przez ptaki mogłyby rzeczywiście powiadamiać o niebezpieczeństwie. Kiedy jednak dziwogony widziały surykatkę z dużym kawałkiem jedzenia, np. gekonem, larwą czy nawet skorpionem, wszczynały fałszywy alarm brzmiący dokładnie tak samo jak przy pojawieniu się drapieżnika, choć tego ostatniego nie było, oczywiście, w pobliżu. Widząc, jak sprytnie zachowują się dziwogony, Brytyjczyk zaczął obserwować 100 osobników. Okazało się, że nie tylko zawiadamiały o nieistniejącym wrogu, ale także naśladowały zawołania alarmowe kilku innych gatunków. Chodziło o to, by przerażone surykatki porzuciły łup i schowały się w norze. Ponieważ jednak z biegiem czasu ssaki przyzwyczajały się i przestawały reagować na dźwięki typowe dla dziwogonów, te wzięły się na sposób i zaczęły naśladować innych, co nadal skutecznie zwracało uwagę i skłaniało do ucieczki. Flower ujawnia, że dziwogony naśladują głównie ptaki, ale czasem nawet same surykatki. Naukowiec uważa, że metodą prób i błędów oszuści nauczyli się, że okrzyk à la surykatka działa szczególnie silnie.
  17. Japońscy naukowcy zidentyfikowali hormon wątrobowy, który stanowi jedną z przyczyn insulinooporności (Cell Metabolism). Wcześniej badacze odkryli, że w wątrobie osób z cukrzycą typu 2. dochodzi do nadekspresji genów kodujących pewne białka wydzielnicze. Zespół Hirofumi Misu z Kanazawa University zaczął się więc zastanawiać, czy analogicznie do tkanki tłuszczowej, wątroba nie przyczyna się do rozwoju cukrzycy typu 2. i insulinooporności za pośrednictwem tzw. hepatokin. Japończycy przeprowadzili analizę ekspresji genów i ujawnili, że u chorych z cukrzycą typu 2. nasila się ekspresja genu kodującego selenoproteinę P (SEEP). W porównaniu do zdrowych osób, we krwi cukrzyków również stwierdzano wyższe stężenia SEEP. Selenoproteina P jest jednym z białek zawierających w strukturze selen. Wbudowuje się on w aminokwas selenocysteinę. W odróżnieniu od innych selenoprotein, SEEP zawiera jednak nie jedno, ale kilka centrów selenocysteinowych. Jest glikoproteiną zlokalizowaną pozakomórkowo. Bierze udział w transporcie selenu z wątroby do tkanek obwodowych i procesach obrony przeciwutleniającej w przestrzeni pozakomórkowej. Studia zespołu Misu na myszach potwierdziły, że związek między SEEP a insulinoopornością ma charakter przyczynowo-skutkowy. Kiedy naukowcy podawali zdrowym myszom SEEP, stawały się insulinooporne, a stężenie glukozy w ich krwi rosło, zaś zabieg polegający na zablokowaniu aktywności selenoproteiny P w wątrobie gryzoni z cukrzycą i otyłych zwiększał ich wrażliwość na insulinę i obniżał poziom cukru we krwi. Misu podkreśla, że dotąd SEEP funkcjonowała głównie jako białko transportujące selen, lecz jej rola w homeostazie glukozy pozostawała nieznana. Akademicy z Kraju Kwitnącej Wiśni uważają, że selenoproteina nie działa w pojedynkę. Dysponują bowiem wstępnymi dowodami na powiązania między SEEP a wytwarzaniem adipocytokinin – czynnych biologicznie substancji, wydzielanych przez białe komórki tkanki tłuszczowej. W przyszłości kwestia ta będzie jeszcze szczegółowo badana. Misu i Toshinari Takamura zaznaczają, że może się okazać, że wątroba jest narządem endokrynnym, który wydziela wiele hepatokin, nie tylko SEEP, a zaburzenie tego procesu wiąże się z patogenezą różnych chorób.
  18. Microsoft zainwestuje dziesiątki milionów dolarów w budowę rosyjskiego odpowiednika Krzemowej Doliny, która powstanie w miejscowości Skołkowo. Już wcześniej informowaliśmy, że wsparcia projektowi udzielił były prezes Intela, Craig Barrett. W Skołkowie powstanie centrum badawczo-rozwojowe Microsoftu, zajmujące się przede wszystkim pracami nad chmurami obliczeniowymi. Koncern pomoże też w założeniu uczelni technicznej. Wczoraj odpowiednie porozumienie podpisali Wiktor Wekselberg, prezes Skołkowo, oraz Steve Ballmer. Koncern z Redmond ma też zamiar zainwestować w 100 rosyjskich start-upów. Każda z nowo powstających firm otrzyma od 50 do 500 tysięcy dolarów. Skołkowo to projekt rządowy, popierany przez prezydenta Miedwiediewa. Co ciekawe, władze Rosji zapowiedziały porzucenie Windows na rzecz Linuksa. Migracja przebiega jednak bardzo powoli. Inwestycje w Skołkowo zapowiedzieli też Cisco i Siemens.
  19. Microsoftowy Internet Explorer od lat krytykowany jest m.in. za nieprzestrzeganie standardów. Koncern z Redmond określał własne zasady, które przyprawiały o ból głowy twórców witryn WWW. Ci bowiem nie mogli przecież zignorować użytkowników najbardziej popularnej przeglądarki na świecie, musieli więc tworzyć witryny, które dobrze wyglądały zarówno w IE jak i w przeglądarkach przestrzegających standardów. IE tradycyjnie wypadał bardzo słabo w testach zgodności z ogólnie przyjętymi zasadami kodowania witryn WWW. Tym większym zaskoczeniem jest najnowszy test rozwojowych wersji przeglądarek, przeprowadzony przez konsorcjum W3C. Wynika z niego, że Internet Explorer Platform Preview 6 najlepiej ze wszystkich konkurentów radzi sobie z HTML5. Przeglądarkę Microsoftu porównano z Google Chrome 7.0.517.41 beta, Firefox 4 Beta 6, Opera 11.00 alpha (build 1029) oraz Safari Version 5.0.2 (6533.18.5). Oczywiście przedstawiony poniżej test to jedynie część HTML-a, a sam HTML stanowi niewielką część zawartości WWW. Rzecz jest jednak warta odnotowania, gdyż może wskazywać, że koncern z Redmond zaczął poważniej traktować międzynarodowe standardy i chce z IE9 uczynić nowoczesną konkurencyjną przeglądarkę. Internet Explorer Platform Preview 6Google Chrome 7.0.517.41 betaFirefox 4 Beta 6Opera 11.00 alpha (Build 1029)Safari Version 5.0.2 (6533.18.5) attributes100%100%100%100%100% audio100%100%100%100%100% canvas89,55%80,6%75,32%85,35%86,16% getElementsByClassName83,33%100%94,12%94,44%88,89% foreigncontent100%100%100%0%10% video100%92,86%71,43%78,57%71,43% xhtml5100%42,86%85,71%100%42,86%
  20. Po raz pierwszy w historii Intel będzie produkował układy scalone na zlecenie mniejszej firmy. Pierwszym klientem Intela został Achronix Semiconductor, który będzie zamawiał kości FPGA wykonane w technologii 22 nanometrów. Umowa nie będzie miała dla Intela wielkiego znaczenia. Jak poinformował Bill Kircos, liczba zamawianych przez Archoniksa układów będzie znacząco mniejsza niż 1% całej produkcji giganta. Dlatego też trudno w tej chwili wyrokować, co skłoniła Intela do zdecydowania o rozpoczęciu produkcji na zlecenie i zachęcania innych firm do podpisywania podobnych umów. Wiadomo natomiast, że układy Archoniksa z rodziny Speedster22i mogą być, dzięki wykorzystaniu technologii Intela, aż o 300% bardziej wydajne, zużywać o 50% mniej energii i kosztować o 40% mniej niż jakiekolwiek FPGA dostępne obecnie na rynku. Intel ma najlepszą technologię produkcyjną na świecie i mamy ten przywilej, że podpisaliśmy umowę, która pozwoli na jednoczesne poprawienie prędkości, wydajności, gęstości i ceny. Połączenie zaawansowanego 22-nanometrowego procesu Intela i zaawansowanej technologii FPGA Achroniksa umożliwi kościom Speedster22i przyćmić inne rozwiązania FPGA, które pojawią się na rynku w perspektywie najbliższych lat - stwierdził John Holt, dyrektor wykonawczy Achroniksa.
  21. Woda wykorzystywana w fabryce nie musi pochodzić z lokalnego ujęcia, pod warunkiem że wytwarza się w niej coś z ziemniaków. Należący do PepsiCo brytyjski producent chipsów ziemniaczanych Walkers testuje właśnie metodę odzyskiwania H2O z kartofli podczas smażenia. Bulwy składają się w 75% z wody, więc gdyby udało się ją skutecznie wyłapać, przydałaby się w zakładzie, a nadmiar można by odprowadzać do wodociągów zaopatrujących pobliskie miejscowości. Inżynierowie wyjaśniają, że wodę zużywano by w procesie produkcyjnym, ale nadawałaby się także do picia. "Kiedy robiąc chipsy, poddajemy plastry ziemniaka obróbce termicznej, w zwykłych okolicznościach woda w [postaci pary] ucieka przez kominy. Staramy się zrobić coś, by ją przechwycić, uzdatnić i wykorzystać do mycia, obierania oraz krojenia. Sądzimy, że technologia, nad którą pracujemy, pozwala na wyłapanie takich ilości H2O, by odłączyć się od teraźniejszych głównych źródeł zaopatrzenia" – opowiada Martyn Seal, dyrektor ds. zrównoważonego rozwoju PepsiCo w Europie. Menedżer cieszy się, że w rejonach, gdzie wody nie ma zbyt dużo, odcięcie zakładów od wodociągów oznacza zwiększenie zasobów dostępnych dla lokalnych społeczności.
  22. Google wystąpił do sądu przeciwko amerykańskiej administracji rządowej, gdyż firma została wykluczona z przetargu na dostarczenie aplikacji w chmurze. W pozwie czytamy, że Google'owskie Apps for Government nie mogły wziąć udziału w przetargu ogłoszonym przez Departament Spraw Wewnętrznych (DoI), którego celem było skonsolidowanie 13 platform w jednej chmurze i dostarczenie usług 88 000 osób. Pięcioletni kontrakt ma wartość 59 milionów dolarów. W oficjalnym dokumencie przedstawiciele DoI stwierdzili, że po "dokonaniu oceny ryzyka i badań rynkowych" okazało się, że tylko Microsoft "posiada komercyjny produkt, który spełnia wszystkie wymogi określone przez departament". Ofertę Google'a odrzucono, gdyż nie zapewniała odpowiedniego poziomu bezpieczeństwa. Przedstawiciele koncernu Page'a i Brina informują, że odbyli wiele rozmów z urzędnikami DoI, by ich przekonać, że Google Apps spełniają wymogi bezpieczeństwa, jednak powiedziano im, iż decyzja co do wyboru komunikatora już zapadła. Koncern dowiedział się też, że nie spełnia standardów ustawy Federal Information Security Management Act, chociaż obecnie posiada odpowiedni certyfikat. Google wystąpiło do sądu po tym, jak w ubiegłym tygodniu Government Accountability Office - instytucja kontrola Kongresu - odrzuciła skargę koncernu.
  23. Blekko to kolejna wyszukiwarka, która chce zaistnieć na rynku nie dzięki zaawansowanym algorytmom, a pracy internautów. Jej użytkownicy ręcznie przypisują tagi znalezionym przez Blekko witrynom. Z jednej strony ma to eliminować bezużyteczny spam oraz witryny z tzw. farm kontentu - które w tradycyjnych wyszukiwarkach zajmują wysokie pozycje - a z drugiej, zapewnić, że wyniki wyszukiwania będą jak najbardziej trafne. Twórcy Blekko mają nadzieję, że miarę jak coraz więcej osób będzie korzystało z ich wyszukiwarki, jakość dostarczanej zawartości będzie się poprawiała. W sukces Blekko wierzą fundusze inwestycyjne U.S. Venture Partners, CMEA Capital oraz grupa aniołów biznesu, takich jak np. Marc Andreessen, twórca przeglądarki Mosaic i współtwórca Netscape'a. Zainwestowali oni w wyszukiwarkę 24 miliony dolarów. Twórcą Blekko jest Rch Skrenta, który znany jest z utworzenia Open Directory Project. Blekko nie jest pierwszą wyszukiwarką, która tworzy indeks dzięki pracy internautów. Podobnym narzędziem była Wikia, uruchomiona w 2008 roku przez Jimmy'ego Walesa, twórcę Wikipedii. Wales zamknął Wikię w 2009 roku, gdyż udało się tam zaindeksować jedynie kilkadziesiąt milionów witryn. W ineksie Blekko znajdują się już 3 miliardy witryn.
  24. W jaki sposób monitorować proces starzenia się mózgu? Wygląda na to, że nowym markerem stanie się stężenie kwasu mlekowego, kojarzone dotąd raczej z "zakwasami" po intensywnym wysiłku fizycznym. Naukowcy już od dawna podejrzewali, że starzenie jest wynikiem stopniowego uszkadzania mitochondrialnego DNA (mtDNA). Znajduje się ono w macierzy mitochondrium i pozwala na uzyskiwanie energii z pożywienia. Nic dziwnego, że mutacje w genach mitochondrialnych wywołują choroby z objawami dotyczącymi przede wszystkim tkanek o najwyższym zapotrzebowaniu energetycznym, a więc mięśniowej i nerwowej. Wcześniejsze badania powiązały mutacje mtDNA m.in. z parkinsonizmem i alzheimeryzmem. Zespół Larsa Olsona sprawdził swoją teorię, przyglądając się procesom metabolicznym zachodzącym w mózgach normalnie i przedwcześnie starzejących się myszy. Okazało się, że dysfunkcja mtDNA powoduje zmianę metaboliczną, która wpływa na ekspresję genów kontrolujących tworzenie kwasu mlekowego. Naukowcy zaznaczają, że stężenie C3H6O3 staje się na tyle wysokie, że można je wykrywać za pomocą nieinwazyjnych metod obrazowania. Co ważne, wzrost poziomu kwasu mlekowego poprzedza inne oznaki starzenia i można go będzie wykorzystać do wczesnego wykrywania związanych z wiekiem chorób centralnego układu nerwowego.
  25. David Nutt, szef wydziału neuropsychofarmakologii Imperial College London opublikował w piśmie Lancet wyniki swoich najnowszych badań dotyczących narkotyków. Wynika z nich, że najniebezpieczniejszymi na świecie używkami są alkohol, heroina i kokaina. W takiej właśnie kolejności. Profesor Nutt badał 20 używek, w tym tytoń, marihuanę, metaamfetaminę, ekstazy, heroinę czy alkohol. Każda z badanych substancji była punktowana pod kątem możliwości wyrządzenia krzywdy użytkownikowi. Sprawdzano zagrożenie związane z odniesieniem ran, uzależnieniem się, uszkodzeniem mózgu czy stratami społecznymi takimi jak utrata pracy czy zniszczenie związku. Prowadzono też badania na poziomie społeczeństwa szacując takie problemy jak wzrost przestępczości, upadek społeczności lokalnych, problemy w rodzinach i inne koszty, jakie poszczególne używki generują w społeczeństwie. Badania wykazały, że najbardziej niebezpiecznymi używkami z punktu widzenia osób indywidualnych są heroina i crack. Gdy jednak wzięto pod uwagę zagrożenia dla osób indywidualnych i dla społeczeństwa, najbardziej niebezpieczny jest alkohol. Na kolejnych miejscach uplasowały się heroina, crack, metaamfetamina i kokaina w proszku. Szóste miejsce zajął tytoń, a siódme amfetamina. Marihuana uplasowała się na ósmej pozycji, a posiadające złą sławę ecstazy, na... czternastej, wraz z czuwaliczką jadalną i sterydami anabolicznymi. Najmniej niebezpieczne w zestawieniu Nutta okazały się grzyby halucynogenne. Profesor Nutt za swoje opinie naukowe zapłacił rządowym stanowiskiem. Zaleca on bowiem, by marihuana została przesunięta w rządowej klasyfikacji z grupy C do bardziej niebezpiecznej grupy B i uważa, że esctazy powinno trafić z grupy A do B lub C. Na swoim blogu pisze on także, że rozważając kwestie legalizacji używek politycy powinni brać pod uwagę badania naukowe. Bez tego bowiem ryzykujemy, że spowodujemy więcej szkód ścigając użytkowników, niż spowodowałby legalny narkotyk. Dowody na szkodliwość narkotyków nie powinny być poświęcane na ołtarzu politycznej i medialnej presji.
×
×
  • Dodaj nową pozycję...