Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37640
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Należąca do NASA sonda Gravity Probe B (GP-B) potwierdziła dwa główne wnioski wynikające z ogólnej teorii względności. Zadaniem GP-B jest właśnie sprawdzenie teorii Einsteina. Sonda wyposażona jest w cztery niezwykle precyzyjne żyroskopy, których zadaniem jest zbadanie występowania tzw. efektu geodetycznego, czyli zakrzywienia przestrzeni i czasu w obecności Ziemi oraz zakrzywienia przestrzeni i czasu wokół obracającej się Ziemi. Wyobraźmy sobie, że Ziemia jest zanurzona w miodzie. Gdy planeta się obraca, miód wokół niej wiruje i to samo dzieje się z przestrzenią i czasem. GP-B potwierdziła prawdziwość dwóch z najważniejszych wniosków wynikających z teorii Einsteina. To ma daleko idące konsekwencje dla badań astrofizycznych, podobnie jak dekady rozwoju technologii, które umożliwiły wykonanie tego zadania, będą miały olbrzymi wpływ na Ziemię i badania kosmosu - mówi Francis Everitt z Uniwersytetu Stanforda, główny naukowiec misji GP-B. Gravity Probe B to jeden z najdłużej trwających programów w historii NASA. Prace nad nią rozpoczęły się w 1963 roku od wysiłków mających na celu stworzenie relatywistycznego żyroskopu. Przez kilkadziesiąt lat badań opracowano techniki poprawiające aerodynamikę lotów kosmicznych, zmniejszenie wpływu pól magnetycznych na pojazdy kosmiczne czy uniezależnienie urządzeń i pojazdów od zmian temperatury. Na potrzeby misji wyprodukowano najbardziej precyzyjne żyroskopy w historii. Odkrycia dokonane dzięki GP-B umożliwiły powstanie systemu GPS i znalazły zastosowanie w badaniach mikrofalowego promieniowania tła. Dzięki temu programowi znakomicie poprawiono konstrukcję satelitów, co pozwoliło na opracowanie nowych typów tego typu urządzeń, takich jak należący do NASA Gravity Recovery and Climate Experiment czy wykorzystywane przez Europejską Agencję Kosmiczną satelity Gravity czy Ocean Circulation Explorer. Satelita GP-B zakończył swoją misję w grudniu 2010 roku
  2. Wbrew temu, co dotąd powtarzano, wyeliminowanie lub znaczne ograniczenie tłuszczów w diecie chorych z niewydolnością serca wcale nie musi być korzystne. Wyniki studium zespołu z Case Western Reserve University pokazują, że dieta wysokotłuszczowa poprawia działanie mechaniczne serca, czyli jego zdolność pompującą. Czy to oznacza, że mogę wyjść z domu i zjeść mojego Big Maca, chociaż miałam 5 zawałów? Nie, ale terapia, którą prowadzi się na zasadzie dostarczania sercu odpowiedniej ilości energii do wykorzystania lub do podtrzymania normalnego profilu metabolicznego, może być korzystna – tłumaczy biofizyk dr Margaret Chandler. Badanie, którego wyniki opublikowano w piśmie American Journal of Physiology-Heart and Circulatory Physiology, sugeruje, że dla uszkodzonego serca korzystna będzie zbilansowana dieta. Powinny w niej występować zarówno jedno-, jak i wielonienasycone kwasy tłuszczowe, a mono- i disacharydy, fruktozę i sacharozę, należałoby zastąpić złożonymi węglowodanami. U zdrowej osoby serce pozyskuje energię do ciągłej pracy z tłuszczów i cukrów, przy czym tłuszcze zapewniają więcej energii. Gdy u pacjenta dojdzie do niewydolności lub niedokrwienia, serce wydaje się preferować glukozę w roli paliwa, ponieważ do uzyskania energii potrzeba mniejszej ilości tlenu. Zaczynając badania, Amerykanie sądzili, że zwierzęta po zawale, którym podawano wysokotłuszczową karmę, będą miały nadmiar tłuszczów w tkankach, co w konsekwencji będzie toksycznie wpływać na serce. Ku ich zaskoczeniu, okazało się, że poprawiła się czynność pompująca serca. Podczas dalszych testów akademicy ustalili, że zwierzęta z niewydolnością serca na diecie niskotłuszczowej były w stanie wytwarzać insulinę i transportować glukozę z krwi do komórek tak samo sprawnie jak zdrowe osobniki. W zwierzęcych modelach niewydolności serca połączonej z dietą obfitującą w tłuszcze występowały objawy insulinooporności, przez co serce pobierało mniej glukozy. Badacze z Case Western Reserve University uważają zatem, że ich eksperyment wykazał, że stan insulinooporności jest w rzeczywistości korzystny dla niedomagającego serca. Oznacza to bowiem, że może do niego dotrzeć więcej tłuszczów, czyli preferowanego źródła energii. Ponieważ wskutek uszkodzenia serce nie jest w stanie zrobić tego samo, Amerykanie manipulowali jego metabolizmem, by przybliżyć działanie mięśnia tak blisko normy, jak to tylko możliwe.
  3. Na japońskim Uniwersytecie Elektrokomunikacji powstało prototypowe urządzenie, które ma umożliwić przekazywanie za pomocą internetu... francuskich pocałunków. Jak mówią jego twórcy z Kajimoto Laboratory, to może być początek prac nad możliwością pełnego przekazywania za pomocą sieci obecności drugiej osoby. Japońskie urządzenie przypomina nieco alkomat. Do ust wkładamy rurkę, którą poruszamy za pomoca języka, a jej ruchy są przekazywane zdalnie na inne urządzenie. Trzymane w ustach przez osobę, którą chcemy „pocałować". Takie „pocałunki" mogą być też nagrywane i odtwarzane. Japończycy mówią, że ma to pomóc kochankom, którzy w danej chwili nie przebywają razem. Ponadto, jak mówią, jeśli na przykład ktoś znany użyje tego urządzenia i nagra swój pocałunek, to może się to stać bardzo popularne wśród fanów. Oczywiście naukowcy zdają sobie sprawę, że kawałek plastikowej rurki nie zastąpi żywego człowieka. Zapewniają jednak, że pracują nad usprawnieniami. „Pocałunek zawiera w sobie smak, sposób oddychania, wilgoć języka. Jeśli uda nam się odtworzyć te wszystkie elementy, uzyskamy bardzo interesujące urządzenie" - mówi Nobuhiro Takahashi, którego możemy oglądać na załączonym poniżej filmie. http://www.youtube.com/watch?v=PspagsTFvlg
  4. Odkryto nowy element mitochondrium, który odgrywa kluczową rolę w ich funkcjonowaniu. Naukowcy wierzą, że dzięki temu lepiej zrozumieją zarówno choroby dziedziczne, jak i związane z wiekiem. Mitochondria nazywa się centrami energetycznymi komórki. Do prawidłowego funkcjonowania potrzebne są im syntetyzowane w rybosomach mitochondrialnych białka. Specjaliści z Karolinska Institutet oraz Instytutu Biologii Starzenia Maxa Plancka odkryli, że białko MTERF4 łączy się z innym białkiem NSUN4, a powstały w ten sposób kompleks kontroluje tworzenie i działanie mitochondrialnych rybosomów. U myszy pozbawionych MTERF4 nie powstawały funkcjonujące mitochondria, co prowadziło do obniżenia ilości wytwarzanej energii. Zredukowana funkcja mitochondriów występuje w wielu chorobach dziedzicznych, w ramach normalnego starzenia oraz w chorobach związanych z wiekiem. Podstawowa wiedza o tym, jak regulowane jest działanie mitochondriów, może zatem mieć olbrzymie znaczenie kliniczne – podkreśla prof. Nils Göran Larsson. Naukowcy odkryli wcześniej w mitochondriach podobne mechanizmy regulacyjne, które okazały się odgrywać pewną rolę w rozwoju cukrzycy.
  5. Brytyjska firma Cambridge Mechatronics Ltd. (CML) zaprezentowała technologię stabilizacji obrazu dla aparatów fotograficznych umieszczanych w smartfonach. OIS (Optical Image Stabilisation) korzysta z niklowo-tytanowego stopu z pamięcią kształtu oraz wyspecjalizowanego układu ASIC odpowiedzialnego za chłodzenie i ogrzewanie całości. Kable niklowo-tytanowe bardzo precyzyjnie zapamiętują kształt i można nimi manipulować za pomocą energii cieplnej. Są one odpowiedzialne za kontrolę położenia soczewek w odpowiedzi na ruchy ręki użytkownika smartfonu. Informacje o ruchach otrzymują z częstotliwością 1-30 herców z żyroskopu wbudowanego w smartfon. W taki sam sposób kontrolowane jest też ustawienie ostrości. CML przeprowadziła już pierwsze testy swojej technologii i wynika z nich, że możliwe jest 20-krotne wydłużenie czasu ekspozycji bez utraty ostrości obrazu spowodowanej ruchami ręki. To z kolei pozwoli posiadaczom smartfonów na wykonywanie dobrej jakości zdjęć w złych warunkach oświetleniowych oraz kręcenie filmów, w których obraz będzie znacznie bardziej stabilny niż obecnie. Przedstawiciele CML mówią, że ich konstrukcja jest bardziej wytrzymała, prostsza i zużywa mniej energii niż silniki ultrasoniczne wykorzystywane w obiektywach lustrzanek. Ponadto są tak małe, że nie zwiększają ogólnych wymiarów aparatów. CML zaprezentowała prototypowy 8-megapikselowy aparat fotograficzny wyposażony w nowy system stabilizacji obrazu. Wymiary całości wynosiły 8,5x8,5x5,7 mm, a zatem odpowiadały wymiarom aparatów standardowo montowanych obecnie w smartfonach. Stabilizacja obrazu za pomocą silnika ultrasonicznego wymaga użycia 6 metrów miedzianego kabla o przekroju 25 mikrometrów oraz 18 magnesów. My potrzebowaliśmy zaledwie 8 centymetrów kabli o przekroju 25 mikrometrów ze stopu zapamiętującego kształt - stwierdził prezes CML Simon Calder.
  6. Psycholodzy z Uniwersytetu Południowej Florydy przeprowadzili serię eksperymentów, z których wynika, że po wykonaniu zadań kojarzonych z kobietami mężczyźni zachowują się bardziej agresywnie, by odbudować swoją zagrożoną męskość. Z dbałości o swoją samoocenę stają się bardziej macho. Niektórych panów poproszono o wykonanie kobiecego zadania, np. zaprzęgnięto do zaplatania włosów, podczas gdy inni wykonywali zadanie neutralne płciowo, takie jak zaplatanie liny. Gdy ochotnikom dano potem do wyboru uderzenie worka lub układanie puzzli, przedstawiciele pierwszej grupy zdecydowanie woleli trening z workiem. Kiedy wszyscy badani mieli uderzać w worek, zaplatający włosy zadawali znacznie silniejsze ciosy. Inne studium wykazało, że zarówno kobiety, jak i mężczyźni przypisują agresywne zachowania kobiet, których kobiecość została narażona na szwank, cechom charakteru, np. niedojrzałości. Kobiety tak samo postrzegają i wyjaśniają zachowanie urażonych mężczyzn. Sami panowie zajmują jednak inne stanowisko, jeśli agresorem jest mężczyzna, którego męskość została zagrożona – wtedy przyczyną nie jest jego osobowość, lecz czyjaś prowokacja. Badania zespołu prof. Jennifer Bosson wskazują, że kobiecość jest postrzegana jako stan biologiczny, natomiast definiowaną osiągnięciami męskość można utracić w wyniku pewnych zdarzeń społecznych. Sposobem na jej odzyskanie jest właśnie agresja. Mężczyźni są silnie skoncentrowani na tym, jak wyglądają w oczach innych. Im większą przywiązują do tego wagę, tym bardziej cierpią psychologicznie, gdy ich poczucie męskości zostanie pogwałcone. Naruszenie roli płciowej może być czymś poważnym, np. utratą pracy lub błahym, np. prośbą o zaplatanie włosów w laboratorium.
  7. Od lat 30. XIX wieku biolodzy myśleli, że wiedzą, jak kolibry jedzą. Jak się okazuje, mylili się. Ptaki miały zawisać przed kwiatami, wsuwać do ich wnętrza język i pobierać pokarm dzięki zjawiskom kapilarnym. Problem polegał jednak na tym, że aż do teraz przez ponad 180 lat nikt przetestował tej hipotezy, przyjmując ją za pewnik (Proceedings of the National Academy of Sciences). Alejandro Rico-Guevara, absolwent University of Connecticut, posłużył się szybką kamerą o wysokiej rozdzielczości. W ten sposób wykazał, że nie chodzi o zjawiska kapilarne, a koliber zbiera ciecz, drastycznie zmieniając kształt języka. Kolibry są małe, szybkie i żerują na kwiatach, do których wnętrza trudno zajrzeć. Te 3 czynniki utrudniały, a nawet uniemożliwiały obserwację kolorowych ptaków przed wprowadzeniem do badań nowoczesnych technologii. W XIX wieku biolodzy zaproponowali teorię, zgodnie z którą kolibry mogą pić nektar dzięki umięśnionemu językowi, podzielonemu na końcu na 2 rurki. Ciecz napływa do nich dzięki zjawiskom kapilarnym (niektórzy porównują to do nasiąkania gąbki wodą). Wszystko tłumaczono działaniem sił przyciągających ciecz do wewnętrznej powierzchni rurek. Koncepcja wzbudzała kontrowersje, ale trudno ją było przetestować, dlatego została ostatecznie zaakceptowana. Gdy naukowcy zaczęli już używać programów komputerowych do modelowania natury, grupa biologów doszła przy wykorzystaniu teorii zjawisk kapilarnych do wniosku, że kolibry powinny woleć wodniste nektary od gęstszych cieczy. W tym momencie Rico-Guevara zaczął mieć wątpliwości, bo niektóre gatunki tych ptaków gustują w rzeczywistości w gęstych nektarach. Nie chcieliśmy po prostu zaakceptować treści doniesień. Zjawiska kapilarne wydawały się możliwe, ale to na pewno nie całość wyjaśnienia. Prof. Margaret Rubega, która nadzorowała prace Rico-Guevary, podkreśla, że największym wyzwaniem było znalezienie sposobu na zajrzenie do jamy gębowej kolibra. Rico-Guevara prowadził eksperymenty na 30 gatunkach kolibrów, z których wiele żyło w kolumbijskiej części Andów. Biolog filmował ptaki jedzące z podajników nektaru o przezroczystych ściankach. Dzięki temu mógł cały czas widzieć ich język. Okazało się, że w kontakcie z cieczą rurki oddzielały się od siebie, przez co przypominały one rozwidlony język węża. Rurki wyciągały się, eksponując cienkie blaszki, które wychwytywały nektar, a następnie kurczyły, pociągając ze sobą ciecz do jamy gębowej ptaka. Naukowiec sądzi, że jego spostrzeżenia odnoszą się nie tylko do kolibrów, ale i do innych pijących nektar ptaków. Niewykluczone też, że wyniki jego badań zostaną wykorzystane przez inżynierów. Nowo odkryty mechanizm nie wymaga bowiem dostarczania energii i bazuje na zmianach ciśnienia oraz interakcjach między ptasim językiem i otaczającymi go płynami. http://www.youtube.com/watch?v=qVOhuCl7DDE
  8. Amatorzy wspinaczki skałkowej w niemieckiej jurze mają negatywny wpływ na występujące na klifach rzadkie rośliny. Autorzy raportu opublikowanego na łamach Journal of Applied Ecology uważają, że powinno się wprowadzić zakaz uprawiania tego sportu na niektórych ścianach. Jura Szwabska, płaskowyż w Badenii-Wirtembergii, oraz północna część Jury Frankońskiej (zwana też Szwajcarią Frankońską) są najpopularniejszymi niemieckimi rejonami wspinaczkowymi, stanowią jednak także jeden z ostatnich europejskich bastionów głodka mrzygłoda (Draba azoides). Jest to nieduża roślina, która nie kwitnąc, przypomina poduszki mchu. Wiosną pokrywa się licznymi żółtymi kwiatkami. Występuje na wapiennych klifach, w Polsce tylko w Tatrach. Przez ogrodników bywa wykorzystywana jako element skalniaków. Frank Vogler i Christoph Reisch z Uniwersytetu w Ratyzbonie porównali liczbę i rozmieszczenie głodków na 8 klifach, na które wspinano się przez co najmniej 50 ostatnich lat z 8 nieodwiedzanymi ścianami o tych samych rozmiarach i ustawieniu. Niemcy zbadali również DNA roślin, by sprawdzić, czy i ewentualnie jak alpiniści wpłynęli na genetyczne zróżnicowanie D. azoides. Okazało się, że na zboczu ścian wspinaczkowych roślin było mniej, poza tym głodki ulegały skarleniu, lecz dla odmiany na piargach stawały się one częstsze. Wspinaczka wywiera bezpośredni negatywny wpływ na rośliny. Korazja powodowana przez liny i wykorzystywanie szczelin i półek jako miejsc podparcia dla dłoni i stóp wyraźnie prowadzą do zmniejszenia liczebności gatunku – uważa dr Reisch. Analiza DNA wykazała, że na dziewiczych ściankach występuje większe zróżnicowanie genetyczne między głodkami żyjącymi na rozmaitych wysokościach. Oznacza to, że przemieszczanie roślin przez alpinistów prowadzi do przesuwania konkretnych genów w dół stoku. W perspektywie długoterminowej może to wpłynąć na zdolność do przeżycia w środowisku, do którego D. azoides przystosowywały się przez tysiące lat. Wspinacze wspomagają rozprzestrzenianie się nasion, lecz jednocześnie, zrzucając poszczególne osobniki ze ściany, zmieniają strukturę populacji [rozbudowaniu ulega jej dolna część]. Zmiana zmniejsza genetyczne różnice między głodkami rosnącymi na różnych wysokościach klifu.
  9. Intel dokonał przełomu na rynku elektroniki, wprowadzając do masowej produkcji technologię Tri-Gate czyli tranzystory o architekturze 3D. Stały się one częścią 22-nanometrowej platformy Ivy Bridge. Tri-Gate to odejście od tradycyjnej, dwuwymiarowej architektury tranzystora. Naukowcy i inżynierowie po raz kolejny wynaleźli tranzystor, tym razem wykorzystując trzy wymiary. Dzięki temu powstaną nowe niesamowite urządzenia, które zmienią świat, a Prawo Moore'a nadal będzie obowiązywało - powiedział Paul Otellini, prezes Intela. Tri-Gate pozwala na zmniejszenie poboru energii przy jednoczesnym zwiększeniu wydajności. Intel twierdzi, że w porównaniu z układami 32-nanometrowymi z tradycyjnymi tranzystorami, technologia Tri-Gate i 22-nanometrowy proces produkcyjny zapewniają zwiększenie wydajności układów nawet o 37%. Intel zapowiadał wykorzystanie trójwymiarowej bramki w miejsce tradycyjnych tranzystorów planarnych już w roku 2006. Koncern mówił, że tranzystory 3D pojawią się wraz z wdrożeniem 32- lub 22-nanometrowego procesu produkcyjnego, ponieważ poniżej granicy 30 nanometrów obecnie wykorzystywane tranzystory o pojedynczej bramce będą charakteryzowały się nieakceptowalnie dużymi stratami mocy. Tradycyjne tranzystory planarne (płaskie) zostały wynalezione w latach 50. ubiegłego wieku i stanowią podstawowy element układu scalonego. W miarę postępów miniaturyzacji konieczna okazała się zmiana geometrii tranzystora z dwu- na trójwymiarową. Dlatego też rozpoczęto prace nad tranzystorem trójbramkowym. Tego typu tranzystor korzysta z nowatorskiej, trójwymiarowej struktury bramki, przypominającej wzniesienie z pionowymi ścianami, co pozwala przesyłać sygnały elektryczne po górnej powierzchni bramki i wzdłuż obu ścian. W rezultacie trzykrotnie zwiększa się przestrzeń dostępna dla sygnałów elektrycznych - jak po przebudowie jednopasmowej drogi w trójpasmową autostradę - choć tranzystor nie zajmuje więcej miejsca. Dzięki temu tranzystor trójbramkowy jest znacznie wydajniejszy od obecnych planarnych (płaskich) tranzystorów. Dzisiaj Intel zaprezentował pierwszy procesor Ivy Brigde pracujący na laptopie, serwerze i desktopie.
  10. Najnowsze dane firmy Jon Peddle Research pokazują, że Nvidia szybko traci rynek układów graficznych. Zyskują za to AMD i Intel. JPR liczy łącznie rynek samodzielnych GPU i wbudowanych rdzeni graficznych. Z danych firmy dowiadujemy się, że w pierwszym kwartale 2011 roku do Intela należało 54,4% rynku, AMD było w posiadaniu 24,8%, a udziały Nvidii spadły do 20%. Jeszcze rok wcześniej Nvidia dostarczała na rynek 28,0% układów graficznych, Intel zapewniał 49,6%, a AMD - 21,5%. Jon Peddle Research informuje, że w pierwszym kwartale bieżącego rynek układów zwiększył się o 10,3% w porównaniu z ostatnim kwartałem 2010. Co prawda Intel zanotował największy wzrost udziałów w punktach procentowych, jednak największe sukcesy od stycznia do marca święciło AMD. W porównaniu z sytuacją sprzed roku firma zwiększyła swoje udziały aż o 15,4%. W tym czasie Intel zanotował 9,7-procentowy wzrost udziałów, a Nvidia doświadczyła spadku aż o 28,4%.
  11. Niewielka firma Nanotune twierdzi, że rozwijane przez nią ultrakondensatory będą mogły konkurować z tradycyjnymi akumulatorami. Przedsiębiorstwo już teraz jest w stanie wyprodukować ultrakondensatory zdolne do przechowywania od 4 do 7 razy więcej energii niż standardowe urządzenia tego typu. Zaletami ultrakondensatorów są możliwość szybkiego uwalniania energii, szybkiego ładowania oraz duża wytrzymałość. Jednak urządzenia takie są obecnie zbyt drogie i przechowują zbyt mało energii by zastąpić akumulatory. Nanotune zbudowało jednak ultrakondensator, którego gęstość energetyczna - w przypadku zastosowania standardowego elektrolitu - wynosi 20 Wh/kg. Jeśli zaś użyta zostanie droższa ciecz jonowa, to gęstość ultrakondensatorów Nanotune wzrasta do 35 Wh/kg. W niektórych pojazdach hybrydowych używane są akumulatory o gęstości 40 Wh/kg. Tymczasem Nanotune zapowiada, że do końca bieżącego roku wyprodukuje ultrakondensator o pojemności 70 Wh/kg. Akumulatory wykorzystywane w samochodach elektrycznych i hybrydowych nie są odporne na działanie skrajnych temperatur. Zarówno zbyt wysokie jak i zbyt niskie temperatury im szkodzą. Dlatego też producenci wyposażają je w systemy chłodzące i nagrzewające. To, oczywiście, zwiększa cenę i czyni całość bardziej podatną na awarie. Jakby tego było mało, z czasem pojemność akumulatorów spada, a producenci, by temu przeciwdziałać, dodają nadmiarowe ogniwa. Ultrakondensatory są pozbawione tych wad. Tolerują znacznie większy zakres temperatur i znacznie wolniej tracą pojemność. Mogą wytrzymać setki tysięcy cykli ładowania/rozładowywania. Na razie cena ultrakondensatorów Nanotune jest bardzo wysoka i wynosi od 2400 do 6000 USD za kilowatogodzinę pojemności. Amerykański Departamen Energii uważa, że samochody elektryczne staną się konkurencyjne wobec tradycyjnych przy cenie 250 USD za kilowatogodzinę. Nanotune uważa jednak, że z czasem urządzenia tej firmy mogą kosztowac około 150 USD za kilowatogodzinę. Wszystko zależy bowiem od ceny materiałów (jak np. elektrolitu) oraz rozpoczęcia produkcji na dużą skalę. Nanotune to kolejna firma, która obiecuje wyprodukowanie ultrakondensatorów o dużej pojemności. Specjaliści uważają, że jeśli komuś uda się stworzyć tego typu urządzenia o pojemności 100 Wh/kg to będzie to „fantastyczne osiągnięcie".
  12. Naukowcy z Brigham and Women's Hospital (BWH) wykorzystali czujnik obrazu z kamery internetowej do stworzenia niewielkiego przenośnego urządzenia do monitorowania w czasie rzeczywistym wpływu leków na komórki serca (kardiomiocyty). Ma to duże znaczenie w przypadku kardiotoksyczności medykamentów, zwłaszcza że nieodwracalne uszkodzenie serca prowadzi niejednokrotnie do trwałego kalectwa, a nawet śmierci. Badacze pozyskiwali kardiomiocyty z mysich komórek macierzystych i w aparacie poddawali je działaniu różnych medykamentów. Następnie w czasie rzeczywistym monitorowali wyrażoną za pomocą wskaźnika aktywność komórek mięśnia sercowego i wykrywali wszystkie zmiany w tym zakresie. Ocena toksycznych efektów nowych leków na wczesnych etapach ich rozwoju może przyspieszyć proces powstawania medykamentów, prowadząc do znacznej oszczędności pieniędzy i czasu [...] – tłumaczy dr Ali Khademhosseini. Technologia ta może również odegrać pewną rolę w spersonalizowanej medycynie. Na początku trzeba by wyekstrahować od pacjenta komórki somatyczne, które zostałyby przeprogramowane na komórki macierzyste zwane indukowanymi pluripotencjalnymi komórkami macierzystymi [ang. iPSC, od induced pluripotent stem cells; otrzymuje się z niepluripotentnych komórek przez wymuszenie ekspresji pewnych genów]. W dalszej kolejności iPSC różnicowano by do komórek serca, które poddawano by badaniu. Bioczujnik mógłby monitorować kardiomiocyty po wprowadzeniu leku, dając wyobrażenie o wpływie leku na serce konkretnego chorego – dodaje dr Sang Bok Kim. Kiedyś monitorowanie komórek serca wymagało stosowania drogich urządzeń, tymczasem najnowszy wynalazek z BWH kosztuje mniej niż 10 dol. i jest kompatybilny z konwencjonalnym sprzętem.
  13. Steve Ballmer, prezes Microsoftu, zaskoczył wszystkich ogłaszając, że koncern zainwestuje w platformę BlackBerry. Bing stanie się preferowanym dostawcą wyszukiwania i map - stwierdził Ballmer. Także wyszukiwanie głosowe będzie obsługiwane przez Binga. Zdumieni analitycy pytają, ile Microsoft zapłacił za umowę z Research in Motion (twórca platformy BlackBerry) i przypominają, że umowa z Nokią kosztuje koncern z Redmond ponad miliard USD. Szczegóły umowy pomiędzy RIM-em a Microsoftem nie są znane. Na razie pozostają jedynie domysły oraz informacje, które przekazał Ballmer. Dla analityków jest to jednak bardzo ważna wiadomość. To pokazuje, że wojna na rynku mobilnych wyszukiwarek trwa na całego - mówi Michael Gartenberg, analityk Gartnera. Obecność Ballmera na BlackBerry World to świetny ilustracja powiedzenia, że wróg moje wroga jest moim przyjacielem - dodaje. Wrogiem obu firm jest w tym wypadku Google. Rzecznik prasowa RIM-a wyjaśniła, że Bing będzie „preferowaną" wyszukiwarką, co oznacza, iż RIM będzie proponował firmom telekomunikacyjnym z którymi współpracuje, by rozprowadzali BlackBerry z domyślnie ustawionym Bingiem. Jednak ostateczna decyzja będzie należała do telekomów. Warto tutaj zauważyć, że firmy telekomunikacyjne były zadowolone z umowy Microsoftu z Nokią, gdyż mają nadzieję, iż pojawi się dzięki temu realna konkurencja dla Google'a, co wzmocni ich pozycję w negocjacjach z wyszukiwarkowym gigantem. Dlatego też można przypuszczać, że będą też zadowolone z pojawienia się Binga na platformie BlackBerry. Decyzja o współpracy z Microsoftem przeciwko Google'owi to dobry ruch ze strony RIM-a, uważa analityk Jack Gold. RIM tak naprawdę nie chce, by Google dostarczał platformie BlackBerry wyników wyszukiwania i usługi mapowe, ponieważ bardzo mocno konkuruje z Androidem - wyjaśnia. Z drugiej strony Microsoft może potencjalnie zarobić sporo pieniędzy dzięki Bingowi, a więc taki układ to zwycięstwo Microsoftu, gdyż może zdobyć pieniądze, które w innym wypadku trafiłyby do Google'a. Tak więc obie firmy na tym wygrywają i obie walczą w ten sposób z Google'em. Oczywiście BlackBerry jest też konkurentem Windows Phone, ale obecnie dla Microsoftu ma to mniejsze znaczenie, gdyż możliwości zarobkowe Binga są znacznie większe niż Windows Phone. Ponadto umowa z Kanadyjczykami to rodzaj zabezpieczenia dla Microsoftu na wypadek, gdyby Windows Phone nie zdobył popularności. Dzięki niej koncern Ballmera ma gwarancję, że nie wypadnie całkowicie z rynku.
  14. Seagate to pierwsza firma, której udało się upakować 1 terabajt danych na pojedynczym talerzu dysku twardego. Koncern pokazał właśnie 3,5-calowy HDD z serii Barracuda o pojemności 3TB, w którym zastosowano jedynie 3 talerze. Dyski z nowymi talerzami najpierw będą sprzedawane w ramach serii GoFlex. Będą się charakteryzowały pojemnością do 3TB i gęstością zapisu rzędu 625 gigabitów na cal kwadratowy. Pierwsze takie urządzenia trafią do sprzedaży w połowie bieżącego roku. Seagate nie zdradza przewidywanej ceny nowych HDD.
  15. Zależność kojarzy się większości psychologów z biernością, jednak Robert Bornstein z Adelphi University udowadnia, że zależność jest w rzeczywistości o wiele bardziej złożona i może nawet mieć aktywne, czyli pozytywne aspekty. Jeszcze podczas studiów Bornstein przeprowadził serię eksperymentów. Połączył w pary osoby zależne i mniej zależne i poprosił je o przedyskutowanie kwestii, co do której nie były zgodne. Zakładał, że osoba zależna ulegnie samodzielniejszemu partnerowi. Stało się jednak dokładnie na odwrót. Przez 70% czasu poddawał się niezależny badany. Na tej podstawie przyszły psycholog wysnuł wniosek, że nie zawsze pasywny oznacza bierny. Bornstein szybko zorientował się, że osobom tym zależało na zrobieniu dobrego wrażenia na profesorze prowadzącym eksperyment. Na podstawie analizy przeprowadzonych dotąd badań Amerykanin uważa, że jądrem osobowości zależnej jest postrzeganie własnego ja jako bezradnego, wrażliwego i słabego. Wg niego, często jest ono skutkiem wychowywania przez nadopiekuńczych lub autorytarnych rodziców. W takiej sytuacji zależni ludzie podejmują decyzję, że ich sposobem na życie będzie znalezienie silnej jednostki i utrzymanie jej przy sobie za wszelką cenę. Oznacza to chęć imponowania autorytetom, które w przyszłości mogą pomóc lub ochronić. Co ciekawe, chęć do zaimponowania popycha niekiedy kogoś zależnego do aktywnego działania. Bornstein podkreśla, że zaufanie do autorytetów sprawia, że osoby zależne szybciej i częściej zgłaszają się do lekarza z niepokojącymi objawami, a później ściślej stosują się do zaleceń specjalisty. Kolejne badania wykazały, że zależni studenci mają wyższą średnią ocen. Jeśli jesteś niezależną osobą, generalne odczucie jest takie: OK, jakoś sobie z tym poradzę. Zależni studenci, którzy są predysponowani do szukania pomocy autorytetów, pójdą do profesora i poproszą o pomoc. Chęć do podtrzymania związku za wszelką cenę ma też duży minus. Badacze wykazali bowiem, że zależni mężczyźni częściej uciekają się do przemocy. Gdy nie wiedzą już, jak zatrzymać partnerkę, stosują rozwiązania siłowe.
  16. Czterech paleontologów z USA i Kanady odkryło skamieniałość olbrzymiej mrówki wielkości kolibra. Wędrówki tego gatunku dostarczają ważnych informacji nt. tego, jak okresy ocieplenia wpływały na dystrybucję życia w eocenie (ok. 50 mln lat temu). Naukowcy nadali 5-cm owadowi nazwę Titanomyrma lubei. Skamieniałość uskrzydlonej królowej znaleziono w osadach prehistorycznego jeziora w Wyoming. Obecnie rozmiarami dorównują jej tylko królowe mrówek z rodzaju Dorylus z tropikalnej Afryki Centralnej i Wschodniej. Nie dysponujemy skamieniałościami robotnic nowego gatunku, mamy tylko królową – podkreśla dr Bruce Archibald z Uniwersytetu Simona Frasera w Kolumbii Brytyjskiej. Archibald natrafił na supermrówkę, odwiedzając Kirka Johnsona z Muzeum Natury i Nauki w Denver. Dostrzegł ją w szufladzie gabloty. Co ciekawe, gdy klimat stawał się gorący jak we współczesnych tropikach, mrówki te rozchodziły się po lasach dzisiejszego Wyoming. W rzeczywistości wszystkie blisko z nimi spokrewnione kopalne mrówki-olbrzymki znaleziono w rejonach Europy [w Niemczech i na Isle of Wight] oraz Ameryki Północnej, które miały gorący klimat. Datowanie wykazało, że wszystkie skamieniałości pochodzą z tego samego okresu. Gabaryty niemieckiej odpowiadają tutejszemu strzyżykowi, a amerykańską porównano do wspomnianego na początku kolibra. W następnym kroku paleontolodzy przyjrzeli się habitatom zamieszkiwanym przez największe dzisiejsze mrówki (sporządzono mapę występowania wszystkich gatunków, wymarłych i żyjących, których rozmiary wykraczają poza 3 cm). Zespół stwierdził, że niemal wszystkie występują w tropikach, dlatego wysnuto wniosek, że bycie dużą mrówką musi w jakiś sposób wymagać życia w wysokiej temperaturze. W eocenie wiele gatunków roślin i zwierząt migrowało między Europą i Ameryką Północą przez arktyczny most lądowy. Tajemnicą pozostawało, jak olbrzymie prehistoryczne mrówki radziły sobie z za chłodnym dla nich umiarkowanym klimatem Arktyki? Badacze podejrzewali, że kluczowe dla tego procesu były krótkie, ale intensywne epizody globalnego ocieplenia, które zdarzały się w tamtym okresie. Stwarzały one okresowe okazje do przemieszczania się ciepłolubnych form życia między kontynentami. Archibald nazywa to otwarciem fizjologicznej bramki do przekroczenia lądowego mostu. To dlatego w Kolumbii Brytyjskiej i Danii występuje wiele podobnych owadów [...]. Naukowcy mają nadzieję, że dzięki ostatnim odkryciom uda się lepiej zrozumieć wpływ globalnego ocieplenia na życie. W miarę jak zmienia się klimat Ziemi, widzimy, że tropikalne gatunki inwazyjne rozszerzają swój zakres występowania na umiarkowane szerokości geograficzne, a w Arktyce pojawiają się ważki. Szczegółowe ustalenie, jak kiedyś różne formy życia przystosowały się do globalnego ocieplenia, będzie miało w przyszłości rosnące znaczenie. Na razie nie wiadomo, jak mrówki-olbrzymki żyły i co jadły. Zarówno w Europie, jak i w Wyoming znaleziono je jednak w pobliżu roślin, które dobrze funkcjonowały przy temperaturach oscylujących wokół 20 stopni Celsjusza.
  17. Nadwaga lub otyłość w średnim wieku zwiększają ryzyko pewnych rodzajów demencji. Do takich wniosków doszli naukowcy z Karolinska Institutet, analizując dane z szwedzkiego rejestru bliźniąt. Obecnie nadwaga lub otyłość występują u ponad 50% dorosłych w USA i Europie. Badania dr Weili Xu, których wyniki opublikowano w piśmie Neurology, potwierdzają, że kontrola wagi lub odchudzanie w średnim wieku to dobre sposoby na zmniejszenie ryzyka demencji. Korzystając z rejestru, akademicy przeanalizowali przypadki 8534 bliźniąt w wieku 65 lat i starszych. W tej grupie demencję zdiagnozowano u 350 osób, a u 114 istniało podejrzenie demencji. Informacje na temat wzrostu i wagi zebrano 30 lat wcześniej. Badanych podzielono na podstawie wskaźnika masy ciała (BMI) na kategorie. Dwa tysiące pięciuset czterdziestu jeden uczestników studium (blisko 30%) miało nadwagę lub było otyłych w średnim wieku. Szwedzi wykazali, że w porównaniu do bliźniąt z prawidłową masą ciała, u osób z nadmierną wagą w średnim wieku ryzyko demencji (w tym otępień naczyniopochodnych) i choroby Alzheimera wzrosło aż o 80%. Wyniki pozostawały takie same nawet po uwzględnieniu innych potencjalnie istotnych czynników, takich jak wykształcenie, cukrzyca czy choroby naczyniowe. Nadwagę miało 26% grupy bez demencji, w porównaniu do 36% ludzi z podejrzeniem otępienia i 39% badanych ze zdiagnozowaną demencją. Otyłość występowała u 3% grupy bez demencji, 5% grupy z podejrzeniem demencji i 7% grupy ze zdiagnozowanym otępieniem. Naukowcy przeanalizowali też dane w parach, gdzie jedno z bliźniąt miało demencję, a drugie nie. Stwierdzili brak istotnego statystycznie związku między nadwagą/otyłością a demencją. To sugeruje, że związek między nadwagą i otępieniem kształtują czynniki środowiskowe z wczesnych etapów życia oraz czynniki genetyczne – podsumowuje Weili Xu.
  18. Wszystko wskazuje na to, że Federalna Komisja Handlu (FTC) poważnie rozważa rozpoczęcie śledztwa w sprawie pozycji Google'a na rynku wyszukiwarek. Dziennikarze Bloomberga dowiedzieli się, że Microsoft i Yahoo otrzymają od FTC żądanie ujawnienia informacji dotyczących tych kwestii. Żądania takie wysyłane są do osób lub instytucji, o których śledczy sądzą, że mogą posiadać przydatne informacje oraz dokumenty. W praktyce nie można się uchylić od odpowiedzi na zadawane pytania. Jak wynika z informacji Bloomberga, urzędnicy FTC czekali z rozpoczęciem swoich działań do czasu zatwierdzenia przez Departament Sprawiedliwości (DoJ) przejęcia przez Google'a firmy ITA Software. Przed trzema tygodniami DoJ wyraził zgodę na transakcję. Jak mówi Eleanor Fox, profesor prawa z New York University, rozpoczęcie śledztwa przeciwko koncernowi Page'a i Brina może mieć dalekosiężne skutki. Niewykluczone, że z czasem Google zostanie poddane przed DoJ podobnemu nadzorowi, jakiego doświadczył Microsoft. Co prawda profesor James Grimmelmann z New York Law School mówi, że zdobycie dowodów pozwalających na oskarżenie Google'a może być trudne, gdyż, jego zdaniem, Google zdominowało rynek dzięki produktowi lepszemu niż konkurencyjne, jednak nie jest niemożliwe. Tym bardziej, że istnieją wątpliwości co do postępowania Google'a podczas zdobywania nowych rynków. Na przykład w stanie Massachusetts firma Skyhook Wireless oficjalnie oskarżyła Google'a o to, że naciskał na Motorolę i innych klientów Skyhooka, by zrezygnowały z oprogramowania tej firmy na rzecz programów Google'a. Ponadto wśród ekspertów FTC znajdują się osoby krytycznie nastawione do działań wielkich korporacji, jak na przykład Timothy Wu, który stwierdził w ubiegłym tygodniu, że nie wolno pozwalać firmom internetowym by zmonopolizowały więcej niż jeden rynek. Coraz częściej zastrzeżenia dotyczące praktyk Google'a zgłaszają konkurencyjne firmy. Ale nie tylko one. John Simpson z organizacji konsumenckiej Consumer Watchdog stwierdził, że Google to Standard Oil Company obecnego wieku i wezwał do podziału koncernu. Śledztwo ws. Google'a toczą też UE oraz stan Texas.
  19. Narażenie na bierne palenie, nawet na bardzo niskim poziomie, zwiększa ciśnienie krwi u chłopców. Co ciekawe, dziewczynki podlegające biernemu paleniu mają niższe ciśnienie od rówieśnic, które nie są wystawione na oddziaływanie tytoniu. Odkrycia te wspierają wcześniejsze badania, które sugerowały, że coś związanego z płcią żeńską zapewnia ochronę przed wywoływanymi biernym paleniem szkodliwymi zmianami naczyniowymi. Kolejnym ważnym krokiem jest zrozumienie, czemu się tak dzieje. Dzieci z podwyższonym ciśnieniem z większym prawdopodobieństwem będą cierpieć na nadciśnienie również jako dorośli. Dotąd jednak wiedza na temat czynników ryzyka tej przypadłości u maluchów była ograniczona. Badania z udziałem niepalących dorosłych wykazały istnienie związku między podwyższonym ciśnieniem a biernym paleniem i zanieczyszczeniem powietrza na zewnątrz. Niestety, nikt nie sprawdzał, czy podobna relacja występuje także u dzieci. Zespół dr Jill Baumgartner z University of Minnesota przeanalizował dane z czterech badań National Health and Nutrition Examination Surveys (NHANES), przeprowadzonych w latach 1999-2006 przez amerykańskie Centrum Zapobiegania i Kontroli Chorób. Naukowcy oceniali ekspozycję 6.421 młodych osób na bierne palenie. Pod uwagę brano stwierdzenia dotyczące mieszkania z palaczem, a także poziom kotyniny, czyli metabolitu nikotyny w organizmie. Okazało się, że chłopcy w wieku 8-17 lat, którzy byli narażeni na bierne palenie, mieli znacząco wyższe skurczowe ciśnienie krwi od chłopców niemających kontaktu z tytoniem. Choć wzrosty ciśnienia obserwowane u chłopców w naszym studium mogą być pozbawione klinicznego znaczenia z punktu widzenia jednostki, mają poważne konsekwencje dla populacji. Ponad 1/3 dzieci w USA i na świecie to ofiary biernego palenia w takim zakresie, jaki w naszym studium powiązano z niekorzystnymi zjawiskami sercowo-naczyniowymi – podkreśla Baumgartner. Baumgartner sądzi, że efekty sercowo-naczyniowe biernego palenia zaczynają się pojawiać już na wczesnych etapach życia. Nie wiadomo, czy są odwracalne, jeśli dziecko usunie się ze szkodliwego środowiska.
  20. Na Wiedeńskim Uniwersytecie Technicznym powstała połączona para atomów-bliźniaków. Dotychczas tego typu pary składały się tylko z fotonów. Pomiędzy splątanymi fotonami, które naukowcy nauczyli się tworzyć już jakiś czas temu, można teleportować stany kwantowe czy przenosić informacje. W przyszłości, dzięki osiągnięciom austriackich uczonych, podobne manipulacje mogą być przeprowadzane również na atomach. Naukowcy z Wiednia użyli kondensatu Bosego-Einsteina do utworzenia skorelowanych par atomów. To nie znaczy jeszcze, że manipulując jedną cząstką możemy w tym czasie zmieniać drugą tak, jakby były one powiązane niewidzialnym łączem. Ale mimo to musimy traktować obie cząstki jak pojedynczy system kwantowy, a to otwiera drogę do przeprowadzenia nowych fascynujących eksperymentów - mówi profesor Jörg Schmiedmayer. Do uzyskania pary atomów konieczne było najpierw stworzenie kondensatu Bosego-Einsteina. Wchodzące w jego skład atomy znajdują się na najniższym możliwym poziomie energetycznym. Kluczem do sukcesu są nasze układy scalone - zdradza Thorsten Schumm. Dzięki ich odpowiedniej architekturze możliwe stało się niezwykle precyzyjne manipulowanie atomami. Układy są tak czułe, że pozwalają na dostarczenie jednego kwantu energii do wybranego atomu w kondensacie. Gdy taki atom powraca do najniższego stanu energetycznego, kondensat musi pozbyć się nadmiarowej energii. Odpowiednia architektura układu scalonego powoduje, że kondensat Bosego-Einsteina może pozbyć się energii tylko w jeden sposób - emitując parę atomów. Inne metody są zabronione przez prawa mechaniki kwantowej - wyjaśnia Rober Bücker. Zgodnie z prawem zachowania pędu, oba wspomniane atomy poruszają się w przeciwnych kierunkach. To odpowiada procesowi zachodzącemu w specjalnych kryształach, w których tworzy się splątane fotony. Tym razem jednak podobne zjawisko udało się wytworzyć na znacznie bardziej masywnych atomach. Atomy te są swoimi kwantowymi mechanicznymi kopiami. Tworzą jeden kwantowy obiekt. Żadnego z tych atomów nie można opisać z osobna, muszą być opisywane wspólnie. Austriaccy naukowcy nie wiedzą jeszcze, w jaki sposób wykorzystają swoje osiągnięcie, nie mają pojęcia, jakie eksperymenty przeprowadzą. Wiedzą jednak, że stworzenie połączonych atomów pozwoli na zaprojektowanie nowych sposobów pomiarów i wykonanie wielu nowych doświadczeń.
  21. Bakterie są w stanie rosnąć w warunkach grawitacji 400 tys. razy większej niż na Ziemi. Japońscy naukowcy uważają, że ich wyniki uprawomocniają hipotezę panspermii Arrheniusa, zgodnie z którą życie na naszej planecie pochodzi z kosmosu, a przetrwalniki bakterii przybyły np. na komecie czy meteoroidzie. Badaniami kierował Shigeru Deguchi z Japan Agency for Marine-Earth Science and Technology. Akademicy zastosowali ultrawirówkę. Ponieważ osiąga ona nawet ponad kilkadziesiąt tysięcy obrotów na minutę, można dzięki niej odtwarzać warunki hipergrawitacyjne. W urządzeniu umieszczono 4 gatunki bakterii i drożdże Saccharomyces cerevisiae. Okazało się, że choć gdy ciążenie wzrastało, mikroorganizmy zbijały się grupy, nie wpływało to na tempo ich wzrostu. Dwa z gatunków bakteryjnych, Paracoccus denitrificans i pałeczka okrężnicy (Escherichia coli), nadal świetnie się namnażały przy grawitacji rzędu 403627 g. Poza E. coli i P. denitrificans testowano także Gram-ujemne hodowle Shewanella amazonensis, a także Gram-dodatnie Lactobacillus delbrueckii. Specjaliści uważają, że 2 wyżej wymienione gatunki tak świetnie sobie radziły ze względu na rozmiary i budowę. Im mniejszy organizm, tym mniejsza wrażliwość na siły grawitacyjne. Komórki bakteryjne (prokariotyczne) nie zawierają jądra oraz innych organelli o podwójnych błonach, np. mitochondriów; struktury o pojedynczych błonach również występują w ograniczonym stopniu. To istotne, ponieważ przy podwyższonej grawitacji ulegają one zbijaniu i sedymentacji, a ostatecznie są wyłączane. Na razie Japończycy nie wiedzą, czemu niektóre bakterie są bardziej oporne na efekty hipergrawitacji.
  22. W Sądzie Okręgu Quincy w stanie Massachusetts rozpoczął się niezwykły eksperyment. Wszystko, co dzieje się na sali rozpraw, będzie na bieżąco transmitowane w internecie. Dotychczas sąd ten nie pozwalał nawet na używanie laptopów, nie mówiąc już o kamerach. Pilotażowy program transmisji to najszerzej zakrojone działanie tego typu na terenie USA. Dotychczas wiele stanów pozwalało na obecność kamer czy publikację informacji w internecie, jednak działania rozpoczęte w Quincy nie mają precedensu. Przekaz będzie transmitowany na żywo i w żaden sposób nie będzie edytowany. Co więcej, w sądzie wydzielono specjalne miejsca dla blogerów i dziennikarzy oraz zapewniono im łączność Wi-Fi. W przeszłości reporterzy relacjonowali to, co dzieje się w sądach, ale wraz ze zmianami w krajobrazie mediów, coraz mniej dziennikarzy się tym zajmuje - stwierdził John Davidow, odpowiedzialny za projekt „OpenCourt". W tym samym czasie do rąk obywateli trafiało coraz więcej narzędzi, takich jak iPhone'y i inne smartfony, mogących służyć tworzeniu reportaży. Obywatele mogą pozostawiać wpisy na Tweeterze, blogach, raportować. Naszym celem jest przybliżenie sądu obywatelom tak, by mogli zrozumieć jak działa prawo i system sądowniczy w naszym kraju - dodaje. Sędziowie w USA są bardzo wrażliwi na punkcie obiektywizmu i odseparowania przysięgłych od wszelkich wpływów zewnętrznych. Na przykład w San Francisco sędzia wykluczył z rozpraw 600 potencjalnych przysięgłych po tym, jak część z nich przyznała, że szukali w internecie informacji na temat sprawy, do której mogli zostać potencjalnie wybrani. Z kolei na Florydzie sędzia federalny uznał proces za nieważny, gdyż ośmiu przysięgłych czytało w sieci o sprawie, w której brali udział. W ubiegłym roku wydano tzw. „Twitter instruction", w ramach której sędziowie federalni są zobowiązani informować przysięgłych, że nie wolno im używać czatów, blogów, witryn społecznościowych i innych serwisów internetowych w związku ze sprawą, którą rozpatrują. Eksperyment w Quincy to, jak widać, szerokie wprowadzenie mediów na sale sądową. Dopilnowano jednak, by wszelkie zasady procedowania zostały zachowane. Przez wiele miesięcy trwały prace nad stworzeniem zasad, na jakich będzie odbywał się eksperyment. Ponadto pracownicy sądu przeszli specjalne szkolenia i wiedzą np. w których częściach sali mogą rozmawiać bez obaw, że ich słowa zostaną wychwycone przez mikrofony. Nie wszyscy prawnicy są zachwyceni pomysłem. Adwokat Richard Sweeney, który często broni w sprawach kryminalnych, obawia się, że rozmowy z klientami mogą zostać zarejestrowane. Z kolei Michael Morrissey twierdzi, iż obecność kamer może zniechęcić do występowania przed sądem ofiary przemocy domowej, gwałtów, stalkingu czy osoby zeznające przeciwko gangom. Jednak sędzia Mark Coven, przewodniczący sądu w Quincy, zauważa, że kontrola nad kamerami i tak należy do sędziego, a ten może w każdej chwili zdecydować o ich wyłączeniu. Chcemy dopracować ten projekt tak, by z jednej strony zostało zachowane prawo do informacji publicznej, a z drugiej, by dobrze chronić prywatność oraz prawo do uczciwego wysłuchania każdego, kto stawia się przed sądem.
  23. Australijscy naukowcy odkryli 2 geny, które mogą utorować drogę nowym metodom leczenia jaskry (Nature Genetics). Specjaliści z Flinders University i 5 innych australijskich uczelni ustalili, że nosiciele feralnych wariantów tych dwóch genów stanowią 18% populacji (nie wiadomo, czy w innych częściach świata odsetek jest podobny). W ich przypadku ryzyko zachorowania na jaskrę jest 3-krotnie wyższe niż u pozostałych. Na ogólne ryzyko wystąpienia jaskry u konkretnej jednostki wpływają również nieznane na razie czynniki. W wywiadach wzięło udział 4,5 tys. pacjentów ze wszystkich stanów/regionów Australii i Nowej Zelandii. Choć jaskra z otwartym kątem przesączania [czyli porowatą strukturą, przez którą płyn śródoczny przesącza się do komory przedniej oka] stanowi najpowszechniejszą postać choroby, jest słabo poznana i trudno ją zdiagnozować na wczesnych etapach. W wielu przypadkach rozpoznanie zostaje postawione, gdy nastąpiły nieodwracalne uszkodzenia [nerwu wzrokowego i komórek zwojowych siatkówki, co prowadzi do pogorszenia i utraty wzroku] – wyjaśnia prof. Jamie Craig. Akademicy z antypodów podkreślają, że dzięki ich odkryciom będzie można zastąpić rutynowy monitoring i działania na chybił trafił identyfikacją pacjentów z grupy najwyższego ryzyka utraty wzroku. Studium jest kulminacją 5 lat pracy – podsumowuje Craig.
  24. Pakistański inżynier IT, Sohaib Athar, stał się internetowym bohaterem dnia po tym, jak okazało się, że relacjonował na Twitterze na żywo atak na Osamę bin Ladena. Relacja rozpoczęła się przed kilkunastoma godzinami od wpisu Helikopter lata nad Abbottabad o 1 w nocy (rzadkie wydarzenie). Chwilę później Athab pisze: Odlatuj helikopetrze, zanim wezmę swoją wielką packę na muchy, a później Od wielkiego wybuchu w Abbottabad Cantt. zatrzęsły się okna. Mam nadzieję, że to nie początek czegoś niefajnego. Godzinę później, na pytanie jednego z internautów, Athab odpowiada: po wybuchu cisza. Ale słyszał go też znajomy, mieszkający 6 kilometrów dalej. Helikopter odleciał. Wkrótce po mieście zaczynają najwyraźniej krążyć plotki, gdyż pojawia się wpis: kilku ludzi, którzy o tej porze są online, mówi, że jeden z helikopterów nie był pakistański. Internauci pytają, czy nie doszło do wybuchu bomby i życzą Athabowi, by był bezpieczny. Pojawia się coraz więcej szczątkowych informacji, domysłów, z wpisów wynika, że nikt nie jest do końca pewien, co się stało, jest mowa o jednym rozbitym śmigłowcu. Dowiadujemy się też, żę wojsko otoczyło teren, na którym leży jego wrak i przeszukuje domy. Rodzi się coraz więcej plotek, jest mowa o rodzinie, która miała zginąć, o jednym z pilotów śmigłowca, który uciekł z wraku i jest poszukiwany. Później pojawia się informacja, że był jeszcze jeden śmigłowiec. Następnie inżynier zajmuje się swoim ulubionym tematem - wpisami o muzyce. Siedem godzin po pierwszym wpisie Athab pisze, że media podały, iż w Abbottabad zabito Osamę Bin Ladena. Osamo i Obamo, zostawcie Abbottabad w spokoju - stwierdza. Dopiero godzinę później mężczyzna pisze: Ojej, jestem kolesiem, który, nie wiedząc o tym, na żywo relacjonował atak na Osamę. W chwilę później do Athara zaczynają napływać prośby o kontakt od dziennikarzy z całego świata.
  25. Dotąd uważano, że świnie tarzają się i leżą w błocie, bo nie mają gruczołów potowych, muszą zatem polegać na innych sposobach chłodzenia. Dr Marc Bracke z Wageningen University uważa jednak, że zależność ma odwrotny kierunek. Nie chodzi o to, że świnie nurzają się błocie, bo się nie pocą, ale o to, że nie pocą się, bo tak bardzo ukochały tarzanie. To z tego powodu w toku ewolucji nie powstały funkcjonalne gruczoły potowe (Applied Animal Behaviour Science). Holendrzy przejrzeli literaturę przedmiotu, by sprawdzić, czym kierują się inne tarzające się ssaki kopytne. Badanie objęło blisko spokrewnione ze świniami gatunki, np. hipopotamy (należą one do podrzędu świniokształtnych), które dla ochłody spędzają wiele godzin w wodzie. Akademicy poświęcili też sporo uwagi jeleniom. Te ostatnie turlają się po ziemi, by pozostawić na niej swój ślad zapachowy, co ułatwia wabienie partnerki. Naukowcy doszli do wniosku, że u świń kąpiele błotne także mogą być ważne ze względu na reprodukcję. Dr Bracke sugeruje, że zachowanie wyewoluowało u ich odległych przodków. Wszyscy wywodzimy się od ryby, stąd motywacja do przebywania w wodzie może być u pewnych zwierząt utrwalonym reliktem przeszłości. Dla wielu gatunków przesiadywanie w wodzie wiązałoby się ze zbyt dużym ryzykiem, ponieważ to w zbiornikach wodnych drapieżniki często poszukują swoich ofiar, jednak jak inni mięsożercy świnie są stosunkowo duże i mają powiększone kły, dlatego potrafią odeprzeć ewentualne ataki. Podążając tym tropem, akademicy stwierdzili, że świnie nie wykształciły funkcjonalnych gruczołów potowych jak inne ssaki kopytne, bo tarzanie w błocie bardzo im odpowiadało. [Co istotne] są one genetycznie powiązane ze zwierzętami szczególnie lubiącymi wodę – hipopotamami i waleniami.
×
×
  • Dodaj nową pozycję...