-
Liczba zawartości
37655 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
249
Zawartość dodana przez KopalniaWiedzy.pl
-
Badania przeprowadzone na Tufts University prowadzą do zaskakującego wniosku - niektóre z najbardziej masywnych galaktyk są o miliardy lat starsze niż dotychczas przypuszczano. Znaleźliśmy dość dużą liczbę bardzo masywnych, bardzo jasnych galaktyk, które istniały już 12 miliardów lat temu, gdy wszechświat był bardzo młody. Odkrycia te stoją w sprzeczności z najnowszymi modelami dotyczącymi formowania się i ewolucji galaktyk - stwierdził astrofizyk Danilo Marchesini. Odkrycia dokonał on wraz z badaczami z Yale University, Carnegie Observatories, Princeton University i innymi. Uczeni zidentyfikowali galaktyki, które były od 5 do 10 razy bardziej masywne niż Droga Mleczna. Ich przesunięcie ku czerwieni wynosi 3≤z<4, a zatem istniały wówczas, gdy wszechświat liczył sobie od 1,5 do 2 miliardów lat. Obserwując wspomniane galaktyki dokonano jeszcze jednego zaskakującego odkrycia. Ponad 80% z nich wykazuje bardzo dużą jasność w podczerwieni, co jest oznaką ich olbrzymiej aktywności i intensywnego wzrostu. Tymczasem masywne galaktyki w naszym niedalekim sąsiedztwie są bardzo spokojne i nie dochodzi w nich do formowania się gwiazd. Być może jednak uda się dopasować istnienie wspomnianych galaktyk do obowiązujących modeli. Ich przesunięcie ku czerwieni zostało bowiem ocenione za pomocą modelowania SED (spectral energy distribution) i jeszcze nie potwierdzono go badaniami spektroskopowymi. Metoda SED jest mniej dokładna niż badania spektroskopem. Jeśli zatem spektroskop wykaże, że połowa z tych masywnych galaktyk znajduje się nieco bliżej, z przesunięciem do czerwieni z=2,6, będzie to oznaczało, że powstały one gdy wszechświat liczył sobie 2,5 miliarda lat, a w przestrzeni kosmicznej było bardzo dużo pyłu absorbującego światło, to niezgodność z obecnymi modelami będzie znacząco mniejsza. Wciąż jednak odkrycie masywnych galaktyk o z=2,6 będzie bardzo znaczące. Tak czy inaczej jasne stało się, że nasze pojmowanie tego, w jaki sposób tworzą się masywne galaktyki, jest dalekie od satysfakcjonującego - mówi Marchesini.
- 3 odpowiedzi
-
- Danilo Marchesini
- Tufts University
-
(i 3 więcej)
Oznaczone tagami:
-
Microsoft złożył wniosek o przyznanie patentu na nowatorski wyświetlacz dotykowy. Wykorzystuje on polimer oraz światło ultrafioletowe do tworzenia tekstur i kształtów na powierzchni wyświetlacza. Podobne pomysły próbuje się realizować od pewnego czasu, wszystkie one dają jednak tylko wrażenie dotykania tekstury i mają spore ograniczenia. Na przykład Nokia, Carnegie Mellon University czy fińska firma Senseg pracują nad wyświetlaczami wykorzystującymi prąd elektryczny o różnej częstotliwości, który drażni końcówki palców i daje wrażenie różnych tekstur. Technologia ta jednak ma kilka ograniczeń, a jednym z poważniejszych jest pojawianie się fal dźwiękowych. Niektóre z nich są w słyszalnym zakresie, zatem użytkownik takiego wyświetlacza będzie słyszał buczenie. Eksperci Microsoftu wpadli na inny pomysł. Proponują oni umieszczenie na ekranie dotykowym dodatkowej warstwy polimeru zapamiętującego kształty. Za pomocą światła ultrafioletowego o różnej długości można pobudzać polimer to przybierania żądanego kształtu. Wynalazek powstał na potrzeby dużych wyświetlaczy, takich jak np. Surface. Gdy użytkownik dotknie urządzenia, kamera na podczerwień wykrywa położenie palca. Wówczas miałoby zostać uruchomione precyzyjne źródło światła ultrafioletowego, które trafiając we wspomniany polimer pobudzi go do przybrania odpowiedniego kształtu. Dzięki temu użytkownik będzie mógł poczuć tekstury, krawędzie czy nierówności wyświetlacza. Polimer działa w ten sposób, że pod wpływem światła o określonej długości twardnieje, a inna długość fali powoduje, że mięknie. Precyzyjne sterowanie piksel po pikselu twardością poszczególnych obszarów pozwoli na uzyskanie dowolnych tekstur i kształtów. Patrick Baudisch z uniwersytetu w Poczdamie, który specjalizuje się w wyświetlaczach dotykowych i pracował nad początkowym projektem Surface'a mówi, że stworzenie na wyświetlaczu tekstur i nierówności zrewolucjonizuje ten obszar elektroniki. Całkowicie wyeliminuje konieczność korzystania z fizycznej klawiatury, gdyż użytkownik będzie mógł w dowolnym momencie przywołać na ekran klawiaturę wirtualną, poczuć jej klawisze oraz ich opór. A to znacznie usprawni pisanie na wirtualnej klawiaturze.
- 5 odpowiedzi
-
- ekran dotykowy
- światło ultrafioletowe
-
(i 3 więcej)
Oznaczone tagami:
-
Dzięki mobilnej aparaturze do rezonansu magnetycznego naukowcy mogli przez 4,5 tys. km podążać tropem ultramaratończyków. W ten sposób ustalili, jak ich organizm odpowiada na stres związany z biegami wytrzymałościowymi. Szczególnie interesujące było dla akademików to, co dzieje się z mięśniami i tkanką tłuszczową. Pracami zespołu kierował dr Uwe Schütz, chirurg ortopeda z Wydziału Diagnostyki i Radiologii Interwencyjnej Szpitala Uniwersyteckiego w Ulm. Wiele z tego, czego się dotąd dowiedzieliśmy, można odnieść do przeciętnego biegacza. TransEurope-FootRace 2009 odbywał się od 19 kwietnia do 21 czerwca 2009 roku. Bieg rozpoczął się w południowych Włoszech. Trasa o szacowanej długości 4.488 km kończyła się na Przylądku Północnym w Norwegii. W unikatowym studium zgodziło się wziąć udział aż 66% uczestników ultramaratonu (44 osoby). Codziennie pobierano od nich próbki krwi i moczu, a także dane biometryczne. Poza tym biegaczy przypisywano losowo do dodatkowych badań, w tym ekg. U 22 osób co 3-4 dni wykonywano rezonans całego ciała, co w ciągu 64 dni dało w sumie od 15 do 17 badań. Pod koniec biegu naukowcy zaczęli analizować zebrane w ten sposób dane, by ustalić m.in. wywołane stresem zmiany w nogach i stopach. Oceniano objętość całego ciała, tłuszczu, w tym tłuszczu wisceralnego i brzusznej podskórnej tkanki tłuszczowej (ang. subcutaneous adipose tissue, SCAT), dodatkowo przyglądano się mięśniom szkieletowym i tłuszczowi kończyn dolnych. Zaawansowane techniki MRI pozwoliły zespołowi dr Schütza ocenić pod kątem ilościowym zmiany w obrębie mięśni, tłuszczu oraz chrząstki. Okazało się, że w czasie ultramaratonu biegacze tracili średnio 5,4% objętości ciała, większość na pierwszych 2 tys. km. W pierwszej połowie wyścigu znikało 40% tkanki tłuszczowej organizmu, a w ciągu całego biegu w sumie 50%. Objętość mięśni nóg spadała średnio o 7%. Mięśnie degenerowały się wskutek ogromnego zużycia energii. Choć niewiele osób biega na tak długie trasy, niektóre wnioski z opisywanego studium odnoszą się do wszystkich miłośników joggingu. Okazało się m.in., że po pewnych urazach można nadal bezpiecznie biegać. Chodzi np. o wewnątrzmięśniowy stan zapalny uda lub podudzia. Zazwyczaj pozwala on na kontynuowanie ćwiczeń bez ryzyka dalszego uszkodzenia tkanek. Inne urazy związane z przetrenowaniem/przeciążeniem, w tym zapalenie stawów, wiążą się z wyższym prawdopodobieństwem postępów choroby, ale nie zawsze grożą trwałym urazem. Zasada, że jeśli pojawia się ból, powinieneś przestać biec, nie zawsze jest właściwa – twierdzi Schütz. Studium wykazało, że na początku bieg wpływa na tkankę tłuszczową. Spalanie otaczającej narządy wewnętrzne wisceralnej tkanki tłuszczowej (średnio 70%) następowało na o wiele wcześniejszych etapach biegu niż wcześniej sądzono. U osób, które zaczynają swoją przygodę z bieganiem, efekty w postaci zmniejszenia ilości tkanki tłuszczowej są silniej zaznaczone niż u ludzi, którzy biegają od dawna.
- 6 odpowiedzi
-
- rezonans magnetyczny
- stres
-
(i 6 więcej)
Oznaczone tagami:
-
Czterdziestodziewięcioletnia Angeles Duran z Salvaterra do Mino w hiszpańskiej Galicji poinformowała w ubiegły piątek (26 listopada), że w miejscowym biurze notarialnym dokonała wpisu, zgodnie z którym Słońce stało się jej własnością. Kobieta powiedziała dziennikarzowi internetowego wydania gazety El Mundo, że odpowiednie kroki podjęła już we wrześniu, po tym jak dowiedziała się z mediów o Amerykaninie rejestrującym się jako właściciel Księżyca i większości planet Układu Słonecznego. O Słońcu nikt jednak nie pomyślał i Duran postanowiła zapełnić wakat. O ile istnieją międzynarodowe uregulowania, odmawiające jakiemukolwiek państwu praw do własności planety czy gwiazdy (10 października 1967 r. wszedł np. w życie ratyfikowany przez USA, Wielką Brytanię i ówczesny Związek Radziecki Układ o zasadach działalności państw w zakresie badań i użytkowania przestrzeni kosmicznej łącznie z Księżycem i innymi ciałami niebieskimi), nie ma analogicznych zapisów dotyczących osób indywidualnych. Nie jestem głupia, znam prawo. Zrobiłam to, ale równie dobrze mógł to być ktoś inny. Po prostu byłam pierwsza. W dokumencie notarialnym podano szczegółową specyfikację Słońca (chyba na wszelki wypadek, by nie pomylić go z innym słońcem). Wspomniano m.in. o odległości dzielącej je od Ziemi i o tym, że należy do typu widmowego G2. Jako prawowita właścicielka Duran zamierza nałożyć podatek na wszystkich ludzi wykorzystujących promieniowanie słoneczne i połowę przeznaczyć dla hiszpańskiego rządu, 20% na system emerytalny, 10% na badania, 10% na rozwiązanie problemu światowego głodu, a pozostałe 10% na własne potrzeby. Na razie Duran skupiła się na opodatkowaniu rodaków, teraz pozostaje czekać na oświadczenia związane z resztą świata.
- 10 odpowiedzi
-
Uprawa roślin na obcych, kolonizowanych planetach, to jeden z archetypów literatury science fiction. Naukowcy jednak zajmują się tym zagadnieniem na serio i wcale nie jest to dziedzina tak bardzo oderwana od Ziemi. I to mimo tego, że niektóre z dyskusji wydają się akademickie. Na dziewiętnastym, Światowym Kongresie Nauk o Glebie, jaki odbył się w australijskim Brisbane, zastanawiano się, nad jednolitą, uniwersalną definicją gleby. Nie każdą bowiem powierzchnię planety (czy innego ciała niebieskiego) naukowcy chcieliby nazywać glebą. Logiczne wydaje się powiązanie gleby z życiem roślinnym, bez gleby nie ma bowiem roślin, ale jak wyodrębnić i określić konieczne czynniki? Na Ziemi glebę tworzy pięć czynników: skała macierzysta, klimat, topografia, czas oraz życie biologiczne. Ale czy w takim razie brak życia roślinnego dyskwalifikuje powierzchnię ciała niebieskiego jako glebę? Chodzi wszak również o to, czy np. powierzchnię Marsa można określić mianem gleby i czy glebą (umożliwiającą rozwój roślin) ona jest. Na naszej planecie zresztą również są obszary, gdzie roślinności nie ma, a nikt nie neguje obecności na nich gleby. Niektórzy uczestnicy kongresu skłaniali się ku definicji gleby jako „podłoża na powierzchni lub blisko niej, Ziemi lub innego ciała niebieskiego, modyfikowanego przez czynniki i procesy biologiczne, chemiczne i/lub fizyczne. Od samej definicji ciekawsze są wszakże zagadnienia, czego należy wymagać, aby gleba mogła podtrzymywać życie roślinne oraz co jest nieodzowne, aby gleba mogła się formować. Głównym i pierwotnym czynnikiem jest erozja powierzchni. W przypadku różnych ciał niebieskich różnie to wygląda. Na Wenus dominuje erozja pod wpływem wysokiego ciśnienia gęstej atmosfery, zawierającej głównie dwutlenek węgla i kwas siarkowy, z niewielką ilością tlenu i wody. Na Marsie jest to niemal wyłącznie erozja fizyczna, powodowana przez meteoryty, silne wiatry oraz różnice temperatur. Na Księżycu erozję poza meteorytami i różnicami temperatur powoduje także wiatr słoneczny, docierający bezpośrednio do jego powierzchni. Wiatr słoneczny powoduje także powstawanie wielu związków chemicznych. Na Ziemi erozja jest najbardziej złożona i różnorodna, dlatego do końca nie wiemy, które z obecnych tu czynników są naprawdę niezbędne, a które nie. A może by tak bez gleby? Mimo że uprawa roślin jednoznacznie kojarzy się nam z ziemią, nie jest ona jednak niezbędna. Pierwsze próby z uprawą aeroponiczną (bezglebową) czyniono już na początku XX wieku, w latach 80. zaś pojawiły się komercyjna aeroponika. Polega ona na umieszczeniu roślin w specjalnych płytkach z tworzyw sztucznych, gdzie rosnące na wolnym powietrzu korzenie zraszane są bezpośrednio wodą i substancjami odżywczymi. Uprawa taka jest jednak trudniejsza i droższa, wymaga bowiem dość skomplikowanej aparatury. Dzięki temu jednak uniezależniamy się od podłoża i nie potrzebujemy dużych ilości wody. Te zalety sprawiły, że w 1997 roku podjęto próby wprowadzenia takich upraw na pokładzie stacji orbitalnej MIR, prowadzone przez NASA we współpracy z firmami AgriHouse i BioServe Space Technologies. Główną zaletą aeroponiki w takich warunkach są mniejsze wymagane ilości wody, której dostarczanie na orbitę pochłania znaczne fundusze. Rośliny pomagałyby także odświeżać powietrze, wytwarzając tlen oraz dostarczałyby substancji odżywczych. Przyszłe, ewentualne uprawy na innych planetach być może będą tak właśnie wyglądały. Ale niekoniecznie. W 2008 roku Phoenix Mars Lander przeprowadził pierwsze badania marsjańskiej gleby, dzięki którym odkryto, że nadaje się ona do podtrzymywania życia roślinnego znacznie lepiej, niż sądzono. Odkryto w niej między innymi magnez, sód, potas i chlorki. Obecność soli dowodzi, zdaniem uczonych, że przynajmniej kiedyś była tam woda. Marsjańska gleba ma też odczyn zasadowy, a nie kwaśny, jak wcześniej sądzono. Dążenie do kolonizowania nowych terenów zawsze istniało w człowieku - mówi Giacomo Certini, naukowiec z Wydziału Nauk o Roślinach, Glebie i Środowisku na University of Florence. - Rozciągnięcie naszych horyzontów na nowe światy nie jest zatem niczym dziwnym. W przyszłości przeprowadzka ludzi i produkcji żywności może okazać się nieodzowna.
-
Oświetlenie diodowe pomału zdobywa coraz większy rynek, głównie dzięki energooszczędności. Osiąganą jasnością wciąż jednak pozostaje w tyle za bardziej tradycyjnymi rozwiązaniami. Nowa technologia firmy Osram dostarczy na rynek LEDy jaśniejsze o 50 procent. Inżynierowie Osram Opto Semiconductors opracowali chip LED o nazwie UX:3, który lepiej sprawdzi się w roli lampy flash w aparatach fotograficznych telefonów komórkowych, czy przenośnych projektorach filmowych. Wadą dotychczasowych rozwiązań, poza niską jasnością, było nierównomierne rozłożenie światła. W przypadku robienia zdjęć z taką lampą błyskową objawiało się to jaśniejszym kręgiem światła, ciemniejącym po bokach. Ta cecha świecących diod stanowi zarazem poważną wadę, kiedy chce się je wykorzystać w projektorach. UX:3 poprawia oba te parametry za jednym zamachem. UX:3 składa się z metalicznej kratki oraz dwóch warstw półprzewodników. Siatka przewodzi prąd do górnej warstwy, skąd elektrony poruszają się do warstwy dolnej, wzbudzając światło. W konwencjonalnych diodach metaliczna siatka umieszczana jest ponad obiema warstwami, zatrzymując znaczną część światła. Nowa koncepcja inżynierów Osram to przeniesienie siatki na sam dół diodowej „kanapki", co skutkuje większą efektywnością. Przy jasności 150 luksów nowy rodzaj LED jest o 50 luksów lepszy od najlepszych dotychczasowych technologii. Dzięki bardziej równomiernemu rozpraszaniu światła, lampa flash wykonana w tej technologii może równomiernie oświetlić obszar o przekątnej nawet do 90 centymetrów, oferując zdjęcia lepszej jakości. Podobne zwiększenie jakości uzyska się w przypadku projektorów.
- 4 odpowiedzi
-
- diodowe lampy błyskowe
- diodowe projektory
-
(i 3 więcej)
Oznaczone tagami:
-
„Prześpij się z tym" to rada, jaką na pewno nieraz zdarzyło nam się słyszeć. Tę ludową mądrość potwierdzają badania holenderskiego naukowca, które udowadniają, że nasza podświadomość nie tylko może nas wesprzeć w trudnych decyzjach, ale jest w nich od nas lepsza. Badania, jakie prowadził Maarten Bos z Radboud University Nijmegen były jego pracą doktorską, a zarazem częścią projektu badań nad podświadomością, jaki w ramach grantu Vici, przyznawanego przez NWO (Netherlands Organisation for Scientific Research) wykonuje Ap Dijksterhuis. Pracę z podświadomością proponuje wiele systemów czy szkół doskonalenia się, ale niewiele jest rzetelnych naukowych badań na ten temat. Dlatego studium Maartena Bosa, dające ponadto praktyczne wskazówki, jak uzyskać pomoc od swojej podświadomości są tak ciekawe. Nie myśląc, myślisz lepiej Holenderski uczony badał efektywność podejmowania skomplikowanych decyzji w różnych warunkach. Uczestnikom badania kazano podejmować niełatwe decyzje dotyczące kariery zawodowej, kupna samochodu, czy domu, obejmowały one wiele czynników i miały daleko idące konsekwencje. Niektórym osobom dodatkowo przysparzano stresu, wyolbrzymiając przed nimi stopień skomplikowania tego zadania. U osób podejmujących decyzje po świadomym namyśle widać było efekt tego wyolbrzymiania. Im problem był bardziej skomplikowany (przedstawiany jako skomplikowany), tym podejmowane decyzje były gorsze i mniej optymalne. Inaczej wyglądała sprawa u osób, które zaprzęgały do podjęcia decyzji swoją podświadomość. Aby upewnić się, że nie rozmyślają one świadomie, po przedstawieniu problemu dawano im do rozwiązywania łamigłówki logiczne. Osoby te podejmowały znacznie lepsze decyzje od planujących świadomie, nie wpływał też na nie dodatkowy czynnik stresujący w postaci wyolbrzymiania złożoności problemu i jego skutków. Wniosek: podświadomość podejmuje decyzje nie tylko bardziej optymalne, ale też lepiej pracuje pod presją. Na głodno lepsze jest niemyślenie Pozytywny wpływ decyzji po „przespaniu się z nią" wielu badaczy przypisywało odpoczynkowi i w rezultacie świeższemu spojrzeniu. Drugie doświadczenie Maartena Bosa obaliło ten pogląd. Uczestników badania pozbawiano posiłku przez kilka godzin, co skutkowało obniżonym poziomem cukru we krwi i dopiero wtedy przedstawiano im problem do rozwiązania, w analogiczny sposób do pierwszego doświadczenia. Połowa z nich otrzymywała przy tym do wypicia napój bogaty w substancje odżywcze, przede wszystkim glukozę, druga połowa nie. U osób podejmujących decyzje w sposób świadomy rysowała się wyraźna zależność: myślenie „na głodniaka" było znacznie mniej efektywne. Optymalność decyzji podejmowanych podświadomie nie zależała od poziomu glukozy. Wniosek: podświadomość jest nie tylko skuteczniejszym decydentem, ale jest też bardziej efektywna energetycznie. Przewaga podświadomości nad świadomością rośnie zatem w stanach niedożywienia, zmęczenia czy wyczerpania. Nie trzeba się zatem koniecznie z problemem przespać, jak konkluduje autor badań, ale warto po zapoznaniu się z nim usunąć go z pola działania świadomości i zająć się czymś innym. Jeśli nie jest to pora na sen to może to być układanie puzzli, czy zajmując nas rozrywka. Jeden czynnik jest jednak ważny, jak podkreśla Maarten Bos, przed oddaniem decyzji w ręce podświadomości, należy dokładnie określić pożądane rezultaty, czyli o co nam chodzi. Inaczej skutki niekoniecznie będą optymalne, jeśli podświadomość za ważne uzna co innego, niż nasza świadomość.
- 6 odpowiedzi
-
- Radboud University Nijmegen
- Maarten Bos
-
(i 4 więcej)
Oznaczone tagami:
-
Mimo rozwoju alternatywnych technologii i inwestowania olbrzymich środków w badania, tak naprawdę ropa naftowa wciąż pozostaje surowcem niezastąpionym. Służy bowiem nie tylko jako paliwo, jej pochodne bowiem są nieodzowne przy produkcji lakierów, farb, tworzyw sztucznych, materiałów budowlanych. Ekologiczne biopaliwa nie dają niestety takich możliwości, dostępne technologie są zbyt mało zaawansowane i mało wydajne. Być może sytuacja ulegnie zmianie, w każdym razie zapewniają o tym naukowcy z University of Massachusetts w Amherst. Zapewniają oni, że odkryli sposób wysokowydajnego i taniego wytwarzania cennych surowców chemicznych z bioolejów. Jeśli nowa technologia faktycznie okaże się konkurencyjna ekonomicznie, będzie to przełom. Otworzą się bowiem drzwi do szerszego wykorzystania biomasy: odpadów drzewnych, upraw roślin energetycznych, itd. Szeroko i komercyjnie dostępne oleje pirolityczne są bowiem tańsze od ropy naftowej. Autorzy rozwiązania obiecują nawet, że niepotrzebna będzie budowa nowej infrastruktury fabrycznej, bowiem wytwarzanie produktów (dotychczas) ropopochodnych ze wzbogaconego biooleju będzie możliwe z użyciem dotychczasowych technologii. Technologia, którą opracowali profesor George Huber oraz doktoranci Tushar Vispute, Aimaro Sanno i Huiyan Zhang jest już wdrożona w eksperymentalnej fabryce, na razie produkcja odbywa się w ilościach litrowych, ale technologia jest, według ich zapewnień, łatwo skalowalna i łatwa do komercyjnego wdrożenia. Licencję na nią zakupiła już firma Anellotech Corporation, która pracuje ponadto nad technologiami bezpośredniego przerobu odpadowych materiałów drzewnych na chemikalia. Opracowana technologia opiera się na dwóch zintegrowanych procesach, w pierwszym odbywa się reakcja uwodornienia biooleju, w drugim, dzięki wykorzystaniu zeolitów (rodzaj porowatego minerału) w roli katalizatora następuje konwersja cząstek biomasy w pożądane węglowodory aromatyczne i olefiny. Można w ten sposób uzyskać między innymi etylen, propylen, benzen, toluen, ksylen, które są nieodzowne do wytwarzani na przykład poliuretanu, plastików i innych tworzyw sztucznych. Inną wielką zaletą technologii jest możliwość płynnego dostosowywania procesu produkcji do różnego składu surowców i różnych proporcji produktów końcowych. Pozwoli to na lepszą odpowiedź na aktualne zapotrzebowanie i wykorzystanie rynkowych cen, czyli zarazem lepszą opłacalność produkcji. Rynek chemikaliów ropopochodnych jest szacowany na 400 miliardów dolarów, jest więc o co walczyć.
- 9 odpowiedzi
-
- University of Massachusetts
- George Huber
- (i 6 więcej)
-
Troje założycieli serwisu The Pirate Bay przegrało apelację, w której odwoływali się od poprzedniego wyroku skazującego ich na rok więzienia. Sąd apelacyjny skrócił jednak ich kary. Frederik Neij ma zostać zamknięty na 10 miesięcy, Peter Sunde na osiem, a Carl Lundstrom na cztery. Ostatni z apelujących, Gottfrid Svartholm z powodu choroby nie stawił się w sądzie. Wyrok w jego sprawie zostanie ogłoszony później. Wraz ze zmniejszenie wyroków więzienia sąd zwiększył nałożoną na oskarżonych grzywnę. Poprzednio kazano im zapłacić 32 miliony koron. Teraz mają do zapłacenia 46 milionów czyli około 5,5 miliona dolarów. Już po wydaniu pierwszego wyroku Sunde oświadczył: "Nie możemy zapłacić i nie zapłacimy. Nawet gdybym miał pieniądze, to wolałbym jest spalić i nie dałbym im nawet popiołów". Twórcy The Pirate Bay zostali skazani za pomoc w masowym naruszaniu praw autorskich.
- 3 odpowiedzi
-
- Carl Lundstrom
- Frederik Neij
-
(i 5 więcej)
Oznaczone tagami:
-
Wyginięcie 65 mln lat temu dinozaurów utorowało drogę wzrostowi rozmiarów ssaków – po tym historycznym wydarzeniu stały się one 1000-krotnie większe niż wcześniej. Dinozaury zniknęły i nagle nie było komu zjadać roślin. Ssaki zaczęły bazować na wolnym źródle pożywienia, a gdy jest się dużym, korzystniej być roślinożercą – wyjaśnia dr Jessica Theodor z Uniwersytetu w Calgary. Kanadyjka podkreśla, że studium jej zespołu pokazuje, jak szybko w kategoriach geologicznych ekosystem potrafi się na nowo skalibrować. Dinozaury straciliśmy 65 mln lat temu, a w ciągu 25 mln lat system zresetował się i nastawił na nowe maksimum dla zwierząt, które nadal go zamieszkiwały. [...] To naprawdę szybka ewolucja. Pani biolog zdradziła, że z maksymalnej wagi 10 kg, gdy ssaki dzieliły środowisko z olbrzymimi gadami, ich gabaryty wzrosły do maksimum 17 ton (!) po przejęciu habitatu tylko dla siebie. Theodor ujawnia, że dotąd naukowcy tylko dyskutowali o wzorcach zmiany gabarytów w wyniku "konkurencyjnego uwolnienia" ssaków po wyginięciu dinozaurów, ale nikt nie przeprowadził odpowiednich wyliczeń. Dopiero ona i 19 specjalistów z różnych krajów uczyniło ten ważny krok. Przejrzeliśmy każdy okres geologiczny, zastanawiając się, kto jest największy w danej grupie ssaków. Potem szacowaliśmy masę ciała. Akademicy zbierali dane dotyczące maksymalnych rozmiarów głównych grup ssaków lądowych na każdym kontynencie, w tym nieparzystokopytnych (Perissodactyla), trąbowców (Proboscidea), szczerbaków (Xenarthra) oraz wielu wymarłych taksonów. Wyniki wskazują, że na wielkość wpływają ilość dostępnego miejsca i klimat – im chłodniej, tym ssaki były większe, gdyż większe zwierzęta lepiej utrzymują ciepło. Okazało się również, że żadna pojedyncza grupa ssaków nie zawłaszczyła sobie kategorii największych – w różnym czasie i miejscach najwięksi z największych należeli bowiem do różnych grup. Ze szczegółami studium międzynarodowego zespołu można się zapoznać na łamach Science.
-
- masa ciała
- rozmiary
-
(i 6 więcej)
Oznaczone tagami:
-
IBM od lat prowadzi jedne z najbardziej zaawansowanych i najważniejszych badań w przemyśle półprzewodnikowym. Koncern posiada własne laboratoria i fabryki, w których na masową skalę powstają procesory. Analitycy uważają jednak, że Błękitny Gigant ma zamiar stopniowo rezygnować z produkcji i nie wybuduje już więcej żadnej dużej fabryki. Analizy wydatków kapitałowych IBM-a pokazują, że firma chce zlecać produkcję na zewnątrz. Koncern będzie w przyszłym roku jednym z organizatorów Common Platform Alliance Technology Forum. Specjaliści zauważyli, że podczas gdy wydatki CAPEX (inwestycje w rozwój i wdrożenia) pozostałych organizatorów - czyli Samsunga i Globalfoundries - sięgną 12 miliardów USD, to inwestycje IBM-a ograniczą się do kwoty 500 milionów USD. Dalsze analizy ujawniły, że ostatni raz CAPEX IBM-a przekroczyły miliard dolarów w 2004 roku. Wówczas dawało to Błękitnemu Gigantowi 11. pozycję na świecie. W roku bieżącym i przyszłym koncern nie zmieści się nawet w pierwszej dwudziestce. Więcej od IBM-a wydadzą nie tylko tacy giganci jak Samsung (9,2 miliarda USD), TSMC (5,7 mld), Intel (5,0 mld) czy Globalfoundries (3,2 mld), ale również Rohm (0,574 mld), Amkor (0,552 mld) oraz Infineon (0,550 mld) i Siliconware (0,533 mld).Bob Johnson, wiceprezes Gartnera, przyszłość firm posiadających własne fabryki układów scalonych opisuje słowami: Albo sprzedajesz układy pamięci, albo produkujesz na zlecenie, albo jesteś Intelem. Zdaniem analityka IBM nie inwestuje dużo w produkcję. Odgrywa rolę lidera badań.
-
Międzynarodowy zespół naukowców odkrył, dlaczego palacze marihuany są bardziej narażeni na infekcje oraz pewne typy nowotworów. Uczeni opisali mechanizm, który powoduje spadek odporności u miłośników trawki. Na czele zespołu badającego kannabinoidy stał doktor Prakash Nagarkatti z University of South Carolina. Cannabis to najbardziej rozpowszechniony narkotyk na świecie i uważamy, że tłumi on reakcję odpornościową organizmu, powodując, iż użytkownicy są bardziej podatni na infekcje i niektóre rodzaje nowotworów. Sądzimy, że mechanizm tłumienia jest związany z unikatowymi, niedawno odkrytymi komórkami odpornościowym zwanymi komórkami supresyjnymi pochodzącymi z linii mieloidalnej (MDSC) - mówi Nagarkatti. Komórki te, w przeciwieństwie do większości komórek układu odpornościowego, nie walczą z infekcją, ale tłumią reakcję immunologiczną. Wiadomo, że u osób chorych na nowotwory poziom MDSC jest podwyższony, a naukowcy podejrzewają, iż tłumią one odpowiedź organizmu, ułatwiając rozwój choroby. Zespół doktora Nagarkattiego udowodnił, że kannabinoidy, oddziałując na receptory kannabinoidowe, prowadzą do masowego uaktywnienia MDSC. To pierwsze badania sugerujące, że marihuana może obniżać odporność organizmu. To rodzi pytanie, czy zauważona u palaczy marihuany większa podatność na niektóre typy nowotworów i infekcje ma związek z uaktywnieniem MDSC - mówi Nagarkatti. Uczony dodaje, że kannabinoidy z marihuany mogą okazać się obosiecznym mieczem. Z jednej strony, obniżając odporność organizmu, mogą zwiększać podatność na nowotwory i infekcje. Jednak z drugiej strony powinniśmy prowadzić nad nimi dalsze badania, gdyż mogą one przydać się w leczeniu wielu takich chorób, przy zwalczaniu których pomocne jest wcześniejsze stłumienie reakcji odpornościowej organizmu.
- 15 odpowiedzi
-
- komórki supresyjne z linii mieloidalnej
- Prakash Nagarkatti
-
(i 3 więcej)
Oznaczone tagami:
-
Nagły niedosłuch czuciowo-nerwowy (ang. sudden sensorineural hearing loss, SSNHL), nazywany też nagłą głuchotą lub nagłym niedosłuchem odbiorczym, wywołuje u chorego duży dyskomfort. Na szczęście w ramach pilotażowych badań japońskim naukowcom udało się uzyskać bardzo obiecujące wyniki przy zastosowaniu żelu powierzchniowego z insulinopodobnym czynnikiem wzrostu 1 (IGF1). Etiologia SSNHL jest nieznana. Ubytek słuchu wynosi więcej niż 30 decybeli, dotyczy trzech sąsiadujących ze sobą częstotliwości, a zaburzenie rozwija się przeważnie w ciągu 3 dni. Rocznie na nagłą głuchotę zapada od 5 do 20 osób na 100 tys. Szczyt zachorowań odnotowuje się w 50.-60. roku życia. Zespół Takayuki Nakagawy z Uniwersytetu w Kioto testował żel na grupie 25 pacjentów, którzy nie reagowali na leczenie przeciwobrzękowe i przeciwzapalne (glukokortykoidy). Wyniki wskazują, że powierzchniowe aplikowanie IGF1 z wykorzystaniem hydrożeli było bezpieczne i miało skuteczność zbliżoną lub wyższą od terapii tlenem hiperbarycznym w roli czynnika kontrolnego. W związku z tym Japończycy zaczynają planować systematyczne, zakrojone na szeroką skalę testy kliniczne. Dwanaście tygodni po leczeniu 48% pacjentów wykazywało poprawę słyszenia, a po upływie pół roku od zakończenia eksperymentalnej terapii odsetek ten wzrósł do 56%. Nie zaobserwowano poważnych skutków ubocznych. Nakagawa podkreśla, że nigdy wcześniej nie stosowano czynników wzrostu do poprawy słyszenia.
-
Na Uniwersytecie w Bonn powstał kondensat Bosego-Einsteina stworzony z fotonów. Dotychczas sądzono, że fotony nie nadają się do jego tworzenia. Osiągnięcie niemieckich naukowców pozwoli na pojawienie się nowych źródeł światła, opracowania laserów pracujących z promieniami X czy zbudowania bardziej wydajnych układów scalonych. Kondensat Bosego-Einsteina to nowy stan skupienia materii. Został on przewidziany przez Sayendrę Natha Bosego i Alberta Einsteina w latach 20. ubiegłego wieku, a otrzymano go dopiero w roku 1995. Z kondensatem mamy do czynienia wówczas, gdy po przekroczeniu temperatury krytycznej znaczna część cząstek zaczyna zachowywać się identycznie, przypominając jedną cząstkę. Dotychczas kondensatu nie udało się uzyskać z fotonów, gdyż znikają one podczas schładzania. Uczeni z Bonn zastosowali dwa lustra, pomiędzy którymi odbijali promień światła. Między lustrami znajdował się roztwór z pigmentem. Fotony uderzały w molekuły pigmentu i były przezeń wchłaniane, a następnie ponownie uwalnianie. Podczas tego procesu fotony przyjmowały temperaturę płynu. Schłodziły się do temperatury pokojowej i nie były tracone - wyjaśnia profesor Martin Weitz. Następnie za pomocą lasera, którym wzbudzono cząstki pigmentu, zwiększono liczbę fotonów pomiędzy lustrami. To tak bardzo zwiększyło koncentrację schłodzonych fotonów, że zaczęły się one zachowywać jak jeden superfoton. Uzyskano w ten sposób fotonowy kondensat Bosego-Einsteina. Okazał się on nowym źródłem światła o właściwościach podobnych do lasera. Jednak w porównaniu z laserami ma on pewną olbrzymią zaletę. Obecnie nie jesteśmy w stanie zbudować laserów pracujących z bardzo krótkimi falami, np. w zakresie ultrafioletu czy fal X. Powinno być to możliwe dzięki zastosowaniu fotonowego kondensatu Bosego-Einsteina - mówi Jan Klars. Jeśli takie lasery powstaną, z pewnością trafią do fabryk mikroprocesorów, gdzie lasery wykorzystywane są do tworzenia obwodów logicznych. Laser pracujący ze światłem o krótszej długości fali pozwala na większą precyzję, umożliwia tworzenie mniejszych elementów, a co za tym idzie - bardziej wydajnych układów.
- 2 odpowiedzi
-
- laser
- Uniwersystet w Bonn
-
(i 3 więcej)
Oznaczone tagami:
-
Mózg postrzega dwuznaczne twarze jako męskie, kiedy pokazują się w jednej części pola widzenia, a jako żeńskie, gdy zauważy je w innym miejscu. Wyniki eksperymentu naukowców z MIT-u i Harvardu obalają obowiązujący od dawna w neurologii dogmat, że to, co mózg widzi, nie powinno zależeć od względnego umiejscowienia obiektu w stosunku do obserwatora. To jedna z tych rzeczy, których nie można przewidzieć – że patrząc na dwie identyczne twarze, będziemy myśleć, że są różne – opowiada dr Arash Afraz. W realnym świecie, poza laboratorium, niekonsekwencja mózgu w przypisywaniu płci do fizjonomii jest niezauważalna, ponieważ istnieje sporo innych wskazówek pomagających w identyfikacji, np. fryzura czy ubranie. Gdy jednak ludzie stykają się wygenerowanymi przez komputer twarzami, pozbawionymi wszystkiego, co mogłoby wskazywać na płeć, pojawia się odchylenie związane z położeniem obrazu w polu widzenia. Zespół pokazywał ochotnikom serię twarzy losowo wybranych z zestawu uporządkowanego od fizjonomii bardzo męskich do bardzo kobiecych, prosząc o przypisanie im płci. W przypadku twarzy bardziej androgynicznych – z cechami obydwu płci – kategoryzacja zależała od miejsca wyświetlenia bodźca na ekranie. Wolontariuszy proszono o skupienie wzroku na środku monitora, podczas gdy twarze wyświetlano na 50 milisekund w różnych jego obszarach. Przy założeniu, że badani siedzieli w odległości ok. 22 cali (56 cm) od monitora, twarze miały dla nich ok. 2 cm. Wzorzec uznawania jednej i tej samej twarzy za męską lub żeńską był różny w przypadku różnych ludzi, dlatego pewne osoby zawsze uznawały androgyniczną twarz za żeńską, gdy pojawiała się w prawym górnym rogu, podczas gdy inni kategoryzowali wyświetloną w tym samym miejscu fizjonomię jako męską. Odchylenie obserwowano także podczas oceny wieku, ale u każdego z ochotników wzorzec tendencyjności osobistej dla wieku był niezależny od tendencyjności w ocenie płci. Afraz sądzi, że jak w statystyce, za zaobserwowany efekt odpowiada tzw. obciążenie doboru próby (ang. sampling bias). W korze wzrokowej, gdzie przetwarzany jest obraz, neurony są podzielone na grupy analizujące poszczególne części pola widzenia. W obrębie każdej z nich występuje zapewne stosunkowo mała liczba komórek odpowiadających za interpretowanie płci twarzy. Im mniejszy obraz, tym mniej neuronów jest aktywowanych, dlatego mogą zacząć dominować komórki reagujące na twarze żeńskie, a w innej części kory wzrokowej przewagę mają z kolei neurony odpowiadające na twarze męskie.
-
- twarz
- fizjonomia
-
(i 9 więcej)
Oznaczone tagami:
-
Stomatolodzy z indyjskiego stanu Kerala wypełnili żywicą półmetrową, głęboką na 4 cm szczelinę w ciosie dwudziestosiedmioletniego słonia. Devidasan jest pracującym zwierzęciem, a dzięki pierwszej tego typu operacji na świecie po 5 latach wreszcie mógł zacząć normalnie funkcjonować. Podczas 2,5-godzinnego zabiegu samiec nie był znieczulony. W puste miejsce wprowadzono zawartość 47 tub z żywicą. Pęknięcie załatał dr C.V. Pradeep, który podkreśla, że zwierzę współpracowało z ludźmi i wydaje się zadowolone z uzyskanych wyników. Zespół musiał znaleźć odpowiednie narzędzia i przystosować do swoich, a właściwie słoniowych potrzeb (i rozmiarów). Łatania nie można było monitorować za pomocą rentgena, ponieważ żaden z przenośnych aparatów nie był na tyle duży, by obsłużyć Devidasana. Dr Pradeep podkreśla, że gdyby nie zreperowano ciosu, zbierające się w środku zanieczyszczenia mogłyby doprowadzić do śmiertelnego zakażenia. Ponieważ nigdy wcześniej nie przeprowadzano takiego zabiegu, nie wiadomo, jak długo plomba posłuży słoniowi. Najprawdopodobniej będzie to jednak kilka lat, o ile w tym czasie ząb za bardzo nie urośnie.
-
Dla jednych bezcenny materiał na biżuterię i źródło estetycznych zachwytów, dla innych świetny materiał na wytrzymałe elementy maszyn, dla jeszcze innych okazja do zbadania i poszerzenia swojej wiedzy. Szafir. Jeden z najcenniejszych i najpiękniejszych kamieni szlachetnych. Dla astrologa szafir będzie kamieniem magicznym, dla chemika po prostu trójtlenkiem glinu (Al2O3), ale cenią go wszyscy. Szafir słynie ze swojej twardości i odporności na zarysowania. Może być używany zamiast diamentu, w elektronice i mechanice ceni się też jego właściwości elektryczne i cieplne. Potrafimy go wytwarzać sztucznie, ale to nie znaczy, że wiemy o nim wszystko. Badania nad strukturą kryształów i zmianami, jakie zachodzą w ich właściwościach pod wpływem niewielkich zmian lub domieszek skutkują coraz lepszym zrozumieniem zasad rządzących materią i rozwojem nwych technologii materiałowych. A właśnie amerykańsko-niemieckiej ekipie naukowców udało się przyjrzeć strukturze szafiru tak blisko, jak jeszcze nikomu. W tym celu naukowcy z Case Western Reserve University - Arthur Heuer i Peter Lagerlöf - udali się do niemieckiego Institute of Solid State Research w Julich gdzie oczekiwał na nich Chunlin Jia. Swojego wsparcia teoretycznego udzielał ponadto Jacques Castaing z francuskiego Laboratorie Physique des Materiaux. Badania przeprowadzano w Ernst Ruska-Centre for Electron Microscopy, gdzie znajduje się elektronowy mikroskop transmisyjny, który wymaga trudnego przygotowania próbki w postaci bardzo cienkiej płytki, ale w zamian zapewnia bardzo duże powiększenia. Badania przeprowadzono na syntetycznym szafirze, jaki stosuje się w konstrukcji specjalistycznych układów elektronicznych. Zobaczenie na własne oczy drobnych zaburzeń w strukturze kryształu wymagało ponadto wykorzystania efektu negatywnej aberracji sferycznej do uzyskania obrazu. Była to pierwsza udana próba zastosowania tej techniki do uzyskania obrazów defektów w materiałach ceramicznych z rozdzielczością poniżej jednego angstrema (1 Å = 0,1 nanometra). Oczom uczonych ukazały się wyraźnie pojedyncze atomy glinu i tlenu, tworzące krystaliczne struktury sześciokrotnych wielościanów glinu. Wśród nich można było zobaczyć rdzenie dyslokacji, powodujące zmiany kształtu wielościanów na czterokrotne. Każdy taki rdzeń zakończony był atomem glinu. To właśnie one wpływają na właściwości szafiru: zachowuje on właściwości elektrycznego izolatora, kiedy rdzenie dyslokacji otaczają najwyżej połowę położeń atomów glinu. Zrozumienie niuansów budowy szafiru (oraz innych kryształów) pozwoli w przyszłości na kontrolowanie ich czystości, a więc właściwości mechanicznych, cieplnych, elektrycznych czy magnetycznych. Na to zaś niecierpliwie czeka na przykład przemysł półprzewodników, czy laserów, gdzie szafiry są powszechnie stosowane. Chociaż panie zawsze zapewne będą wolały te naturalne, nawet jeśli nie będą idealne. Studium na ten temat opublikowano w periodyku Science z 26 listopada 2010.
- 2 odpowiedzi
-
- Case Western Reserve University
- Chunlin Jia
- (i 7 więcej)
-
Pożyteczny dwutlenek tytanu: czy jest bezpieczny?
KopalniaWiedzy.pl dodał temat w dziale Technologia
Dwutlenek tytanu to jeden z „cudownych" materiałów współczesnej technologii. Przydaje się w roli katalizatora w wielu procesach chemicznych, stosowany jest także jako środek antybakteryjny i domieszkowany do farb, czy nawet w „cudownych" szczoteczkach do zębów, nie wymagających pasty. Jednym z ciekawszych zastosowań jest jego zdolność do neutralizowania szkodliwych tlenków azotu, na przykład emitowanych przez samochody. Naukowcy z Uniwersytetu w Eindhoven odkryli, jak domieszkować dwutlenek tytanu (TiO2) do betonu, uzyskując drogi które same neutralizują niemal połowę spalin samochodowych. Beton nasz powszedni Te same wątpliwości dotyczą innych nanocząstek, jakie bada doktor Anil Kumar Suresh wraz ze współpracownikami z Biological and Nanoscale Systems Group w amerykańskim Oak Ridge National Laboratory. Na podobnych zasadach stosuje się bowiem nanocząstki złota (Ag), tlenku cynku (ZnO) i dwutlenku ceru (CeO2). Dr Suresh tłumaczy, że szkodliwość nanocząstek jest trudna do określenia, zależy bowiem od bardzo wielu czynników: rozmiaru, kształtu, technologii produkcji i zastosowanych chemikaliów, związków chemicznych, które mogą pozostawać na ich powierzchni. Oszacowanie szkodliwości materiału pochodzącego od jednego producenta nic nam nie mówi o właściwościach formalnie takiego samego materiału, ale pochodzącego z innej firmy. Producenci tymczasem nie udzielają informacji o przeznaczeniu produktów, sposobach produkcji, czy transportu. W przypadku dwutlenku tytanu większość rodzajów nanocząsteczek jest szkodliwa, z wyjątkiem tych wytwarzanych metodami biologicznymi (przez grzyby lub bakterie, które prawdopodobnie pokrywają nanocząstki ochronnymi proteinami). Jednak wszystkie komercyjnie dostępne nanocząstki TiO2 produkowane są metodami chemicznymi. Co więcej, promieniowanie radiowe zwiększa ich szkodliwość nawet od dwudziestu do czterdziestu razy. Tymczasem domieszkowanie materiałów dwutlenkiem tytanu i innymi katalizatorami jest coraz bardziej powszechne, a nie ma właściwie żadnych badań nad długotrwałymi efektami ich stosowania. Nawet biorąc za dobrą monetę zapewnienia producenta, że mikrocząstki TiO2 nie mogą uwolnić się z materiału, pozostaje zbyt wiele niewiadomych. A tymczasem może się okazać, że długofalowe efekty okażą się brzemienne w skutki, jak to ostatnio dzieje się z ponoć „całkowicie bezpiecznym" Bisfenolem A.-
- Anil Kumar Suresh
- Belgian Road Research Centre
- (i 6 więcej)
-
Według współczesnych teorii wszechświat narodził się wskutek Wielkiego Wybuchu, który miał miejsce 13,7 miliarda lat temu. Najnowsze odkrycie pozwala nam zobaczyć, co działo się przed Wielkim Wybuchem. Jego autorami są fizyk z Oxford University Roger Penrose oraz Vahe Gurzadyan z Erewańskiego Instytutu Fizyki. W mikrofalowym promieniowaniu tła (CMB) znaleźli oni ślady zdarzeń, które miały miejsce przed Wielkim Wybuchem. Mikrofalowe promieniowanie tła występuje w całym kosmosie. W latach 90. ubiegłego wieku odkryto, iż temperatura CMB charakteryzuje się anizotropią. To potwierdzałoby teorię Wielkiego Wybuchu, a zmiany w temperaturze CMB miały być zupełnie losowe, gdyż - jak się uważa - Wybuch spowodował, że promieniowanie jest niemal jednorodne. Penrose i Gurzadyan odkryli jednak w CMB koncentryczne kręgi, w których różnice temperatur są znacznie mniejsze niż oczekiwane. To z kolei oznacza, że anizotropia mikrofalowego promieniowania tła nie jest całkowicie przypadkowa. Obaj naukowcy sądzą, że kręgi te to wynik zderzeń supermasywnych czarnych dziur. W wyniku takich kolizji miałyby być gwałtowanie uwalniane olbrzymie ilości energii. Te rozbłyski energii były izotropiczne. I tutaj dochodzimy do najciekawszej części odkrycia. Otóż z wyliczeń obu naukowców wynika, że część z izotropicznych kręgów pochodzi sprzed Wielkiego Wybuchu. Uczeni zaznaczają, iż nie oznacza to, że Wybuch nie miał miejsca. Ich zdaniem odkrycie takie sugeruje, że żyjemy w cyklicznie zmieniającym się wszechświecie, w którym co jakiś czas dochodzi do Wielkiego Wybuchu. Kolizje czarnych dziur, o których była mowa powyżej, miały zaś miejsce pod koniec życia poprzedniego wszechświata.
- 32 odpowiedzi
-
- Wielki Wybuch
- CMB
- (i 5 więcej)
-
Czemu tak wielu ludzi lubi pić kawę (często posłodzoną), pogryzając do niej coś słodkiego, np. czekoladkę lub ciastko? Okazuje się, że połączenie kofeiny i glukozy zwiększa efektywność pracy mózgu (Human Psychopharmacology: Clinical and Experimental). Hiszpańscy naukowcy z Universitat de Barcelona (UB) i Centro de Investigación Biomédica en Red en Bioingeniería, Biomateriales y Nanomedicina (CIBER-BBN) posłużyli się funkcjonalnym rezonansem magnetycznym. Naszym głównym odkryciem jest ustalenie, że połączenie dwóch substancji poprawia osiągnięcia intelektualne, w kategoriach przedłużonej koncentracji i pamięci roboczej, zwiększając wydajność rejonów mózgu odpowiedzialnych za wskazane funkcje – wyjaśnia Josep M. Serra Grabulosa. Stanowi to wsparcie dla teorii synergicznego działania kofeiny i glukozy, gdzie efekt "współpracy" tych dwóch substancji jest większy od sumy oddzielnych wpływów. Akademicy zauważyli, że u osób, które łącznie spożywały kofeinę i glukozę, następował spadek związanej z zadaniem aktywności mózgowej w korze ciemieniowej (obustronnie) oraz lewej korze przedczołowej. Oba rejony biorą czynny udział w procesach uwagi i pamięci roboczej. Obniżenie ich aktywności oraz fakt, że nie zauważono pogorszenia jakości wykonania, oznacza, że po kofeinie i glukozie mózg pracuje wydajniej. Aby uzyskać ten sam poziom wykonania, co u badanych z grupy kontrolnej (spożywających placebo w postaci wody) lub przyjmujących tylko cukier albo tylko kofeinę, potrzebuje bowiem mniej zasobów. W ramach najnowszego eksperymentu barcelończycy wykonywali fMRI osobom biorącym udział w teście N-back; jego popularną wersją jest wersja Coppoli. Służy on do oceny przedłużonej koncentracji i wzrokowej pamięci operacyjnej. Badanym szybko prezentuje się bodźce – cyfry lub litery. Zaraz potem muszą oni stwierdzić, czy widzieli dany sygnał wcześniej (0-back), w poprzedniej kolejce (1-back) albo dwie kolejki przedtem (2-back). Podczas wykonywania testu na komputerze trzeba po prostu wcisnąć klawisz symbolu, o który jest się pytanym. Liczy się zarówno czas reakcji, jak i procent odpowiedzi prawidłowych oraz nieprawidłowych. Opisywane badania prowadzono na randomizowanej, podwójnie ślepej próbie. Czterdziestu ochotników losowano do grup i podawano napój z kofeiną, glukozą, jednym i drugim albo wodę. W ramach wcześniejszego studium ten sam zespół stwierdził, że połączenie glukozy i kofeiny korzystnie wpływa na uwagę, uczenie i konsolidację pamięci werbalnej. Żadnego z tych zjawisk nie obserwowano, gdy substancje spożywano oddzielnie.
- 2 odpowiedzi
-
Novell postanowił uciąć spekulacje dotyczące przyszłości należących doń uniksowych patentów, które pojawiły się po ogłoszeniu, iż firma zostanie sprzedana Attachmate, ale część jej aktywów przejmie CPTN Holdings, w którym Microsoft gra pierwsze skrzypce. Niektóre media zaczęły bowiem kreślić paniczne wizje Microsoftu pozywającego do sądu całe środowisko opensource'owe. Rzecznik prasowy Novella oświadczył, że 882 patenty, za które CPTN zapłaci 450 milionów dolarów, nie dają Microsoftowi kontroli nad uniksową własnością intelektualną. Po połączeniu z Attachmate Novell jako firma zależna nadal będzie posiadał prawa do własności intelektualnej związanej z Uniksem - czytamy w oświadczeniu rzecznika. W marcu bieżącego roku sąd ostatecznie rozstrzygnął na korzyść Novella wieloletni spór o prawa patentowe, który firma ta toczyła ze SCO. W niedalekiej przeszłości Steve Ballmer, prezes Microsoftu, wspominał, iż Linux narusza około 300 patentów koncernu z Redmond. Dotychczas jednak nie wskazano, które są to patenty, a Microsoft nie rozpoczął - czego się niektórzy obawiali - ofensywy sądowej przeciwko Open Source. Mimo to Novell zawarł z koncernem Ballmera pięcioletnią umowę, która gwarantuje użytkownikom SUSE, iż nie zostaną pozwani do sądu.
-
Lokalne media w niemieckim Essen doniosły, że wandale zaatakowali domy osób, które nie chciały, by były one widoczne w Google Street View. Przypomnimy, że jeśli ktoś nie życzy sobie, by jego własność była widoczna w serwisie Google'a, może zażądać by jej zdjęcie zostało zamazane. W Essen domy takie zostały obrzucone jajkami, a do ich drzwi przyczepiono kartki z napisem "Google jest cool". Los taki dotknął wszystkich nieruchomości, które zamazano w Street View. Google zdystansowała się od ataku wandali.
- 2 odpowiedzi
-
Zapada się pod ziemię. Z gorąca, nie ze wstydu
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Latem temperatura powietrza na Pustyni Chihuahua wzrasta do 36°C, a powierzchni gruntu nawet do 70°C. Rośliny, które tu występują, muszą więc na różne sposoby radzić sobie z ekstremalnymi warunkami. Zespół doktor Gretchen North odkrył, że kaktus Ariocarpus fissuratus chowa się przed skwarem pod ziemię. A. fissuratus nazywa się żywą skałą, ponieważ wtapia się w skaliste otoczenie i jest na tyle mały, że nie wystaje ponad powierzchnię ziemi. Naukowcy dywagowali, że może się przesuwać nieco w głąb gleby, ponieważ jest tam zwyczajnie chłodniej. Mierząc zmiany w głębokości osadzenia i anatomię korzeni, ekipa North ustaliła, że kaktus "zanurza się" bardziej w ziemi, kurcząc korzenie. Amerykanie hodowali A. fissuratus na dachu budynku w Los Angeles. Ponieważ przez wiele dni temperatura sięgała tam 37 stopni Celsjusza, w ten sposób odtwarzano warunki panujące latem na pustyni. Wszystkie kaktusy posadzono w piaszczystej glebie. W połowie przypadków pokryto ją skałami, co bardzo przypominało rodzimy habitat. Okazało się, że w przypadku roślin z gleby posypanej skałami wewnętrzna temperatura łodygi była niższa. Podczas gdy wszystkie kaktusy rosnące w piasku uschły, A. fissuratus ze skalistego podłoża radziły sobie całkiem dobrze. Skurcz korzeni pomagał więc w obniżeniu wewnętrznej temperatury łodygi, ale jedynie w połączeniu z chłodzącym wpływem skał. W przypadku kaktusów z piasków lepiej sprawdzało się płytsze posadzenie – przy większym oddaleniu od powierzchni gleby odnotowywano nieco niższe temperatury łodygi.-
- ziemia
- Pustynia Chihuahua
-
(i 3 więcej)
Oznaczone tagami:
-
Zanieczyszczenie środowiska akroleiną, aldehydem, który wykazuje dość silne właściwości rakotwórcze, może się także przyczyniać do wystąpienia stwardnienia rozsianego (SR). Na szczęście naukowcy z Purdue University zauważyli, że śmierci neuronów można zapobiec, podając lek na nadciśnienie – hydralazynę. Podczas studium Amerykanie zauważyli, że w tkankach rdzenia kręgowego myszy z chorobą przypominającą stwardnienie rozsiane stężenie akroleiny było podwyższone o ok. 60%. Prof. Riyi Shi zaznacza, że uzyskane przez jego zespół wyniki stanowią pierwszy konkretny dowód laboratoryjny na związek między aldehydem jako neurotoksyną a stwardnieniem rozsianym. Dopiero ostatnio naukowcy zaczęli dostrzegać szczegóły oddziaływania akroleiny na ludzki organizm. My analizujemy jej wpływ na ośrodkowy układ nerwowy i to zarówno w przypadku urazów, jak i chorób neurodegeneracyjnych, takich jak stwardnienie rozsiane. Akroleina znajduje się m.in. w samochodowych spalinach i dymie tytoniowym. Powstaje także w organizmie po uszkodzeniu neuronów. Wcześniejsze badania tego samego zespołu sugerowały, że obumieraniu komórek nerwowych pod wpływem aldehydu akrylowego można zapobiec właśnie za pomocą wspomnianej wyżej hydralazyny. Najnowsze studium pokazało, że u myszy hydralazyna opóźnia początek stwardnienia rozsianego, zmniejsza też nasilenie objawów, neutralizując akroleinę. Leczenie nie wywołuje u myszy żadnych poważnych efektów ubocznych. Doza, którą stosowaliśmy u zwierząt, jest kilkakrotnie niższa od standardowego dawkowania doustnego u dzieci. Biorąc zatem pod uwagę skuteczność hydralazyny w wiązaniu akroleiny już przy tak niskich stężeniach, spodziewamy się, że nasze studium doprowadzi do opracowania nowych metod terapii neuroochronnej dla pacjentów z SR, które można by szybko zastosować w warunkach klinicznych. Shi tłumaczy, że w przebiegu SR to najprawdopodobniej akroleina odpowiada za zniszczenie otoczek mielinowych wokół wypustek komórek nerwowych. Gdyby więc można było zablokować ten efekt, udałoby się opóźnić początek choroby i złagodzić jej objawy. Poza tym Amerykanie ustalili, że akroleina uruchamia produkcję wolnych rodników, przyczyniających się do dalszych uszkodzeń. Na szczęście po podaniu hydralazyny stężenie aldehydu spada o połowę.
-
- SR
- stwardnienie rozsiane
-
(i 6 więcej)
Oznaczone tagami:
-
Cyberprzestępcy złamali zabezpieczenia jednej z najbardziej znanych witryn zajmujących się kwestiami bezpieczeństwa. Po wejściu na witrynę secunia.com zobaczymy całkowicie zmienioną stronę główną wraz z informację Hacked by TurkGuvenligi. Na razie brak jest jakichkolwiek danych dotyczących tego, w jaki sposób doszło do włamania, ani kim jest TurkGuvenligi.