Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Skutterudyt dostarczy (darmowej) energii
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Rak piersi jest jednym z najczęstszych nowotworów, a jego leczenie bywa długotrwałe i ma uciążliwe skutki uboczne. Chore często zażywają inhibitory aromatazy (środki hamujące wydzielanie estrogenu, hormonu który sprzyja rozwojowi tego rodzaju raka). Mają one jednak nieprzyjemne skutki w postaci przewlekłych dokuczliwych bóli stawów i mięśni, które dokuczają co drugiej kobiecie. Aż 20 procent chorych odczuwających ból przedwcześnie przerywa z tego powodu terapię i trudno się dziwić, bo trwa ona do pięciu lat, a powszechnie dostępne środki przeciwbólowe są zbyt słabe w tych przypadkach.
N. Lynn Henry, wykładowca na University of Michigan i naukowiec z uniwersyteckiego ośrodka Comprehensive Cancer Center proponuje dość proste rozwiązanie. Większości kobiet biorących inhibitory aromatazy znacząco pomaga popularny lek na depresję i zaburzenia lękowe: duloksetyna (znana też pod handlowymi nazwami: Cymbalta, Ariclaim, Xeristar i Yentreve).
Spośród 29 badanych pacjentek trzy czwarte uznało, że odczuwany ból osłabł przynajmniej o 30 procent. Po ośmiu tygodniach leczenia średni poziom redukcji bólu wyniósł aż 61 procent. Jedna piąta pacjentek zaprzestała brania duloksetyny z powodu jej skutków ubocznych. W pozostałych przypadkach efekty uboczne były łagodne lub umiarkowane. Stwarza to nadzieję na zwiększenie komfortu pacjentek, a w rezultacie na zwiększenie skuteczności leczenia nowotworu. Wyniki studium zaprezentowane zostały 11 grudnia na corocznym sympozjum (Breast Cancer Symposium) w San Antonio.
Duloksetyna w ostatnich badaniach wykazywała również skuteczność w leczeniu chronicznego bólu związanego z takimi chorobami układu kostno-stawowego jak: fibromialgia i choroba zwyrodnieniowa stawów. Nie jest jeszcze znany mechanizm jej działania, podejrzewa się związek z działaniem na centralny układ nerwowy. Następnym badaniem będzie szerzej zakrojona próba z użyciem placebo randomizowanej próby. Profesor Henry planuje także badania nad mechanizmem powodowania bólu przez inhibitory aromatazy, których wyniki mogłyby pomóc leczonym nimi chorym.
-
przez KopalniaWiedzy.pl
Fizycy z University of Michigan zbudowali teoretyczne podstawy do stworzenia czegoś z niczego. Opracowali oni nowe równania, które dowodzą, że wysokoenergetyczny strumień elektronów połączony z intensywnymi impulsami lasera jest w stanie oddzielić w próżni materię od antymaterii, co wywołałoby lawinę wydarzeń prowadzących do powstania dodatkowych par cząstek i antycząstek.
Obliczyliśmy jak za pomocą pojedynczego elektronu stworzyć kilkaset cząstek. Sądzimy, że w naturze zjawiska takie zachodzą w pobliżu pulsarów i gwiazd neutronowych - stwierdził Igor Sokolov, który prowadził swoje badania wraz z Johnem Neesem.
Uczeni przyjęli założenie, że próżnia nie jest pustką. Z rozważań wybitnego fizyka Paula Diraca wynika bowiem, że próżnia to kombinacja materii i antymaterii czyli cząstek i antycząstek. Nie możemy jednak stwierdzić ich obecności, gdyż dochodzi do ich anihilacji.
Jednak, jak mówi Nees, w silnym polu elektromagnetycznym anihilacja może stać się źródłem nowych cząstek. Podczas anihilacji pojawiają się fotony gamma, które mogą wytwarzać dodatkowe elektrony i pozytrony.
Teoria Sokolova i Neesa już zyskała miano teoretycznego przełomu i jakościowego skoku w teorii.
Już pod koniec lat 90. ubiegłego wieku udało się w warunkach eksperymentalnych uzyskać fotony gamma i przypadkową parę elektron-pozytron. Wspomniane równanie opisuje sposób uzyskania większej liczby cząstek.
Sokolov i Nees wiedzą też, w jaki sposób można doświadczalnie zweryfikować ich obliczenia. Do ich potwierdzenia konieczne byłoby wbudowanie lasera typu Herkules (to laser wykorzystywany na University of Michigan) w akcelerator cząstek podobny do SLAC National Accelerator Laboratory na Uniwersytecie Stanforda. Jednak w najbliższym czasie takie urządzenie z pewnością nie powstanie.
Sam Sokolov zwraca uwagę na fascynujące filozoficzne pytania rodzące się w związku z jego pracą. Podstawowe pytania o to, czym jest próżnia, czym jest nicość wychodzą poza zakres nauki. Są one zakorzenione głęboko nie tylko w fizyce, ale też w filozoficznym pojmowaniu wszystkiego - rzeczywistości, życia, a nawet w religijnych pytaniach o to, czy świat mógł powstać z niczego.
-
przez KopalniaWiedzy.pl
Zdarza się, że człowiek spokojny i opanowany znienacka wybucha emocjami, nad którymi nie potrafi zapanować. W zasadzie dotyka to niemal każdego. Dlaczego tak trudno kontrolować najsilniejsze emocje - odpowiedzieli naukowcy z Uniwersytetu Michigan: Kent Berridge, Jocelyn Richard i Alexis Faure. Ich zdaniem, emocje codzienne i te najsilniejsze mają osobny „system sterowania", a normalne sygnały wzbudzające i hamujące są zdumiewająco nieskuteczne w przypadku emocji ekstremalnych.
Ze wcześniejszych prac Berridge'a wiadomo było, że dopamina, która motywuje do szukania nagrody, współpracuje z glutaminianem przy wywoływaniu silnych emocji: pożądania i strachu, w sąsiadujących regionach mózgu. Ta praca wykazała też, że dopamina może być odpowiedzialna tak samo za negatywne odczucia - strach w schizofrenii czy fobie, jak i za uzależnienie od narkotyków, powodując silne pragnienie.
Nowa praca nad kontrolowaniem emocji powstała dzięki doświadczeniom na szczurach, którym bezboleśnie, dzięki mikroiniekcjom, wstrzykiwano substancje zakłócające działanie neuroprzekaźników: glutaminianu lub GABA. Praca porównuje wytwarzanie uczuć pożądania i strachu w jądrze półleżącym w mózgu przez sygnały glutaminianem oraz przez chemiczne sygnały GABA (kwas γ-aminomasłowy, kwas 4-aminobutanowy), przychodzące z głębszych, podkorowych warstw mózgu. Neuroprzekaźnik GABA jest głównym inhibitorem w centralnym systemie nerwowym.
Doświadczenia wykazały, że w porównaniu do obszarów głębokich, najwyższe warstwy kory mózgowej mają ograniczone możliwości wpływania na odczuwanie przyjemności. Jedynie głębokie sygnały GABA potrafiły wywołać przyjemność podczas wywoływania uczucia pożądania oraz odczucia nieprzyjemne podczas generowania strachu.
Badanie wyjaśnia, dlaczego niektóre, szczególnie intensywne lub patologiczne emocje są tak trudne do kontrolowania. Skrajne emocje wypływające z głębokich obszarów mózgu są odporne na próby wpływania przez korę mózgową.
-
przez KopalniaWiedzy.pl
Naukowcy z University of Michigan stworzyli najbardziej energooszczędny procesor na świecie. Układ Phoenix pobiera w stanie uśpienia aż 30 000 razy mniej mocy niż inne podobne kości, a do pracy potrzebuje 10-krotnie mniej mocy.
W trybie uśpienia Phoenix Processor zużywa jedynie 30 pikowatów mocy. Jak wyjaśniają naukowcy, to tak niewiele, że bateria z zegarka elektronicznego mogłaby zasilać Phoeniksa przez 263 lata.
Nowy procesor ma powierzchnię zaledwie 1 milimetra kwadratowego. Jego olbrzymią zaletą jest fakt, iż jest zasilany przez baterię takiej samej wielkości. Baterie zasilające układy scalone są zwykle znacznie od nich większe, przez co przyczyniają się do wzrostu rozmiarów i ceny urządzania, w których są wykorzystywane. Na przykład bateria używana w przeciętnym laptopie jest około 5000 razy większa od procesora i zapewnia mu energię na zaledwie kilka godzin.
Phoenix nie będzie, oczywiście, wykorzystywany w komputerach domowych. Tego typu mikroukłady trafiają do implantów medycznych, czujników mierzących np. zanieczyszczenia atmosferyczne czy do sprzętu szpiegowskiego.
Jak podkreślają twórcy Phoeniksa: niskie zapotrzebowanie na energię pozwoliło nam na zmniejszenie rozmiarów baterii i całego urządzenia wykorzystującego procesor. Nasz system, wraz z baterią, ma być 1000 razy mniejszy od najmniejszych obecnie stosowanych czujników. To otwiera nowe możliwości - mówi profesor David Blaauw, którego dwaj doktoranci, Scott Hanson i Mingoo Seok, stworzyli procesor.
Naukowcy twierdzą, że Phoenix posłuży do stworzenia czujników, które będą niemal niewidoczne gołym okiem. Będzie można go zatopić w betonie, by na bieżąco mierzył stan budynków i mostów, zostanie wykorzystany do monitorowanie ciśnienia w gałce ocznej, przyda się do sterowania rozrusznikami serca.
Akademicy, by skonstruować tak energooszczędny układ, skupili się na jego stanie uśpienia, bo w nim właśnie czujniki spędzają większość czasu. Phoenix standardowo znajduje się w stanie uśpienia. Jego zegar "budzi go" co 10 minut na 1/10 sekundy. Wówczas Phoenix wykonuje 2000 instrukcji: sprawdza czy napłynęły nowe dane, przetwarza je, kompresuje i zapisuje w pamięci. Następnie znowu przechodzi w stan uśpienia. Uczeni celowo ustawili go w ten sposób, gdyż ma on być stosowany przede wszystkim w różnego rodzaju czujnikach pomiarowych, więc zebranie danych co 10 minut jest wystarczające.
-
przez KopalniaWiedzy.pl
Na University of Michigan powstało oprogramowanie, które wyszukuje błędy w układach scalonych i proponuje najlepszy sposób ich naprawienia. Może ono przyczynić się do powstania doskonalszych chipów.
Błędy w układach to problem, który coraz bardziej dotyczy ich wytwórców. Im bardziej miniaturyzują układy scalone, tym więcej błędów w nich powstaje. Obecnie usunięcie usterek z prototypowego procesora może trwać nawet rok, co znacznie opóźnia jego rynkowy debiut i zwiększa koszty produkcji. Wspomniane oprogramowanie nie tylko skróci cykl produkcyjny i obniży koszty, ale spowoduje też, że na rynek będą trafiały układy z mniejszą liczbą błędow.
Profesor Rob Rutenbar z Carnegie Mellon University, tak mówi o błędach: To wciąż nierozwiązany problem. Prawdopodobnie Intel ma jakieś zaawansowane technologie [usuwania błędów – red.], ale o tym nie wspomina. Z tego, co wiemy, błędy takie usuwa się ręcznie. Nie jest to proces mocno zautomatyzowany. Dodaje przy tym, że istnieje bardzo mało fachowej literatury na temat błędów występujących w półprzewodnikach.
Z kolei profesor Igor Markov z University of Michigan zauważa, że ręczne usuwanie błędów to metoda bardzo niedoskonała i prawdopodobnie wszystkie układy scalone, które trafiają na rynek, zawierają błędy. Przypomina, że na stronie Intela można znaleźć spis 130 usterek sprzętowych, które występują w laptopach. Większość z nich można usunąć za pomocą odpowiedniego oprogramowania, ale około 20 nie można poprawić.
Eksperci zauważają, że obecnie usunięcie błędu jest niezwykle trudne. Gdy już się go zidentyfikuje, to nie zawsze wiadomo, w jaki sposób należy go poprawić. Natura usterek może być bardzo różna – od zbyt blisko siebie wydrukowanych ścieżek, po tranzystory umieszczone w nieodpowiednich miejscach. Po naprawieniu jednej usterki często okazuje się, że jej poprawienie spowodowało powstanie innego błędu. Wprowadzanie poprawek kosztuje kolejne miliony dolarów, co oczywiście odbija się na cenie gotowego produktu.
Obecnie podczas testów inżynierowie przepuszczają przez prototyp sygnały elektryczne i szukają w nich nieprawidłowości. Na tej podstawie starają się poprawić układ.
Oprogramowanie, które powstało w Michigan, samodzielnie testuje chipy i szuka błędów. Gdy je znajdzie, określa, w których częściach procesora powstały i testuje te części. W ten sposób, wykluczając kolejne fragmenty układu, jest w stanie precyzyjnie określić miejsce, które należy poprawić. Gdy już znajdzie błąd, przeprowadza symulacje różnych metod jego poprawienia i proponuje tę najskuteczniejszą.
Profesor Rutenbar mówi, że jedną z największych zalet programu jest fakt, iż podaje on często rozwiązania niezgodne z naszą intuicją. Pewne błędy człowiek naprawiłby zupełnie inaczej, niż proponuje to program. Jednak metody zaproponowane przez oprogramowanie, okazują się równie skuteczne, ale tańsze i szybsze w wykonaniu. Gdyby to człowiek miał zdecydować, raczej nie wpadłby na takie rozwiązanie – mówi Rutenbar.
Testy wykazały, że program potrafi znaleźć i naprawić około 70% poważnych błędów. Wyszukiwanie konkretnej usterki zajmuje mu nie, jak ludziom, tygodnie, ale kilka dni.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.