Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

W zasadzie to nie ma nic za darmo, ale często nie używamy czegoś, za co płacimy. Tak właśnie jest z energią, która w postaci ciepła odpadowego marnuje się w ogromnych ilościach. Prace naukowców otwierają nowe perspektywy jego odzyskiwania.

Zmarnowana energia w postaci ciepła ucieka nam w wielu postaciach: grzejącej się elektroniki, żarówek, czy wreszcie spalin samochodowych, z którymi ulatuje w ogromnych ilościach. Gdyby dało się je odzyskiwać, to każdy procent uratowanej energii oznaczałby realne oszczędności. Najbardziej kuszące i realne jest przetwarzanie energii cieplnej w elektryczną - istnieją bowiem już odpowiednie materiały. Problemem jest ich mała efektywność, zwykle rzędu maksymalnie pięciu procent, co stanowi zbyt małą wartość, by opłacało się wdrażać takie technologie. Inżynierowie z University of Michigan znaleźli sposób na podniesienie skuteczności do progu, od którego taki interes zaczyna się opłacać.

Materiałem oferującym odpowiednie parametry jest skutterudyt (arsenek kobaltu, CoAs3), rzadki termoelektryczny minerał: dobrze przewodzi prąd, słabo natomiast ciepło. Naukowcy od dawna studiowali jego właściwości, poszukując sposobów efektywnego jego wykorzystania. W tym celu miesza się go z różnymi metalami, najczęściej barem, do tej pory jednak nie było wiadomo, w jaki sposób domieszkowanie zmienia jego właściwości.

Profesor Ctirad Uher osiągnął przełom, identyfikując konkretne układy atomów w krystalicznej strukturze materiału, które wpływają na jego efektywność. To, jak ma nadzieję, pozwoli na syntezowanie znacznie lepszych materiałów zamieniających energię cieplną w elektryczną, na tworzenie ich „na desce konstruktora" a nie metodą prób i błędów. Sprawność takiej zamiany, jak się oczekuje, będzie mogła teraz wynieść nawet 15-20 procent (zamiast pięciu), co pozwoliłoby już na komercyjne zastosowanie.

Potencjalnym wynalazkiem zainteresowane są między innymi koncerny samochodowe. Odpowiedni konwerter o takiej sprawności, umieszczony przed rurą wydechową, pozwoliłby już na oświetlenie i ogrzanie kabiny samochodu, doładowanie akumulatora, etc, odciążając lub nawet zastępując alternator.

Praca prof. Uhera na ten temat ukazała się w Physical Review Letters.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Rak piersi jest jednym z najczęstszych nowotworów, a jego leczenie bywa długotrwałe i ma uciążliwe skutki uboczne. Chore często zażywają inhibitory aromatazy (środki hamujące wydzielanie estrogenu, hormonu który sprzyja rozwojowi tego rodzaju raka). Mają one jednak nieprzyjemne skutki w postaci przewlekłych dokuczliwych bóli stawów i mięśni, które dokuczają co drugiej kobiecie. Aż 20 procent chorych odczuwających ból przedwcześnie przerywa z tego powodu terapię i trudno się dziwić, bo trwa ona do pięciu lat, a powszechnie dostępne środki przeciwbólowe są zbyt słabe w tych przypadkach.
      N. Lynn Henry, wykładowca na University of Michigan i naukowiec z uniwersyteckiego ośrodka Comprehensive Cancer Center proponuje dość proste rozwiązanie. Większości kobiet biorących inhibitory aromatazy znacząco pomaga popularny lek na depresję i zaburzenia lękowe: duloksetyna (znana też pod handlowymi nazwami: Cymbalta, Ariclaim, Xeristar i Yentreve).
      Spośród 29 badanych pacjentek trzy czwarte uznało, że odczuwany ból osłabł przynajmniej o 30 procent. Po ośmiu tygodniach leczenia średni poziom redukcji bólu wyniósł aż 61 procent. Jedna piąta pacjentek zaprzestała brania duloksetyny z powodu jej skutków ubocznych. W pozostałych przypadkach efekty uboczne były łagodne lub umiarkowane. Stwarza to nadzieję na zwiększenie komfortu pacjentek, a w rezultacie na zwiększenie skuteczności leczenia nowotworu. Wyniki studium zaprezentowane zostały 11 grudnia na corocznym sympozjum (Breast Cancer Symposium) w San Antonio.
      Duloksetyna w ostatnich badaniach wykazywała również skuteczność w leczeniu chronicznego bólu związanego z takimi chorobami układu kostno-stawowego jak: fibromialgia i choroba zwyrodnieniowa stawów. Nie jest jeszcze znany mechanizm jej działania, podejrzewa się związek z działaniem na centralny układ nerwowy. Następnym badaniem będzie szerzej zakrojona próba z użyciem placebo randomizowanej próby. Profesor Henry planuje także badania nad mechanizmem powodowania bólu przez inhibitory aromatazy, których wyniki mogłyby pomóc leczonym nimi chorym.
    • przez KopalniaWiedzy.pl
      Fizycy z University of Michigan zbudowali teoretyczne podstawy do stworzenia czegoś z niczego. Opracowali oni nowe równania, które dowodzą, że wysokoenergetyczny strumień elektronów połączony z intensywnymi impulsami lasera jest w stanie oddzielić w próżni materię od antymaterii, co wywołałoby lawinę wydarzeń prowadzących do powstania dodatkowych par cząstek i antycząstek.
      Obliczyliśmy jak za pomocą pojedynczego elektronu stworzyć kilkaset cząstek. Sądzimy, że w naturze zjawiska takie zachodzą w pobliżu pulsarów i gwiazd neutronowych - stwierdził Igor Sokolov, który prowadził swoje badania wraz z Johnem Neesem.
      Uczeni przyjęli założenie, że próżnia nie jest pustką. Z rozważań wybitnego fizyka Paula Diraca wynika bowiem, że próżnia to kombinacja materii i antymaterii czyli cząstek i antycząstek. Nie możemy jednak stwierdzić ich obecności, gdyż dochodzi do ich anihilacji.
      Jednak, jak mówi Nees, w silnym polu elektromagnetycznym anihilacja może stać się źródłem nowych cząstek. Podczas anihilacji pojawiają się fotony gamma, które mogą wytwarzać dodatkowe elektrony i pozytrony.
      Teoria Sokolova i Neesa już zyskała miano teoretycznego przełomu i jakościowego skoku w teorii.
      Już pod koniec lat 90. ubiegłego wieku udało się w warunkach eksperymentalnych uzyskać fotony gamma i przypadkową parę elektron-pozytron. Wspomniane równanie opisuje sposób uzyskania większej liczby cząstek.
      Sokolov i Nees wiedzą też, w jaki sposób można doświadczalnie zweryfikować ich obliczenia. Do ich potwierdzenia konieczne byłoby wbudowanie lasera typu Herkules (to laser wykorzystywany na University of Michigan) w akcelerator cząstek podobny do SLAC National Accelerator Laboratory na Uniwersytecie Stanforda. Jednak w najbliższym czasie takie urządzenie z pewnością nie powstanie.
      Sam Sokolov zwraca uwagę na fascynujące filozoficzne pytania rodzące się w związku z jego pracą. Podstawowe pytania o to, czym jest próżnia, czym jest nicość wychodzą poza zakres nauki. Są one zakorzenione głęboko nie tylko w fizyce, ale też w filozoficznym pojmowaniu wszystkiego - rzeczywistości, życia, a nawet w religijnych pytaniach o to, czy świat mógł powstać z niczego.
    • przez KopalniaWiedzy.pl
      Zdarza się, że człowiek spokojny i opanowany znienacka wybucha emocjami, nad którymi nie potrafi zapanować. W zasadzie dotyka to niemal każdego. Dlaczego tak trudno kontrolować najsilniejsze emocje - odpowiedzieli naukowcy z Uniwersytetu Michigan: Kent Berridge, Jocelyn Richard i Alexis Faure. Ich zdaniem, emocje codzienne i te najsilniejsze mają osobny „system sterowania", a normalne sygnały wzbudzające i hamujące są zdumiewająco nieskuteczne w przypadku emocji ekstremalnych.
      Ze wcześniejszych prac Berridge'a wiadomo było, że dopamina, która motywuje do szukania nagrody, współpracuje z glutaminianem przy wywoływaniu silnych emocji: pożądania i strachu, w sąsiadujących regionach mózgu. Ta praca wykazała też, że dopamina może być odpowiedzialna tak samo za negatywne odczucia - strach w schizofrenii czy fobie, jak i za uzależnienie od narkotyków, powodując silne pragnienie.
      Nowa praca nad kontrolowaniem emocji powstała dzięki doświadczeniom na szczurach, którym bezboleśnie, dzięki mikroiniekcjom, wstrzykiwano substancje zakłócające działanie neuroprzekaźników: glutaminianu lub GABA. Praca porównuje wytwarzanie uczuć pożądania i strachu w jądrze półleżącym w mózgu przez sygnały glutaminianem oraz przez chemiczne sygnały GABA (kwas γ-aminomasłowy, kwas 4-aminobutanowy), przychodzące z głębszych, podkorowych warstw mózgu. Neuroprzekaźnik GABA jest głównym inhibitorem w centralnym systemie nerwowym.
      Doświadczenia wykazały, że w porównaniu do obszarów głębokich, najwyższe warstwy kory mózgowej mają ograniczone możliwości wpływania na odczuwanie przyjemności. Jedynie głębokie sygnały GABA potrafiły wywołać przyjemność podczas wywoływania uczucia pożądania oraz odczucia nieprzyjemne podczas generowania strachu.
      Badanie wyjaśnia, dlaczego niektóre, szczególnie intensywne lub patologiczne emocje są tak trudne do kontrolowania. Skrajne emocje wypływające z głębokich obszarów mózgu są odporne na próby wpływania przez korę mózgową.
    • przez KopalniaWiedzy.pl
      Naukowcy z University of Michigan stworzyli najbardziej energooszczędny procesor na świecie. Układ Phoenix pobiera w stanie uśpienia aż 30 000 razy mniej mocy niż inne podobne kości, a do pracy potrzebuje 10-krotnie mniej mocy.
      W trybie uśpienia Phoenix Processor zużywa jedynie 30 pikowatów mocy. Jak wyjaśniają naukowcy, to tak niewiele, że bateria z zegarka elektronicznego mogłaby zasilać Phoeniksa przez 263 lata.
      Nowy procesor ma powierzchnię zaledwie 1 milimetra kwadratowego. Jego olbrzymią zaletą jest fakt, iż jest zasilany przez baterię takiej samej wielkości. Baterie zasilające układy scalone są zwykle znacznie od nich większe, przez co przyczyniają się do wzrostu rozmiarów i ceny urządzania, w których są wykorzystywane. Na przykład bateria używana w przeciętnym laptopie jest około 5000 razy większa od procesora i zapewnia mu energię na zaledwie kilka godzin.
      Phoenix nie będzie, oczywiście, wykorzystywany w komputerach domowych. Tego typu mikroukłady trafiają do implantów medycznych, czujników mierzących np. zanieczyszczenia atmosferyczne czy do sprzętu szpiegowskiego.
      Jak podkreślają twórcy Phoeniksa: niskie zapotrzebowanie na energię pozwoliło nam na zmniejszenie rozmiarów baterii i całego urządzenia wykorzystującego procesor. Nasz system, wraz z baterią, ma być 1000 razy mniejszy od najmniejszych obecnie stosowanych czujników. To otwiera nowe możliwości - mówi profesor David Blaauw, którego dwaj doktoranci, Scott Hanson i Mingoo Seok, stworzyli procesor.
      Naukowcy twierdzą, że Phoenix posłuży do stworzenia czujników, które będą niemal niewidoczne gołym okiem. Będzie można go zatopić w betonie, by na bieżąco mierzył stan budynków i mostów, zostanie wykorzystany do monitorowanie ciśnienia w gałce ocznej, przyda się do sterowania rozrusznikami serca.
      Akademicy, by skonstruować tak energooszczędny układ, skupili się na jego stanie uśpienia, bo w nim właśnie czujniki spędzają większość czasu. Phoenix standardowo znajduje się w stanie uśpienia. Jego zegar "budzi go" co 10 minut na 1/10 sekundy. Wówczas Phoenix wykonuje 2000 instrukcji: sprawdza czy napłynęły nowe dane, przetwarza je, kompresuje i zapisuje w pamięci. Następnie znowu przechodzi w stan uśpienia. Uczeni celowo ustawili go w ten sposób, gdyż ma on być stosowany przede wszystkim w różnego rodzaju czujnikach pomiarowych, więc zebranie danych co 10 minut jest wystarczające.
    • przez KopalniaWiedzy.pl
      Na University of Michigan powstało oprogramowanie, które wyszukuje błędy w układach scalonych i proponuje najlepszy sposób ich naprawienia. Może ono przyczynić się do powstania doskonalszych chipów.
      Błędy w układach to problem, który coraz bardziej dotyczy ich wytwórców. Im bardziej miniaturyzują układy scalone, tym więcej błędów w nich powstaje. Obecnie usunięcie usterek z prototypowego procesora może trwać nawet rok, co znacznie opóźnia jego rynkowy debiut i zwiększa koszty produkcji. Wspomniane oprogramowanie nie tylko skróci cykl produkcyjny i obniży koszty, ale spowoduje też, że na rynek będą trafiały układy z mniejszą liczbą błędow.
      Profesor Rob Rutenbar z Carnegie Mellon University, tak mówi o błędach: To wciąż nierozwiązany problem. Prawdopodobnie Intel ma jakieś zaawansowane technologie [usuwania błędów – red.], ale o tym nie wspomina. Z tego, co wiemy, błędy takie usuwa się ręcznie. Nie jest to proces mocno zautomatyzowany. Dodaje przy tym, że istnieje bardzo mało fachowej literatury na temat błędów występujących w półprzewodnikach.
      Z kolei profesor Igor Markov z University of Michigan zauważa, że ręczne usuwanie błędów to metoda bardzo niedoskonała i prawdopodobnie wszystkie układy scalone, które trafiają na rynek, zawierają błędy. Przypomina, że na stronie Intela można znaleźć spis 130 usterek sprzętowych, które występują w laptopach. Większość z nich można usunąć za pomocą odpowiedniego oprogramowania, ale około 20 nie można poprawić.
      Eksperci zauważają, że obecnie usunięcie błędu jest niezwykle trudne. Gdy już się go zidentyfikuje, to nie zawsze wiadomo, w jaki sposób należy go poprawić. Natura usterek może być bardzo różna – od zbyt blisko siebie wydrukowanych ścieżek, po tranzystory umieszczone w nieodpowiednich miejscach. Po naprawieniu jednej usterki często okazuje się, że jej poprawienie spowodowało powstanie innego błędu. Wprowadzanie poprawek kosztuje kolejne miliony dolarów, co oczywiście odbija się na cenie gotowego produktu.
      Obecnie podczas testów inżynierowie przepuszczają przez prototyp sygnały elektryczne i szukają w nich nieprawidłowości. Na tej podstawie starają się poprawić układ.
      Oprogramowanie, które powstało w Michigan, samodzielnie testuje chipy i szuka błędów. Gdy je znajdzie, określa, w których częściach procesora powstały i testuje te części. W ten sposób, wykluczając kolejne fragmenty układu, jest w stanie precyzyjnie określić miejsce, które należy poprawić. Gdy już znajdzie błąd, przeprowadza symulacje różnych metod jego poprawienia i proponuje tę najskuteczniejszą.
      Profesor Rutenbar mówi, że jedną z największych zalet programu jest fakt, iż podaje on często rozwiązania niezgodne z naszą intuicją. Pewne błędy człowiek naprawiłby zupełnie inaczej, niż proponuje to program. Jednak metody zaproponowane przez oprogramowanie, okazują się równie skuteczne, ale tańsze i szybsze w wykonaniu. Gdyby to człowiek miał zdecydować, raczej nie wpadłby na takie rozwiązanie – mówi Rutenbar.
      Testy wykazały, że program potrafi znaleźć i naprawić około 70% poważnych błędów. Wyszukiwanie konkretnej usterki zajmuje mu nie, jak ludziom, tygodnie, ale kilka dni.

  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...