Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Na Duke University stworzono prototyp diody termicznej, który zachowuje zalety takich urządzeń, a jednocześnie nie ma ich wad. Może stać się ona podstawą do stworzenia technologii, które znacznie udoskonalą zarówno ogniwa słoneczne jak i laptopy.

Dioda termiczna to urządzenie, które przewodzi ciepło tylko w jedną stronę. Pozwala zatem np. na odprowadzenie ciepła z danego kierunku i jednocześnie działa jak izolator, uniemożliwiając powrót energii cieplnej.

Dioty termiczne są produkowane z ciał stałych, jednak najbardziej efektywne są diody, które działają dzięki zjawisku zmiany fazy, polegające na parowaniu i skraplaniu. Diody zmiennofazowe odprowadzają nawet 100-krotnie więcej ciepła niż diody z ciał stałych. Jednak mają dwa poważne ograniczenia, które powodują, iż nie nadają się do wszystkich zastosowań. Po pierwsze, ich działanie zależy od grawitacji, po drugie zaś - muszą mieć kształt tuby. To wyklucza użycie zmiennofazowych diod np. w elektronice przenośnej, gdyż powinny tam działać niezależnie od orientacji urządzenia. Nie nadają się też np. do stosowania z panelami słonecznymi, ponieważ tam przydałyby się diody o dużych powierzchniach.

Profesor Chuan-Hua Chen z Duke University i jego zespół postanowili wykorzystać krople wody, które odskakują z powierzchni superhydrofobowych i przemieszczają się w stronę powierzchni superhydrofilowych. Przed kilkunastoma miesiącami to właśnie Chen jako pierwszy sfilmował zachowanie kropli wody na powierzchniach superhydrofobowych. Okazało się, że krople dosłownie odskakują z takich powierzchni.

Naukowcy przeprowadzili obecnie eksperyment, w ramach którego naprzeciwko materiału superhydrofobowego umieścili materiał superhydrofilowy.

Gdy powierzchnia superhydrofobowa jest chłodniejsza od superhydrofilowej zachodzi bardzo efektywny proces transportu ciepła, przypominający pocenie się, które odbiera ciepło z organizmu. Natomiast gdy materiał superhydrofobowy jest cieplejszy, transport ciepła zostaje zablokowany, a całość zachowuje się jak okno z dwiema szybami. Jako, że skaczące kropelki są niezwykle małe, wpływ grawitacji na nie jest pomijalny. A to oznacza, że urządzenia korzystające z takiej diody mogą być zorientowane w dowolnym kierunku - mówi Chen. Co więcej, taką diodę można łatwo skalować, zatem można będzie budować zarówno diody do chłodzenia smartfonów, jak i takie, które trafią na dachy budynków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oraz nareszcie skuteczne pasywne ciche chłodzenie dla mojego PC. :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Już sobie wyobrażam: "Kurde, komputer mi sie spocił" :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie mogę przy tej okazji nie wspomnieć o niesamowitym płynie Neverwet :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jednym ze sposobów systemowej walki z powszechną otyłością ma być obowiązkowe opisywanie produktów spożywczych pod względem składu i wartości kalorycznej. Czy jednak takie oznaczenia wpływają na zachowania konsumentów? Badania Duke University wskazują, że nie bardzo.
      Naukowcy z Duke University Medical Center postanowili przeprowadzić badania na temat skuteczności kalorycznego oznaczania produktów, korzystając z okazji wprowadzenia stosownych przepisów w Hrabstwie King (w stanie Washington). Władze okręgowe wprowadziły tam nakaz opisywania wartości kalorycznej produktów podawanych w dużych (powyżej 14 punktów) sieciach restauracji i barów. Od wejścia w życie przepisów w styczniu 2009 roku, przez 13 miesięcy uniwersyteccy uczeni wraz z Wydziałem Zdrowia Seattle i Hrabstwa King obserwowali zachowanie klientów sieci Taco Time i porównywali je z zachowaniem przed wprowadzeniem nakazu.
      Główny autor studium, Eric Finkelstein, opierając się o wyniki wcześniejszych, podobnych badań, spodziewał się, że zmiana zachowań będzie niewielka, ale znacząca. Niestety, zawiódł się, ponieważ podawanie kalorii w restauracyjnym menu nie wpłynęło ani na liczbę sprzedawanych produktów, ani na średnią kaloryczność zamawianych posiłków. Taki rezultat wskazuje - powiedział Finkelstein - że obligatoryjne opisywanie menu nie jest wystarczającym bodźcem do zmiany zachowań konsumentów, jeśli nie jest połączone z innymi metodami.
      Współautor studium, Kiersten Strombotne, uważa, że podawanie wartości kalorycznej nie ma sensu w warunkach, kiedy normalnie dostępne są dietetyczne wersje produktów. Jeśli sklep oferuje colę zwykłą i dietetyczną, to czy podawanie liczby kalorii daje jakąkolwiek wartościową informację? - mówi. - Osoby chcące kupić napój niskokaloryczny i tak wiedzą, że należy kupić colę dietetyczną.
      Przyczyną „fiaska" programu w tej akurat sieci może być fakt, że restauracje Taco Time już wcześniej, z własnej woli, oznaczały zdrowe i niskokaloryczne produkty odpowiednimi znakami w menu. Oznaczałoby to, że proste i czytelne oznaczenie graficzne jest lepszym nośnikiem informacji dla konsumenta, który rozważa dobór diery, zaś dodatkowe, liczbowe informacje nie mają większego znaczenia.
      Badania są istotne dla planów rządu Stanów Zjednoczonych, który w ramach reformy zdrowia chce wprowadzić podobne przepisy w całym kraju. Wyniki powinny jednak zainteresować również rządy innych krajów, jako że podobne tendencje ustawodawcze są silne we wszystkich krajach rozwiniętych.
    • przez KopalniaWiedzy.pl
      Naukowcy będą mogli studiować pod mikroskopem właściwości supergęstych gwiazd neutronowych, materii z momentu Wielkiego Wybuchu, czy weryfikować założenia teorii strun oraz projektować nadprzewodniki. A to wszystko dzięki zimnemu gazowi Fermiego.
      Gaz Fermiego to model, tzw. idealny gaz kwantowy, nazywany czasem szóstym stanem materii. John Thomas, fizyk z Duke University, wcielił ten koncept w życie, schładzając atomy litu-6 do temperatury bliskiej zeru absolutnemu (milionowe i miliardowe części Kelvina) i chwytając je w pułapkę - milimetrowej wielkości miseczkę stworzoną przez promienie lasera. Taka próbka, poddana dodatkowo działaniu odpowiednio dobranego pola magnetycznego zyskuje wyjątkowe właściwości, wśród nich niemal całkowity brak oporu podczas przepływu. To zjawisko podobne do nadciekłości, a dzieje się tak, ponieważ atomy gazu Fermiego oddziałują ze sobą tak silnie, jak tylko to możliwe.
      Eksperyment ma na celu zbadanie lepkości takiego gazu. Gaz Fermiego zachowuje się w różny sposób, w zależności od temperatury. Uwalniając schłodzone do miliardowych części Kelvina atomy z laserowej pułapki i chwytając ponownie wywołuje się ich drgania, które upodabniają próbkę do trzęsącej się galaretki. Mierząc oscylacje, można określić dokładnie lepkość próbki. W nieco wyższych temperaturach, rzędu milionowych części Kelvina, uwalniany gaz zmienia kształt z „cygara" na „naleśnik", z szybkością również zależną od temperatury. W tak niskich temperaturach właściwości gazu zależą od najmniejszej naturalnej podziałki, czy „linijki" - odległości pomiędzy atomami. Rozmiar ten określa skalę dla energii, temperatury, czy lepkości właśnie.
      Taki egzotyczny stan materii występuje w naturze, ale nie sposób go tam badać. Na przykład gwiazdy neutronowe, poza tym, że nieosiągalne, są tak gęste, że najmniejszy okruch ważyłby setki lub tysiące ton. Interesującego kosmologów stanu materii w kilka mikrosekund po Wielkim Wybuchu (plazma kwarkowo-gluonowa) również nie da się bezpośrednio badać. Stworzenie w laboratorium skalowalnego modelu niektórych właściwości tych stanów pozwoli na weryfikację różnych hipotez i założeń. Po przeprowadzeniu odpowiednich wyliczeń dla niskich temperatur będzie można ocenić również niektóre założenia teorii strun. W zastosowaniach bardziej praktycznych, płynność doskonała, jaką uzyskuje stworzony gaz Fermiego, pozwoli badać oczekiwane właściwości wysokotemperaturowych nadprzewodników.
      O swoim eksperymencie opowiada sam John Thomas:
       
    • przez KopalniaWiedzy.pl
      Rtęć jest jednym z najbardziej trujących pierwiastków. Niestety, wiele z używanych przez człowieka technologii powoduje skażanie środowiska, w tym środowiska wodnego, związkami rtęci. Jak się okazuje, mimo znacznie niższych stężeń rtęci w oceanach, jest ona tam znacznie bardziej niebezpieczna niż w wodzie słodkiej.
      Jednym z najpowszechniejszych związków rtęci, a przy tym wyjątkowo trującym jest metylortęć. Ten organiczny związek jest silną neurotoksyną, powodującą uszkodzenie między innymi nerek, mózgu i wątroby. Może przenikać do organizmu zarówno w pożywieniu, jak i poprzez układ oddechowi, czy przez skórę, ponadto kumuluje się w organizmie.
      Kumulacja związków rtęci w organizmach zwierząt jest najczęstszą przyczyną zatruć. Wg badań, na przykład w Stanach Zjednoczonych w organizmach aż 8% kobiet wykrywa się stężenie rtęci przekraczające bezpieczne normy. Jedną z przyczyn jest spożywanie ryb zatrutych tym metalem. Dlaczego jednak organizmy morskie zawierają większe ilości tego szkodliwego pierwiastka, skoro jego stężenie w wodzie morskiej jest znacznie mniejsze niż w słodkiej?
      Do tej pory istniejące technologie nie pozwalały na odkrycie przyczyny z powodu zbyt małej czułości i problemów z mierzeniem i wykrywaniem rtęci w morskiej wodzie. Teraz jednak zbadaniem zagadnienia zajęła się Heileen Hsu-Kim z Uniwersytetu Duke'a. Przyczyną, jak się okazało, jest sama słona woda.
      Metylortęć bardzo łatwo łączy się z materią organiczną: na przykład szczątkami obumarłych roślin, dlatego szybko trafia do łańcucha pokarmowego. Zagrożenie z jej strony jest jednak zmniejszane przez promieniowanie słoneczne, które powoduje rozkład związku. Dokładniej, rozpad następuje dzięki reaktywnym formom tlenu, które powstają w wodzie pod wpływem słońca. Tak się dzieje w wodzie słodkiej. Kiedy jednak metylortęć trafi do wody morskiej, ulega rozpadowi bardzo powoli. Jej cząstki bowiem łączą się chętnie z chlorkami, czyli z samą solą. Takie połączenie jest bardzo odporne i nie ulega rozkładowi pod wpływem promieniowania.
    • przez KopalniaWiedzy.pl
      Chris Dwyer, profesor z Duke University uważa, że w przyszłości magistrant w uniwersyteckim laboratorium będzie w stanie w ciągu jednego dnia wyprodukować więcej układów scalonych niż obecnie wynosi światowa miesięczne produkcja krzemowych chipów. Ma to być możliwe dzięki zastosowaniu DNA do wytwarzania układów.
      Podczas swoich najnowszych eksperymentów Dwyer wykazał, że mieszając odpowiednio przygotowane fragmenty DNA z innymi molekułami można stworzyć miliardy niewielkich, identycznych struktur przypominających wyglądem gofry. Ze struktur tych można następnie budować urządzenia. Gdy potraktujemy chromofory światłem, zaabsorbują je wzbudzając elektrony. Uwolniona energia przechodzi do innego typu chromoforu położonego obok, który ją absorbuje i emituje światło o innej długości fali. Światło wejściowe różni się zatem od światła wyjściowego, a różnica ta może być z łatwością wykryta - mówi uczony. W ten sposób możemy uzyskać odpowiednik elektronicznych zer i jedynek. W DNA zamiast ładunku elektrycznego można użyć światła, by otrzymać taki sam efekt, a całość działa znacznie szybciej.
      Zdaniem profesora Dwyera możliwość szybkiego i taniego produkowania olbrzymiej liczby obwodów jest logicznym krokiem w dalszym rozwoju technologii.
      Fragmenty DNA można w łatwy i tani sposób przystosowywać do własnych celów, a uczony wykorzystał naturalną tendencję kwasu dezoksyrybonukleinowego do przyczepiania się w odpowiednie miejsca innych fragmentów. To jak wrzucenie puzzli do pudełka i wstrząsanie nim, co pozwala puzzlom samodzielnie odnaleźć właściwe sobie miejsce. My wzięliśmy miliardy puzzli, umieściliśmy je w jednym miejscu i uzyskaliśmy miliardy kopii jednego puzzla - powiedział uczony.
      Podczas eksperymentów stworzono "puzzla" z 16 części z chromoforami ulokowanymi na krawędziach "puzzla". Możliwe jest oczywiście tworzenie fragmentów z większej liczby części.
      Dwyer zauważa, że DNA można będzie używać nie tylko do tworzenia układów obliczeniowych. Jego technika sprawdzi się też np. w biomedycynie, gdyż nanostruktury są czujnikami, a zatem możliwe jest tworzenie z nich np. bloków odpowiedzialnych za wykrywanie konkretnych białek, towarzyszących konkretnym chorobom.
    • przez KopalniaWiedzy.pl
      Pesymiści zaczynają spekulować, że Albert Einstein był ostatnim lub jednym z ostatnich geniuszy. Do tej pory to jednostki dokonywały wiekopomnych odkryć, ślęcząc w swoich pracowniach i laboratoriach. Tak pracowali Kopernik i Tesla czy Rentgen i Galileusz. W ostatnich latach pojawił się jednak i umocnił inny trend: zakładania dużych instytucji. Za przełomową datę uznaje się wprowadzenie na orbitę pierwszego Sputnika. Kolektywnym, rzecz jasna, wysiłkiem dokonali tego obywatele Związku Radzieckiego (International Journal of Design & Nature and Ecodynamics).
      Skutkiem masywnych przemian jest nie tylko instytucjonalizacja nauki (razem łatwiej przecież zdobyć fundusze na badania). Coraz ciężej się wybić i osiągnąć naukową maestrię, przez co wzrasta wiek noblistów. W XX wieku średnia wieku nagrodzonych badaczy podniosła się aż o 6 lat. Bardzo wiele już odkryto i by dojść do przełomu, trzeba po prostu pracować dłużej.
      Autorem prezentowanej koncepcji jest Adrian Bejan, inżynier z Duke University. Wg niego, najlepszym wariantem jest równowaga między podejściem indywidualnym oraz instytucjonalnym, gdy samoczynnie powstają duże grupy, a "samotni" naukowcy podrzucają im tylko genialne pomysły.
      Bejan podkreśla, że wystrzelenie przez Rosjan Sputnika 1 skłoniło Stany Zjednoczone do tworzenia dużych grup badawczych wewnątrz istniejących instytucji naukowych. Z tego samego modelu zaczęły również korzystać mniejsze podmioty. Amerykanin nie twierdzi jednak, że geniusze zniknęli już z mapy świata. Zamiast tego od 1996 roku pracuje nad teorią konstruktalną, która ma wyjaśnić postronnym obserwatorom, co i jak się właściwie dzieje.
      Systemy przepływowe ewoluują w taki sposób, by zminimalizować niedoskonałości oraz zmniejszyć tarcia czy inne formy oporu. Dzięki temu spada ilość trwonionej energii. Jako przykład Bejan podaje meandrującą rzekę. Teoria inżyniera obejmuje dwa typy przepływu: 1) pomysłów (odkryć naukowych) oraz 2) wsparcia: funduszy i przestrzeni badawczej, np. laboratoriów.
      Samotni myśliciele pojawiali się zawsze na przestrzeni dziejów, ponieważ to naturalne – nauka jest dobra dla umysłu badacza i służy dobrostanowi społeczeństwa. Mimo że obecny trend to kreowanie większych grup badawczych, będą się oni pojawiać nadal. Poza tym niegdysiejsi geniusze nie pracowali de facto samotnie. Jak przyznawał sam Izaak Newton, nigdy nie stworzyłby swoich praw dynamiki, gdyby nie wspieranie się na barkach gigantów.
      Ideałem, wg Bejana, jest taka sytuacja, gdy jednostka wpada na świetny pomysł, zdobywa fundusze, a wokół idei formuje się przyklaskująca jej grupa. Do pierwszego zespołu dołączają kolejne, a każdy przyczynia się w jakiś sposób do wyników całości.
      Ekstremalne scenariusze nie są, jak zwykle, korzystne. Zbitki indywidualistów nie stworzą prawdziwych grup. Będzie wiele pomysłów, ale nikt ich nie podchwyci. Duża grupa będzie mieć za to sporo pieniędzy, ale za mało osób zainteresowanych badaniem.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...