Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Najmniejszy silnik Stirlinga

Rekomendowane odpowiedzi

W Niemczech zbudowano najmniejszy w historii silnik Stirlinga. To wynaleziony na początku XIX wieku silnik, który przetwarza energię cieplną w energię mechaniczną. Specjaliści z Uniwersytetu w Stuttgarcie i Instytutu Systemów Inteligentnych Maksa Plancka tak zmodyfikowali urządzenie, by uzyskać jak najmniejsze wymiary.

Oryginalny silnik Stirlinga ma z jednej strony cylinder z gazem połączony ze źródłem ciepła, a z drugiej chłodnicę. Dwa tłoki przepychają gaz pomiędzy ciepłym i zimnym obszarem.

W celu zmniejszenia rozmiarów silnika niemieccy uczeni zastąpili zbiornik gazu pojedynczą cząsteczką melaminy, którą zanurzono w wodzie. Całość umieszczono w zbiorniku o wysokości 4 mikrometrów. W roli tłoka wystąpił laser. Im większa była intensywność promienia, tym mniejszą swobodę ruchu miała molekuła. Zachowywała się ona zatem podobnie do molekuł gazu w oryginalnym projekcie. Drugi z laserów w czasie krótszym niż 10 milisekund podgrzewał wodę do temperatury 90 stopni Celsjusza, wywołując ruch melaminy. Wyłączenie lasera powodowało gwałtowne ochładzanie się wody.

Pomimo tego, że udało się odtworzyć działanie silnika Stirlinga, mikroskopijne urządzenie jest mniej doskonałe niż pracujące w skali makro. W przeciwieństwie do makroskopowego silnika, który pracuje bardzo płynnie i całkowicie przewidywalny sposób, nasz silnik zacina się - mówi profesor Bechinger. Dzieje się tak dlatego, że molekuły wody bez przerwy uderzają w molekułę melaminy, co powoduje nierównomierne przepływy energii. W dużym silniku generowane jest tyle energii, że kolizje te nie mają znacznie, jednak w świecie mikro zaburzają one pracę urządzenia. Mimo to, naukowcy byli zadziwieni faktem, że średnia wydajność silnika była taka jak oryginału.

Naukowcy podkreślają, że ich silnik nigdy nie znajdzie praktycznego zastosowania, jednak mają nadzieję, że badania nad nim posłużą do opracowania bardziej stabilnych źródeł napędu dla mikromaszyn.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

nasz silnik zacina się - mówi profesor Bechinger.

 

Pokolenia niemieckich inżynierów się właśnie w grobie przewracają

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Misja Psyche jeszcze nie dotarła do celu, a już zapisała się w historii podboju kosmosu. Głównym jej celem jest zbadanie największej w Układzie Słonecznym asteroidy Psyche. Przy okazji NASA postanowiła przetestować technologię, z którą eksperci nie potrafili poradzić sobie od dziesięcioleci – przesyłanie w przestrzeni kosmicznej danych za pomocą lasera. Agencja poinformowała właśnie, że z Psyche na Ziemię trafił 15-sekudowy materiał wideo przesłany z odległości 31 milionów kilometrów z maksymalną prędkością 267 Mbps. To niemal 2-krotnie szybciej niż średnia prędkość szerokopasmowego internetu w Polsce.
      To, czego właśnie dokonała NASA jest nie zwykle ważnym osiągnięciem. Pozwoli bowiem na znacznie sprawniejsze zbieranie danych z instrumentów pracujących w przestrzeni kosmicznej i zapewni dobrą komunikację z misjami załogowymi odbywającymi się poza orbitą Ziemi.
      Sygnał z Psyche potrzebował około 101 sekund, by dotrzeć do Ziemi. Dane, przesyłane przez laser pracujący w bliskiej podczerwieni trafiły najpierw do Hale Teelscope w Palomar Observatory w Kalifornii. Następnie przesłano je do Jet Propulsion Laboratory w Południowej Kalifornii, gdzie były odtwarzane w czasie rzeczywistym podczas przesyłania. Jak zauważył Ryan Rogalin, odpowiedzialny za elektronikę odbiornika w JPL, wideo odebrane w Palomar zostało przesłane przez internet do JPL, a transfer danych odbywał się wolniej, niż przesyłanie danych z kosmosu. Podziwiając tempo transferu danych nie możemy zapomnieć też o niezwykłej precyzji, osiągniętej przez NASA. Znajdujący się na Psyche laser trafił z odległości 31 milionów kilometrów w 5-metrowe zwierciadło teleskopu. Sam teleskop to również cud techniki. Jego budowę ukończono w 1948 roku i przez 45 lat był najdoskonalszym teleskopem optycznym, a jego zwierciadło główne jest drugim największym zwierciadłem odlanym w całości.
      Po co jednak prowadzić próby z komunikacją laserową, skoro od dziesięcioleci w przestrzeni kosmicznej z powodzeniem przesyła się dane za pomocą fal radiowych? Otóż fale radiowe mają częstotliwość od 3 Hz do 3 Thz. Tymczasem częstotliwość pracy lasera podczerwonego sięga 300 THz. Zatem transmisja z jego użyciem może być nawet 100-krotnie szybsza. Ma to olbrzymie znaczenie. Chcemy bowiem wysyłać w przestrzeń kosmiczną coraz więcej coraz doskonalszych narzędzi. Dość wspomnieć, że Teleskop Webba, który zbiera do 57 GB danych na dobę, wysyła je na Ziemię z prędkością dochodzącą do 28 Mb/s. Zatem jego systemy łączności działają 10-krotnie wolniej, niż testowa komunikacja laserowa.
      Zainstalowany na Psyche Deep Space Optical Communication (DSOC) uruchomiono po raz pierwszy 14 listopada. Przez kolejne dni system sprawdzano i dostrajano, osiągając coraz szybszy transfer danych i coraz większą precyzję ustanawiania łącza z teleskopem. W tym testowym okresie przesłano na Ziemię łącznie 1,3 terabita danych. Dla porównania, misja Magellan, która w latach 1990–1994 badała Wenus, przesłała w tym czasie 1,2 Tb.
      Misja Psyche korzysta ze standardowego systemu komunikacji radiowej. DSOC jest systemem testowym, a jego funkcjonowanie nie będzie wpływało na powodzenie całej misji.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ponad połowa największych jezior na świecie traci wodę, wynika z badań przeprowadzonych przez międzynarodowy zespół naukowy z USA, Francji i Arabii Saudyjskiej. Przyczynami tego stanu rzeczy są głównie globalne ocieplenie oraz niezrównoważona konsumpcja przez człowieka. Jednak, jak zauważają autorzy badań, dzięki opracowanej przez nich nowej metodzie szacunku zasobów wody, trendów oraz przyczyn jej ubywania, można dostarczyć osobom odpowiedzialnym za zarządzanie informacji, pozwalającymi na lepszą ochronę krytycznych źródeł wody.
      Przeprowadziliśmy pierwsze wszechstronne badania trendów oraz przyczyn zmian ilości wody w światowych jeziorach, wykorzystując w tym celu satelity oraz modele obliczeniowe, mówi główny autor badań, Fangfang Yao z Uniwersytetu Kalifornijskiego w Boulder (CU Boulder). Mamy dość dobre informacje o słynnych jeziorach, jak Morze Kaspijskie, Jezioro Aralskie czy Salton Sea, jeśli jednak chcemy dokonać szacunków w skali globalnej, potrzebujemy wiarygodnych informacji o poziomie wód i objętości jeziora. Dzięki tej nowej metodzie możemy szerzej spojrzeć na zmiany poziomu wód jezior w skali całej planety, dodaje profesor Balaji Rajagopalan z CU Boulder.
      Naukowcy wykorzystali 250 000 fotografii jezior wykonanych przez satelity w latach 1992–2020. Na ich podstawie obliczyli powierzchnię 1972 największych jezior na Ziemi. Użyli też długoterminowych danych z pomiarów poziomu wód z dziewięciu satelitów. W przypadku tych jezior, co do których brak było danych długoterminowych, wykorzystano pomiary wykorzystane za pomocą bardziej nowoczesnego sprzętu umieszczonego na satelitach. Dzięki połączeniu nowych danych z długoterminowymi trendami byli w stanie ocenić zmiany ilości wody w jeziorach na przestrzeni kilku dziesięcioleci.
      Badania pokazały, że 53% największych jezior na świecie traci wodę, a jej łączny ubytek jest 17-krotnie większy niż pojemność największego zbiornika na terenie USA, Lake Meads. Wynosi zatem około 560 km3 wody.
      Uczeni przyjrzeli się też przyczynom utraty tej wody. W przypadku około 100 wielkich jezior przyczynami były zmiany klimatu oraz konsumpcja przez człowieka. Dzięki tym badaniom naukowcy dopiero teraz dowiedzieli się, że za utratą wody w jeziorze Good-e-Zareh w Afganistanie czy Mar Chiquita w Argentynie stoją właśnie takie przyczyny. Wśród innych ważnych przyczyn naukowcy wymieniają też odkładanie się osadów. Odgrywa ono szczególnie ważną rolę w zbiornikach, które zostały napełnione przed 1992 rokiem. Tam zmniejszanie się poziomu wody jest spowodowane głównie zamuleniem.
      Podczas gdy w większości jezior i zbiorników wody jest coraz mniej, aż 24% z nich doświadczyło znacznych wzrostów ilości wody. Są to głównie zbiorniki znajdujące się na słabo zaludnionych terenach Tybetu i północnych części Wielkich Równin oraz nowe zbiorniki wybudowane w basenach Mekongu czy Nilu.
      Autorzy badań szacują, że około 2 miliardów ludzi mieszka na obszarach, gdzie w zbiornikach i jeziorach ubywa wody, co wskazuje na pilną potrzebę uwzględnienia takich elementów jak zmiany klimatu, konsumpcja przez człowieka czy zamulanie w prowadzonej polityce. Jeśli na przykład konsumpcja przez człowieka jest ważnym czynnikiem prowadzącym do utraty wody, trzeba wprowadzić mechanizmy, które ją ograniczą, mówi profesor Ben Livneh. Uczony przypomina jezioro Sevan w Armenii, w którym od 20 lat poziom wody rośnie. Autorzy badań łączą ten wzrost z wprowadzonymi i egzekwowanymi od początku wieku przepisami dotyczącymi sposobu korzystania z wód jeziora.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Specjaliści od biomechaniki z Cornell University obliczyli maksymalną wysokość, z jakiej możemy skoczyć do wody bez większego ryzyka wyrządzenia sobie krzywdy. Uwzględnili rodzaj skoku, a zatem to, która część ciała najpierw styka się z wodą. Woda jest 1000-krotnie gęstsza niż powietrze, więc skacząc przemieszczamy się z bardzo rzadkiego do bardzo gęstego medium, co wiąże się z silnym uderzeniem, mówi profesor Sunghwan Jung, główny autor artykułu opublikowanego na łamach Science Advances.
      Z eksperymentów wynika, że w przypadku osoby, która nie przeszła odpowiedniego treningu, skok do wody z wysokości ponad 8 metrów grozi uszkodzeniami kręgosłupa i karku w sytuacji, gdy jako pierwsza z wodą styka się głowa. Jeśli zaś skoczymy tak, by jako pierwsze z wodą zetknęły się dłonie, to przy skoku z wysokości ponad 12 metrów ryzykujemy uszkodzeniem obojczyka. Z kolei uszkodzenie kolana jest prawdopodobne przy skoku na stopy z wysokości ponad 15 metrów.
      Chcieliśmy sprawdzić, jak pozycja przy skoku do wody wpływa na ryzyko odniesienia obrażeń. Motywowała nas też chęć opracowania ogólnej teorii dotyczącej tego, jak obiekty o różnych kształtach wpadają do wody. Prowadziliśmy więc analizy zarówno kształtu ludzkiego ciała i różnych rodzajów skoków, jak i ciał zwierząt. Mierzyliśmy przy tym oddziałujące siły, dodaje Jung.
      Na potrzeby badań naukowcy wydrukowali trójwymiarowe modele ludzkiej głowy i tułowia, głowy morświna zwyczajnego, dzioba głuptaka zwyczajnego oraz łapy jaszczurki z rodzaju Basiliscus. W ten sposób mogli zbadać różne kształty podczas zetknięcia się z wodą. Wrzucali do niej swoje modele, mierzyli działające siły oraz ich rozkład w czasie. Brali pod uwagę wysokość, z jakiej modele wpadały do wody, a znając działające siły oraz wytrzymałość ludzkich kości, mięśni i ścięgien byli w stanie wyliczyć ryzyko związane ze skakaniem do wody z różnych wysokości. Biomechanika człowieka dysponuje olbrzymią literaturą dotyczącą urazów w wyniku upadków, szczególnie wśród osób starszych, oraz urazów sportowych. Nie znam jednak żadnej pracy dotyczącej urazów podczas skoków do wody, mówi profesor Jung.
      Badania dają nam też wiedzę na temat przystosowania się różnych gatunków zwierząt do nurkowania. Na przykład głuptak zwyczajny ma tak ukształtowany dziób, że może wpadać do wody z prędkością do 24 m/s czyli ponad 86 km/h. Jung i jego zespół od dłuższego czasu badana mechanikę nurkowania zwierząt. Obecnie naukowcy skupiają się na tym, jak lisy nurkują w śniegu.
      Jesteśmy dobrymi inżynierami. Potrafimy zbudować samolot i okręt podwodny. Ale przechodzenie pomiędzy różnymi ośrodkami, co sprawnie robią zwierzęta, nie jest łatwym zadaniem. A to bardzo interesująca kwestia. Inżynierowie chcieliby np. budować drony, które sprawnie poruszałyby się w powietrzu, a później wlatywały pod wodę. Może dzięki naszym badaniom wpadną na odpowiednie rozwiązania. My zaś próbujemy zrozumieć podstawy mechaniki, dodaje Jung.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Laboratorium Centralnym Katowickich Wodociągów pracują sommelierzy, którzy oceniają wodę pod kątem smaku i zapachu. Osoby te musiały przejść testy i szkolenie. Jak można się domyślić, by testy wody były wiarygodne, należy je prowadzić w specjalnych warunkach.
      Gdzie i jak pracuje sommelier od wody
      W pracowni analizy sensorycznej musi być zachowana temperatura 23 stopni Celsjusza, z tolerancją odchylenia wynoszącą 2 stopnie. Stanowiska, przy których sommelierzy przeprowadzają testy, są oddzielone od siebie boksami, pozbawione okien i wyposażone w oświetlenie, którego parametry określone są w normach. Wszystko po to, by nic ich nie rozpraszało i nie wpływało negatywnie na ich zdolności – wyjaśnia analityczka Laboratorium Centralnego Sylwia Morawiecka.
      Jak dodaje, godzinę przed analizą nie powinno się jeść ani używać perfum (dzięki temu nie zaburza się pracy receptorów węchowych i kubków smakowych). W pomieszczeniu, w którym pracują sommelierzy, przed badaniem włączane jest urządzenie pochłaniające wszelkie niepotrzebne zapachy.
      Analitycy określają, zgodnie z wymaganiami zawartymi w polskich normach, podstawowe smaki (słodki, słony, gorzki, metaliczny, kwaśny i umami) i zapachy (ziemisty i apteczny, stęchły/gnilny). Występowanie któregoś z nich nie wyklucza automatycznie przydatności do spożycia; intensywność musi się po prostu mieścić w przyjętych granicach (akceptowalnych dla konsumentów).
      Rozwiązywanie problemów
      Gdy woda zalega w sieci wewnętrznej budynku, jakość wody może się pogorszyć (smak i zapach stają się bardziej wyczuwalne). W takiej sytuacji zalecane jest odpuszczenie wody przed jej użyciem - wyjaśniono na stronie Urzędu Miasta Katowice.
      Zdarza się, że woda w budynku spełnia normy - nie jest skażona bakteriami i ma właściwe parametry mikrobiologiczne i chemiczne, a mimo to jej smak i zapach jest nieakceptowany przez klientów. Przyczyną może być zastanie wody w tym budynku lub stare, skorodowane rury. Sommelier w trakcie analizy smaku i zapachu niejednokrotnie jest w stanie określić, co jest powodem zmiany smaku i zapachu testowanej wody - tłumaczy cytowana przez PAP kierowniczka Laboratorium Centralnego Katowickich Wodociągów Anna Jędrusiak.
      Praca nie dla każdego
      Tylko ok. 50% chętnych ma właściwą wrażliwość sensoryczną. Na początku osoba zdobywająca upoważnienie do wykonywania badań oznaczania smaku i zapachu przechodzi testy. Jędrusiak wyjaśnia, że przygotowywane są „problematyczne” próbki. [...] Czekamy, czy [kandydat na sommeliera] określi, co jest nie tak. Potem jeszcze przechodzi szkolenie. Ale nawet osoba o takich kwalifikacjach ma pewne ograniczenia - może przebadać w jednej serii 6-8 próbek, potem wrażliwość spada, to zjawisko można też zaobserwować podczas wąchania perfum.
      Odnosząc się do pytania, czy sommelierem może zostać osoba paląca papierosy, Jędrusiak stwierdza, że choć nikt jest dyskryminowany, w praktyce palaczom trudniej przejść testy, bo ich wrażliwość jest nieco inna. Obecnie w zespole pracuje jedna osoba paląca.
      Z biegiem czasu i wzrostem doświadczenia zmysły się wyostrzają. Sylwia Morawiecka przyznaje, że zawsze potrafiła dobrze wyczuwać zapachy i smaki, ale dziś umie je oznaczyć na niższym poziomie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Niemożliwy” unipolarny (jednobiegunowy) laser zbudowany przez fizyków z University of Michigan i Universität Regensburg może posłużyć do manipulowania kwantową informacją, potencjalnie zbliżając nas do powstania komputera kwantowego pracującego w temperaturze pokojowej. Laser taki może też przyspieszyć tradycyjne komputery.
      Światło, czyli promieniowanie elektromagnetyczne, to fala oscylująca pomiędzy grzbietami a dolinami, wartościami dodatnimi a ujemnymi, których suma wynosi zero. Dodatni cykl fali elektromagnetycznej może przesuwać ładunki, jak np. elektrony. Jednak następujący po nim cykl ujemny przesuwa ładunek w tył do pozycji wyjściowej. Do kontrolowania przemieszania informacji kwantowej potrzebna byłaby asymetryczna – jednobiegunowa – fala światła. Optimum byłoby uzyskanie całkowicie kierunkowej, unipolarnej „fali”, w której występowałby tylko centralny grzbiet, bez oscylacji. Jednak światło, jeśli ma się przemieszczać, musi oscylować, więc spróbowaliśmy zminimalizować te oscylacje, mówi profesor Mackillo Kira z Michigan.
      Fale składające się tylko z grzbietów lub tylko z dolin są fizycznie niemożliwe. Dlatego też naukowcy uzyskali falę efektywnie jednobiegunową, która składała się z bardzo stromego grzbietu o bardzo wysokiej amplitudzie, któremu po obu stronach towarzyszyły dwie rozciągnięte doliny o niskiej amplitudzie. Taka konstrukcja powodowała, że grzbiet wywierał silny wpływ na ładunek, przesuwając go w pożądanym kierunku, a doliny były zbyt słabe, by przeciągnąć go na pozycję wyjściową.
      Taką falę udało się uzyskać wykorzystując półprzewodnik z cienkich warstw arsenku galu, w którym dochodzi do terahercowej emisji dzięki ruchowi elektronów i dziur. Półprzewodnik został umieszczony przed laserem. Gdy światło w zakresie bliskiej podczerwieni trafiło w półprzewodnik, doszło do oddzielenia się elektronów od dziur. Elektrony poruszyły się w przód. Następnie zostały z powrotem przyciągnięte przez dziury. Gdy elektrony ponownie łączyły się z dziurami, uwolniły energię, którą uzyskały z impulsu laserowego. Energia ta miała postać silnego dodatniego półcyklu w zakresie teraherców, przed i po którym przebiegał słaby, wydłużony półcykl ujemny.
      Uzyskaliśmy w ten sposób zadziwiającą unipolarną emisję terahercową, w którym pojedynczy dodatni półcykl był czterokrotnie wyższy niż oba cykle ujemne. Od wielu lat pracowaliśmy nad impulsami światła o coraz mniejszej liczbie oscylacji. Jednak możliwość wygenerowania terahercowych impulsów tak krótkich, że efektywnie składały się z mniej niż pojedynczego półcyklu oscylacji była czymś niewyobrażalnym, cieszy się profesor Rupert Hubner z Regensburga.
      Naukowcy planują wykorzystać tak uzyskane impulsy do manipulowania elektronami w materiałach kwantowych w temperaturze pokojowej i badania mechanizmów kwantowego przetwarzania informacji. Teraz, gdy wiemy, jak uzyskać unipolarne terahercowe impulsy, możemy spróbować nadać im jeszcze bardziej asymetryczny kształt i lepiej przystosować je do pracy z kubitami w półprzewodnikach, dodaje doktorant Qiannan Wen.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...