Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Najmniejszy silnik Stirlinga

Recommended Posts

W Niemczech zbudowano najmniejszy w historii silnik Stirlinga. To wynaleziony na początku XIX wieku silnik, który przetwarza energię cieplną w energię mechaniczną. Specjaliści z Uniwersytetu w Stuttgarcie i Instytutu Systemów Inteligentnych Maksa Plancka tak zmodyfikowali urządzenie, by uzyskać jak najmniejsze wymiary.

Oryginalny silnik Stirlinga ma z jednej strony cylinder z gazem połączony ze źródłem ciepła, a z drugiej chłodnicę. Dwa tłoki przepychają gaz pomiędzy ciepłym i zimnym obszarem.

W celu zmniejszenia rozmiarów silnika niemieccy uczeni zastąpili zbiornik gazu pojedynczą cząsteczką melaminy, którą zanurzono w wodzie. Całość umieszczono w zbiorniku o wysokości 4 mikrometrów. W roli tłoka wystąpił laser. Im większa była intensywność promienia, tym mniejszą swobodę ruchu miała molekuła. Zachowywała się ona zatem podobnie do molekuł gazu w oryginalnym projekcie. Drugi z laserów w czasie krótszym niż 10 milisekund podgrzewał wodę do temperatury 90 stopni Celsjusza, wywołując ruch melaminy. Wyłączenie lasera powodowało gwałtowne ochładzanie się wody.

Pomimo tego, że udało się odtworzyć działanie silnika Stirlinga, mikroskopijne urządzenie jest mniej doskonałe niż pracujące w skali makro. W przeciwieństwie do makroskopowego silnika, który pracuje bardzo płynnie i całkowicie przewidywalny sposób, nasz silnik zacina się - mówi profesor Bechinger. Dzieje się tak dlatego, że molekuły wody bez przerwy uderzają w molekułę melaminy, co powoduje nierównomierne przepływy energii. W dużym silniku generowane jest tyle energii, że kolizje te nie mają znacznie, jednak w świecie mikro zaburzają one pracę urządzenia. Mimo to, naukowcy byli zadziwieni faktem, że średnia wydajność silnika była taka jak oryginału.

Naukowcy podkreślają, że ich silnik nigdy nie znajdzie praktycznego zastosowania, jednak mają nadzieję, że badania nad nim posłużą do opracowania bardziej stabilnych źródeł napędu dla mikromaszyn.

Share this post


Link to post
Share on other sites

nasz silnik zacina się - mówi profesor Bechinger.

 

Pokolenia niemieckich inżynierów się właśnie w grobie przewracają

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Ponad połowa największych jezior na świecie traci wodę, wynika z badań przeprowadzonych przez międzynarodowy zespół naukowy z USA, Francji i Arabii Saudyjskiej. Przyczynami tego stanu rzeczy są głównie globalne ocieplenie oraz niezrównoważona konsumpcja przez człowieka. Jednak, jak zauważają autorzy badań, dzięki opracowanej przez nich nowej metodzie szacunku zasobów wody, trendów oraz przyczyn jej ubywania, można dostarczyć osobom odpowiedzialnym za zarządzanie informacji, pozwalającymi na lepszą ochronę krytycznych źródeł wody.
      Przeprowadziliśmy pierwsze wszechstronne badania trendów oraz przyczyn zmian ilości wody w światowych jeziorach, wykorzystując w tym celu satelity oraz modele obliczeniowe, mówi główny autor badań, Fangfang Yao z Uniwersytetu Kalifornijskiego w Boulder (CU Boulder). Mamy dość dobre informacje o słynnych jeziorach, jak Morze Kaspijskie, Jezioro Aralskie czy Salton Sea, jeśli jednak chcemy dokonać szacunków w skali globalnej, potrzebujemy wiarygodnych informacji o poziomie wód i objętości jeziora. Dzięki tej nowej metodzie możemy szerzej spojrzeć na zmiany poziomu wód jezior w skali całej planety, dodaje profesor Balaji Rajagopalan z CU Boulder.
      Naukowcy wykorzystali 250 000 fotografii jezior wykonanych przez satelity w latach 1992–2020. Na ich podstawie obliczyli powierzchnię 1972 największych jezior na Ziemi. Użyli też długoterminowych danych z pomiarów poziomu wód z dziewięciu satelitów. W przypadku tych jezior, co do których brak było danych długoterminowych, wykorzystano pomiary wykorzystane za pomocą bardziej nowoczesnego sprzętu umieszczonego na satelitach. Dzięki połączeniu nowych danych z długoterminowymi trendami byli w stanie ocenić zmiany ilości wody w jeziorach na przestrzeni kilku dziesięcioleci.
      Badania pokazały, że 53% największych jezior na świecie traci wodę, a jej łączny ubytek jest 17-krotnie większy niż pojemność największego zbiornika na terenie USA, Lake Meads. Wynosi zatem około 560 km3 wody.
      Uczeni przyjrzeli się też przyczynom utraty tej wody. W przypadku około 100 wielkich jezior przyczynami były zmiany klimatu oraz konsumpcja przez człowieka. Dzięki tym badaniom naukowcy dopiero teraz dowiedzieli się, że za utratą wody w jeziorze Good-e-Zareh w Afganistanie czy Mar Chiquita w Argentynie stoją właśnie takie przyczyny. Wśród innych ważnych przyczyn naukowcy wymieniają też odkładanie się osadów. Odgrywa ono szczególnie ważną rolę w zbiornikach, które zostały napełnione przed 1992 rokiem. Tam zmniejszanie się poziomu wody jest spowodowane głównie zamuleniem.
      Podczas gdy w większości jezior i zbiorników wody jest coraz mniej, aż 24% z nich doświadczyło znacznych wzrostów ilości wody. Są to głównie zbiorniki znajdujące się na słabo zaludnionych terenach Tybetu i północnych części Wielkich Równin oraz nowe zbiorniki wybudowane w basenach Mekongu czy Nilu.
      Autorzy badań szacują, że około 2 miliardów ludzi mieszka na obszarach, gdzie w zbiornikach i jeziorach ubywa wody, co wskazuje na pilną potrzebę uwzględnienia takich elementów jak zmiany klimatu, konsumpcja przez człowieka czy zamulanie w prowadzonej polityce. Jeśli na przykład konsumpcja przez człowieka jest ważnym czynnikiem prowadzącym do utraty wody, trzeba wprowadzić mechanizmy, które ją ograniczą, mówi profesor Ben Livneh. Uczony przypomina jezioro Sevan w Armenii, w którym od 20 lat poziom wody rośnie. Autorzy badań łączą ten wzrost z wprowadzonymi i egzekwowanymi od początku wieku przepisami dotyczącymi sposobu korzystania z wód jeziora.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Specjaliści od biomechaniki z Cornell University obliczyli maksymalną wysokość, z jakiej możemy skoczyć do wody bez większego ryzyka wyrządzenia sobie krzywdy. Uwzględnili rodzaj skoku, a zatem to, która część ciała najpierw styka się z wodą. Woda jest 1000-krotnie gęstsza niż powietrze, więc skacząc przemieszczamy się z bardzo rzadkiego do bardzo gęstego medium, co wiąże się z silnym uderzeniem, mówi profesor Sunghwan Jung, główny autor artykułu opublikowanego na łamach Science Advances.
      Z eksperymentów wynika, że w przypadku osoby, która nie przeszła odpowiedniego treningu, skok do wody z wysokości ponad 8 metrów grozi uszkodzeniami kręgosłupa i karku w sytuacji, gdy jako pierwsza z wodą styka się głowa. Jeśli zaś skoczymy tak, by jako pierwsze z wodą zetknęły się dłonie, to przy skoku z wysokości ponad 12 metrów ryzykujemy uszkodzeniem obojczyka. Z kolei uszkodzenie kolana jest prawdopodobne przy skoku na stopy z wysokości ponad 15 metrów.
      Chcieliśmy sprawdzić, jak pozycja przy skoku do wody wpływa na ryzyko odniesienia obrażeń. Motywowała nas też chęć opracowania ogólnej teorii dotyczącej tego, jak obiekty o różnych kształtach wpadają do wody. Prowadziliśmy więc analizy zarówno kształtu ludzkiego ciała i różnych rodzajów skoków, jak i ciał zwierząt. Mierzyliśmy przy tym oddziałujące siły, dodaje Jung.
      Na potrzeby badań naukowcy wydrukowali trójwymiarowe modele ludzkiej głowy i tułowia, głowy morświna zwyczajnego, dzioba głuptaka zwyczajnego oraz łapy jaszczurki z rodzaju Basiliscus. W ten sposób mogli zbadać różne kształty podczas zetknięcia się z wodą. Wrzucali do niej swoje modele, mierzyli działające siły oraz ich rozkład w czasie. Brali pod uwagę wysokość, z jakiej modele wpadały do wody, a znając działające siły oraz wytrzymałość ludzkich kości, mięśni i ścięgien byli w stanie wyliczyć ryzyko związane ze skakaniem do wody z różnych wysokości. Biomechanika człowieka dysponuje olbrzymią literaturą dotyczącą urazów w wyniku upadków, szczególnie wśród osób starszych, oraz urazów sportowych. Nie znam jednak żadnej pracy dotyczącej urazów podczas skoków do wody, mówi profesor Jung.
      Badania dają nam też wiedzę na temat przystosowania się różnych gatunków zwierząt do nurkowania. Na przykład głuptak zwyczajny ma tak ukształtowany dziób, że może wpadać do wody z prędkością do 24 m/s czyli ponad 86 km/h. Jung i jego zespół od dłuższego czasu badana mechanikę nurkowania zwierząt. Obecnie naukowcy skupiają się na tym, jak lisy nurkują w śniegu.
      Jesteśmy dobrymi inżynierami. Potrafimy zbudować samolot i okręt podwodny. Ale przechodzenie pomiędzy różnymi ośrodkami, co sprawnie robią zwierzęta, nie jest łatwym zadaniem. A to bardzo interesująca kwestia. Inżynierowie chcieliby np. budować drony, które sprawnie poruszałyby się w powietrzu, a później wlatywały pod wodę. Może dzięki naszym badaniom wpadną na odpowiednie rozwiązania. My zaś próbujemy zrozumieć podstawy mechaniki, dodaje Jung.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W Laboratorium Centralnym Katowickich Wodociągów pracują sommelierzy, którzy oceniają wodę pod kątem smaku i zapachu. Osoby te musiały przejść testy i szkolenie. Jak można się domyślić, by testy wody były wiarygodne, należy je prowadzić w specjalnych warunkach.
      Gdzie i jak pracuje sommelier od wody
      W pracowni analizy sensorycznej musi być zachowana temperatura 23 stopni Celsjusza, z tolerancją odchylenia wynoszącą 2 stopnie. Stanowiska, przy których sommelierzy przeprowadzają testy, są oddzielone od siebie boksami, pozbawione okien i wyposażone w oświetlenie, którego parametry określone są w normach. Wszystko po to, by nic ich nie rozpraszało i nie wpływało negatywnie na ich zdolności – wyjaśnia analityczka Laboratorium Centralnego Sylwia Morawiecka.
      Jak dodaje, godzinę przed analizą nie powinno się jeść ani używać perfum (dzięki temu nie zaburza się pracy receptorów węchowych i kubków smakowych). W pomieszczeniu, w którym pracują sommelierzy, przed badaniem włączane jest urządzenie pochłaniające wszelkie niepotrzebne zapachy.
      Analitycy określają, zgodnie z wymaganiami zawartymi w polskich normach, podstawowe smaki (słodki, słony, gorzki, metaliczny, kwaśny i umami) i zapachy (ziemisty i apteczny, stęchły/gnilny). Występowanie któregoś z nich nie wyklucza automatycznie przydatności do spożycia; intensywność musi się po prostu mieścić w przyjętych granicach (akceptowalnych dla konsumentów).
      Rozwiązywanie problemów
      Gdy woda zalega w sieci wewnętrznej budynku, jakość wody może się pogorszyć (smak i zapach stają się bardziej wyczuwalne). W takiej sytuacji zalecane jest odpuszczenie wody przed jej użyciem - wyjaśniono na stronie Urzędu Miasta Katowice.
      Zdarza się, że woda w budynku spełnia normy - nie jest skażona bakteriami i ma właściwe parametry mikrobiologiczne i chemiczne, a mimo to jej smak i zapach jest nieakceptowany przez klientów. Przyczyną może być zastanie wody w tym budynku lub stare, skorodowane rury. Sommelier w trakcie analizy smaku i zapachu niejednokrotnie jest w stanie określić, co jest powodem zmiany smaku i zapachu testowanej wody - tłumaczy cytowana przez PAP kierowniczka Laboratorium Centralnego Katowickich Wodociągów Anna Jędrusiak.
      Praca nie dla każdego
      Tylko ok. 50% chętnych ma właściwą wrażliwość sensoryczną. Na początku osoba zdobywająca upoważnienie do wykonywania badań oznaczania smaku i zapachu przechodzi testy. Jędrusiak wyjaśnia, że przygotowywane są „problematyczne” próbki. [...] Czekamy, czy [kandydat na sommeliera] określi, co jest nie tak. Potem jeszcze przechodzi szkolenie. Ale nawet osoba o takich kwalifikacjach ma pewne ograniczenia - może przebadać w jednej serii 6-8 próbek, potem wrażliwość spada, to zjawisko można też zaobserwować podczas wąchania perfum.
      Odnosząc się do pytania, czy sommelierem może zostać osoba paląca papierosy, Jędrusiak stwierdza, że choć nikt jest dyskryminowany, w praktyce palaczom trudniej przejść testy, bo ich wrażliwość jest nieco inna. Obecnie w zespole pracuje jedna osoba paląca.
      Z biegiem czasu i wzrostem doświadczenia zmysły się wyostrzają. Sylwia Morawiecka przyznaje, że zawsze potrafiła dobrze wyczuwać zapachy i smaki, ale dziś umie je oznaczyć na niższym poziomie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      „Niemożliwy” unipolarny (jednobiegunowy) laser zbudowany przez fizyków z University of Michigan i Universität Regensburg może posłużyć do manipulowania kwantową informacją, potencjalnie zbliżając nas do powstania komputera kwantowego pracującego w temperaturze pokojowej. Laser taki może też przyspieszyć tradycyjne komputery.
      Światło, czyli promieniowanie elektromagnetyczne, to fala oscylująca pomiędzy grzbietami a dolinami, wartościami dodatnimi a ujemnymi, których suma wynosi zero. Dodatni cykl fali elektromagnetycznej może przesuwać ładunki, jak np. elektrony. Jednak następujący po nim cykl ujemny przesuwa ładunek w tył do pozycji wyjściowej. Do kontrolowania przemieszania informacji kwantowej potrzebna byłaby asymetryczna – jednobiegunowa – fala światła. Optimum byłoby uzyskanie całkowicie kierunkowej, unipolarnej „fali”, w której występowałby tylko centralny grzbiet, bez oscylacji. Jednak światło, jeśli ma się przemieszczać, musi oscylować, więc spróbowaliśmy zminimalizować te oscylacje, mówi profesor Mackillo Kira z Michigan.
      Fale składające się tylko z grzbietów lub tylko z dolin są fizycznie niemożliwe. Dlatego też naukowcy uzyskali falę efektywnie jednobiegunową, która składała się z bardzo stromego grzbietu o bardzo wysokiej amplitudzie, któremu po obu stronach towarzyszyły dwie rozciągnięte doliny o niskiej amplitudzie. Taka konstrukcja powodowała, że grzbiet wywierał silny wpływ na ładunek, przesuwając go w pożądanym kierunku, a doliny były zbyt słabe, by przeciągnąć go na pozycję wyjściową.
      Taką falę udało się uzyskać wykorzystując półprzewodnik z cienkich warstw arsenku galu, w którym dochodzi do terahercowej emisji dzięki ruchowi elektronów i dziur. Półprzewodnik został umieszczony przed laserem. Gdy światło w zakresie bliskiej podczerwieni trafiło w półprzewodnik, doszło do oddzielenia się elektronów od dziur. Elektrony poruszyły się w przód. Następnie zostały z powrotem przyciągnięte przez dziury. Gdy elektrony ponownie łączyły się z dziurami, uwolniły energię, którą uzyskały z impulsu laserowego. Energia ta miała postać silnego dodatniego półcyklu w zakresie teraherców, przed i po którym przebiegał słaby, wydłużony półcykl ujemny.
      Uzyskaliśmy w ten sposób zadziwiającą unipolarną emisję terahercową, w którym pojedynczy dodatni półcykl był czterokrotnie wyższy niż oba cykle ujemne. Od wielu lat pracowaliśmy nad impulsami światła o coraz mniejszej liczbie oscylacji. Jednak możliwość wygenerowania terahercowych impulsów tak krótkich, że efektywnie składały się z mniej niż pojedynczego półcyklu oscylacji była czymś niewyobrażalnym, cieszy się profesor Rupert Hubner z Regensburga.
      Naukowcy planują wykorzystać tak uzyskane impulsy do manipulowania elektronami w materiałach kwantowych w temperaturze pokojowej i badania mechanizmów kwantowego przetwarzania informacji. Teraz, gdy wiemy, jak uzyskać unipolarne terahercowe impulsy, możemy spróbować nadać im jeszcze bardziej asymetryczny kształt i lepiej przystosować je do pracy z kubitami w półprzewodnikach, dodaje doktorant Qiannan Wen.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Krwawienie z naczyń krwionośnych podczas operacji neurochirurgicznych to poważny problem. Krew zasłania pole widzenia i konieczne jest jej usuwanie. Dlatego pole operacyjne, w którym nie pojawiałaby się krew czyniłoby cały zabieg bardziej precyzyjnym i bezpiecznym. Naukowcy z University of Texas w Austin i University of California, Irvine, opracowali właśnie laserową platformę do bezkrwawej resekcji tkanki mózgowej.
      Obecnie podczas zabiegów neurochirurgicznych, by zapewnić dobre pole widzenia, wykorzystuje się ultradźwiękowe aspiratory, po których stosuje się przyżeganie (elektrokauteryzację). Jako jednak, że obie metody stosowane są jedna po drugiej, wydłuża to operację. Ponadto przyżeganie może prowadzić do uszkodzenia części tkanki.
      Specjaliści z Teksasu i Kalifornii wykazali podczas eksperymentów na myszach, że ich nowy laser pozwala na bezkrwawą resekcję tkanki. Ich system składa się z urządzenia do koherencyjnej tomografii optycznej (OCT), które zapewnia obraz w mikroskopowej rozdzielczości, bazującego na iterbie lasera do koagulacji naczyń krwionośnych oraz wykorzystującego tul lasera do cięcia tkanki.
      Maksymalna moc lasera iterbowego wynosi 3000 W, a urządzenie pozwala na dobranie częstotliwości i długości trwania impulsów w zakresie od 50 mikrosekund do 200 milisekund, dzięki czemu możliwa jest skuteczna koagulacja różnych naczyń krwionośnych. Laser ten emituje światło o długości 1,07 mikrometra. Z kolei laser tulowy pracuje ze światłem o długości fali 1,94 mikrometra, a jego średnia moc podczas resekcji tkanki wynosi 15 W. Twórcy nowej platformy połączyli oba lasery w jednym biokompatybilnym włóknie, którym można precyzyjnie sterować dzięki OCT.
      Opracowanie tej platformy możliwe było dzięki postępowi w dwóch kluczowych dziedzinach. Pierwszą jest laserowa dozymetria, wymagana do koagulacji naczyń krwionośnych o różnych rozmiarach. Wcześniej duże naczynia, o średnicy 250 mikrometrów i większej, nie poddawały się laserowej koagulacji z powodu szybkiego wypływu krwi. Mój kolega Nitesh Katta położył podstawy naukowe pod metodę dozymetrii laserowej pozwalającej na koagulowanie naczyń o średnicy do 1,5 milimetra, mówi główny twórca nowej platformy, Thomas Milner.
      Drugie osiągnięcie to odpowiednia metodologia działań, która pozwala na osiągnięcie powtarzalnej i spójnej ablacji różnych typów tkanki dzięki głębiej penetrującym laserom. Jako, że laserowa ablacja jest zależna od właściwości mechanicznych tkanki, cięcia mogą być niespójne, a w niektórych przypadkach mogą skończyć się katastrofalną niestabilnością cieplną. Nasza platforma rozwiązuje oba te problemy i pozwala na powtarzalne spójne cięcie tkanki miękkiej jak i sztywnej, takiej jak tkanka chrzęstna.
      Na łamach Biomedical Optics Express twórcy nowej platformy zapewniają, że w polu operacyjnym nie pojawia się krew, jakość cięcia jest odpowiednia i obserwuje się jedynie niewielkie uszkodzenia termiczne tkanki.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...