Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Kolejny problem z Wiekim Zderzaczem Hadronów

Recommended Posts

Jak donosi The Register, Wielki Zderzacz Hadronów znowu uległ awarii. Tym razem jednak problemy nie wyglądają poważnie i nie powinny przerwać pracy LHC na dłużej.

Zaledwie przed kilkoma dniami media informowały, że LHC pobił rekord wydajności, rozpędzając cząsteczki do 1,18 TeV. Poprzedni rekord, 0,98 TeV, należał do leciwego amerykańskiego Tevatronu.

Awarię zauważyli internauci, którzy spostrzegli, że nagle zniknęła większość witryn CERN-u dotyczących Zderzacza. Obecnie witryny znowu są dostępne. Uzyskano też informacje, co się stało. Okazuje się, że zawiodła jedna z linii wysokiego napięcia doprowadzająca prąd do LHC. Spowodowało to nagłe wyłączenie się głównych komputerów w centrum operacyjnym i zatrzymanie pracy Wielkiego Zderzacza Hadronów.

Na szczęście temperatura nadprzewodzących magnesów nie zwiększyła się i pozostała na poziomie 1,9 stopnia powyżej zera absolutnego. Oznacza to, że LHC ponownie może rozpocząć prace. Gdyby temperatura magnesów wzrosła czekałby nas długotrwały proces ich ponownego schładzania. Przed jego zakończeniem LHC nie mógłby podjąć pracy.

Share this post


Link to post
Share on other sites

To się robi coraz zabawniejsze. ;) Ciekawe czy podczas pracy innych akceleratorów także dochodziło do takich rozmaitych, a czasem wręcz niesamowitych (jak ten ptaszek) usterek, czy też jest to zwyczajnie efekt medialny oparty na popularności.

Share this post


Link to post
Share on other sites

Wielki Zderzacz Hadronów, odnoszę coraz silniej wrażenie, że to kasa wywalona w błoto, a sama "maszynka" nie udowodni nic i nie pchnie nauki w żadnym nowym kierunku. Takie badania można przeprowadzać na modelach matematycznych w superkomputerach, i to w zupełności wystarczy.

Share this post


Link to post
Share on other sites

z tego, co mi wiadomo, ta maszyna miala sprawdzac rzeczy raz, ze doswiadczalnie, a nie w teorii, dwa, ze to mialy byc rzeczy, ktorych czlowiek poki co nie jest w stanie sprawdzic na modelu matematycznym w superkomputerze bez wielkiego upraszczania, co ciagneloby za soba przeklamane wyniki...

Share this post


Link to post
Share on other sites

Wielki Zderzacz Hadronów, odnoszę coraz silniej wrażenie, że to kasa wywalona w błoto, a sama "maszynka" nie udowodni nic i nie pchnie nauki w żadnym nowym kierunku. Takie badania można przeprowadzać na modelach matematycznych w superkomputerach, i to w zupełności wystarczy.

 

Ależ skąd!

Nie ma modelu tak "doskonałego", by mógł się obejść bez doświadczenia - fizycy do dziś nie są zgodni, czy bozon Higgsa istnieje i żaden model tego nie załatwi. Więcej nawet: Teoriom, które trudno zweryfikować lub obalić doświadczalnie (jak choćby teoria strun) zarzuca się, że trącą filozofią...

Share this post


Link to post
Share on other sites

Znając życie, jakiś wioskowy kombinator (bo głupek było by zdecydowanie złym słowem) który nie ma zielonego pojęcia o Bozonie Higgsa wysnuje nową prosta i w pełni zrozumiałą dla wszystkich teorię która udowodni (lub obali) jego istnienie, alebo wymyśli experyment który potwwierdzi /lub obali to fizycznie, bez Wielkich Zderzaczy Hadronów.

 

co ma byćodkryte to będzie, kwestia czy teraz czy trochępóźniej.

 

Naprawdę wielkie odkrycia są dziełem przypadku, a technologię, cywilizację i naukę mamy dzięki żmudnemu i solidnemu badaniu tych błyskotyliwych przypadków oraz dzięki umiejętności wyciągania sensowych wniosków. Tak więc nie liczył bym na wypracowanie specjalnego wynalazku przy pomocy WZH, a bozony zbadamy w całkiem innym miejscu i czasie, zupełnie przypadkowo i za ułamek tek kasy co idzie na WZH.

Share this post


Link to post
Share on other sites

Mnie zastanawia tylko jedno: jakim cudem tak wielki ośrodek jest zasilany tylko z jednego źródła?! Nawet poważne serwerownie zasila się z co najmniej dwóch źródeł, a tutaj nie zadbano o to w ogóle? Wierzyć się nie chce.

Share this post


Link to post
Share on other sites

Znając życie, jakiś wioskowy kombinator (bo głupek było by zdecydowanie złym słowem) który nie ma zielonego pojęcia o Bozonie Higgsa wysnuje nową prosta i w pełni zrozumiałą dla wszystkich teorię która udowodni (lub obali) jego istnienie, alebo wymyśli experyment który potwwierdzi /lub obali to fizycznie, bez Wielkich Zderzaczy Hadronów.

 

co ma byćodkryte to będzie, kwestia czy teraz czy trochępóźniej.

 

Naprawdę wielkie odkrycia są dziełem przypadku, a technologię, cywilizację i naukę mamy dzięki żmudnemu i solidnemu badaniu tych błyskotyliwych przypadków oraz dzięki umiejętności wyciągania sensowych wniosków. Tak więc nie liczył bym na wypracowanie specjalnego wynalazku przy pomocy WZH, a bozony zbadamy w całkiem innym miejscu i czasie, zupełnie przypadkowo i za ułamek tek kasy co idzie na WZH.

 

Jednak się nie mogę z tobą zgodzić, WZH już wniósł sporo do nauki, sama jego budowa i problemy z nią związane dały nam sporo doświadczenia, coś co jest nie przeliczalne.

A co do samego badania, problem polega na tym, że żeby zaobserwować pewne przemiany trzeba bardzo dużych ilości energii, a tego się nie da uzyskać w garażu. A fenomenologiczne budowanie modeli opisujących wszechświat kiedyś się kończy, potrzebujemy trochę mechanistycznego opisu rzeczywistości.

A jak na obiekt o tej wielkości i takim stopniu skomplikowania i tak jest jakoś mało kapryśny. O wiele prostsze urządzenia badawcze potrafiły mieć większe problemy.

Żadne superkomputery tutaj nie pomogą, bo nie ma danych którymi można by im dać do obróbki.

A WHZ już się zaczyna zwracać, mimo że nawet go w pełni nie odpalili więc nie ma co płakać nad kosztami.

Z jednym muszę się zgodzić, że wiele wielkich odkryć zawdzięczamy przypadkowym badaniom podczas badań na inny temat. A więc pytanie jest, oprócz tego bozonu, to co tam jeszcze możemy znaleźć?

Share this post


Link to post
Share on other sites

Mnie zastanawia tylko jedno: jakim cudem tak wielki ośrodek jest zasilany tylko z jednego źródła?! Nawet poważne serwerownie zasila się z co najmniej dwóch źródeł, a tutaj nie zadbano o to w ogóle? Wierzyć się nie chce.

 

W rzeczy samej. Nie wspominając już nawet o automatycznych agregatach prądotwórczych.

Share this post


Link to post
Share on other sites

Uzyskano też informacje, co się stało. Okazuje się, że zawiodła jedna z linii wysokiego napięcia doprowadzająca prąd do LHC. Spowodowało to nagłe wyłączenie się głównych komputerów w centrum operacyjnym i zatrzymanie pracy Wielkiego Zderzacza Hadronów.

 

 

Z tego wynika, że linii jest więcej, a agregaty prądotwórcze najprawdopodobniej nie zdążyły "zaskoczyć" zanim się zresetowały komputery, a i możliwe że była to wewnętrzna linia zasilania np. za agregatem czy linią awaryjną.

Share this post


Link to post
Share on other sites

No dobra, ale jakim cudem w takim razie padły komputery przy awarii zaledwie jednej z linii? Elektrykiem nie jestem, ale na tym chyba polega dublowanie linii, żeby zapewnić ciągłe działanie urządzenia pomimo uszkodzenia jednego ze źródeł zasilania.

Share this post


Link to post
Share on other sites

No dobra, ale jakim cudem w takim razie padły komputery przy awarii zaledwie jednej z linii? Elektrykiem nie jestem, ale na tym chyba polega dublowanie linii, żeby zapewnić ciągłe działanie urządzenia pomimo uszkodzenia jednego ze źródeł zasilania.

 

Jakbyś zbudował urządzenie na 28 km długości i silnie medialnym znaczeniu, to też byś kłamał na temat awarii. Dajmy sobie spokój - kawałek chleba wpadło do kompleksu podziemnego przez zadaszony wywietrznik? KABEL się zepsuł?

Share this post


Link to post
Share on other sites

Dajmy sobie spokój - kawałek chleba wpadło do kompleksu podziemnego przez zadaszony wywietrznik? KABEL się zepsuł?

Tak ironicznie - głupio się przyznać, że pracownik nogą wyrwał kabel z gniazdka... Pewnie whizzkidowi chodziło o zwalanie winy człowieka na czynniki zewnętrzne. Odnośnie zasilania serwerów - właśnie od tego są systemy UPS, aby przeczekać czas "od wyłączenia zasilania do startu agregatów".

Wątpię, aby istniał system UPS, który był by w stanie podtrzymać działanie samego zderzacza.

Share this post


Link to post
Share on other sites

Najsłabsze ogniwo to zazwyczaj jest człowiek. Kiedyś na obiekcie założyłem UPS do komputera nadzorującego produkcję, a jak brakło prądu operator wpadł na pomysł zrobienia sobie herbaty i podłączył do UPSa czajnik elektryczny ^^. Oficjalnie trzeba było napisać, że bezpiecznik był za mały, aby podtrzymać komputer.  ;)

Share this post


Link to post
Share on other sites

Po braku zasilania komputerów w najważniejszym pomieszczeniu akceleratora oraz po padzie serwerów www (choć tutaj możliwe, że awaria mogła być rozleglejsza i zabrakło prądu też jakimś okolicznym routerom, poza tym serwery www to sprawa drugorzędna) mniemam, że jednak UPS-u nie zadziałały... Ciekawe co w takim razie z systemami bezpieczeństwa. Kłamstwo byłoby wielką nieodpowiedzialnością, jeśli faktycznie był to czynnik ludzki.

Swoją drogą, to LHC miał chyba nie pracować w zimie, co jak wyczytałem w poprzednich artykułach miało właśnie zapobiec to nadmiernemu obciążeniu sieci energetycznej.

Share this post


Link to post
Share on other sites

W sumie to rozumiem, że zimą zapotrzebowanie na energię w mieście rośnie, ale za to temperatura jest niższa i nie trzeba chyba tyle chłodzić sam LHC. Z drugiej strony to same magnesy chłodzone są chyba chemicznie a większość energii wykorzystana jest na moc obliczeniową i inne urządzenia nie koniecznie odpowiedzialne za chłodzenie.

Share this post


Link to post
Share on other sites

Raczej większość mocy idzie właśnie na pracę tych magnesów (po to są chłodzone, by podczas normalnej pracy nie wyparowały) i na detektory.

Share this post


Link to post
Share on other sites

cała ta historia z LHC wygląda jaby żywcem była napisana przez szanownego Stasia Lema, kto czytał Dzienniki Gwiazdowe ten wie o co chodzi ;)

Share this post


Link to post
Share on other sites

dexx, zimą temperatura jest niższa, ale tylko do kilku metrów pod ziemią... Także nijak to nie wpływa na temperaturę magnesów LHC, który jest pod tą ziemią znacznie głębiej... A tam temperatura jest już stała niezależnie od pory roku.

 

Za to energii faktycznie, zimą zużywa się więcej - bo ludzie ogrzewają oraz dłużej mają zapalone światła.. Stąd faktycznie zimą LHC nie powinien być używany..

Share this post


Link to post
Share on other sites

Za to energii faktycznie, zimą zużywa się więcej - bo ludzie ogrzewają oraz dłużej mają zapalone światła.. Stąd faktycznie zimą LHC nie powinien być używany..

 

A ja się z tym stwierdzeniem NIE ZGODZĘ, kiedy ostatni raz ogrzewałeś dom PRĄDEM ELEKTRYCZNYM? No właśnie... W chameryce sieć energetyczna nowego jorku siadła nie w zimie, ale w lecie, gdy wszyscy dawali czadu klimatyzacjami... To samo z ciepłą wodą - w lecie osoby palące w piecu wolą włączyć elektryczny bojler, w zimie ta konieczność odpada.

 

Chętnie poznam twoje argumenty Lucky, dlaczego właśnie w zimie jest większe zużycie energii w porównaniu z latem.

Share this post


Link to post
Share on other sites

A ja nie zgodzę się z jeszcze jednego powodu: nie po to wydawano kilka miliardów zielonych, żeby teraz korzystać z urządzenia na pół gwizdka.

Share this post


Link to post
Share on other sites

dexx, zimą temperatura jest niższa, ale tylko do kilku metrów pod ziemią... Także nijak to nie wpływa na temperaturę magnesów LHC, który jest pod tą ziemią znacznie głębiej... A tam temperatura jest już stała niezależnie od pory roku.

 

To chyba zależy od przepływu powietrza, wiec albo tego nie uwzględnili w projekcie, albo było by to nie skuteczne, co nie zmienia faktu że możliwe. Co do samego zużycia energii zimą to tak jak napisał Czesiu więcej energii w chwili obecnej zużywaj klimatyzacje na chodzenie niż na grzanie, bo zamiana energii elektrycznej na grzewczą jest prawie bezstratna.

Mam wrażenie, że założenia te podrostu zostały przyjęte 20 lat temu jak powstawał projekt, wtedy rzadko gdzie stosowało się klimę.

Share this post


Link to post
Share on other sites

Ja mieszkam z dziewczyną w kamienicy, gdzie nie ma gazu ani ciepłej wody - jest tylko prąd. Podobnie u mnie w nowym miejscu zamieszkania, w domku. Zatem zarówno ogrzewanie musi być na prąd lub piecem, jak i ciepła woda z boilera elektrycznego. Nie wiem jak to wygląda na skalę masową, może faktycznie klima latem ciągnie więcej prądu (prędko się nie dowiem bo po prostu mnie na to nie stać), ale podejrzewam że nie jestem jedyną osobą która musi dogrzewać się zużywając prąd.

 

@dexx - o jakim przepływie powietrza mówisz? Powietrze ledwo przechodzi może przez 10 centymetrów wierzchniej warstwy gleby. A jeśli myślałbyś o systemach wentylacyjnych - nie ma takiej opcji - nawet powietrze znad bieguna było by o wiele za gorące, i podgrzewało by te magnesy zamiast je ochładzać. Było wyraźnie napisane że pracują w temperaturze -272*C (czyli 1,x K) - także czy powietrze ma -20*C czy 20*C, to wiele to nie zmienia - i tak nie nadaje się do chłodzenia tych magnesów. Poza tym chłodzenie cieczą, zwłaszcza rozpuszczoną substancją krystaliczną (np różne sole, sód) jest znacznie skuteczniejsze, ponieważ taka ciecz ma o wiele większą pojemność cieplną niż powietrze.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Część fizyków uważa, że w Wielkim Zderzaczu Hadronów (LHC) powstają długo żyjące cząstki, które dotychczas nie zostały wykryte. W przyszłym tygodniu w CERN odbędzie się spotkanie, na którym zostaną omówione metody zarejestrowania tych cząstek.
      W 2012 roku LHC zarejestrował obecność bozonu Higgsa, ostatniej nieuchwyconej wcześniej cząstki przewidywanej przez Model Standardowy. Jednak od tamtej pory nie znaleziono niczego nowego czy niespodziewanego. Niczego, co wykracałowy poza Model Standardowy. Nie odkryliśmy nowej fizyki, nie potwierdziliśmy założeń, z jakimi rozpoczynaliśmy prace. Może należy zmienić te założenia, mówi Juliette Alimena z Ohio State University, która pracuje przy CMS (Compact Muon Solenoid), jednym z dwóch głównych detektorów cząstek w LHC.
      Pomimo tego, że w LHC zainwestowano miliardy dolarów, to urządzenia pracuje tak, jak pracowały akceleratory przed kilkudziesięcioma laty. Fizycy od dekad zderzają ze sobą protony lub elektrony, zwiększają ich energie, by w procesie tym uzyskać nowe ciężkie cząstki i obserwować, jak w ciągu biliardowych części sekundy rozpadają się na lżejsze, znane nam cząstki. Te lżejsze są wykrywane i na podstawie ich charakterystyk wiemy, z jakich cięższych cząstek pochodzą. Tak właśnie działa i CMS i drugi z głównych wykrywaczy LHC – ATLAS (A Toroidal LHC Apparatus).
      Jednak długo żyjące ciężkie cząstki mogą umykać uwadze detektorów. Przypuszczenie takie nie jest nowe. Niemal wszystkie teorie wykraczające poza standardowe modele fizyczne przewidują istnienie długo żyjących cząstek, mówi Giovanna Cottin, fizyk-teoretyk z Narodowego Uniwersytetu Tajwańskiego. Na przykład teoria supersymetrii mówi, że każda z cząstek Modelu Standardowego ma cięższego partnera. Istnieją teorie mówiące też o istnieniu np. ciemnych fotonów i innych „ciemnych” cząstek. Dotychczas niczego takiego nie udało się zaobserwować.
      LHC nie został zaprojektowany do poszukiwania cząstek wykraczających poza Model Standardowy. CMS i ATLAS skonstruowano tak, by wykrywały cząstki ulegające natychmiastowemu rozpadowi. Każdy z nich zawiera warstwowo ułożone podsystemy rejestrujące produkty rozpadu cząstek. Wszystkie one ułożone są wokół centralnego punktu, w którym dochodzi do zderzenia. Jednak problem w tym, że jeśli w wyniku zderzenia powstanie cząstka, która będzie żyła tak długo, iż przed rozpadem zdoła przebyć chociaż kilka milimetrów, to pozostawi ona po sobie nieoczywiste sygnały, smugi, zaburzone trasy ruchu.
      Oprogramowanie służące do analiz wyników z detektorów odrzuca takie dane, traktując je jak zakłócenia, artefakty. To problem, bo my tak zaprojektowaliśmy eksperymenty, a programiści tak napisali oprogramowanie, że po prostu odfiltrowuje ono takie rzeczy, mówi Tova Holmes z University of Chicago, która w wykrywaczu ATLAS poszukuje takich zaburzeń.
      Holmes i jej koledzy wiedzą, że muszą zmienić oprogramowanie. Jednak to nie wystarczy. W pierwszym rzędzie należy upewnić się, że wykrywacze w ogóle będą rejestrowały takie dane. Jako, że w w LHC w ciągu sekundy dochodzi do 400 milionów zderzeń protonów, w samym sprzęcie zastosowano mechanizmy chroniące przed przeładowaniem danymi. Już na poziomie sprzętowym dochodzi do odsiewania zderzeń i podejmowania decyzji, które są interesujące, a które należy odrzucić. W ten sposób do dalszej analizy kierowane są dane z 1 na 2000 zderzeń. To zaś oznacza, że możemy mieć do czynienia z utratą olbrzymiej ilości interesujących danych. Dlatego też część naukowców chciałaby przyjrzeć się kalorymetrowi CMS, do którego mogą docierać długo żyjące ciężkie cząstki. Chcieliby zastosować mechanizm, który od czasu do czasu będzie odczytywał pełne wyniki wszystkich zderzeń.
      Szukanie ciężkich cząstek nigdy nie było łatwe, chociażby dlatego, że naukowcy mieli różne pomysły na to, jak je zarejestrować. To zawsze było tak, że pracowały nad tym pojedyncze osoby. A każdy z nich sam dla siebie stanowił grupę wsparcia, przyznaje James Beacham z Ohio State University. Teraz zainteresowani połączyli siły i w marcu ukazało się 301-stronicowe opracowanie autorstwa 182 naukowców, w którym zaproponowano metody optymalizacji poszukiwań ciężkich cząstek.
      Niektórzy z nich proponują, by w najbliższej kampanii, planowanej na lata 2012–2023 częściej zbierano kompletne dane ze wszystkich zderzeń. Niewykluczone, że to ostatnia szansa na zastosowanie tej techniki, gdyż później intensywność generowanych wiązek zostanie zwiększona i zbieranie wszystkich danych stanie się trudniejsze.
      Inni chcą zbudowania kilku nowych detektorów wyspecjalizowanych w poszukiwaniu ciężkich cząstek. Jonathan Feng, fizyk-teoretyk z Uniwersytetu Kalifornijskiego w Irvine, wraz z kolegami uzyskali nawet od CERN zgodę na zbudowanie Forward Search Experiment (FASER). To niewielki detektor, który ma zostać umieszczony w tunelu serwisowym w odległości 480 metrów w dół wiązki od ATLAS-a. Naukowcy zebrali już nawet 2 miliony dolarów od prywatnych sponsorów i dostali potrzebne podzespoły. FASER ma poszukiwać lekkich cząstek, takich jak ciemne fotony, które mogą być wyrzucane z ATLAS-a, przenikać przez skały i rozpadać się w pary elektron-pozyton.
      Jeszcze inna propozycja zakłada wykorzystanie pustej komory znajdującej się za niewielkim wykrywaczem LHCb. Umieszczony tam Compact Detector for Exotics at LHCb miałby poszukiwać długo żyjących cząstek, szczególnie tych pochodzących z rozpadu bozonu Higgsa.
      Jednak najbardziej ambitną propozycją jest budowa detektora o nazwie MATHULSLA. Miałby to być wielki pusty budynek wzniesiony na powierzchni nad detektorem CMS. W jego dachu miałyby zostać umieszczone czujniki, które rejestrowałyby dżety pochodzące z rozpadu długo żyjących cząstek powstających 70 metrów poniżej, wyjaśnia David Curtin z Uniwersytetu w Toronto, jeden z pomysłodawców wykrywacza. Uczony jest optymistą i uważa, że detektor nie powinien kosztować więcej niż 100 milionów euro.
      Po nocach śni nam się koszmar, w którym Jan Teoretyk powie nam za 20 lat, że niczego nie odkryliśmy bo nie rejestrowaliśmy odpowiednich wydarzeń i nie prowadziliśmy właściwych badań, mówi Beacham, który pracuje przy wykrywaczu ATLAS.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed czterema miesiącami zamknięto Tevatron, niezwykle zasłużony dla nauki akcelerator cząstek z amerykańskiego Fermilab. Jednak prowadzone w nim w przeszłości prace ciągle umożliwiają dokonywanie kolejnych odkryć.
      Akcelerator dostarczył olbrzymiej ilości danych, których analiza i interpretacja ciągle nie zostały zakończone.
      Podczas konferencji we Włoszech poinformowano, że dane z Tevatronu wskazują, iż podczas zderzeń protonów z antyprotonami pojawiały się liczne sygnały, których źródłem może być bozon Higgsa o masie pomiędzy 117-131 GeV. Statystyczne prawdopodobieństwo wynosi 2,6 sigma, co oznacza, że istnieje 0,5% szansy, iż sygnały są przypadkowe. Jest więc ono zbyt niskie, by jednoznacznie rozstrzygnąć o istnieniu bozonu w tym przedziale, jednak znaczenie odkrycia polega na tym, iż potwierdza ono obserwacje dokonane w Wielkim Zderzaczu Hadronów. Wynika z nich, że Boska Cząstka, o ile istnieje, może mieć masę około 125 gigaelektronowoltów.
      Dane z Tevatronu są tym cenniejsze, iż akcelerator pracował w inny sposób niż LHC i obserwował inne rodzaje rozpadu cząstek, zatem można stwierdzić, że podobne wyniki uzyskano różnymi metodami. Ponadto LHC uzyskało swoje wyniki z 5 odwrotnych femtobarnów, ale przy energii 7 teraelektronowoltów. Ilość danych z Tevatrona to 10 odwrotnych femtobarnów uzyskanych przy energii 2 TeV.
      W bieżącym roku, jak informowaliśmy, LHC będzie pracował z energią 8 TeV. To powinno pozwolić na uzyskanie danych o statystycznym prawdopodobieństwie wynoszącym 5 sigma. To wystarczy, by ogłosić odkrycie bozonu Higgsa. O ile, oczywiście, on istnieje.
    • By KopalniaWiedzy.pl
      Podczas International Solid-State Circuits Conference uczeni z Uniwersytetu Stanforda zaprezentowali niewielki implant, zdolny do kontrolowania swej trasy w układzie krwionośnym człowieka. Ada Poon i jej koledzy stworzyli urządzenie zasilane za pomocą fal radiowych. Implant można więc wprowadzić do organizmu człowieka, kontrolować jego trasę i nie obawiać się, że np. wyczerpią się baterie.
      Takie urządzenia mogą zrewolucjonizować technologię medyczną. Ich zastosowanie będzie bardzo szerokie - od diagnostyki do minimalnie inwazyjnej chirurgii - mówi Poon. Jej implant będzie mógł wędrować przez układ krwionośny, dostarczać leki do wyznaczonych miejsc, przeprowadzać analizy, a być może nawet rozbijać zakrzepy czy usuwać płytki miażdżycowe.
      Naukowcy od kilkudziesięciu lat starają się skonstruować podobne urządzenie. Wraz z postępem technologicznym coraz większym problemem było zasilanie takich urządzeń. Sam implant można było zmniejszać, jednak zasilające go baterie pozostawały dość duże - stanowiąc często połowę implantu - i nie pozwalały mu na zbyt długą pracę. Potrafiliśmy znacząco zminiaturyzować części elektroniczne i mechaniczne, jednak miniaturyzacja źródła energii za tym nie nadążała. To z kolei ograniczało zastosowanie implantów i narażało chorego na ryzyko korozji baterii, ich awarii, nie mówiąc już o ryzyku związanym z ich wymianą - mówi profesor Teresa Meng, która również brała udział w tworzeniu implantu.
      Urządzenie Poon wykorzystuje zewnętrzny nadajnik oraz odbiornik znajdujący się w implancie. Wysyłane przez nadajnik fale radiowe indukują w cewce odbiornika prąd. W ten sposób urządzenie jest bezprzewodowo zasilane.
      Opis brzmi bardzo prosto, jednak naukowcy musieli pokonać poważne przeszkody. Uczeni od 50 lat myśleli o zasilaniu w ten sposób implantów, jednak przegrywali z... matematyką. Wszelkie wyliczenia pokazywały, że fale radiowe o wysokiej częstotliwości natychmiast rozpraszają się w tkankach, zanikając wykładniczo w miarę wnikania do organizmu. Fale o niskiej częstotliwości dobrze przenikają do tkanek, jednak wymagałyby zastosowania anteny o średnicy kilku centymetrów, a tak dużego urządzenia nie można by wprowadzić do układu krwionośnego. Skoro matematyka stwierdzała, że jest to niemożliwe, nikt nie próbował sprzeciwić się jej regułom.
      Poon postanowiła jednak przyjrzeć się wykorzystywanym modelom matematycznym i odkryła, że większość uczonych podchodziła do problemu niewłaściwie. Zakładali bowiem, że ludzkie mięśnie, tłuszcz i kości są dobrymi przewodnikami, a zatem należy w modelach wykorzystać równania Maxwella. Uczona ze Stanforda inaczej potraktowała ludzką tkankę. Uznała ją za dielektryk, czyli niejako rodzaj izolatora. To oznacza, że nasze ciała słabo przewodzą prąd. Jednak nie przeszkadza to zbytnio falom radiowym. Poon odkryła też, że tkanka jest dielektrykiem, który charakteryzują niewielkie straty, co oznacza, że dochodzi do małych strat sygnału w miarę zagłębiania się w tkankę. Uczona wykorzystała różne modele matematyczne do zweryfikowania swoich spostrzeżeń i odkryła, że fale radiowe wnikają w organizm znacznie głębiej niż sądzono.
      Gdy użyliśmy prostego modelu tkanki do przeliczenia tych wartości dla wysokich częstotliwości odkryliśmy, że optymalna częstotliwość potrzebna do bezprzewodowego zasilania wynosi około 1 GHz. Jest więc około 100-krotnie wyższa niż wcześniej sądzono - mówi Poon. To oznacza też, że antena odbiorcza w implancie może być 100-krotnie mniejsza. Okazało się, że jej powierzchnia może wynosić zaledwie 2 milimetry kwadratowe.
      Uczona stworzyła implanty o dwóch różnych rodzajach napędu. Jeden przepuszcza prąd elektryczny przez płyn, w którym implant się porusza, tworząc siły popychające implant naprzód. Ten typ implantu może przemieszczać się z prędkością ponad pół centymetra na sekundę. Drugi typ napędu polega na ciągłym przełączaniu kierunku ruchu prądu, przez co implant przesuwa się podobnie do napędzanej wiosłami łódki.
      Jest jeszcze sporo do udoskonalenia i czeka nas wiele pracy zanim takie urządzenia będzie można stosować w medycynie - mówi Poon.
    • By KopalniaWiedzy.pl
      Podczas International Solid-State Circuits Conference uczeni z Uniwersytetu Stanforda zaprezentowali niewielki implant, zdolny do kontrolowania swej trasy w układzie krwionośnym człowieka. Ada Poon i jej koledzy stworzyli urządzenie zasilane za pomocą fal radiowych. Implant można więc wprowadzić do organizmu człowieka, kontrolować jego trasę i nie obawiać się, że np. wyczerpią się baterie.
      Takie urządzenia mogą zrewolucjonizować technologię medyczną. Ich zastosowanie będzie bardzo szerokie - od diagnostyki do minimalnie inwazyjnej chirurgii - mówi Poon. Jej implant będzie mógł wędrować przez układ krwionośny, dostarczać leki do wyznaczonych miejsc, przeprowadzać analizy, a być może nawet rozbijać zakrzepy czy usuwać płytki miażdżycowe.
      Naukowcy od kilkudziesięciu lat starają się skonstruować podobne urządzenie. Wraz z postępem technologicznym coraz większym problemem było zasilanie takich urządzeń. Sam implant można było zmniejszać, jednak zasilające go baterie pozostawały dość duże - stanowiąc często połowę implantu - i nie pozwalały mu na zbyt długą pracę. Potrafiliśmy znacząco zminiaturyzować części elektroniczne i mechaniczne, jednak miniaturyzacja źródła energii za tym nie nadążała. To z kolei ograniczało zastosowanie implantów i narażało chorego na ryzyko korozji baterii, ich awarii, nie mówiąc już o ryzyku związanym z ich wymianą - mówi profesor Teresa Meng, która również brała udział w tworzeniu implantu.
      Urządzenie Poon wykorzystuje zewnętrzny nadajnik oraz odbiornik znajdujący się w implancie. Wysyłane przez nadajnik fale radiowe indukują w cewce odbiornika prąd. W ten sposób urządzenie jest bezprzewodowo zasilane.
      Opis brzmi bardzo prosto, jednak naukowcy musieli pokonać poważne przeszkody. Uczeni od 50 lat myśleli o zasilaniu w ten sposób implantów, jednak przegrywali z... matematyką. Wszelkie wyliczenia pokazywały, że fale radiowe o wysokiej częstotliwości natychmiast rozpraszają się w tkankach, zanikając wykładniczo w miarę wnikania do organizmu. Fale o niskiej częstotliwości dobrze przenikają do tkanek, jednak wymagałyby zastosowania anteny o średnicy kilku centymetrów, a tak dużego urządzenia nie można by wprowadzić do układu krwionośnego. Skoro matematyka stwierdzała, że jest to niemożliwe, nikt nie próbował sprzeciwić się jej regułom.
      !RCOL
      Poon postanowiła jednak przyjrzeć się wykorzystywanym modelom matematycznym i odkryła, że większość uczonych podchodziła do problemu niewłaściwie. Zakładali bowiem, że ludzkie mięśnie, tłuszcz i kości są dobrymi przewodnikami, a zatem należy w modelach wykorzystać równania Maxwella. Uczona ze Stanforda inaczej potraktowała ludzką tkankę. Uznała ją za dielektryk, czyli niejako rodzaj izolatora. To oznacza, że nasze ciała słabo przewodzą prąd. Jednak nie przeszkadza to zbytnio falom radiowym. Poon odkryła też, że tkanka jest dielektrykiem, który charakteryzują niewielkie straty, co oznacza, że dochodzi do małych strat sygnału w miarę zagłębiania się w tkankę. Uczona wykorzystała różne modele matematyczne do zweryfikowania swoich spostrzeżeń i odkryła, że fale radiowe wnikają w organizm znacznie głębiej niż sądzono.
      Gdy użyliśmy prostego modelu tkanki do przeliczenia tych wartości dla wysokich częstotliwości odkryliśmy, że optymalna częstotliwość potrzebna do bezprzewodowego zasilania wynosi około 1 GHz. Jest więc około 100-krotnie wyższa niż wcześniej sądzono - mówi Poon. To oznacza też, że antena odbiorcza w implancie może być 100-krotnie mniejsza. Okazało się, że jej powierzchnia może wynosić zaledwie 2 milimetry kwadratowe.
      Uczona stworzyła implanty o dwóch różnych rodzajach napędu. Jeden przepuszcza prąd elektryczny przez płyn, w którym implant się porusza, tworząc siły popychające implant naprzód. Ten typ implantu może przemieszczać się z prędkością ponad pół centymetra na sekundę. Drugi typ napędu polega na ciągłym przełączaniu kierunku ruchu prądu, przez co implant przesuwa się podobnie do napędzanej wiosłami łódki.
      Jest jeszcze sporo do udoskonalenia i czeka nas wiele pracy zanim takie urządzenia będzie można stosować w medycynie - mówi Poon.
       
×
×
  • Create New...