Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Naukowcy z IBM-a wykonali fotografie pojedynczej molekuły w niespotykanej dotychczas rozdzielczości. Udało się to dzięki wykorzystaniu techniki bezkontaktowej mikroskopii sił atomowych.

Uczeni użyli mikroskopu pracującego w próżni w temperaturze -268 stopni Celsjusza. Wykonali zdjęcia pojedynczej molekuły pentacenu. Po raz pierwszy w historii udało się zobaczyć pojedyncze atomy w molekule. Dotychczas były one zasłaniane przez chmurę elektronów.

Molekuła pentacenu składa się z 22 atomów węgla i 14 atomów wodoru. Jej długość wynosi zaledwie 1,4 nanometra, a odległości pomiędzy sąsiednimi atomami węgla to 0,14 nm. To milion razy mniej niż wynosi średnica ziarna piasku.

Tak dokładne obrazowanie było możliwe dzięki uzyskaniu niezwykle małej odległości pomiędzy molekułą a ostrzem mikroskopu. Zwykle w technice bezkontaktowej ostrze znajduje się w odległości 10-100 nanometrów od badanego przedmiotu. W takiej odległości urządzenie nie zarejestrowałoby jednak wystarczająco dobrego obrazu.


Dlatego też naukowcy z IBM-a postanowili zbliżyć ostrze na znacznie mniejszą odległość. Problem jednak w tym, że wskutek oddziaływania z atomami mogło ono zostać odepchnięte lub też molekuła mogła się doń przyczepić. W obu przypadkach uzyskanie odpowiedniego obrazu nie byłoby możliwe.

Specjaliści odpowiednio przygotowali ostrze, najpierw umieszczając na nim molekułę tlenku węgla. Dzięki temu, próbując różnych odległości, udało im się uzyskać najlepszy obraz w chwili, gdy ostrze znajdowało się zaledwie 0,5 nanometra nad molekułą.

Aby uzyskać pełną trójwymiarową mapę sił atomowych, mikroskop musiał być niezwykle stabilny zarówno mechanicznie jak i termicznie, co gwarantuje, że zarówno czubek ostrza jak i molekuła pozostaną niezmienione przez 20 godzin, w czasie których zbierane były dane - mówi Fabian Mohn, doktorant z IBM Research z Zurichu.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe, jaki zastosowali system stabilizacji drgań. Przecież przy pracy w takiej skali wystarczy, że ktoś przejedzie ciężarówką po szosie pod budynkiem i 20 godzin pracy idzie na marne :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ciekawe, jaki zastosowali system stabilizacji drgań. Przecież przy pracy w takiej skali wystarczy, że ktoś przejedzie ciężarówką po szosie pod budynkiem i 20 godzin pracy idzie na marne :P

Pewnie badanie przeprowadzono w bunkrze przeciwatomowym :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Istnieje też być może inne wytłumaczenie. Tak jak w świecie nano grawitacja przestaje mieć znaczenie, może tak samo przy tych niewielkich odległościach drgania makro nie mają znaczenia - możliwe że po prostu mikroskop drgałby równo z molekułą, czyli względem siebie byłyby ciągle w tym samym położeniu :P A to że dokonywałyby przesunięć względem drzwi od laboratorium albo blatu stołu to już pewnie nie ma znaczenia :D

 

Jak myślicie? :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie jestem pewny. O ile dobrze znam zasadę działania AFM, to dźwigienka "odczytująca" siły atomowe jest dość długa i mierzy się ją raczej w mikrometrach. A w takiej skali drgania są już istotne, o czym opowiadali mi np. koledzy z PWr zajmujący się nanotechnologiami. A chłopaki tylko wściekali się, bo musieli uzyskać dokładność na poziomie kilku mikrometrów, ale mieli pod budynkiem ulicę, po której jeździły autobusy ;D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przy tej odległości to mogły im przeszkadzać tąpnięcia kawałka kopali po drugiej stronie globu... w końcu sejsmografy potrafią odnotować takie drgania, więc pewnie i przy tych badaniach był z tym problem... ciekawe jak sobie z tym poradzili

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Być może wykonano po prostu serię pomiarów (stąd b. długi czas eksperymentu), a następnie wyniki poszczególnych obserwacji złożono w jedną całość.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co to ma do rzeczy? W próżni nie działają prawa fizyki? Przecież cząsteczki pentacenu leżały na jakimś podłożu, więc gdyby podłoże się poruszyło, same cząsteczki też by musiały.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakby drgało to by im się nigdy nie udało, próżnia umożliwia stworzenie całkowicie oddzielnego środowiska badawczego, dlatego w niej przeprowadza się tak skomplikowane doświadczenia. Dopuki ściany komory nie zostaną przebite lub uszkodzone, można bezpiecznie kontynuować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Jakby drgało to by im się nigdy nie udało

No i właśnie o tym samym mówię :-) Ale z tym sie już nie zgodzę:

próżnia umożliwia stworzenie całkowicie oddzielnego środowiska badawczego

To prawda, ale tylko przy założeniu, że cząsteczki wiszą w tej próżni. A one leżą na jakimś podłożu (nawet jeśli nad nim "nie ma nic", czyli jest próżnia), które jednak jest przytwierdzone do reszty maszyny, a ta z kolei stoi na ziemi. W ten sposób drgania przenoszą się na cząsteczkę, bo leży ona na materialnym podłożu, mimo iż nad nią samą "znajduje się" próżnia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kurcze, ale riposta. Budują to pewnie z materiałów które pochłaniają wszystkie drgania, wielowarstwowe. Widać na załączonym filmiku xD Czy to bęndzie konsensus ?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jasne, że będzie :P Tylko właśnie na tym polega cała zagadka, jak oni to wykombinowali :D Bo mnie na serio to ciekawi - przecież precyzja pomiaru musi być niesamowita. Ale ok, kończmy już :D Pozdro i witam na forum

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miłej nocki życze, jak się dowiesz coś dokładniej to daj znać. Trzeba rozwiązać tą intrygę :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po najmniejszej linii oporu - w Wiki jest opis niwelacji drgań dla STM:

 

Jednym z największych problemów urządzeń STM i AFM jest czułość na drgania zewnętrzne. Drgania te mają amplitudę rzędu μm, czyli są co najmniej 1000 razy większe niż odległość sondy od powierzchni próbki. Aby nie dochodziło do niekontrolowanych zderzeń sondy z powierzchnią próbki potrzebne są dodatkowe systemy tłumiące drgania. Początkowo był to duży problem dla konstruktorów tych urządzeń, lecz istniejące obecnie systemy antywibracyjne pozwalają działać tym urządzeniom nawet na wyższych piętrach budynków. Źródłami drgań są: ruch samochodowy, kroki czy nawet hałas. Twórcy pierwszego skaningowego mikroskopu tunelowego do wytłumienia drgań wykorzystali zjawisko unoszenia się nadprzewodnika w polu magnetycznym – umieścili swój mikroskop na nadprzewodzącej czaszy ołowianej wypychanej na zewnątrz z niejednorodnego pola magnetycznego.

 

I z angielskiej:

 

Due to the extreme sensitivity of tunnel current to height, proper vibration isolation is imperative for obtaining usable results. In the first STM by Binnig and Rohrer, magnetic levitation was used to keep the STM free from vibrations; now mechanical spring or gas spring systems are often used[4]. Additionally, mechanisms for reducing eddy currents are implemented.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tylko właśnie na tym polega cała zagadka, jak oni to wykombinowali :P Bo mnie na serio to ciekawi - przecież precyzja pomiaru musi być niesamowita.

Ja kiedyś tak kombinowałem, że można by zastosować pływaki, tzn. że na stole stoi jakiś stabilizowany pojemnik w nim woda,a na wodzie pływa drugi taki pojemnik z wodą, a w nim pływa sprzęt. Wiadomo, że woda też przenosi drgania, ale jednak w mniejszym stopniu, zwłaszcza jak w pierwszym pojemniku zastosuje się taki wybieg jak w skokach do wody, uwalnia się w wodzie gaz i bąbelki stabilizuja lustro wody. Wtedy na taki zestaw mógłby odizolować w miarę te drgania... chyba :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

przepraszam, ale skończył mi się edit.

... a może można by pójść w zupełnie inna stronę? Zamiast starać się odizolować od tych niepożądanych drgań, może można by je stłumić? Mam na myśli takie duże przyłożenie siły w jednym kierunku, że niewielkie drgania byłyby pomijalnie małe.

Wyobraźmy sobie wirówkę, taką dużą w jakich bada się np. wytrzymałość pilotów na przeciążenia (tylko wykonanej z dużą precyzją). Tam umieszczamy sprzęt i próbkę np. na przedłużeniu promienia, wtedy takie ostrze jest przyciskane przez ogromna siłę odśrodkową w kierunku próbki, co powinno zapewnić stabilność (mała składowa wektora siły od przypadkowych drgań). Oczywiście wcześniej trzeba by puścić parę przebiegów na sucho, żeby oszacować/zmierzyć wpływ niedokładności wykonania samej wirówki.

Takie tam znowu przemyślenia :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ciężko jest mi wyobrazić sobie wirówkę, w której dźwigienkę odczytującą siły atomowej utrzymasz stabilnie na wysokości 0,5 nm od próbki :P chyba już jednak łatwiej zrobić poduszkę gazową albo cieczową :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ciężko jest mi wyobrazić sobie wirówkę, w której dźwigienkę odczytującą siły atomowej utrzymasz stabilnie na wysokości 0,5 nm od próbki :D chyba już jednak łatwiej zrobić poduszkę gazową albo cieczową :D

no ciężko, ale zakładając, że przeciążenie jest stałe to może udało by się coś takiego zrobić.

Co do poduszki, a może magnetyczną ? :P

Dochodzę do wniosku, że najlepiej jednak byłoby zamontować to w kosmosie, byłoby chyba dokładniej...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mi początkowo przez myśl przechodził zestaw przynajmniej trzech żyroskopów (coś jak w Hubble), ale zastanawiam się czy nie powodowałoby to pewnych wibracji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Co do poduszki, a może magnetyczną ? :P

Obawiam się, że jakikolwiek (elektro)magnes generowałby spore zakłócenia przy pomiarze :-\

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To może po prostu zastosować starą sprawdzoną metodę - przykleić taśmą klejącą  :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Internet pełen jest zdjęć jedzenia. Widzimy je i w mediach społecznościowych, i na witrynach WWW, i na reklamach. Wiele z nich prezentowanych jest po to, by wywołać w nas chęć zjedzenia konkretnej rzeczy czy dania. Widok żywności ma spowodować, że staniemy się głodni. Jednak badania przeprowadzone przez naukowców z Aarhus University pokazują, że prezentacja zdjęć z jedzeniem może mieć na nas przeciwny wpływ. Szczególnie, jeśli wielokrotnie widzimy tę samą potrawę.
      Duńscy uczeni dowodzą, że gdy widzimy to samo zdjęcie pożywienia ponad 30 razy, czujemy się bardziej najedzeni, niż zanim zobaczyliśmy fotografię po raz pierwszy. Ponadto uczestnicy badań, którym wielokrotnie pokazywaliśmy to samo zdjęcie i pytaliśmy ich, jak dużo danego produktu by zjedli, już po trzeciej prezentacji wybierali mniejsze porcje, mówi doktor Tjark Andersen.
      Może się wydawać dziwne, że uczestnicy badań czuli się najedzeni, podczas gdy niczego nie zjedli. Ale to naturalnej zjawisko. To, co myślimy o jedzeniu ma bowiem wpływ na apetyt. Apetyt jest ściślej powiązany z doświadczeniem poznawczym, niż się większości z nas wydaje. Bardzo ważny jest sposób, w jaki myślimy o jedzeniu. Eksperymenty pokazały na przykład, że jeśli ludziom powie się, że są różne kolory żelków i pozwoli im się jeść do woli żelki czerwone, to nadal będą chcieli zjeść żelka żółtego, mimo że żółte smakują tak samo jak czerwone, wyjaśnia Andersen. Z kolei z innych badań wynika, że jeśli wyobrażamy sobie, jak nasze zęby zagłębiają się w soczyste jabłko, dochodzi do aktywacji tych samych obszarów mózgu, co podczas jedzenia. Mamy tutaj do czynienia z reakcją fizjologiczną na samą myśl o czymś. To dlatego możemy poczuć się najedzeni bez jedzenia, dodaje uczony.
      Naukowcy z Aarhus nie są pierwszymi, którzy zauważyli, że same obrazy jedzenia zwiększają uczucie sytości. To wiedzieli już wcześniej. Chcieli się jednak dowiedzieć, jak wiele ekspozycji na obraz potrzeba, byśmy czuli się najedzeni oraz czy różne zdjęcia tego samego pożywienia zniosą uczucie sytości.
      Z wcześniejszych badań wiemy, że zdjęcia różnych rodzajów żywności nie mają tego samego wpływu na uczucie sytości. Dlatego gdy najemy się obiadem, mamy jeszcze miejsce na deser. Słodycze to zupełnie inny rodzaj żywności, mówią naukowcy.
      Duńczycy przygotowali więc serię online'owych eksperymentów, w których wzięło udział ponad 1000 osób. Najpierw pokazywano im zdjęcie pomarańczowych M&M'sów. Niektórzy widzieli je 3 razy, inni 30 razy. Okazało się, że ta grupa, która widziała zdjęcie więcej razy, czuła się bardziej najedzona. Uczestników zapytano też, ile (od 1 do 10) draży by zjedli. Po obejrzeniu 30 zdjęć uczestnicy wybierali mniejszą liczbę.
      Później eksperyment powtórzono, ale z drażami o różnych kolorach. Nie wpłynęło to na wyniki badań. Jednak później zdjęcia M&M'sów zastąpiono zdjęciami draży Skittles, w przypadku których różne kolory smakują różnie. Okazało się jednak, że znowu nie było różnicy. To sugeruje, że wpływ na zmianę naszego poczucia sytości ma więcej parametrów niż kolor i smak, dodaje Andersen.
      Naukowcy nie wykluczają, że ich spostrzeżenia można będzie wykorzystać w walce z nadwagą i spożywaniem śmieciowego jedzenia. Wyobraźmy sobie aplikację, korzystającą z wyszukiwarki obrazów. Gdy masz ochotę na pizzę, wpisujesz to w aplikację, a ona prezentuje Ci zdjęcia pizzy. Ty sobie wyobrażasz, jak ją jesz i czujesz się nasycony. Ochota na pizzę ci przechodzi, wyjaśnia uczony.
      Zdjęcia jedzenia zalewające internet mogą być jedną z przyczyn, dla której wiele osób ulega chwilowym pokusom i sięga po niezdrową wysoko przetworzoną żywność. Jednak, jak wynika z powyższych eksperymentów, te same zdjęcia i ten sam internet mogą pomóc w pozbyciu się niezdrowych nawyków i nieuleganiu pokusom.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
      W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
      Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
      Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
      Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
      Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
      Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
      Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Poszukiwanie zjawisk fizycznych wykraczających poza Model Standardowy często wymaga dostępu do potężnych narzędzi, jak Wielki Zderzacz Hadronów, podziemnych wykrywaczy neutrin, ciemnej materii i egzotycznych cząstek. Urządzenia takie są niezwykle kosztowne w budowie i utrzymaniu, ich konstruowanie trwa przez wiele lat i jest ich niewiele, przez co ustawiają się do nich długie kolejki naukowców. Teraz dzięki naukowcom z Holandii może się to zmienić. Opracowali oni bowiem technikę więzienia i badania ciężkich molekuł w warunkach laboratoryjnych.
      Ciężkie molekuły są świetnym obiektem do badań nad elektrycznym momentem dipolowym elektronu. Jednak dotychczas stosowane metody nie pozwalały na ich uwięzienie w warunkach niewielkiego laboratorium.
      Standardowe techniki poszukiwania elektrycznego momentu dipolowego elektronu (eEDM) wykorzystują wysoce precyzyjną spektroskopię. Jednak by ją zastosować konieczne jest najpierw spowolnienie molekuł i schwytanie ich w pułapkę laserową lub elektryczną. Problem w tym, że do odkrycia zjawisk wykraczających poza Model Standardowy konieczne może okazać się przechwycenie molekuł zbyt ciężkich, by mogły uwięzić je lasery. Z kolei pułapki elektryczne pozwalają na przechwycenie ciężkich jonów, ale nie obojętnych elektrycznie molekuł.
      Naukowcy z Uniwersytetu w Groningen, Vrije Universiteit Amsterdam oraz instytutu Nikhef rozpoczęli swoją pracę od stworzenie molekuł fluorku strontu (SrF), które powstały w wyniku reakcji chemicznych zachodzących w kriogenicznym gazie w temperaturze około 20 kelwinów. Dzięki niskiej temperaturze molekuły te mają początkową prędkość 190 m/s, podczas gdy w temperaturze pokojowej wynosi ona ok. 500 m/s. Następnie molekuły wprowadzane są do 4,5-metrowej długości spowalniacza Stark, gdzie zmienne pola elektryczne najpierw je spowalniają, a następnie zatrzymują. Molekuły SrF pozostają uwięzione przez 50 milisekund. W tym czasie można je analizować za pomocą specjalnego systemu indukowanego laserem. Pomiary takie pozwalają badać właściwości elektronów, w tym elektryczny moment dipolowy, dzięki czemu możliwe jest poszukiwanie oznak asymetrii.
      Model Standardowy przewiduje istnienie eEDM, jednak ma on niezwykle małą wartość. Dlatego też dotychczas właściwości tej nie zaobserwowano. Obserwacja i zbadanie eEDM mogłyby wskazać na istnienie fizyki wykraczającej poza Model Standardowy.
      Molekuły SrF, którymi zajmowali się Holendrzy, mają masę około 3-krotnie większą niż inne molekuły badane dotychczas podobnymi metodami. Naszym kolejnym celem jest uwięzienie jeszcze cięższych molekuł, jak np. fluorku baru (BaF), który ma macę 1,5 raza większą od SrF. Taka molekuła byłaby jeszcze lepszym celem do pomiarów eEDM, mówi Steven Hoekstra, fizyk z Uniwersytetu w Groningen. Im bowiem cięższa molekuła, tym dokładniejszych pomiarów można dokonać.
      Jednak możliwość uwięzienia ciężkich molekuł przyda się nie tylko do badania elektrycznego momentu dipolowego elektronu. Można dzięki temu przeprowadzać też zderzenia ciężkich molekuł przy niskich energiach, symulując warunki w przestrzeni kosmicznej. To zaś przyda się podczas badań interakcji na poziomie kwantowym. Hoekstra mówi, że wraz ze swoimi kolegami będą też pracowali nad zwiększeniem czułości pomiarów poprzez zwiększenie intensywności strumienia molekuł. Spróbujemy też uwięzić bardziej złożone molekuły, jak BaOH czy BaOCH3. Dodatkowo wykorzystamy naszą technikę do badania asymetrii w molekułach chiralnych, zapowiada.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...