Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Ech fizycy amatorzy. Po pierwsze to nie prawda, że zobaczyli atomy bez chmur elektronowych. AFM korzysta z sił bliskich oddziaływań - m.in. oddziaływań van der Waalsa a to są oddziaływania pomiędzy indukowanymi momentami dipolowymi (które tworzą chmury elektronów). Również "zakaz Pauliego" gra tu rolę, bo elektrony o tym samym spinie nie mogą być w tym samym miejscu więc się odpychają bardziej niż przez samo oddziaływanie kulombowskie. Nie rozumiem więc stwierdzenie, że wcześniej te atomy były zasłaniane przez chmury elektronowe... Błędne tłumaczenie? Co? elektrony latały sobie w powietrzu na około cząsteczki? Poza tym bez elektronów nie ma cząsteczki... Po co próżnia? Spróbujcie coś schłodzić prawie do zera bezwzględnego w jakiejkolwiek atmosferze. Na powierzchni zrobi wam się syf ze wszystkiego co wokół latało, bo po prostu to się skropli, skrzepnie itp itd i niczego fajnego nie zobaczycie. Poza tym w afmosferze w temperaturze pokojowej ze względu na drgania termicznie i turbulentne przepływy gazów rozdzielczość tak precyzyjnego urządzenia jest ograniczona do kilku nanometrów w najlepszym wypadku. Po co niska T? Zmniejszenie drgań termicznych i dyfuzji powierzchniowej, co ma duży wpływ na rozdzielczość. Piezokryształy sterujące próbką też muszą być precyzyjne i pięknie wykalibrowane w zależności od T i x. Plus sto innych czynników :P SPM'y to delikatne i bardziej skomplikowane urządzenia niż piszą na wiki :D Pozdrawiam.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Ech fizycy amatorzy. Po pierwsze to nie prawda, że zobaczyli atomy bez chmur elektronowych.

A kto napisał, że zobaczyli?

Nie rozumiem więc stwierdzenie, że wcześniej te atomy były zasłaniane przez chmury elektronowe...

To można bardzo łatwo wyjaśnić. Wcześniej nie udawało się osiągnać rozdzielczości/precyzji pozwalającej na odróżnienie od siebie elementów względnie nieruchomych (jądra atomów) od chmury elektronowej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

heh, właśnie wymyśliłem (znowu mi się tak wydaje) jak to odizolować od drgań zewnętrznych, przecież odpowiedź była na KW! :P

W temacie o meta-materiałach chroniących przed trzęsieniem ziemi. Wystarczy takie laboratorium, czy nawet może sam "stół" ze sprzętem otoczyć takim okręgiem i drgania powinny nas omijać :D

Wiem, fizyk amator ze mnie (bez sarkazmu)...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale wiesz - amatorzy też są potrzebni - bo oni często specjalistom, którzy już mają umysł wrzucony na wytarte ścieżki, potrafią podsunąć jakąś nową koncepcję :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A kto napisał, że zobaczyli? To można bardzo łatwo wyjaśnić. Wcześniej nie udawało się osiągnać rozdzielczości/precyzji pozwalającej na odróżnienie od siebie elementów względnie nieruchomych (jądra atomów) od chmury elektronowej.

 

Po pierwsze: napisano, że "Dotychczas były one (atomy) zasłaniane przez chmurę elektronów", co by wskazywało na to, że teraz nie są (a to się nie wydaje sensowne).

 

Po drugie: jądro jest wielkości femtometrów (10^-15m), dopiero jak się do tego doda chmurę elektronową to robi się z tego atom rzędu angstremów (10^-10m). Prosty wniosek: nie da się odróżnić jądra od reszty, bo to co się widzi to cały atom - chmurę elektronową. Nie było i nie ma (i nie będzie) takiego scanning probe microscope, który by zapewnił rozdzielczość femtometrową. Angstremy to max. Do ustalania struktury jądrowej i niżej służy badanie zderzeń cząstem w akceleratorach.

 

Stabilizacja takich mikroskopów poprzez lewitację magnetyczną w zupełności wystarczy. Dobrze odizolowany mikroskop sił atomowych jest wtedy bardziej czuły na drgania termiczne niż sejsmiczne.

 

Pozdrawiam!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widzisz, to się trochę nie zrozumieliśmy :P Ty mówisz o chmurze elektronów wokół jądra (faktycznie nie do odróżnienia od jądra, tu się zgadzam)), a ja o tej uwspólnionej w pierścieniu (tę akurat można wyodrębnić i to ona wcześniej zasłaniała) :D I stąd całe nieporozumienie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nic konstruktywnego nie było do dodania, to chociaż posta nabiłeś? Liczę, że jesteś z siebie dumny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Widzisz, to się trochę nie zrozumieliśmy :P Ty mówisz o chmurze elektronów wokół jądra (faktycznie nie do odróżnienia od jądra, tu się zgadzam)), a ja o tej uwspólnionej w pierścieniu (tę akurat można wyodrębnić i to ona wcześniej zasłaniała) :D I stąd całe nieporozumienie.

 

Hmm... tutaj nie mogę zaprzeczyć, bo o takowej chmurze elektronów nie słyszałem. Właściwie skąd się ona miała by tam brać? Przecież pentacen składa się z atomów węgla i wodoru. Wiązania w tej cząsteczce są raczej silnie kierunkowe, zarówno C-C jak i C-H, więc elektrony w cząsteczce wielkiej swobody to nie mają. Skąd więc jakaś uwspólniona chmura elektronów wokół cząsteczki? Co mogę zrozumieć to tworzenie ekscytonów poprzez absorpcję UV, bo pentacen ma taką strukturę jak polimery przewodzące. Ale to się "wyłącza" niską T i ciemnością w kriostacie :D

 

Tak więc nieporozumienia prowadzącego do obustronnego zrozumienia - ciąg dalszy :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Uwspólnione elektrony są przecież obece w każdym pierścieniu aromatyczym  :P Właśnie dlatego utrzymuje się on jako jeden spójny pierścień.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Uwspólnione elektrony są przecież obece w każdym pierścieniu aromatyczym  :P Właśnie dlatego utrzymuje się on jako jeden spójny pierścień.

 

A racja, douczyłem się nieco i rzeczywiście hybrydyzują tam orbitale :D W takim razie w wyższych temperaturach będą smugi w obrazie AFM. Dobrze sobie czasem poszperać w innych działach nauki, a często chemii na fizyce brakuje... Co prawda odwrotna sytuacja też ma miejsce i potem jak pytam chemika jaką mocą UV naświetlał polimer to wzrusza ramionami i mówi, że 5 minut :D Dzięki za dyskusję :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Po drugie: jądro jest wielkości femtometrów (10^-15m), dopiero jak się do tego doda chmurę elektronową to robi się z tego atom rzędu angstremów (10^-10m). Prosty wniosek: nie da się odróżnić jądra od reszty, bo to co się widzi to cały atom - chmurę elektronową. Nie było i nie ma (i nie będzie) takiego scanning probe microscope, który by zapewnił rozdzielczość femtometrową. Angstremy to max. Do ustalania struktury jądrowej i niżej służy badanie zderzeń cząstem w akceleratorach 

 

Masz rację , ponieważ po usunięciu wszystkich elektronów molekuła zamieniłaby się w swobodnie fruwające cząstki plazmy. Raczej powinno być napisane '' po usunięciu elektronów swobodnych które swoim ruchem termicznym zaburzały możliwość wykonania ostrych zdjęć molekuły''

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Internet pełen jest zdjęć jedzenia. Widzimy je i w mediach społecznościowych, i na witrynach WWW, i na reklamach. Wiele z nich prezentowanych jest po to, by wywołać w nas chęć zjedzenia konkretnej rzeczy czy dania. Widok żywności ma spowodować, że staniemy się głodni. Jednak badania przeprowadzone przez naukowców z Aarhus University pokazują, że prezentacja zdjęć z jedzeniem może mieć na nas przeciwny wpływ. Szczególnie, jeśli wielokrotnie widzimy tę samą potrawę.
      Duńscy uczeni dowodzą, że gdy widzimy to samo zdjęcie pożywienia ponad 30 razy, czujemy się bardziej najedzeni, niż zanim zobaczyliśmy fotografię po raz pierwszy. Ponadto uczestnicy badań, którym wielokrotnie pokazywaliśmy to samo zdjęcie i pytaliśmy ich, jak dużo danego produktu by zjedli, już po trzeciej prezentacji wybierali mniejsze porcje, mówi doktor Tjark Andersen.
      Może się wydawać dziwne, że uczestnicy badań czuli się najedzeni, podczas gdy niczego nie zjedli. Ale to naturalnej zjawisko. To, co myślimy o jedzeniu ma bowiem wpływ na apetyt. Apetyt jest ściślej powiązany z doświadczeniem poznawczym, niż się większości z nas wydaje. Bardzo ważny jest sposób, w jaki myślimy o jedzeniu. Eksperymenty pokazały na przykład, że jeśli ludziom powie się, że są różne kolory żelków i pozwoli im się jeść do woli żelki czerwone, to nadal będą chcieli zjeść żelka żółtego, mimo że żółte smakują tak samo jak czerwone, wyjaśnia Andersen. Z kolei z innych badań wynika, że jeśli wyobrażamy sobie, jak nasze zęby zagłębiają się w soczyste jabłko, dochodzi do aktywacji tych samych obszarów mózgu, co podczas jedzenia. Mamy tutaj do czynienia z reakcją fizjologiczną na samą myśl o czymś. To dlatego możemy poczuć się najedzeni bez jedzenia, dodaje uczony.
      Naukowcy z Aarhus nie są pierwszymi, którzy zauważyli, że same obrazy jedzenia zwiększają uczucie sytości. To wiedzieli już wcześniej. Chcieli się jednak dowiedzieć, jak wiele ekspozycji na obraz potrzeba, byśmy czuli się najedzeni oraz czy różne zdjęcia tego samego pożywienia zniosą uczucie sytości.
      Z wcześniejszych badań wiemy, że zdjęcia różnych rodzajów żywności nie mają tego samego wpływu na uczucie sytości. Dlatego gdy najemy się obiadem, mamy jeszcze miejsce na deser. Słodycze to zupełnie inny rodzaj żywności, mówią naukowcy.
      Duńczycy przygotowali więc serię online'owych eksperymentów, w których wzięło udział ponad 1000 osób. Najpierw pokazywano im zdjęcie pomarańczowych M&M'sów. Niektórzy widzieli je 3 razy, inni 30 razy. Okazało się, że ta grupa, która widziała zdjęcie więcej razy, czuła się bardziej najedzona. Uczestników zapytano też, ile (od 1 do 10) draży by zjedli. Po obejrzeniu 30 zdjęć uczestnicy wybierali mniejszą liczbę.
      Później eksperyment powtórzono, ale z drażami o różnych kolorach. Nie wpłynęło to na wyniki badań. Jednak później zdjęcia M&M'sów zastąpiono zdjęciami draży Skittles, w przypadku których różne kolory smakują różnie. Okazało się jednak, że znowu nie było różnicy. To sugeruje, że wpływ na zmianę naszego poczucia sytości ma więcej parametrów niż kolor i smak, dodaje Andersen.
      Naukowcy nie wykluczają, że ich spostrzeżenia można będzie wykorzystać w walce z nadwagą i spożywaniem śmieciowego jedzenia. Wyobraźmy sobie aplikację, korzystającą z wyszukiwarki obrazów. Gdy masz ochotę na pizzę, wpisujesz to w aplikację, a ona prezentuje Ci zdjęcia pizzy. Ty sobie wyobrażasz, jak ją jesz i czujesz się nasycony. Ochota na pizzę ci przechodzi, wyjaśnia uczony.
      Zdjęcia jedzenia zalewające internet mogą być jedną z przyczyn, dla której wiele osób ulega chwilowym pokusom i sięga po niezdrową wysoko przetworzoną żywność. Jednak, jak wynika z powyższych eksperymentów, te same zdjęcia i ten sam internet mogą pomóc w pozbyciu się niezdrowych nawyków i nieuleganiu pokusom.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
      W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
      Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
      Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
      Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
      Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
      Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
      Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Poszukiwanie zjawisk fizycznych wykraczających poza Model Standardowy często wymaga dostępu do potężnych narzędzi, jak Wielki Zderzacz Hadronów, podziemnych wykrywaczy neutrin, ciemnej materii i egzotycznych cząstek. Urządzenia takie są niezwykle kosztowne w budowie i utrzymaniu, ich konstruowanie trwa przez wiele lat i jest ich niewiele, przez co ustawiają się do nich długie kolejki naukowców. Teraz dzięki naukowcom z Holandii może się to zmienić. Opracowali oni bowiem technikę więzienia i badania ciężkich molekuł w warunkach laboratoryjnych.
      Ciężkie molekuły są świetnym obiektem do badań nad elektrycznym momentem dipolowym elektronu. Jednak dotychczas stosowane metody nie pozwalały na ich uwięzienie w warunkach niewielkiego laboratorium.
      Standardowe techniki poszukiwania elektrycznego momentu dipolowego elektronu (eEDM) wykorzystują wysoce precyzyjną spektroskopię. Jednak by ją zastosować konieczne jest najpierw spowolnienie molekuł i schwytanie ich w pułapkę laserową lub elektryczną. Problem w tym, że do odkrycia zjawisk wykraczających poza Model Standardowy konieczne może okazać się przechwycenie molekuł zbyt ciężkich, by mogły uwięzić je lasery. Z kolei pułapki elektryczne pozwalają na przechwycenie ciężkich jonów, ale nie obojętnych elektrycznie molekuł.
      Naukowcy z Uniwersytetu w Groningen, Vrije Universiteit Amsterdam oraz instytutu Nikhef rozpoczęli swoją pracę od stworzenie molekuł fluorku strontu (SrF), które powstały w wyniku reakcji chemicznych zachodzących w kriogenicznym gazie w temperaturze około 20 kelwinów. Dzięki niskiej temperaturze molekuły te mają początkową prędkość 190 m/s, podczas gdy w temperaturze pokojowej wynosi ona ok. 500 m/s. Następnie molekuły wprowadzane są do 4,5-metrowej długości spowalniacza Stark, gdzie zmienne pola elektryczne najpierw je spowalniają, a następnie zatrzymują. Molekuły SrF pozostają uwięzione przez 50 milisekund. W tym czasie można je analizować za pomocą specjalnego systemu indukowanego laserem. Pomiary takie pozwalają badać właściwości elektronów, w tym elektryczny moment dipolowy, dzięki czemu możliwe jest poszukiwanie oznak asymetrii.
      Model Standardowy przewiduje istnienie eEDM, jednak ma on niezwykle małą wartość. Dlatego też dotychczas właściwości tej nie zaobserwowano. Obserwacja i zbadanie eEDM mogłyby wskazać na istnienie fizyki wykraczającej poza Model Standardowy.
      Molekuły SrF, którymi zajmowali się Holendrzy, mają masę około 3-krotnie większą niż inne molekuły badane dotychczas podobnymi metodami. Naszym kolejnym celem jest uwięzienie jeszcze cięższych molekuł, jak np. fluorku baru (BaF), który ma macę 1,5 raza większą od SrF. Taka molekuła byłaby jeszcze lepszym celem do pomiarów eEDM, mówi Steven Hoekstra, fizyk z Uniwersytetu w Groningen. Im bowiem cięższa molekuła, tym dokładniejszych pomiarów można dokonać.
      Jednak możliwość uwięzienia ciężkich molekuł przyda się nie tylko do badania elektrycznego momentu dipolowego elektronu. Można dzięki temu przeprowadzać też zderzenia ciężkich molekuł przy niskich energiach, symulując warunki w przestrzeni kosmicznej. To zaś przyda się podczas badań interakcji na poziomie kwantowym. Hoekstra mówi, że wraz ze swoimi kolegami będą też pracowali nad zwiększeniem czułości pomiarów poprzez zwiększenie intensywności strumienia molekuł. Spróbujemy też uwięzić bardziej złożone molekuły, jak BaOH czy BaOCH3. Dodatkowo wykorzystamy naszą technikę do badania asymetrii w molekułach chiralnych, zapowiada.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...