Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

IBM pokazało przełącznik molekularny

Rekomendowane odpowiedzi

Badacze IBM-a zaprezentowali z Zurychu przełącznik składający się z pojedynczej molekuły. Jego ustawienia można zmieniać pomiędzy stanami "włączony" i "wyłączony" za pomocą impulsów elektrycznych. Oba stany są stabilne, a odczyt danych nie prowadzi do zmiany stanu przełącznika.

Podczas pokazu badacze IBM-a Heike Riel i Emanuel Lörtscher zmienili stan przełącznika ponad 500 razy. Wykorzystana molekuła organiczna ma średnicę 1,5 nanometra, jest więc około stukrotnie mniejsza niż elementy obecnie wykorzystywane do tych zamych zadań.

Molekułę wyprodukował zespół profesora Jamesa M. Toura z Rice University w Houston.

Technologia CMOS, którą wykorzystują obecne komputery, osiągnie granicę swych fizycznych możliwości za 10 do 15 lat. Najmniejsze stosowane obecnie struktury w układach scalonych mają wielkość około 40 nanometrów. Ich dalsze zmniejszanie jest koniecznością, jeśli Prawo Moore'a ma zachować ważność. Zakłada ono, że gęstość upakowania tranzystorów w półprzewodniku zwiększa się dwukrotnie co 18 miesięcy.

Naukowcy przewidują, że po przekroczeniu granicy 20 nanometrów pojawią się poważne, trudne do przezwyciężenia przeszkody. Poniżej 10 nanometrów technologia CMOS osiągnie swe fizyczne granice.

Badania IBM-a dają nadzieję na to, że w przyszłości molekuły organiczne posłużą do budowanie układów pamięci i obwodów logicznych. Elektronika molekularna, korzystająca z molekuł o średnicy jednego nanometra (jedna milionowa milimetra) pozwoli na dalszą, daleko bardziej posuniętą miniaturyzację niż jest to możliwe przy wykorzystaniu współczesnych technik.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Poszukiwanie zjawisk fizycznych wykraczających poza Model Standardowy często wymaga dostępu do potężnych narzędzi, jak Wielki Zderzacz Hadronów, podziemnych wykrywaczy neutrin, ciemnej materii i egzotycznych cząstek. Urządzenia takie są niezwykle kosztowne w budowie i utrzymaniu, ich konstruowanie trwa przez wiele lat i jest ich niewiele, przez co ustawiają się do nich długie kolejki naukowców. Teraz dzięki naukowcom z Holandii może się to zmienić. Opracowali oni bowiem technikę więzienia i badania ciężkich molekuł w warunkach laboratoryjnych.
      Ciężkie molekuły są świetnym obiektem do badań nad elektrycznym momentem dipolowym elektronu. Jednak dotychczas stosowane metody nie pozwalały na ich uwięzienie w warunkach niewielkiego laboratorium.
      Standardowe techniki poszukiwania elektrycznego momentu dipolowego elektronu (eEDM) wykorzystują wysoce precyzyjną spektroskopię. Jednak by ją zastosować konieczne jest najpierw spowolnienie molekuł i schwytanie ich w pułapkę laserową lub elektryczną. Problem w tym, że do odkrycia zjawisk wykraczających poza Model Standardowy konieczne może okazać się przechwycenie molekuł zbyt ciężkich, by mogły uwięzić je lasery. Z kolei pułapki elektryczne pozwalają na przechwycenie ciężkich jonów, ale nie obojętnych elektrycznie molekuł.
      Naukowcy z Uniwersytetu w Groningen, Vrije Universiteit Amsterdam oraz instytutu Nikhef rozpoczęli swoją pracę od stworzenie molekuł fluorku strontu (SrF), które powstały w wyniku reakcji chemicznych zachodzących w kriogenicznym gazie w temperaturze około 20 kelwinów. Dzięki niskiej temperaturze molekuły te mają początkową prędkość 190 m/s, podczas gdy w temperaturze pokojowej wynosi ona ok. 500 m/s. Następnie molekuły wprowadzane są do 4,5-metrowej długości spowalniacza Stark, gdzie zmienne pola elektryczne najpierw je spowalniają, a następnie zatrzymują. Molekuły SrF pozostają uwięzione przez 50 milisekund. W tym czasie można je analizować za pomocą specjalnego systemu indukowanego laserem. Pomiary takie pozwalają badać właściwości elektronów, w tym elektryczny moment dipolowy, dzięki czemu możliwe jest poszukiwanie oznak asymetrii.
      Model Standardowy przewiduje istnienie eEDM, jednak ma on niezwykle małą wartość. Dlatego też dotychczas właściwości tej nie zaobserwowano. Obserwacja i zbadanie eEDM mogłyby wskazać na istnienie fizyki wykraczającej poza Model Standardowy.
      Molekuły SrF, którymi zajmowali się Holendrzy, mają masę około 3-krotnie większą niż inne molekuły badane dotychczas podobnymi metodami. Naszym kolejnym celem jest uwięzienie jeszcze cięższych molekuł, jak np. fluorku baru (BaF), który ma macę 1,5 raza większą od SrF. Taka molekuła byłaby jeszcze lepszym celem do pomiarów eEDM, mówi Steven Hoekstra, fizyk z Uniwersytetu w Groningen. Im bowiem cięższa molekuła, tym dokładniejszych pomiarów można dokonać.
      Jednak możliwość uwięzienia ciężkich molekuł przyda się nie tylko do badania elektrycznego momentu dipolowego elektronu. Można dzięki temu przeprowadzać też zderzenia ciężkich molekuł przy niskich energiach, symulując warunki w przestrzeni kosmicznej. To zaś przyda się podczas badań interakcji na poziomie kwantowym. Hoekstra mówi, że wraz ze swoimi kolegami będą też pracowali nad zwiększeniem czułości pomiarów poprzez zwiększenie intensywności strumienia molekuł. Spróbujemy też uwięzić bardziej złożone molekuły, jak BaOH czy BaOCH3. Dodatkowo wykorzystamy naszą technikę do badania asymetrii w molekułach chiralnych, zapowiada.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z laboratorium ENIGMA (Evolution of Nanomachinest In Geospheres and Microbial Ancestors) na Rutgers University sądzą, że odtworzyli kształt pierwszej molekuły będącej wspólnym przodkiem współczesnych enzymów, które dały początek życiu na Ziemi.
      Życie to proces elektryczny. Obwód elektryczny jest katalizowany przez niewielki zestaw protein, które działają jak złożone nanomaszyny, czytamy na stronie laboratorium. ENIGMA jest współfinansowane przez NASA w ramach Astrobiology Program. Sądzimy, że życie powstało z bardzo małych klocków i pojawiło się zestaw Lego, z którego powstały komórki i bardziej złożone organizmy, jak my, mówi główny autor badań, biofizyk Paul G. Falkowski.
      Naukowcy wykonali analizę porównawczą trójwymiarowych struktur białek, by sprawdzić, czy można na tej podstawie wysnuć wnioski, co do kształtu ich wspólnego przodka. Szczególnie skupili się na podobieństwach pomiędzy kształtami, jakie w trzech wymiarach przyjmują łańcuchy aminokwasów. Poszukiwali prostego topologicznego modelu, który powiedziałby, jak wyglądały pierwsze proteiny, zanim stały się bardziej złożone i zróżnicowane.
      Odkryliśmy, że dwa powtarzające się wzorce zwijania są kluczowe dla pojawienia się metabolizmu. Prawdopodobnie te metody zawijania mają wspólnego przodka, który za pomocą duplikacji, specjalizacji i różnicowania ewoluował tak, by ułatwić transfer elektronów i katalizę na bardzo wczesnym etapie początków metabolizmu, wyjaśniają naukowcy.
      Te dwa zidentyfikowane metody zwijania to zwijanie ferredoksyny oraz konformacja Rossmanna. Naukowcy sądzą, że te dwie podstawowe struktury, które mogą mieć wspólnego przodka, posłużyły jako wzorzec dla protein sprzed ponad 2,5 miliarda lat.
      Przypuszczamy, że pierwszymi proteinami były małe, proste peptydy, któe pobierały elektrony z oceanu, atmosfery lub skał i przekazywały je innym molekułom akceptującym elektrony, mówi biolog molekularny Vikas Nanda. W reakcji transferu elektronu uwalnia się energia i energia ta napędza życie, dodaje.
      Naukowcy przyznają, że to wszystko jest jedynie hipotezą. Porównywanie kształtu obecnie istniejących protein to metoda pełna ograniczeń, która nie pozwala na uzyskanie pewności co do prawdziwości wnioskowania. Domyślamy się co mogło się wydarzyć, a nie dowodzimy, co się wydarzyło, stwierdzają autorzy badań. Jednak, jak zauważają, można tego typu badania posunąć dalej.
      Można spróbować odtworzyć w laboratorium hipotetyczne proteiny z przeszłości i sprawdzić, jak działają i jak mogą ewoluować. Naszym głównym celem jest dostarczenie NASA informacji, dzięki którym przyszłe misje naukowe będą wiedziały gdzie i jak poszukiwać życia na planetach pozasłonecznych.
      Ze szczegółami badań można zapoznać się na łamach PNAS.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...