Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Specjaliści z IBM-a i California Institute of Technology (Caltech) opracowali technologię umożliwiającą znaczne zmniejszenie rozmiarów i zwiększenie wydajności układów scalonych przy jednoczesnym obniżeniu ich zapotrzebowania na energię i kosztów produkcji.

Ekspertom udało się połączyć techniki litografii i samoorganizowania się struktur układu scalonego. Wykorzystali w tym celu DNA, którego nici mogą służyć jako wzorzec dla osadzania węglowych nanorurek, cząstek metali czy nanokabli.

Technika polega na przygotowaniu DNA o pożądanym kształcie i właściwościach poprzez umieszczenie w roztworze pojedynczych molekuł, które samoorganizują się dzięki interakcji pomiędzy pojedynczą długą nicią DNA wirusa, a mieszaniną różnych krótkich nici oligonukleotydów. Krótkie nici działają jak rodzaj wzorca, nadając długiej nici pożądanych kształt. Możliwe jest uzyskiwanie różnych kształtów poprzez odpowiednie manipulowanie oligonukleotydami. W ten sposób uzyskuje się strukturę, w której odległości pomiędzy poszczególnymi elementami wynoszą 6 nanometrów. Jej rozpiętość to 100-150 nanometrów, a grubość jest równa grubości DNA.

Następnie za pomocą technik litograficznych na podłożu krzemowym tworzona jest matryca z punktami zaczepienia. Przygotowana jest tak, by poszczególne struktury DNA pasowały w konkretne miejsca i tylko w nich się zaczepiały.

Dzięki takiemu podejściu możliwe będzie łatwe pokonanie granicy 22 nanometrów w produkcji układów scalonych. Do DNA umieszczonego na krzemie można bowiem mocować inne struktury, takie jak np. węglowe nanorurki, które stworzą obwód logiczny.

Share this post


Link to post
Share on other sites
technologię umożliwiającą znaczne zwiększenie rozmiarów i wydajności układów scalonych przy jednoczesnym obniżeniu ich zapotrzebowania na energię i obniżeniu kosztów produkcji.

Czy tam na pewno ma być zwiększenie, a nie zmniejszenie, względnie zwiększenie upakowania? Zwiększenie rozmiaru kłóci mi się z rozwojem technologii. :P Moje wrażenie zdaje się potwierdzać przedostatnie zdanie newsa:

Dzięki takiemu podejściu możliwe będzie łatwe pokonanie granicy 22 nanometrów w produkcji układów scalonych.

 

Swoją drogą ciekawe, kiedy (i czy) wejdzie to do masowego stosowania. Prawo Moore'a sę nie poddaje.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Po raz pierwszy w historii sąd federalny nakazał udostępnienie policji całej bazy danych DNA, w tym profili, których właściciele nie wyrazili zgody na udostępnienie.
      Od czasu, gdy w ubiegłym roku policja – po przeszukaniu publicznej bazy danych DNA – schwytała seryjnego mordercę sprzed dziesięcioleci, udało się dzięki takim bazom rozwiązać wiele nierozstrzygniętych spraw. Jednak działania policji budzą zastrzeżenia dotyczące prywatności. We wrześniu Departament Sprawiedliwości, by rozwiać te obawy, wydał instrukcję, zgodnie z którą policja może przeszukiwać tego typu bazy danych wyłącznie w sprawach o przestępstwa związane z użyciem przemocy oraz tam, gdzie właściciel profilu wyraził zgodę.  Już zresztą wcześniej, bo w maju witryna GEDmatch, na którą każdy może wgrać swój profil DNA, ograniczyła policji dostęp do tych profili, których właściciele wyrazili zgodę. Tym samym liczba profili DNA do których policja ma dostęp na GDAmatch spadła z 1,3 miliona do zaledwie 185 000.
      Pewien policyjny detektyw z Florydy prowadzi śledztwo w sprawie seryjnego gwałciciela. Uznał, że dostęp jedynie do 185 000 profili z GEDmatch to zbyt mało i wystąpił do sądu z wnioskiem, by ten, nakazał witrynie udostępnienie mu całej bazy. Detektyw ma nadzieję, że jacyś krewni gwałciciela wgrali tam informacje o swoim DNA, dzięki którym uda się znaleźć sprawcę. Sędzia przychylił się do prośby detektywa. Wyrok taki od razu wzbudził kontrowersje.
      Prawnicy mówią, że to, czy właściciele profili mają powody do zmartwień zależy od prowadzenia każdej ze spraw i trudno jest na tym etapie wyrokować, jak rozstrzygnięcie sądu ma się do amerykańskiego prawa. Zwracają jednak uwagę, że GEDmatch to niewielka firma. Mimo to posiadana przez nią baza 1,3 miliona profili oznacza, że w bazie tej znajduje się profil kuzyna trzeciego stopnia lub kogoś bliżej spokrewnionego z 60% białych Amerykanów.
      Firmy takie jak 23andMe czy Ancestry posiadają znacznie bardziej rozbudowane bazy, a zatem pozwalają na sprofilowanie znacznie większej liczby obywateli USA. Zresztą 23andMe już zapowiedziała, że jeśli otrzyma podobny wyrok to będzie się od niego odwoływała. Prawnicy zauważają, że z jednej strony, jeśli w przyszłości pojawi się takie odwołanie i rozpocznie się batalia sądowa, którą będzie rozstrzygał jeden z Federalnych Sądów Apelacyjnych lub Sąd Najwyższy, to ustanowiony zostanie silny precedens. Z drugiej strony osoba, która zostałaby oskarżona dzięki przeszukaniu takiej bazy mogłaby zapewne powoływać się na Czwartą Poprawkę, która zakazuje nielegalnych przeszukań.
      Specjaliści mówią, że jeśli podobne wnioski zaczną pojawiać się coraz częściej i sądy będą się do nich przychylały, to będzie to poważny problem dla witryn z bazami danych DNA.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy ze szwedzkiego Uniwersytetu Technologicznego Chalmers obalili teorię mówiącą, że obie nici DNA są utrzymywane przez wiązania atomów wodoru. Okazuje się, że kluczem są siły hydrofobowe, nie atomy wodoru. Odkrycie to może mieć duże znaczenie dla medycyny i innych nauk biologicznych.
      Helisa DNA składa się z dwóch nici zawierających molekuły cukru i grupy fosforanowe. Pomiędzy obiema nićmi znajdują się zasady azotowe zawierające atomy wodoru. Dotychczas sądzono, że to wiązania atomów wodoru utrzymują razem obie nici.
      Jednak uczeni z Chalmers wykazali właśnie, że kluczem do utrzymania razem nici jest hydrofobowe wnętrze molekuł zanurzonych w środowisku składającym się głównie z wody. Zatem mamy tutaj hydrofilowe otoczenie i hydrofobowe molekuły odpychające otaczającą je wodę. Gdy hydrofobowe molekuły znajdują się w hydrofilowym środowisku, grupują się razem, by zmniejszyć swoją ekspozycję na wodę.
      Z kolei wiązania wodorowe, które dotychczas postrzegano jako elementy utrzymujące w całości podwójną helisę DNA, wydają się mieć więcej wspólnego z sortowaniem par bazowych, zatem z łączniem się helisy w odpowiedniej kolejności.
      Komórki chcą chronić swoje DNA i nie chcą wystawiać ich na środowisko hydrofobowe, które może zawierać szkodliwe molekuły. Jednocześnie jednak DNA musi się otwierać, by było użyteczne. Sądzimy, że przez większość czasu komórki utrzymują DNA w środowisku wodny, ale gdy chcą coś z DNA zrobić, na przykład je odczytać, skopiować czy naprawić, wystawiają DNA na środowisko hydrofobowe, mówi Bobo Feng, jeden z autorów badań.
      Gdy na przykład dochodzi do reprodukcji, pary bazowe odłączają się i nić DNA się otwiera. Enzymy kopiują obie strony helisy, tworząc nową nić. Gdy dochodzi do naprawy uszkodzonego DNA, uszkodzone części są wystawiane na działanie hydrofobowego środowiska i zastępowane. Środowisko takie tworzone jest przez proteinę będącą katalizatorem zmiany. Zrozumienie tej proteiny może pomóc w opracowaniu wielu leków czy nawet w metodach leczenia nowotworów. U bakterii za naprawę DNA odpowiada proteina RecA. U ludzi z kolei proteina Rad51 naprawia zmutowane DNA, które może prowadzić do rozwoju nowotworu.
      Aby zrozumieć nowotwory, musimy zrozumieć, jak naprawiane jest DNA. Aby z kolei to zrozumieć, musimy zrozumieć samo DNA. Dotychczas go nie rozumieliśmy, gdyż sądziliśmy, że helisa jest utrzymywana przez wiązania atomów wodoru. Teraz wykazaliśmy, że chodzi tutaj o siły hydrofobowe. Wykazaliśmy też, że w środowisku hydrofobowym DNA zachowuje się zupełnie inaczej. To pomoże nam zrozumieć DNA i proces jego naprawy. Nigdy wcześniej nikt nie umieszczał DNA w środowisku hydrofobowym i go tam nie badał, zatem nie jest zaskakujące, że nikt tego wcześniej nie zauważył, dodaje Bobo Feng.
      Szwedzcy uczeni umieścili DNA w hydrofobowym (w znaczeniu bardzo zredukowanej koncentracji wody) roztworze poli(tlenku etylenu) i krok po kroku zmieniali hydrofilowe środowisko DNA w środowisko hydrofobowe. Chcieli w ten sposób sprawdzić, czy istnieje granica, poza którą DNA traci swoją strukturę. Okazało się, że helisa zaczęła się rozwijać na granicy środowiska hydrofilowego i hydrofobowego. Bliższa analiza wykazała, że gdy pary bazowe – wskutek oddziaływania czynników zewnętrznych – oddzielają się od siebie, wnika pomiędzy nie woda. Jako jednak, że wnętrze DNA powinno być suche, obie nici zaczynają przylegać do siebie, wypychając wodę. Problem ten nie istnieje w środowisku hydrofobowym, zatem tam pary bazowe pozostają oddzielone.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM poinformował o podpisaniu porozumienia, w ramach którego Błękitny Gigant przejmie znanego producenta jednej z dystrybucji Linuksa, firmę Red Hat. Transakcja będzie warta 34 miliardy dolarów. Jeśli do niej dojdzie będzie to trzecia największa w historii akwizycja na rynku IT.
      Umowa przewiduje, że IBM wykupi akcje Red Hata, płacąc za każdą z nich 190 dolarów. Na zamknięciu ostatniej sesji giełdowej przed ogłoszeniem transakcji akcje Red Hata kosztowały 116,68 USD.
      Przejęcie Red Hata zmieni zasady gry. Całkowicie zmieni rynek chmur obliczeniowych, mówi szef IBM-a Ginni Rometty. "IBM stanie się największym na świecie dostawcą dla hybrydowych chmur i zaoferuje przedsiębiorcom jedyną otwartą architekturę chmur, dzięki której klient będzie mógł uzyskać z niej maksimum korzyści", dodał. Zdaniem menedżera obenie większość firm wstrzymuje się z rozwojem własnych chmur ze względu na zamknięte architektury takich rozwiązań.
      Jeszcze przed kilku laty IBM zajmował się głównie produkcją sprzętu komputerowego. W ostatnim czasie firma zdecydowanie weszła na takie rynki jak analityczny czy bezpieczeństwa. Teraz ma zamiar konkurować z Microsoftem, Amazonem czy Google'em na rynku chmur obliczeniowych.
      Po przejęciu Red Hat będzie niezależną jednostką zarządzaną przez obecnego szefa Jima Whitehursta i obecny zespół menedżerów. To ważny dzień dla świata open source. Doszło do największej transakcji w historii rynku oprogramowania i bierze w tym udział firma zajmująca się otwartym oprogramowaniem. Tworzymy historię, dodał Paul Cormier, wiceprezes Red Hata.
      Obecnie Red Hat ma siedziby w 35 krajach, zatrudnia około 12 000 osób je jest jednym z największych oraz najbardziej znanych graczy na rynku open source. W roku 2018 zysk firmy wyniósł 259 milionów dolarów czy przychodach rzędu 2,9 miliarda USD. Dla porównania, w 2017 roku przychody IBM-a zamknęły się kwotą 79 miliardów dolarów, a zysk to 5,8 miliarda USD.
      Na przejęcie muszą się jeszcze zgodzić akcjonariusze Red Hata oraz odpowiednie urzędy antymonopolowe.

      « powrót do artykułu
×
×
  • Create New...