Jump to content
Forum Kopalni Wiedzy

Recommended Posts

W ubiegłym roku DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych) ogłosiła warty 1,5 miliarda dolarów program Electronic Resurgence Initiative (ERI). Będzie on prowadzony przez pięć lat, a w jego wyniku ma powstać technologia, która zrewolucjonizuje sposób projektowania i wytwarzania układów scalonych. Przeznaczona nań kwota jest czterokrotnie większa, niż typowe wydatki DARPA na projekty związane ze sprzętem komputerowym.

W ostatnich latach postęp w dziedzinie sprzętu wyraźnie nie nadąża za postępem w dziedzinie oprogramowania. Ponadto Stany Zjednoczone obawiają się, że gdy przestanie obowiązywać Prawo Moore'a, stracą obecną przewagę na polu technologii. Obawa ta jest tym większa, że inne państwa, przede wszystkim Chiny, sporo inwestują w przemysł IT. Kolejny problem, to rosnąc koszty projektowania układów scalonych.

Jednym z celów ERI jest znaczące skrócenie czasu projektowania chipów, z obecnych lat i miesięcy, do dni. Ma to zostać osiągnięte za pomocą zautomatyzowania całego procesu wspomaganego technologiami maszynowego uczenia się oraz dzięki nowym narzędziom, które pozwolą nawet mało doświadczonemu użytkownikowi na projektowanie wysokiej jakości układów scalonych.

Obecnie nikt nie potrafi zaprojektować nowego układu scalonego w ciągu 24 godzin bez pomocy człowieka. To coś zupełnie nowego, mówi Andrew Kahng z Uniwersytetu Kalifornijskiego w San Diego, który stoi na czele jednego z zespołów zakwalifikowanych do ERI. Próbujemy zapoczątkować w elektronice rewolucję na miarę tej, jakiej dokonały browary rzemieślnicze na rynku sprzedaży piwa, stwierdził William Chapell, którego biuro z ramienia DARPA odpowiada za ERI. Innymi słowy, DARPA chce, by małe firmy mogły szybko i tanio projektować i produkować wysokiej jakości układy scalone bez polegania na doświadczeniu, zasobach i narzędziach dostarczanych przez rynkowych gigantów.

Gdy Prawo Moore'a przestanie obowiązywać, najprawdopodobniej będziemy potrzebowali nowych materiałów i nowych sposobów na integrację procesora z układami pamięci. Ich znalezienie to jeden z celów ERI. Inny cel to stworzenie takiego sposobu integrowania ze sobą procesora i pamięci, który wyeliminuje lub znacząco ograniczy potrzebę przemieszczania danych pomiędzy nimi. W przyszłości zaś miałby powstać chip, który w tym samym miejscu będzie przechowywał dane i dokonywać obliczeń, co powinno znacząco zwiększyć wydajność i zmniejszyć pobór energii. DARPA chce też stworzyć sprzęt i oprogramowanie, które mogą być rekonfigurowane w czasie rzeczywistym do nowych zadań.

Niektóre założenia ERI pokrywają się z tym, nad czym pracuje obecnie prywatny przemysł komputerowy. Przykładem takiego nakładania się jest próba stworzenia technologii 3-D system-on-chip. Jej zadaniem jest przedłużenie obowiązywania Prawa Moore'a za pomocą nowych materiałów jak np. węglowe nanorurki oraz opracowania lepszych sposobów łączenia ze sobą poszczególnych elementów układu scalonego.

Podnoszą się jednak głosy mówiące, że DARPA i inne agendy rządowe wspierające badania IT, takie jak np. Departament Energii, powinny przeznaczać więcej pieniędzy na takie projekty. Profesor Erica Fuchs z Carnegie Mellon University zauważa, że prywatne przedsiębiorstwa skupiają się obecnie na bardziej wyspecjalizowanych zastosowaniach i mniej chętnie biorą udział w dużych wspólnych projektach. Zdaniem uczonej wysiłki amerykańskich agend rządowych w tym zakresie są o rząd wielkości za małe w stosunku do wyzwań, które czekają nas w najbliższej przyszłości.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Już teraz przecież Samsung Galaxy S9 jest chyba produkowany w technologiii 10 nm,a granicą jest chyba 1 nm,jest wiele technologii,było gdzieś tutaj mówione o grafenowych komputerach,kwantowych,dna i innych,to kwestia czasu,kiedy trzeba będzie się zdecydować na jakieś rozwiązanie,liczę na sukces w tej dziedzinie nauki,już teraz są komputery z 1 TB pamięci,tylko co się stanie,jeśli nic nie wymyślimy,sprzęt zacznie tanieć czy odwrotnie?

Edited by GodSI

Share this post


Link to post
Share on other sites

Jestem całkowicie spokojna o prawo Moore'a, gdyż - jak pisał już niejednokrotnie - to nie jest prawo fizyczne tylko ekonomiczne. Taki postęp lekki i nie za szybki pozwala najbardziej maksymalizować zyski. To taka możliwie najwolniejsza kontrolowana "rewolucja" zapewniająca możliwie  najwięcej stopni typu "wymiana sprzętu na nowocześniejszy". Robi się wszystko aby postęp zabierał jak najmniej funduszy a jak najwięcej przynosi dochodu z wymiany sprzętu. Współczynnik Moore'a idealnie do tego pasuje więc zostanie zachowany.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Podzespoły elektroniczne tworzy się integrując olbrzymią liczbę urządzeń na płaskim podłożu. Przemysł używa i doskonali tę technikę od dziesięcioleci. Jednak pojawia się coraz większe zapotrzebowanie na podzespoły elektroniczne o zakrzywionych kształtach, które byłyby lepiej dostosowane do zastosowań biologicznych czy medycznych. Z pomocą może przyjść tutaj... rafinowany cukier.
      Gary Zabow z amerykańskich Narodowych Instytutów Standardów i Technologii (NIST) przygotowywał dla kolegów z laboratorium biomedycznego mikroskopijne magnetyczne kropki. Umieszczał je na podłożu, a następnie zabezpieczał cukrem. Naukowcy z laboratorium biomedycznego po prostu zmywali ochronną warstwę cukru wodą i mogli prowadzić swoje badania z użyciem magnetycznych kropek, na których nie pozostawały fragmenty plastiku czy związków chemicznych.
      Niedawno Zabow przez przypadek zostawił jeden z zestawów kropek w zlewce, którą podgrzał. Cukier rozpuścił się i utworzył gumowatą strukturę. Naukowiec postanowił posprzątać bałagan i zmyć cukier wodą. Tym razem okazało się, że magnetyczne kropki zniknęły. Jednak nie zmyła ich woda, ale zostały przeniesione na podłoże, któremu nadały tęczową poświatę. To ta tęcza mnie zaintrygowała, mówi Zabow. Wskazywała ona, że mikrokropki zachowały ułożenie, jakie im nadał.
      Naukowiec zaczął się zastanawiać, czy zwykły cukier stołowy może posłużyć do tworzenia układów elektronicznych na niekonwencjonalnych podłożach. Jego badania zaowocowały artykułem w Science.
      Bezpośrednie nadrukowywanie elementów elektronicznych na docelowe podłoże jest trudne, więc nadruki są przenoszone za pomocą elastycznych taśm czy plastikowego podłoża. Jednak podłoża takie nie są na tyle elastyczne, by można było swobodnie dostosowywać je do dowolnych kształtów. Ponadto przenoszenie za pomocą tworzyw sztucznych pozostawia resztki plastiku i związków chemicznych, które nie powinny znaleźć się w elektronice stosowanej w biomedycynie. Istnieją płynne techniki, gdy pożądany wzór znajduje się na powierzchni płynu, a podłoże, na którym ma się docelowo znaleźć, jest przez płyn przepychane. Jednak w takim wypadku trudno jest zachować dużą precyzję.
      Zabow odkrył, że połączenie skarmelizowanego cukru i syropu klonowego pozwala na osiągnięcie tego, czego chcemy. Cukier rozpuszczony w niewielkiej ilości wody może zostać wylany na przygotowany nadruk. Gdy się utwardzi, całość można podnieść z przytwierdzonym doń wzorem, nałożyć na nowe podłoże i rozpuścić. Najlepsze wyniki daje połączenie cukru i syropu klonowego, gdyż zachowuje wysoką lepkość i pozwala na odtworzenie wzoru na zakrzywionych powierzchniach. Następnie cukier można zmyć, a pozostawiając na docelowym podłożu podzespoły elektroniczne ułożone według pożądanego wzorca.
      Podczas swoich eksperymentów Zabow udowodnił, że w ten sposób można np. nakładać nadruki na ostrze pineski czy nadrukować wyraz skrótowiec na ludzkim włosie. Wykazał też, że magnetyczny dysk o średnicy 1 mikrometra można przenieść na włókno trojeści. Odkrywca nazwał nową technikę REFLEX (REflow-drive FLExible Xfer). Pozostaje jeszcze sporo do zrobienia, ale RELEX daje nadzieję na wykorzystanie nowych materiałów i mikrostruktur w elektronice, optyce czy inżynierii biomedycznej.
      Przemysł półprzewodnikowy wydał miliardy dolarów na udoskonalenie elektroniki, której dzisiaj używamy. Czyż nie byłoby wspaniale, gdyby inwestycje te udało się wykorzystać w nowych zastosowaniach za pomocą czegoś tak prostego i niedrogiego jak kawałek rafinowanego cukru?, cieszy się Zabow.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
      Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
      Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
      To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
      Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Urządzenia elektroniczne pracują coraz szybciej i szybciej.Jednak w pewnym momencie dotrzemy do momentu, w którym prawa fizyki nie pozwolą na dalsze ich przyspieszanie. Naukowcy z Uniwersytetu Technologicznego w Wiedniu, Uniwersytetu Technologicznego w Grazu i Instytutu Optyki Kwantowej im. Maxa Plancka w Garching określili najkrótszą skalę czasową, w której mogą pracować urządzenia optoelektroniczne.
      Podzespoły elektroniczne pracują w określonych interwałach czasowych i z sygnałami o określonej długości. Procesy kwantowo-mechaniczne, które umożliwiają wygenerowanie sygnału, trwają przez pewien czas. I to właśnie ten czas ogranicza tempo generowania i transmisji sygnału. Jego właśnie udało się określić austriacko-niemieckiemu zespołowi.
      Naukowcy, chcąc dotrzeć do granic tempa konwersji pól elektrycznych w sygnał elektryczny, wykorzystali impulsy laserowe, czyli najbardziej precyzyjne i najszybsze dostępne nam pola elektromagnetyczne. O wynikach swoich badań poinformowali na łamach Nature Communications.
      Badaliśmy materiały, które początkowo w ogóle nie przewodzą prądu, mówi profesor Joachim Burgdörfer z Instytutu Fizyki Teoretycznej Uniwersytetu Technologicznego w Wiedniu. Materiały te oświetlaliśmy ultrakrótkimi impulsami lasera pracującego w ekstremalnym ultrafiolecie. Impulsy te przełączały wzbudzały elektrony, które wchodziły na wyższy poziom energetyczny i zaczynały się swobodnie przemieszczać. W ten sposób laser zamieniał na krótko nasz materiał w przewodnik. Gdy tylko w materiale pojawiały się takie swobodne elektrony, naukowcy z pomocą drugiego, nieco dłuższego impulsu laserowego, przesuwali je w konkretnym kierunku. W ten sposób dochodziło do przepływu prądu elektrycznego, który rejestrowano za pomocą elektrod po obu stronach materiału.
      Cały proces odbywał się w skali atto- i femtosekund. Przez długi czas uważano, że zjawiska te powstają natychmiast. Jednak obecnie dysponujemy narzędziami, które pozwalają nam je precyzyjnie badać, wyjaśnia profesor Christoph Lemell z Wiednia. Naukowcy mogli więc odpowiedzieć na pytanie, jak szybko materiał reaguje na impuls lasera, jak długo trwa generowanie sygnału i jak długo sygnał ten trwa.
      Eksperyment był jednak obarczony pewną dozą niepewności związaną ze zjawiskami kwantowymi. Żeby bowiem zwiększyć tempo, konieczne były ekstremalnie krótkie impulsy lasera, by maksymalnie często dochodziło do tworzenia się wolnych elektronów. Jednak wykorzystanie ultrakrótkich impulsów oznacza, że nie jesteśmy w stanie precyzyjnie zdefiniować ilości energii, jaka została przekazana elektronom. Możemy dokładnie powiedzieć, w którym momencie w czasie dochodziło do tworzenia się ładunków, ale nie mogliśmy jednocześnie określić, w jakim stanie energetycznym one były. Ciała stałe mają różne pasma przewodzenia i przy krótkich impulsach laserowych wiele z nich jest wypełnianych wolnymi ładunkami w tym samym czacie, dodaje Lemell.
      Elektrony reagują różnie na pole elektryczne, a reakcja ta zależy od tego, jak wiele energii przenoszą. Jeśli nie znamy dokładnie tej wartości, nie możemy precyzyjnie ich kontrolować i dochodzi do zaburzeń przepływu prądu. Szczególnie przy bardzo intensywnej pracy lasera.
      Okazuje się, że górna granica możliwości kontrolowania procesów optoelektronicznych wynosi około 1 petaherca, mówi Joachim Burgdörfer. To oczywiście nie oznacza, że będziemy kiedykolwiek w stanie wyprodukować układy komputerowe z zegarami pracującymi nieco poniżej petaherca. Realistyczne możliwości technologii są zwykle znacznie niższe niż granice fizyczne. Jednak mimo tego, że nie jesteśmy w stanie pokonać praw fizyki, badania nad limitami fizycznych możliwości pozwalają na ich analizowanie, lepsze zrozumienie i udoskonalanie technologii.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Po raz pierwszy udało się zrekonstruować w laboratorium falową naturę elektronu, jego funkcję falową Blocha. Dokonali tego naukowcy z Uniwersytetu Kalifornijskiego w Santa Barbara (UCSB), a ich praca może znaleźć zastosowanie w projektowaniu kolejnych generacji urządzeń elektronicznych i optoelektronicznych.
      Elektrony zachowują się jednocześnie jak cząstki oraz jak fala. Ich falowa natura opisywane jest przez naukowców za pomocą obiektów matematycznych zwanych funkcjami falowymi. Funkcje te zawierają zarówno składowe rzeczywiste, jak i urojone. Z tego też powodu funkcji falowej Blocha elektronu nie można bezpośrednio zmierzyć. Można jednak obserwować powiązane z nią właściwości. Fizycy od dawna próbują zrozumieć, w jaki sposób falowa natura elektronów poruszających się przez sieć krystaliczną atomów, nadaje tej sieci właściwości elektroniczne i optyczne. Zrozumienie tego zjawiska pozwoli nam projektowanie urządzeń lepiej wykorzystujących falową naturę elektronu.
      Naukowcy z Santa Barbara wykorzystali silny laser na swobodnych elektronach, który posłuży im do uzyskanie oscylującego pola elektrycznego w półprzewodniku, arsenu galu. Jednocześnie za pomocą lasera podczerwonego o niskiej częstotliwości wzbudzali jego elektrony. Wzbudzone elektrony pozostawiały po sobie „dziury” o ładunku dodatnim. Jak wyjaśnia Mark Sherwin, w arsenku galu dziury te występują w dwóch odmianach – lekkiej i ciężkiej – i zachowują się jak cząstki o różnych masach.
      Para elektron-dziura tworzy kwazicząstkę zwaną ekscytonem. Fizycy z UCSB odkryli, że jeśli utworzy się elektrony i dziury w odpowiednim momencie oscylacji pola elektrycznego, to oba elementy składowe ekscytonów najpierw oddalają się od siebie, następnie zwalniają, zatrzymują się, zaczynają przyspieszać w swoim kierunku, dochodzi do ich zderzenia i rekombinacji. W czasie rekombinacji emitują impuls światła – zwany wstęgą boczną – o charakterystycznej energii. Emisja ta zawiera informacje o funkcji falowej elektronów, w tym o ich fazach.
      Jako, że światło i ciężkie dziury przyspieszają w różnym tempie w polu elektrycznym ich funkcje falowe Blocha mają różne fazy przed rekombinacją z elektronami. Dzięki tej różnicy fazy dochodzi do interferencji ich funkcji falowych i emisji, którą można mierzyć. Interferencja ta determinuje też polaryzację wstęgi bocznej. Może ona być kołowa lub eliptyczna.
      Autorzy eksperymentu zapewniają, że sam prosty stosunek pomiędzy interferencją a polaryzacją, który można zmierzyć, jest wystarczającym warunkiem łączącym teorię mechaniki kwantowej ze zjawiskami zachodzącymi w rzeczywistości. Ten jeden parametr w pełni opisuje funkcję falową Blocha dziury uzyskanej w arsenku galu. Uzyskujemy tę wartość mierząc polaryzację wstęgi bocznej, a następnie rekonstruując funkcję falową, która może się różnić w zależności od kąta propagacji dziury w krysztale, dodaje Seamus O'Hara.
      Do czego takie badania mogą się przydać? Dotychczas naukowcy musieli polegać na teoriach zawierających wiele słabo poznanych elementów. Skoro teraz możemy dokładnie zrekonstruować funkcję falową Blocha dla różnych materiałów, możemy to wykorzystać przy projektowaniu i budowie laserów, czujników i niektórych elementów komputerów kwantowych, wyjaśniają naukowcy.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...