Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

W ubiegłym roku DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych) ogłosiła warty 1,5 miliarda dolarów program Electronic Resurgence Initiative (ERI). Będzie on prowadzony przez pięć lat, a w jego wyniku ma powstać technologia, która zrewolucjonizuje sposób projektowania i wytwarzania układów scalonych. Przeznaczona nań kwota jest czterokrotnie większa, niż typowe wydatki DARPA na projekty związane ze sprzętem komputerowym.

W ostatnich latach postęp w dziedzinie sprzętu wyraźnie nie nadąża za postępem w dziedzinie oprogramowania. Ponadto Stany Zjednoczone obawiają się, że gdy przestanie obowiązywać Prawo Moore'a, stracą obecną przewagę na polu technologii. Obawa ta jest tym większa, że inne państwa, przede wszystkim Chiny, sporo inwestują w przemysł IT. Kolejny problem, to rosnąc koszty projektowania układów scalonych.

Jednym z celów ERI jest znaczące skrócenie czasu projektowania chipów, z obecnych lat i miesięcy, do dni. Ma to zostać osiągnięte za pomocą zautomatyzowania całego procesu wspomaganego technologiami maszynowego uczenia się oraz dzięki nowym narzędziom, które pozwolą nawet mało doświadczonemu użytkownikowi na projektowanie wysokiej jakości układów scalonych.

Obecnie nikt nie potrafi zaprojektować nowego układu scalonego w ciągu 24 godzin bez pomocy człowieka. To coś zupełnie nowego, mówi Andrew Kahng z Uniwersytetu Kalifornijskiego w San Diego, który stoi na czele jednego z zespołów zakwalifikowanych do ERI. Próbujemy zapoczątkować w elektronice rewolucję na miarę tej, jakiej dokonały browary rzemieślnicze na rynku sprzedaży piwa, stwierdził William Chapell, którego biuro z ramienia DARPA odpowiada za ERI. Innymi słowy, DARPA chce, by małe firmy mogły szybko i tanio projektować i produkować wysokiej jakości układy scalone bez polegania na doświadczeniu, zasobach i narzędziach dostarczanych przez rynkowych gigantów.

Gdy Prawo Moore'a przestanie obowiązywać, najprawdopodobniej będziemy potrzebowali nowych materiałów i nowych sposobów na integrację procesora z układami pamięci. Ich znalezienie to jeden z celów ERI. Inny cel to stworzenie takiego sposobu integrowania ze sobą procesora i pamięci, który wyeliminuje lub znacząco ograniczy potrzebę przemieszczania danych pomiędzy nimi. W przyszłości zaś miałby powstać chip, który w tym samym miejscu będzie przechowywał dane i dokonywać obliczeń, co powinno znacząco zwiększyć wydajność i zmniejszyć pobór energii. DARPA chce też stworzyć sprzęt i oprogramowanie, które mogą być rekonfigurowane w czasie rzeczywistym do nowych zadań.

Niektóre założenia ERI pokrywają się z tym, nad czym pracuje obecnie prywatny przemysł komputerowy. Przykładem takiego nakładania się jest próba stworzenia technologii 3-D system-on-chip. Jej zadaniem jest przedłużenie obowiązywania Prawa Moore'a za pomocą nowych materiałów jak np. węglowe nanorurki oraz opracowania lepszych sposobów łączenia ze sobą poszczególnych elementów układu scalonego.

Podnoszą się jednak głosy mówiące, że DARPA i inne agendy rządowe wspierające badania IT, takie jak np. Departament Energii, powinny przeznaczać więcej pieniędzy na takie projekty. Profesor Erica Fuchs z Carnegie Mellon University zauważa, że prywatne przedsiębiorstwa skupiają się obecnie na bardziej wyspecjalizowanych zastosowaniach i mniej chętnie biorą udział w dużych wspólnych projektach. Zdaniem uczonej wysiłki amerykańskich agend rządowych w tym zakresie są o rząd wielkości za małe w stosunku do wyzwań, które czekają nas w najbliższej przyszłości.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Już teraz przecież Samsung Galaxy S9 jest chyba produkowany w technologiii 10 nm,a granicą jest chyba 1 nm,jest wiele technologii,było gdzieś tutaj mówione o grafenowych komputerach,kwantowych,dna i innych,to kwestia czasu,kiedy trzeba będzie się zdecydować na jakieś rozwiązanie,liczę na sukces w tej dziedzinie nauki,już teraz są komputery z 1 TB pamięci,tylko co się stanie,jeśli nic nie wymyślimy,sprzęt zacznie tanieć czy odwrotnie?

Edytowane przez GodSI

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jestem całkowicie spokojna o prawo Moore'a, gdyż - jak pisał już niejednokrotnie - to nie jest prawo fizyczne tylko ekonomiczne. Taki postęp lekki i nie za szybki pozwala najbardziej maksymalizować zyski. To taka możliwie najwolniejsza kontrolowana "rewolucja" zapewniająca możliwie  najwięcej stopni typu "wymiana sprzętu na nowocześniejszy". Robi się wszystko aby postęp zabierał jak najmniej funduszy a jak najwięcej przynosi dochodu z wymiany sprzętu. Współczynnik Moore'a idealnie do tego pasuje więc zostanie zachowany.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Większość ludzi korzysta z urządzeń elektronicznych. Gdy zaczynają one szwankować, bądź gdy pojawi się nowszy model, znaczna część użytkowników bez zastanowienia wyrzuca stare urządzenie i zastępuje je nowym. Dlatego śmieci elektroniczne są najszybciej rosnącą kategorią odpadów. Każdego roku wyrzucamy około 40 milionów ton elektroniki. A problem narasta, gdyż im więcej elektroniki wokół nas – a np. w przeciętnym amerykańskim gospodarstwie domowym znajdują się już 24 urządzenia elektroniczne – tym krótszy średni czas użytkowania urządzenia. Naukowcy z University of Chicago postanowili sprawdzić, czy można zmienić relacje pomiędzy człowiekiem a gadżetem poprzez dosłowne... ożywienie gadżetu.
      Eksperyment przywodzi na myśl popularną zabawkę tamagotchi. Jasmine Lu i profesor Pedro Lopes wykorzystali śluzowca z gatunku Physarum polycephalum do pomocy w zasilaniu smartwatcha. Urządzenie w pełni działa tylko wówczas, gdy przewodzący prąd organizm jest zdrowy. A to wymaga dbałości ze strony użytkownika.
      Zmusiliśmy w ten sposób użytkowników do przemyślenia swojego związku z urządzeniem na wiele różnych sposobów. Gdy rozmawialiśmy z nimi o ich doświadczenia ze standardowymi smartwatchami, opaskami i inną ubieralną elektroniką, ludzie mówili, że wykorzystują te urządzenia utylitarnie, w konkretnym celu. Jednak w przypadku naszego urządzenia to podejście się zmieniło, bardziej odczuwali tutaj dwukierunkowy związek i przywiązanie, gdyż musieli opiekować się żywym organizmem. Czuli, że nie mogą go wyrzucić czy zamknąć w szufladzie, mówi Jasmine Lu.
      Zbudowane przez Lu zegarki pokazują godzinę i mierzą puls właściciela. Jednak druga z ich funkcji jest całkowicie zależna od kondycji śluzowca. Organizm znajduje się w jednej z części specjalnego pojemnika. Użytkownik musi regularnie odżywiać go wodą i płatkami owsianymi. Dzięki temu śluzowiec rozrasta się i dociera do drugiej części pojemnika. Powstaje obwód elektryczny, który aktywuje funkcję pomiaru tętna. Śluzowiec, gdy nie jest odpowiednio odżywiany, przestaje się rozrastać, wchodzi w stan uśpienia, w którym może pozostawać całymi latami.
      W eksperymencie wzięło udział 5 osób, które nosiły urządzenie przez dwa tygodnie. W ciągu pierwszych 7 dni zadaniem użytkowników było dbanie o śluzowca tak, by doszło do aktywowania funkcji pomiaru tętna. W drugim tygodniu poproszono ich, by zaprzestali karmienia, by śluzowiec wysechł, a pomiar tętna się wyłączył. Przez cały czas trwania eksperymentu użytkownicy mieli opisywać swoje myśli i odczucia względem urządzenia w dzienniczku, odpowiadali też na pytania eksperymentatorów.
      Okazało się, że użytkownicy czyli się mocno związani z zegarkiem. Niektórzy stwierdzili, że traktowali go jak domowego pupila, nadali mu imię, a gdy byli chorzy, prosili kogoś innego, by karmił śluzowca. Przyznali, że ich związek z organizmem był silniejszy niż z wirtualnymi bytami, jak tamagotchi czy Simy. Jeszcze bardziej zaskakujące była reakcja uczestników eksperymentu na prośbę, by przestali karmić organizm. Zaczęli oni odczuwać winę, a nawet żałobę. Byli w szoku. Niemal każdy upewniał się, czy na pewno ma to zrobić, mówi Lopes.
      Lu i Lopes zaprezentowali wyniki swoich badań podczas 2022 ACM Symposium on User Interface Software and Technology, jednej z najważniejszych konferencji dotyczących interakcji ludzi i komputerów. Uczeni mają nadzieję, że zainspiruje to przemysł do tworzenia kreatywnych urządzeń zasilanych dzięki śluzowcom i zachęci projektantów do tworzenia technologii, których ludzie mniej chętnie będą się pozbywali i nawiązywali z nimi silniejsze więzi. Chcą, by dzięki temu więcej osób oddawało zepsute urządzenia do naprawy, a nie pozbywało się ich, generując kolejne miliony ton odpadów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podzespoły elektroniczne tworzy się integrując olbrzymią liczbę urządzeń na płaskim podłożu. Przemysł używa i doskonali tę technikę od dziesięcioleci. Jednak pojawia się coraz większe zapotrzebowanie na podzespoły elektroniczne o zakrzywionych kształtach, które byłyby lepiej dostosowane do zastosowań biologicznych czy medycznych. Z pomocą może przyjść tutaj... rafinowany cukier.
      Gary Zabow z amerykańskich Narodowych Instytutów Standardów i Technologii (NIST) przygotowywał dla kolegów z laboratorium biomedycznego mikroskopijne magnetyczne kropki. Umieszczał je na podłożu, a następnie zabezpieczał cukrem. Naukowcy z laboratorium biomedycznego po prostu zmywali ochronną warstwę cukru wodą i mogli prowadzić swoje badania z użyciem magnetycznych kropek, na których nie pozostawały fragmenty plastiku czy związków chemicznych.
      Niedawno Zabow przez przypadek zostawił jeden z zestawów kropek w zlewce, którą podgrzał. Cukier rozpuścił się i utworzył gumowatą strukturę. Naukowiec postanowił posprzątać bałagan i zmyć cukier wodą. Tym razem okazało się, że magnetyczne kropki zniknęły. Jednak nie zmyła ich woda, ale zostały przeniesione na podłoże, któremu nadały tęczową poświatę. To ta tęcza mnie zaintrygowała, mówi Zabow. Wskazywała ona, że mikrokropki zachowały ułożenie, jakie im nadał.
      Naukowiec zaczął się zastanawiać, czy zwykły cukier stołowy może posłużyć do tworzenia układów elektronicznych na niekonwencjonalnych podłożach. Jego badania zaowocowały artykułem w Science.
      Bezpośrednie nadrukowywanie elementów elektronicznych na docelowe podłoże jest trudne, więc nadruki są przenoszone za pomocą elastycznych taśm czy plastikowego podłoża. Jednak podłoża takie nie są na tyle elastyczne, by można było swobodnie dostosowywać je do dowolnych kształtów. Ponadto przenoszenie za pomocą tworzyw sztucznych pozostawia resztki plastiku i związków chemicznych, które nie powinny znaleźć się w elektronice stosowanej w biomedycynie. Istnieją płynne techniki, gdy pożądany wzór znajduje się na powierzchni płynu, a podłoże, na którym ma się docelowo znaleźć, jest przez płyn przepychane. Jednak w takim wypadku trudno jest zachować dużą precyzję.
      Zabow odkrył, że połączenie skarmelizowanego cukru i syropu klonowego pozwala na osiągnięcie tego, czego chcemy. Cukier rozpuszczony w niewielkiej ilości wody może zostać wylany na przygotowany nadruk. Gdy się utwardzi, całość można podnieść z przytwierdzonym doń wzorem, nałożyć na nowe podłoże i rozpuścić. Najlepsze wyniki daje połączenie cukru i syropu klonowego, gdyż zachowuje wysoką lepkość i pozwala na odtworzenie wzoru na zakrzywionych powierzchniach. Następnie cukier można zmyć, a pozostawiając na docelowym podłożu podzespoły elektroniczne ułożone według pożądanego wzorca.
      Podczas swoich eksperymentów Zabow udowodnił, że w ten sposób można np. nakładać nadruki na ostrze pineski czy nadrukować wyraz skrótowiec na ludzkim włosie. Wykazał też, że magnetyczny dysk o średnicy 1 mikrometra można przenieść na włókno trojeści. Odkrywca nazwał nową technikę REFLEX (REflow-drive FLExible Xfer). Pozostaje jeszcze sporo do zrobienia, ale RELEX daje nadzieję na wykorzystanie nowych materiałów i mikrostruktur w elektronice, optyce czy inżynierii biomedycznej.
      Przemysł półprzewodnikowy wydał miliardy dolarów na udoskonalenie elektroniki, której dzisiaj używamy. Czyż nie byłoby wspaniale, gdyby inwestycje te udało się wykorzystać w nowych zastosowaniach za pomocą czegoś tak prostego i niedrogiego jak kawałek rafinowanego cukru?, cieszy się Zabow.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
      Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
      Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
      To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
      Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Urządzenia elektroniczne pracują coraz szybciej i szybciej.Jednak w pewnym momencie dotrzemy do momentu, w którym prawa fizyki nie pozwolą na dalsze ich przyspieszanie. Naukowcy z Uniwersytetu Technologicznego w Wiedniu, Uniwersytetu Technologicznego w Grazu i Instytutu Optyki Kwantowej im. Maxa Plancka w Garching określili najkrótszą skalę czasową, w której mogą pracować urządzenia optoelektroniczne.
      Podzespoły elektroniczne pracują w określonych interwałach czasowych i z sygnałami o określonej długości. Procesy kwantowo-mechaniczne, które umożliwiają wygenerowanie sygnału, trwają przez pewien czas. I to właśnie ten czas ogranicza tempo generowania i transmisji sygnału. Jego właśnie udało się określić austriacko-niemieckiemu zespołowi.
      Naukowcy, chcąc dotrzeć do granic tempa konwersji pól elektrycznych w sygnał elektryczny, wykorzystali impulsy laserowe, czyli najbardziej precyzyjne i najszybsze dostępne nam pola elektromagnetyczne. O wynikach swoich badań poinformowali na łamach Nature Communications.
      Badaliśmy materiały, które początkowo w ogóle nie przewodzą prądu, mówi profesor Joachim Burgdörfer z Instytutu Fizyki Teoretycznej Uniwersytetu Technologicznego w Wiedniu. Materiały te oświetlaliśmy ultrakrótkimi impulsami lasera pracującego w ekstremalnym ultrafiolecie. Impulsy te przełączały wzbudzały elektrony, które wchodziły na wyższy poziom energetyczny i zaczynały się swobodnie przemieszczać. W ten sposób laser zamieniał na krótko nasz materiał w przewodnik. Gdy tylko w materiale pojawiały się takie swobodne elektrony, naukowcy z pomocą drugiego, nieco dłuższego impulsu laserowego, przesuwali je w konkretnym kierunku. W ten sposób dochodziło do przepływu prądu elektrycznego, który rejestrowano za pomocą elektrod po obu stronach materiału.
      Cały proces odbywał się w skali atto- i femtosekund. Przez długi czas uważano, że zjawiska te powstają natychmiast. Jednak obecnie dysponujemy narzędziami, które pozwalają nam je precyzyjnie badać, wyjaśnia profesor Christoph Lemell z Wiednia. Naukowcy mogli więc odpowiedzieć na pytanie, jak szybko materiał reaguje na impuls lasera, jak długo trwa generowanie sygnału i jak długo sygnał ten trwa.
      Eksperyment był jednak obarczony pewną dozą niepewności związaną ze zjawiskami kwantowymi. Żeby bowiem zwiększyć tempo, konieczne były ekstremalnie krótkie impulsy lasera, by maksymalnie często dochodziło do tworzenia się wolnych elektronów. Jednak wykorzystanie ultrakrótkich impulsów oznacza, że nie jesteśmy w stanie precyzyjnie zdefiniować ilości energii, jaka została przekazana elektronom. Możemy dokładnie powiedzieć, w którym momencie w czasie dochodziło do tworzenia się ładunków, ale nie mogliśmy jednocześnie określić, w jakim stanie energetycznym one były. Ciała stałe mają różne pasma przewodzenia i przy krótkich impulsach laserowych wiele z nich jest wypełnianych wolnymi ładunkami w tym samym czacie, dodaje Lemell.
      Elektrony reagują różnie na pole elektryczne, a reakcja ta zależy od tego, jak wiele energii przenoszą. Jeśli nie znamy dokładnie tej wartości, nie możemy precyzyjnie ich kontrolować i dochodzi do zaburzeń przepływu prądu. Szczególnie przy bardzo intensywnej pracy lasera.
      Okazuje się, że górna granica możliwości kontrolowania procesów optoelektronicznych wynosi około 1 petaherca, mówi Joachim Burgdörfer. To oczywiście nie oznacza, że będziemy kiedykolwiek w stanie wyprodukować układy komputerowe z zegarami pracującymi nieco poniżej petaherca. Realistyczne możliwości technologii są zwykle znacznie niższe niż granice fizyczne. Jednak mimo tego, że nie jesteśmy w stanie pokonać praw fizyki, badania nad limitami fizycznych możliwości pozwalają na ich analizowanie, lepsze zrozumienie i udoskonalanie technologii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel,  trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
      Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
      Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
      Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
      Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...