Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Na University of Michigan skonstruowano procesor, który do wykonywania obliczeń używa nie elektronów, ale... powietrza. Poszczególne wartości logiczne reprezentowane są przez zasysanie powietrza do tuby (0) i jego wypuszczanie (1).

Procesor jest więc złożony z szeregu zaworów, tub i kanałów, którymi wędruje powietrze.

Pneumatyczne zawory wykorzystują elastyczne membrany i umieszczone pod nimi komory. Gdy do komory trafia powietrze, membrana wypychana jest w górę, blokując przepływ powietrznego sygnału w bramce. Gdy powietrze zostaje wyssane, membrana się obniża i sygnał może przejść.

Dzięki całemu zestawowi kanałów powietrznych kontrolowanych za pomocą zaworów Mark Burns i Minsoung Rhee stworzyli bramki logiczne, rejestry przesuwne i przerzutniki. Dzięki ich połączeniu powstał powietrzny 8-bitowy procesor.

Wbrew pozorom wykorzystujący powietrze procesor to nie tylko ciekawostka. Układ może pomóc w udoskonaleniu systemów typu "laboratorium w układzie scalonym", które są coraz szerzej wykorzystywane w medycynie, chemii czy biologii. Systemy takie wykorzystują najczęściej przepływ cieczy i gazów w skali mikro. Nie są wyposażone w żadną elektronikę, a więc połączenie ich ze współczesnymi układami liczącymi nie jest łatwe i tanie. Tymczasem powietrzny procesor jest zbudowany podobnie, tak jak i one wykorzystuje serię zaworów, ale czyni to w celu dokonywania obliczeń. Jego połączenie z urządzeniami "laboratorium w układzie scalonym" powinno być więc stosunkowo łatwe.

Share this post


Link to post
Share on other sites

Ciekawym, czy zaimplementowano jakąś istniejącą architekturę (MOS, Zilog? wątpię…), czy jakąś „własną”. I ciekawe, ile MHz wyciąga. Oj, rozpędziłem się, pewnie raczej Hz. :P

Share this post


Link to post
Share on other sites

Dawno temu w książce z końca lat 80-tych dla dzieci i młodzieży, której tytułu już nie pomne. Był podany właśnie przykład takiego komputera tzn chodziło o to ze komputer można zbudować w oparciu o dowolne zjawisko fizyczne którym można w jakiś sposób sterować (sterować przepływem) czyli np jako komputer na powietrze czy wodę.

Powiem wiec ze spokojnym sumieniem ze nic nowego nie odkryli...

Share this post


Link to post
Share on other sites
Powiem wiec ze spokojnym sumieniem ze nic nowego nie odkryli...

Czyli jeżeli ludzie wylądują na Plutonie, to też będzie "nic nowego", bo wcześniej ktoś kiedyś o tym napisał? ???

Share this post


Link to post
Share on other sites

O ile ciekawostką to może być to szkoda o tym pisać. Co innego licznik zrobiony z klocków LEGO :P to było warte opisania. Ogólnie chyba uniwerki w USA przeżywają kryzys wiedzy, mało teraz Polaków tam wyjeżdża to pewnie dla tego ;]

Share this post


Link to post
Share on other sites

mikroos a co w tym nowego ?

Skoro już 20 lat temu ktoś o tym pisał i to w książce dla dzieci. Dla mnie dzięki tej książce dziś jest oczywiste ze "liczyć" można na czym bądź nie tylko w oparciu o prąd. Wtedy dla autora było to tak samo oczywiste jak automat do gry w kółko i krzyżyk z którym nie da się wygrać a co najwyżej zremisować zbudowany z kabli włączników i przewodów (nawet obliczył ilość połączeń miedzy przełącznikami) nie zbudował go ale czy jak ja go zbuduje to będzie odkrycie ?

A może trzeba iść dalej i zbudować maszynę liczącą "na korbkę"? Po tak doniosłym odkryciu pozostanie zbudować już tylko chyba silnik na korbkę.

Share this post


Link to post
Share on other sites
mikroos a co w tym nowego ?

To w tym nowego, że zapisu w książce nie uruchomisz. Uruchomić możesz dopiero prawdziwy prototyp, a potem konkretne urządzenie. I to z niego jest prawdziwa korzyść, a nie z jakiegoś tam zapisu w książce.

nie zbudował go ale czy jak ja go zbuduje to będzie odkrycie ?

Jeśli znajdziesz dla niego zastosowanie w chemii i biologii, dzięki czemu ułatwisz rozwój topowej obecnie dziedziny wiedzy (a uwierz mi, że urządzenia typu 'lab on a chip' to obecnie top), to prawdopodobnie tak.

A może trzeba iść dalej i zbudować maszynę liczącą "na korbkę"? Po tak doniosłym odkryciu pozostanie zbudować już tylko chyba silnik na korbkę.

Ty naprawdę nie widzisz, że to urządzenie może zostać wykorzystane do celów, z którymi wcześniej nie radziły sobie żadne maszyny? I że autorzy tego prototypu mogą się istotnie przyczynić do rozwoju nauki, a nie tylko zrealizować jakiś tam głupi pomysł?

 

Powtarzam kolejny raz: czy jeżeli ludzie wylądują na Plutonie, to stwierdzisz, że niczego wielkiego nie osiągnięto, bo ktoś już kiedyś o tym napisał?

Share this post


Link to post
Share on other sites

Dawno temu w książce z końca lat 80-tych dla dzieci i młodzieży, której tytułu już nie pomne. Był podany właśnie przykład takiego komputera […]

 

A dałbyś radę „pomnąć” jej tytuł i autora? Lubię takie rzeczy, a już książki i czasopisma o informatyce z lat 80. to mój feblik. :P

Share this post


Link to post
Share on other sites

A może trzeba iść dalej i zbudować maszynę liczącą "na korbkę"?

 

Tolo, polecam zapoznanie się z pracami Charlesa Babbage'a :P

 

A co do całości sporu, to obaj z mikroosem macie rację, każdy swoją - dla Ciebie ważne jest, że ktoś kiedyś położył teoretyczne podwaliny pod takie urządzenie i masz rację - w takim kontekście nie jest to nowość, lecz nowością jest zbudowanie działającego prototypu, który na dodatek może przyczynić się do rozwoju innej dziedziny nauki (dość nowej i dynamicznie rozwijającej się, lecz niezwykle ważnej - lab on a chip) - i tu znów rację ma mikroos :D

Share this post


Link to post
Share on other sites

W sumie ciekawa sprawa. Kilka lat temu, w którymś z czasopism pokazano podobny przykład, z tym, że zamiast powietrza, użyto wody.:P

Share this post


Link to post
Share on other sites

jotunn

Między innymi właśnie dla tego ze pan Babbage'a jest mi znany ze swojej działalności pojawił się ironiczny pomysł "pójścia dalej" i wymyślenia komputera na korbkę. Choć bliżej było mi jak to pisałem do maszyny liczącej Pascala.

 

Jurgi

Raczej nie ma szans. Zbyt dawno temu to było i zbyt wiele takich książek wtedy przeczytałem by próbować. A co do Twojego zainteresowania to polecam odwiedzić najbliższą bibliotekę publiczną oni miewają jeszcze pokaźne zapasy z tych lat co najgorsze czasem więcej takich niż aktualnych.

 

mikroos

Nie musze uruchamiać treści z książki żeby być w stanie ocenić czy to zadziała.

A przydatność takiego czegoś to inna sprawa.

Jak dla mnie to ktoś wymyślił sobie coś co było znane od dawna i na siłę próbuje znależć zastosowaniezeby pokazać jakiego wiekopomnego odkrycia dokonał.

Ktoś raczej rzucił hasłem niż znalazł zastosowanie. Takie coś to maszyna cyfrowa (chodzi o jej dyskretny charakter) natomiast ciśnienie w procesach różnistych nie zmienia się w sposób dyskretny a ciągły. I mamy problem dyskretyzacji ciągłych zmian i dokonywania na nich jakiś obliczeń w oparciu o niewydolny 8 mio bitowy procesor "na luft". Ten problem został już dawno temu rozwiązany. Na przykład tak (pierwszy link z google):

 

www.freescale.com/files/sensors/doc/data_sheet/MPX5100.pdf

 

I do tego jakiś mikrokontroler albo mikroprocesor z konwerterem analogowo cyfrowym i pozamiatane.

Zwróć uwagę ze "Twoje" lab on chip potrzebuje do pracy ciśnienia i podciśnienia które musi być zewnętrzne wytworzone by miało odpowiednia wydajność. Więc już mamy lab on chip, kompresor i pompę do podciśnienia. Do tego sterowanie tym ma charakter mechaniczny co już dośc szybko stawia pierwsza granice wydajności.

Zastanawiałeś się kiedyś czemu w informatyce skończyła się epoka lamp ?

Dalej nic bardziej skomplikowanego nikt z tego nie zrobi bo szybko się zepsuje albo w ogóle nie zadziała lub wraz z rozrostem będzie działać wolniej.

Share this post


Link to post
Share on other sites
Zwróć uwagę ze "Twoje" lab on chip potrzebuje do pracy ciśnienia i podciśnienia które musi być zewnętrzne wytworzone by miało odpowiednia wydajność. Więc już mamy lab on chip, kompresor i pompę do podciśnienia. Do tego sterowanie tym ma charakter mechaniczny co już dośc szybko stawia pierwsza granice wydajności.

Tyle, że samo szkiełko kosztuje kilka centów, a przy odpowiednim zaprojektowaniu spełnia funkcję całego zestawu odczynników. Tak więc kupuje się najtańszą pompkę+kompresor, a do tego wystarczy potem wymieniać śmiesznie tanie szkiełka. Nie mając styku z takimi badaniami na bieżąco najprawdopodobniej nie zdajesz sobie sprawy, jak ogromne korzyści może dać ta technologia, szczególnie stosowana w warunkach polowych.

 

Poza tym nie wspomnę nawet o tym, że Ty zaprezentowałeś projekt zwykłego sensora ciśnienia, a to jest jednak ZNACZNIE inna rzecz od procesora.

Share this post


Link to post
Share on other sites

Od siebie dodam tyle że już Verne pisał o podróży na księżyc, zanim to nastąpiło :P

 

I zarówno jak z tym mechanicznym procesorem jak i wylotem na księżyc przełomowe może być, nie tyle wymyślenie że można, tylko konkretna implementacja (gotowy prototyp procesora, prototyp wahadłowca etc).

Share this post


Link to post
Share on other sites

Ktoś raczej rzucił hasłem niż znalazł zastosowanie. Takie coś to maszyna cyfrowa (chodzi o jej dyskretny charakter) natomiast ciśnienie w procesach różnistych nie zmienia się w sposób dyskretny a ciągły.

Pozwolę sobie zauważyć, że napięcie w elektronicznych układach cyfrowych również nie zmienia się w sposób dyskretny. Jest tylko interpretowane jako "0" lub "1" w zależności od poziomu.

 

Nie wiem zresztą, czy możliwe jest skonstruowanie układu, w którym nie będzie stanów pośrednich (pasmo zabronione) - układy elektroniczne mają te czasy po prostu niższe i dlatego są wydajniejsze. Możliwe, że dopiero układy kwantowe rozwiążą ten problem.

 

Co do układów pneumatycznych - taniej (a to ma podstawowe znaczenie w przemyśle) jest jednak ,,postawić'' mikrokontroler z podłączonym przez przetwornik A/C czujnikiem ciśnienia niż budować procesor pneumatyczny ,,od zera''. A na pewno taki układ łatwiej oprogramować, czy to w Assemblerze, czy w językach wyższego poziomu.

 

Jeśli dodamy do tego ograniczenie prędkości działania przez prędkość rozchodzenia się dźwięku (nie światła jak w elektronice), zawodność wynikającą ze zużywania się części mechanicznych, hałas jaki towarzyszy przetwarzaniu (ruchome elementy + mechaniczna pompa zasilająca) oraz wymiary ograniczające miniaturyzację stwierdzimy, że taki procesor ma jedynie sporą wartość dydaktyczną.

 

A co do głosów ,,to już było'' - laboratorium cyfrowych układów pneumatycznych istniało ponad 15 lat temu na Politechnice Warszawskiej, na wydziale Mechaniki Precyzyjnej (obecnie Mechatroniki). Procesorów co prawda się tam nie modelowało, ale uniwersalna tablica umożliwiała budowę pneumatycznych przerzutników i łączenie ich w różnego rodzaju rejestry. Budowa procesora to ,,tylko'' kwestia skonstruowania prostego ALU i połączenia tego w całość.

Share this post


Link to post
Share on other sites

Co innego zabawa tablicą w szkole, a co innego zbudowanie funkcjonalnego mikropocesora nie potrzebującego elektroniki, który powstał dla ściśle określonego zadania.

Share this post


Link to post
Share on other sites

To jest pomysł taki jak by wymyślić korkociąg z napędem pneumatycznym i tłumaczyć ze można by go użyć do trepanacji czaszki. Ja to oceniam raczej jako twórczość kogoś komu się nudziło lub naczytał się czegoś w klimacie nie wiem stream punku może i postanowił zaistnieć.

 

Wydaje mi się ze po prostu nikt nie zrobił tego wcześniej żeby się nie wygłupiać.

Już dawno temu w samochodach na przykład ciężarowych do sterowania hamulcami były stosowane układy czysto pneumatyczne. Pedał był zaworem  siłownik układem wykonawczym. Teraz jest sobie komputer, z tyłu na ramie jest zawór elektronicznie sterowany troszkę czujników działa to o niebo lepiej.  Przede wszystkim szybciej ! Bo prąd elektryczny biegnie szybciej niż powietrze a ma do pokonania tylko kawałek od zaworu do siłownika a nie drogę od pedału do tyłu samochodu.

 

 

mikroos

Pneumatyczny procesor nie będzie kosztował kilka centów !

Powiedzmy ze cofniemy się wstecz o jakieś 35 lat żeby nie kopać tego projektu pentiumem (bo by było niesportowo) i przytulimy sobie procesr intel 8080.

Prędkość 2 MHz ilość tranzystorów 4500.

I teraz wyobraż sobie 4500 tubek z membranami które sobie "pulatają". I pompkę która to napędza (dwie w zasadzie). Dalej jaka jest awaryjność takiego układu według mnie duża.

I ile to tak sobie będzie musiało "pultać" żeby zrównoważyć sekundę pracy wspomnianego procesora z przed ponad cwierć wiecza?.

Zmieść takie coś na chipie za kilak centów powodzenia ;) takich rzeczy nie ma nawet w erze. To co reprezentowały sobą pierwsze mikroprocesory jest dla technologi pneumatycznej czymś w rodzaju granicy nie do przebycia bo wraz ze wzrostem skomplikowania będzie rosła pojemność którą będzie trzeba równoważyć albo wydajnością pomp albo spadkiem prędkości.

 

Co do sensora to jest to urządzenie które zamiennia cienienie na prąd które już jest i jest "brakującym ogniwem" miedzy pneumatyką a elektroniką. Natomiast w przyadku cyfrowego procesora pneumatycznego który ma uogólniając 8 wejść cyfrowych brakuje po drodze czegoś co zmieni cienienie zmieniające się w sposób ciągły na postać cyfrową strawną dla tego pożął się boże mikroprocesora. Kwestie samego mikroprocesora pominąłem bo już od wielu lat są znane rożne rozwiązania w postaci mikroprocesorów czy mikrokontorlerów. 

 

DimmuR

To jest żadne odkrycie "komputer" to nie jest kupka tranzystorów które się przełączają, to ze tak to ujmę pewien sposób rozumowania które ma wiele poziomów zaczyna się w matematyce a kończy na twoim biurku. Tutaj po prostu ktoś w którymś momencie wyjął z tej układanki jeden puzzel i włożył na silę inny i przekonuje ludzi ze pasuje.

 

Ślubek źle mnie zrozumiałeś w komputerze pneumatycznym dwa stany mają być reprezentowane przez dwa stany pod i nadciśnienie które nie zawsze muszą być stałe co do wartości byle rozpoznawalne i jak i w elektronice. Chodzi o to ze mamy maszynę cyfrową która która przyjmuje na wejściu 2^8 możliwości a my mamy na przykład jeden wąż w którym zmienia się ciśnienie w sposób ciągły.  Pisałem o procesie jaki ten procesor miał by badać a nie samym procesorze.

 

"Co do taniej" to pełna zgoda i to właśnie cały czas tłumacze ze to żaden wynalazek a nadmiar czyjegoś wolnego czau lub pieniędzy.

 

A co do Politechniki i laboratorium to właśnie o to mi chodzi ze nie ma w tym żadnej tajemnicy. Nikt nic nie odkrył.

 

Reasumują taki procesor nie nadaje się do niczego a już w szczególności do miniaturyzacji, zmniejszenia awaryjności czy szybkości czegokolwiek.

A argumentowanie ze mozna go wykorzystać w lab-on-chip jest śmieszne wręcz dla mnie bo chip nagle miał by rozmiary mojego komputera lub większe.

Można wykorzystać jedynie ewentualnie pewne elementy jako zawory do sterowania na przykład przepływem ale równie dobrze można było by wykorzystać elektrycznie sterowane układy wykonawcze a poza tym jak napisał Ślubek takie rzeczy to już 15 lat temu i to u nas. 

 

Ten news ma mniej więcej takie przesłanie dla mnie. Skonstruowaliśmy wspaniała armatę na muchy, jest wspaniała i idealna to wiekopomne odkrycie bo z łusek można robić popielniczki. 

Share this post


Link to post
Share on other sites

A może po prostu autorzy tego pomysłu są fanami steampunka i to taki proof of concept. ;)

Share this post


Link to post
Share on other sites
Pneumatyczny procesor nie będzie kosztował kilka centów !

No i? Przecież nikt nie powiedział, że będzie. Za to będzie miał totalnie inne zastosowanie od klasycznego.

I ile to tak sobie będzie musiało "pultać" żeby zrównoważyć sekundę pracy wspomnianego procesora z przed ponad cwierć wiecza?

Wystarczy kilka "pultnięć", bo zastosowanie jest kompletnie inne. To tak, jakbyś porównywał skuteczność cegły i kosiarki jako narzędzi do utrzymywania prawidłowej długości trawy.

Share this post


Link to post
Share on other sites
Ja to oceniam raczej jako twórczość kogoś komu się nudziło lub naczytał się czegoś w klimacie nie wiem stream punku może i postanowił zaistnieć.

Może miast tego wpierw przeczytał byś więcej o projekcie? Tak się składa, że został stworzony w określonym celu i będzie miał określone zastosowanie praktyczne.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Inżynierowie z University of Massachusetts Amherst wykazali, że z niemal każdego materiału można stworzyć urządzenie pobierające energię elektryczną z pary wodnej zawartej w powietrzu. Wystarczy utworzyć w tym materiale nanopory o średnicy mniejszej niż 100 nanometrów. To niezwykle ekscytujące. Otworzyliśmy drogę do wytwarzania czystej energii z powietrza, cieszy się główny autor artykułu opisującego badania, świeżo upieczony inżynier Xiaomeng Liu.
      Powietrze zawiera olbrzymie ilości energii elektrycznej. Weźmy na przykład chmurę, która jest niczym innym jak masą kropelek wody. Każda z tych kropelek zawiera ładunek elektryczny i w odpowiednich warunkach dochodzi do wyładowania. Nie potrafimy jednak pozyskiwać energii z tych wyładowań. Natomiast my stworzyliśmy niewielką chmurę, która wytwarza energię w sposób przewidywalny, możemy więc ją zbierać, dodaje profesor Jun Yao.
      U podstaw najnowszego odkrycia znajduje się praca Yao i Dereka Levleya, którzy w 2020 roku wykazali, że możliwe jest nieprzerwane pozyskiwanie energii elektrycznej z powietrza za pomocą specjalnego materiału złożonego z nanokabli zbudowanych z białek bakterii Geobacter sulfureducens. Po tym, jak dokonaliśmy tego odkrycia zauważyliśmy, że tak naprawdę zdolność pozyskiwania energii z powietrza jest wbudowana w każdy materiał, który posiada pewne właściwości, mówi Yao. Wystarczy, by materiał ten zawierał pory o średnicy mniejszej niż 100 nanometrów, czyli ok. 1000-krotnie mniejszej niż średnica ludzkiego włosa.
      Dzieje się tak dzięki parametrowi znanemu jako średnia droga swobodna. Jest to średnia odległość, jaką przebywa cząsteczka przed zderzeniem z inną cząsteczką. W tym wypadku mowa o cząsteczce wody w powietrzu. Średnia droga swobodna wynosi dla niej około 100 nanometrów. Yao i jego zespół zdali sobie sprawę, że mogą wykorzystać ten fakt do pozyskiwania energii elektrycznej. Jeśli ich urządzenie będzie składało się z bardzo cienkiej warstwy dowolnego materiału pełnego porów o średnicy mniejszej niż 100 nanometrów, wówczas molekuły wody będą wędrowały z górnej do dolnej części takiego urządzenia. Po drodze będą uderzały w krawędzie porów. Górna część urządzenia będzie bombardowana większą liczbą cząstek wody, niż dolna. Pojawi się w ten sposób nierównowaga ładunków jak w chmurze, której górna część jest bardziej naładowana niż dolna. W ten sposób powstanie bateria, która będzie działała dopóty, dopóki w powietrzu jest wilgoć.
      To bardzo prosty pomysł, ale nikt wcześniej na niego nie wpadł. Otwiera to wiele nowych możliwości, mówi Yao. Jako, że tego typu urządzenie można zbudować praktycznie z każdego materiału, można je umieścić w różnych środowiskach. Możemy wybrazić sobie takie baterie z jednego materiału działające w środowisku wilgotnym, a z innego – w suchym. A że wilgoć w powietrzu jest zawsze, to urządzenie będzie działało przez całą dobę, niezależnie od pory dnia i roku.
      Poza tym, jako że powietrze rozprzestrzenia się w trzech wymiarach, a my potrzebujemy bardzo cienkiego urządzenia, cały system bardzo łatwo można skalować, zwiększając jego wydajność i pozyskując nawet kilowaty mocy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Od dekad elastyczna elektronika była niewielką niszą. Teraz może być gotowa, by wejść do mainstream'u, stwierdził Rakesh Kumar, lider zespołu, który stworzył plastikowy procesor. O elektronice zintegrowanej w praktycznie każdym przedmiocie, od podkoszulków poprzez butelki po owoce, słyszymy od lat. Dotychczas jednak plany jej rozpowszechnienia są dalekie od realizacji, a na przeszkodzi stoi brak elastycznego, plastikowego, wydajnego i taniego procesora, który można by masowo produkować.
      Wiele przedsiębiorstw próbowało stworzyć takie urządzenie i im się nie udało. Według naukowców z amerykańskiego University of Illinois Urbana-Champaign i specjalistów z brytyjskiej firmy PragmatIC Semiconductor, problem w tym, że nawet najprostszy mikrokontroler jest zbyt złożony, by można go było masowo wytwarzać na plastikowym podłożu.
      Amerykańsko-brytyjski zespół zaprezentował właśnie uproszczony, ale w pełni funkcjonalny, plastikowy procesor, który można masowo produkować bardzo niskim kosztem. Przygotowano dwie wersje procesora: 4- i 8-bitową. Na substracie z 4-bitowymi układami, których koszt masowej produkcji liczyłby się dosłownie w groszach, działa 81% procesorów. To wystarczająco dobry wynik, by wdrożyć masową produkcję.
      Procesory wyprodukowano z cienkowarstwowego tlenku indowo-galowo-cynkowego (IGZO), dla którego podłożem był plastik. Innowacja polegała zaś na stworzeniu od podstaw nowej mikroarchitektury – Flexicore.Musiała być maksymalnie uproszczona, by sprawdziła się w na plastiku. Dlatego zdecydowano się na układy 4- i 8-bitowe zamiast powszechnie wykorzystywanych obecnie 16- i 32-bitowych. Naukowcy rozdzielili moduły pamięci przechowującej instrukcje od pamięci przechowującej dane. Zredukowano również liczbę i stopień złożoności instrukcji, jakie procesor jest w stanie wykonać. Dodatkowym uproszczeniem jest wykonywanie pojedynczej instrukcji w jednym cyklu zegara.
      W wyniku wszystkich uproszczeń 4-bitowy FlexiCore składa się z 2104 podzespołów. To mniej więcej tyle samo ile tranzystorów posiadał procesor Intel 4004 z 1971 roku. I niemal 30-krotnie mniej niż konkurencyjny PlasticARM zaprezentowany w ubiegłym roku. Uproszczenie jest więc ogromne. Stworzono też procesor 8-bitowy, jednak nie sprawuje się on tak dobrze, jak wersja 4-bitowa.
      Obecnie trwają testy plastikowych plastrów z procesorami. Są one sprawdzane zarówno pod kątem wydajności, jak i odporności na wyginanie. Jednocześnie twórcy procesorów prowadzą prace optymalizacyjne, starając się jak najlepiej dostosować architekturę do różnych zadań. Jak poinformował Kumar, badania już wykazały, że można znacznie zredukować pobór prądu, nieco zbliżając do siebie poszczególne bramki.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji.
      Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM.
      Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu.
      Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na MIT powstał nowoczesny mikroprocesor z tranzystorami z nanorurek węglowych. Urządzenie można wyprodukować za pomocą technik używanych obecnie przez przemysł półprzewodnikowy, co ma olbrzymie znaczenie dla ewentualnego wdrożenia.
      Nanorurki węglowe są od dawna przedmiotem zainteresowań, gdyż dają nadzieję na zbudowanie kolejnej generacji komputerów po tym, gdy układów krzemowych nie będzie można już miniaturyzować. Tranzystory polowe z nanorurek węglowych (CNFET) mogą mieć bardzo obiecujące właściwości. Z dotychczasowych badań wynika, że powinny być one około 10-krotnie bardziej efektywne pod względem zużycia energii i pozwolić na przeprowadzanie obliczeń ze znacznie większą prędkością. Problem jednak w tym, że przy masowej produkcji w nanorurkach pojawia się tak wiele defektów, że nie można ich w praktyce wykorzystać.
      Naukowcy z MIT opracowali nową technikę, która znacząco zmniejsza liczbę defektów i daje pełną kontrolę nad produkcję CNFET. Co ważne, technika ta wykorzystuje procesy już używane w przemyśle półprzewodnikowym. Dzięki niej na MIT wyprodukowano 16-bitowy mikroprocesor składający się z 14 000 CNFET, który jest w stanie wykonywać te same obliczenia co tradycyjny procesor.
      Nowy procesor oparto na architekturze RISC-V. Testy wykazały, że jest on zdolny do wykonania pełnego zestawu instrukcji dla tej technologii.
      To, jak dotychczas, najbardziej zaawansowany chip wykonany w nowym procesie nanotechnologicznym, który daje nadzieję na wysoką wydajność i efektywność energetyczną, mówi współautor badań, profesor Max M. Shulaker. Krzem ma swoje ograniczenia. Jeśli chcemy coraz szybszych komputerów, to węglowe nanorurki są najbardziej obiecującym materiałem. Nasze badania pokazują zupełnie nowy sposób budowy układów scalonych z węglowymi nanorurkami.
      Shulaker i jego zespół od dawna pracują nad układami scalonymi z CNFET. Przed sześcioma laty byli w stanie zaprezentować procesor złożony ze 178 CNFET, który mógł pracować na pojedynczym bicie danych. Od tamtego czasu uczeni skupili się na rozwiązaniu trzech kluczowych problemów: defektach materiałowych, niedociągnięciach produkcyjnych oraz problemach funkcjonalnych.
      Największym problemem było uzyskanie nanorurek odpowiedniej jakości. Żeby CNFET działał bez zakłóceń, musi bez problemów przełączać się pomiędzy stanem 0 i 1, podobnie jak tradycyjny tranzystor. Jednak zawsze podczas produkcji powstanie jakaś część nanorurek, które będą wykazywały właściwości metalu, a nie półprzewodnika. Takie nanorurki czynią CNFET całkowicie nieprzydatnym. Zaawansowane układy scalone, by być odpornymi na obecność wadliwych nanorurek i móc szybko wykonywać zaawansowane obliczenia, musiałyby korzystać z nanorurek o czystości sięgającej 99,999999%. Obecnie jest to niemożliwe do osiągnięcia.
      Naukowcy z MIT opracowali technikę nazwaną DREAM (designing resilency against metallic CNT), która tak pozycjonuje metaliczne CNFET, że nie zakłócają one obliczeń. Dzięki temu zmniejszyli wymagania dotyczące czystości nanorurek aż o cztery rzędy wielkości. To zaś oznacza, że do wyprodukowania w pełni sprawnego układu potrzebują nanorurek o czystości sięgającej 99,99%, a to jest obecnie możliwe.
      Uczeni przeanalizowali różne kombinacje bramek logicznych i zauważyli, że metaliczne nanorurki węglowe nie wpływają na nie w ten sam sposób. Okazało się, że pojedyncza metaliczna nanorurki w bramce A może uniemożliwić komunikację pomiędzy nią, a bramką B, ale już liczne metaliczne nanorurki w bramce B nie wpływają negatywnie na jej możliwości komunikacji z żadną bramką. Przeprowadzili więc symulacje, by odnaleźć wszystkie możliwe kombinacje bramek, które byłyby odporne na obecność wadliwych nanorurek. Podczas projektowania układu scalonego brano pod uwagę jedynie te kombinacje. Dzięki technice DREAM możemy po prostu kupić komercyjne dostępne nanorurki, umieścić je na plastrze i stworzyć układ scalony, nie potrzebujemy żadnych specjalnych zabiegów, mówi Shulaker.
      Produkcja CNFET rozpoczyna się od nałożenia znajdujących się w roztworze nanorurek na podłoże z predefiniowanym architekturą układu. Jednak nie do uniknięcia jest sytuacja, w której część nanorurek pozbija się w grupy, tworząc rodzaj dużych cząstek zanieczyszczających układ scalony. Poradzono sobie z tym problemem tworząc technikę RINSE (removal of incubated nanotubes through selective exfoliation). Na podłoże nakłada się wcześniej związek chemiczny, który ułatwia nanorurkom przyczepianie się do niego. Następnie, już po nałożeniu nanorurek, całość pokrywana jest polimerem i zanurzana w specjalnym rozpuszczalniku. Rozpuszczalnik zmywa polimer, a ten zabiera ze sobą pozbijane w grupy nanorurki. Te zaś nanorurki, które nie zgrupowały się z innymi, pozostają przyczepione do podłoża. Technika ta aż 250-kronie zmniejsza zagęszczenie zbitek nanorurek w porównaniu z alternatywnymi metodami ich usuwania.
      Poradzono sobie też z ostatnim problemem, czyli wytworzeniem tranzystorów typu N i typu P. Zwykle produkcja tych tranzystorów z węglowych nanorurek kończyła się uzyskaniem urządzeń o bardzo różniącej się wydajności. Problem rozwiązano za pomocą nowej techniki o nazwie MIXED (metal interface engineering crossed with electrostatic doping), dzięki której możliwe jest precyzyjna optymalizacja procesorów do wymaganych zadań. Technika ta polega na dołączeniu do każdego tranzystora, w zależności czy ma być on P czy N, odpowiedniego metalu, platyny lub tytanu. Następnie tranzystory są pokrywane tlenkiem, co pozwala na ich dostosowanie do zadań, jakie będą spełniały. Można więc osobno dostroić je do pracy w zastosowaniach w wysoko wydajnych serwerach, a osobno do energooszczędnych implantów medycznych.
      Obecnie, w ramach programu prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych), wspomniane techniki produkcji układów scalonych z węglowych nanorurek wdrażane są w fabrycznych liniach produkcyjnych. W tej chwili nikt nie potrafi powiedzieć, kiedy w sklepach pojawią się pierwsze procesory z CNFET. Shulaker mówi, że może się to stać już w ciągu najbliższych pięciu lat. Sądzimy, że teraz to już nie jest pytanie czy, ale pytanie kiedy, mówi uczony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Firma Adapteva ogłosiła, że wkrótce zacznie produkować próbną wersję 64-rdzeniowego procesora wykonanego w technologii 28 nanometrów. Układ E64G4 korzysta z technologii Epiphany, która została stworzona pod kątem takich zastosowań jak rozpoznawanie mowy czy przetwarzanie grafiki.
      Adapteva specjalizuje się w tworzeniu aplikacji na rynek finansowy, wojskowy i inżynieryjny, teraz zaś chce zaistnieć na rynku urządzeń przenośnych.
      W firmę zainwestowano zaledwie 2 miliony dolarów, teraz przygotowuje ona swój czwarty układ scalony i wkrótce przestanie przynosić straty. Andreas Olofsson, założyciel i szef Adaptevy mówi, że mimo iż same maski litograficzne kosztują miliony dolarów, to przedsiębiorstwo może działać, gdyż wybrało model multiproject wafer (MPW), w którym koszty masek podzielone są pomiędzy klientów firmy. Ponadto Adapteva działa na rynkach, na których produkuje się niewielkie serie drogich układów. Pojedynczy procesor może kosztować nawet 1000 dolarów.
      Od lata 2011, kiedy to Adapteva wyprodukowała swój pierwszy układ scalony, 16-rdzeniowy procesor wykonany w technologii 65 nanometrów, wpływy przedsiębiorstwa wyniosły milion dolarów.
      Obecnie ma powstać czwarta generacja układu Epiphany. Kość będzie składała się z 64 rdzeni RISC, z których każdy zostanie wyposażony w 32 kilobajty pamięci podręcznej. Całość zmieści się na powierzchni 8,2 mm2 i będzie, jak twierdzi Adapteva, najbardziej efektywnym energetycznie układem scalonym. Jego wydajność ma wynieść 70 GFlops/wat.
      Kość taktowana będzie zegarem o częstotliwości do 700 MHz.
      Ambicje firmy jednak się na tym nie kończą. Architektura Epiphany ma umożliwić produkcję procesora składającego się z 4096 rdzeni.
      Układy na zamówienie Adaptevy są produkowane w fabrykach Globalfoundries.
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...