Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

IBM bije grafenowe rekordy

Rekomendowane odpowiedzi

IBM pokazał najszybszy grafenowy tranzystor. Błękitny Gigant pobił tym samym swój własny rekord sprzed roku, kiedy to zaprezentowano tranzystor pracujący z prędkością 100 GHz. Najnowsze działo IBM-a jest taktowane zegarem o częstotliwości 155 GHz.

Yu-Ming Lin z IBM-a powiedział, że badania nad nowym grafenowym tranzystorem dowiodły, iż możliwe jest produkowanie tanich urządzeń tego typu za pomocą standardowych technologii wykorzystywany przy produkcji półprzewodników. To z kolei oznacza, że komercyjna produkcja grafenowej elektroniki może rozpocząć się w stosunkowo niedługim czasie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Podejrzewam, że wejście w życie technologii grafenowej będzie ogromnym przełomem w przemyśle elektronicznym ;) Kolejnym takim przełomem może być pojawienie się kwantowych komputerów. Boję się tylko tego, że wraz z niewyobrażalnym poszerzeniem się możliwości obliczeniowych pojawi się też mnóstwo zagrożeń (np dotychczasowe metody szyfrowania staną się bezużyteczne).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A komputery GRID obliczające projekty naukowe będą jeszcze szybsze.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wszystko pięknie, tylko po co?

Tak naprawdę PO CO?

Po to żeby banda kretynów siedziała przed kolejną kretyńską strzelanką, na której rozbryzgi krwi renderowane są w sposób bardziej realistyczny?

Rozumiem postęp ale jak narazie w większości służy do produkcji gadżetów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Gość shadowmajk

Wroc do jaskini, tam jest Twoje miejsce. ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

155Ghz to nie tak dużo. Zgodnie z prawem Moor'a (mówiącego o ilości tranzystorów, czyli lekkie nagięcie)

Ja mam u siebie 4rdzenie*2,5Ghz = 10Ghz

(od 2008)

Ghz    lata

10

20   2 - 2010

40   4 - 2012

80   6 - 2014

160   8 - 2016

320    10

640 12

1280 14

2560 16

5120 18

10240  20

Biorąc powyższe pod uwagę wprowadzenie grafenu przyśpieszyłoby rozwój o kilka lat, ale nie zrobiłoby radykalnej rewolucji.

 

Dałoby to skokowe nagłe przyśpieszenie, ale później znów, o ile dalej, zgodnie z prawem Moor'a.

 

W projekcie Folding@home przyniosłoby cudowne rezultaty. To by było piękne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Biorąc pod uwagę tylko GHz faktycznie może to nie jest aż tak zawrotna szybkość... Choć ja mam 2*2,5Ghz, i nie pogniewałbym się za 30x szybszy procesor :P Może nadrobiłby to, że mam zintegrowaną kartę graficzną w laptopie :D

 

W każdym razie jeśli dodamy do tego, że wg innego artykułu z KW grafenowa elektronika będzie w stanie sama siebie schładzać, zaczyna się robić ciekawie - bo będzie można zrobić procesor wielkości obecnego układu procesor+radiator, no bo element chłodzący nie będzie już zajmował miejsca.. Tym samym ilość tranzystorów w procesorze można by zwiększyć dodatkowo 10-30krotnie. I wtedy wielkości zaczynają już być dosyć imponujące :)

 

Mnie się przy tych przyszłościowych możliwościach marzy się gra, w której będzie symulowany świat realny. Nazywam to 'grą o szmacie' :P Chodzi o to, że gdy gracz znajdzie np wspomnianą szmatę, to nie będzie miał do wyboru tylko takich akcji, jakie umożliwili programiści, ale będzie mógł manipulować wspomnianą szmatą tak jak w realnym świecie - owinąć wokół kija i zrobić pochodnię, nakłaść do środka kamieni i mieć prowizoryczną broń, użyć jako filtra do wody, zastosować jako bandaż, podrzeć na paseczki i związać je ze sobą żeby mieć sznurek i wymyślić jeszcze więcej zastosowań - co tylko przyjdzie do głowy ;) Jeśli każdy obiekt w grze mógłby zachowywać się w ten sposób, każdą z gier można by przejść na miliony sposobów :P

 

Myślę, że aby coś takiego było możliwe, trzeba poszczególne przedmioty utworzyć z mikroziaren (takiej większej alternatywy atomów i cząsteczek), z których każde wykazywałoby właściwości fizyczne specyficzne dla danego materiału. Nie wiem czy moc obliczeniowa komputerów grafenowych by na to wystarczyła, ale kwantowych już powinna :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Biorąc pod uwagę to co piszecie... litości.

Ilość rdzeni nie ma nic wspólnego ani z częstotliwością ani z prawem Moora.

Jeśli już to można mówić zmodyfikowanej wersji prawa Moora dotyczącej podwajania się wydajności.

Ale liczenie 2 x 3 GHz = 6 GHz to jakiś obłęd.

To tak jakby liczyć że dwie ciężarówki jadące z szybkością po 80 km/h jadą z szybkością 160 km/h.

Zwiększa się ilość towaru jaki możemy przewieźć ale nie szybkość jazdy. Zwiększa się moc obliczeniowa.

Tylko że jak chcecie zwiększyć moc obliczeniową to patrzcie na superkomputery.

Zdanie " ja mam u siebie 4x2,5=10 GHz"

a ja mam u siebie różne komputery między innymi 1x2,6 GHz.

a superkomputer ma 1024 x 4 x 3 GHz= 12 THz

a internet ma 1000000 x 2 x 2,5 GHz= dużo więcej.

Przecież tu można dowolną rzecz napisać. To bezsensowne, nic tak nie porównamy.

Proponuję wrócić do początku czyli: rozmiaru technologii w jakiej wykonujemy dany układ. I tu już prawo zostało złamane. Tym samym częstotliwość nie wzrośnie za dużo bez grafenu.

A to że mamy układy wielordzeniowe, równie dobrze możemy dwa kompy połączyć w sieć, wspomóc dobrym algorytmem i mamy wzrost mocy obliczeniowej. Zależny jedynie od naszej kasy (ilości komputerów). Co nasza kasa ma wspólnego z prawem Moora? Ano, nic. To ekonomia a nie technologia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prędkość nowych tranzystorów wykonanych z grafenu jest duża ale nie powalająca. Ja chciałbym się dowiedzieć w jakiej technologii zostały wykonane. Wydaje mi się, że skoro zaznaczyli, że można je produkować przy użyciu obecnej technologii, to nie zeszli poniżej 20nm.

 

Bardzo istotne dla Grafenu będzie połączenie technologi poniżej 20nm (która już ograniczyła krzem) z ich szybkością. Pozwoli to budować niewielkie a zarazem bardzo szybkie procesory czy układy programowalne.

 

Osobiście duże nadzieje wiążę z ograniczeniem poboru prądu, ponieważ ilość energii traconej na chłodzenie elektroniki jest istotnym problemem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Grafen to materiał przyszłości nie tylko do zastosowań w elektronice. Wyobraźmy sobie możliwość jego produkcji na wielkoprzemysłową skalę i to w nieograniczony sposób. Np. szyby do samochodu coś w rodzaju kanapki na wierzchu powierzchnia grafenowa w środku kwarc taka szyba była by praktycznie nie do zarysowania na dodatek kuloodporna, lub kamizelki kuloodporne cienkie jak podkoszulek, mnóstwo zastosowań w każdej dziedzinie życia. Wprowadzenie grafenu na taką skalę będzie oznaczać początek nowej ery, która będzie się miała mniej więcej jak era żelaza do ery kamienia łupanego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dokładnie tak jak mówisz, tylko z mojego punktu widzenia kamizelka o grubości podkoszulka nie zdałaby rezultatu, pocisk może by i jej nie przebił ale cała energia pocisku przeszłaby na klatkę piersiową, więc mamy uszkodzenia wywołane uderzeniem a nie przebiciem. Standardowa kamizelka odbiera również samą energię uderzenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Thikim, masz dużo racji, ale przyznasz, że właśnie łączenie wielu rdzeni, komputerów itd daje wzrost możliwości. Sama szybkość wykonywanych operacji istotnie - nie zmienia się. Ale zmienia się ilość jednoczesnych operacji wykonywanych w ciągu sekundy. Dzięki temu szybkość wykonania określonej ilości operacji jest większa. Coś na zasadzie jakby miał dół miał kopać jeden robotnik, a dziesięciu: każdy z nich kopie niby tak samo szybko, ale dół będzie wykopany 10x szybciej. I tak jak w przykładzie z ciężarówkami, który podałeś - nie jadą 2x szybciej, ale całość towaru jaki trzeba przewieźć, przewiozą 2x szybciej. Rozwój technologii będzie o tyle fajny, że w jednym przeciętnym komputerze wzrośnie moc obliczeniowa - tak jak teraz wymieniamy kości ram po 1,2 czy 4GB, a kiedyś wymieniało się po 1,2,4MB..

 

Zgadzam się z MikiWay - grafen ma dużo szersze zastosowanie niż elektronika.. Co byście np powiedzieli na tworzenie elementów konstrukcyjnych, które nie byłyby spawane, ale syntezowane od razu w pożądanym kształcie z grafenu, połaczone z dokładnością do jednego atomu? To mogło by się przyczynić do niezwykłego wzrostu wytrzymałości ;)

 

Na razie to brzmi jak sci-fi, ale w ciągu zaledwie nieco ponad dwudziestu lat mojego życia dokonał się taki skok technologiczny, że pewnie za kolejne 10-20 lat świat może zmienić się nie do poznania :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

mam pytanie na jakiej zasadzie działa taki tranzystor grafenowy skoro jest on przewodnikiem,

w takim razie nie ma on przerwy energetycznej, wiec budowa kanału za jego pomocą jest bez sensowna,

chyba ze gdzieś się tu mylę? ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

http://kopalniawiedzy.pl/grafen-osadzanie-z-warstwy-gazowej-Uniwersytet-Warszawski-Instytut-Technologii-Materialow-Elektronicznych-12853.html

 

Z tego co tutaj zostało ogłoszone, istnieje przerwa energetyczna. Podejrzewam, że może to być zorganizowane w taki sposób, że przerwa energetyczna istnieje między poszczególnymi warstwami grafenu.. Ale nie znam się na tym za dobrze, także nie mogę być pewien ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no ale co ma 'przerwa energetyczna' pomiędzy warstwami wspólnego, skoro wzdłuż przewodzi, a tak się je buduje z tego co widziadłem ze warstwy sa równolegle do kanału.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

O tym że wiele rdzeni daje większą moc pisałem sam. Natomiast nie daje to zwiększenia częstotliwości pracy układu i nie można pisać odnośnie Moora że 2x3GHz=6GHz. Jest to całkowicie bezsensowne. Równie dobrze można napisać prawo Moora działa bo co roku rośnie liczba komputerów na świecie i mamy większą moc obliczeniową.

W ostatnich latach postęp jeśli chodzi o częstotliwość pracy układów jest praktycznie zerowy.

W 1997 dobry procesor miał 233 MHz.

W 2005 dobry procesor miał 2,3 GHz.

Czy dziś dobry procesor ma 23 GHz????

Nie. Nawet do 5 GHz nie doszliśmy (mówię o popularnych układach, specjalizowane mogą być szybsze).

Za dużo problemów.

Technologię zmniejszamy powoli ale to też się niedługo skończy, myślę że w tym 10leciu.

Pozostają inne półprzewodniki, ale też nie za wiele zdziałamy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Pozostają inne półprzewodniki

 

jakie? ;d

 

nie tylko szybkość zegara decyduje o wydajności, więc weź to pod uwagę.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

wszystko pięknie, tylko po co?

Tak naprawdę PO CO?

Po to żeby banda kretynów siedziała przed kolejną kretyńską strzelanką, na której rozbryzgi krwi renderowane są w sposób bardziej realistyczny?

Rozumiem postęp ale jak narazie w większości służy do produkcji gadżetów.

jak nie masz co pisać, to nie pisz proszę głupot...

podam ci przykłady: medelowanie prognoz pogody; modelowanie przepływu płynów np. przy projektowaniu sztucznych zastawek serca, czy sztucznych komór serca (obecnie obliczenia trwaja bardzo długo, nawet prostych modeli)... inne zastosowania wykocypuj sam... chyba, że u Ciebie używanie kompów ogranicza się wyłącznie do gry w głupie strzelanki lub używania idiotycznych gadżetów...

 

------------

pomyśl chwilę zanim napiszesz

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Prawo Moora odnosi się do ilości tranzystorów a nie do ich szybkości ;) Prędzej czy później prawo moora zostanie złamane nie można podwajać w nieskończoność ilości tranzystorów.

 

Do powstania grafenowego procesora jeszcze długa droga. Czy on będzie taktowany 5Ghz czy 50Ghz dla zwykłego użytkownika nie będzie miało znaczenia. Prosta przyczyna nie będziesz miał gdzie tej mocy wykorzystać... (co innego badania naukowe itp) kolejna sprawa to że procesor jest gigatycznie szybki.. nie znaczy że cała maszyna jest szybka. To jest tak jak z RAIDem :P Najszybszy RAID działa tak szybko jak najwolniejszy jego dysk. Tak samo tutaj gdzie CPU będzie szybki a np dyski/ram sama magistrala może okazać się wąskim gardłem.. Tak wiec do opracowania jest nie tylko tranzystor/procesor z grafenu ale cała masa innych rzeczy. Jak by to było takie proste to od przyszłego roku cieszylibyśmy się grafenowymi ultraszybkimi procesorami...

 

Poza tym trzeba pamiętać że najpierw takie giganty jak intel/nvidia/amd/motorola i inne najpierw wykorzystają do cna obecną technologie a dopiero później się wezmą za grafen. Tak już działa ekonomia...

Mam nadzieje tylko że grafen przyspieszy prace nad następną technologią kwantową.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Czyli produkowanie tranzystorów z?/na? grafenie nie jest takie skomplikowane? Jeszcze tylko, żeby ten grafen dało się na masową skalę produkować. Nie dość że elektronika byłaby wydajniejsza, to jeszcze mielibyśmy pojemniejsze baterie.

 

A co do czyjejś obserwacji, że tylko gry korzystają. To jest coś takiego jak automatyczne rozpoznawanie obrazu które wymaga bardzo dużo mocy obliczeniowej i może uczynić miliony ludzi bezrobotnymi - to nie gra. Poza tm jest dużo innych zastosowań.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

To z kolei oznacza, że komercyjna produkcja grafenowej elektroniki może rozpocząć się w stosunkowo niedługim czasie.

Lubię wygrzebywać te super optymistyczne newsy.

Ktoś coś słyszał o komercyjnej produkcji grafenowej elektroniki?

Co do wydajności - odnoszę takie jakieś wrażenie że główny postęp w dziedzinie wydajność PC idzie w grafikę, ew. transmisję.

Dziś już przymierzam się do zakupu 32 calowego monitora o rozdzielczości 2560 x 1440. Gdzie czasy 800x600?

Tak lekko licząc ok. 7 krotnie większa ilość danych do obróbki.

To obciąży kartę graficzną ale i procesor także.

Kiedyś każdy by mówił że to bezsensu przecież już na ekranie 640x480 wszystko widać :D

Zresztą już na Commodore były obrazki :D

Z drugiej strony jak porównać wydajność 1 MHz Commodore z dzisiejszym PC z procesorem z kilkoma rdzeniami taktowanymi po ok. 2 GHz?

Że się na nim klika 10 mln razy szybciej? :D (w rzeczy samej tam nie było myszki tylko klawiatura i joystick)

Na ile pamiętam Commodore się nie zawieszał wydajnościowo (na krótki okres czasu przy większej ilości operacji).

Ciekawe jest dokąd zajdziemy z grafiką czyli rozdzielczością obrazu.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Postęp w dziedzinie wydajności też się odbywa, choć może nieco mniej spektakularnie - jednak marketingowo chyba łatwiej sprzedać lepszy obraz (coś widocznego) niż wydajniejszy procesor. Jeśli procesor już jest wydajniejszy, to musi mieć wysoką cyferkę przy GHz, rdzeniach itp. bo inaczej się nie sprzeda. Czasem mam wrażenie, że projektowanie sprzętu (a czasem i oprogramowania) odbywa się w agencji reklamowej a dopiero później architekci myślą jakby ten temat teraz ugryźć.

 

A co do wspomnianego postępu w wydajności miałem na myśli rozwiązania chmurowe. "Chmura", czyli coś co do niedawna było jedynie marketingowym eufemizmem na "dysk sieciowy" przybiera rozmiary na prawdę wydajnych rozwiązań (jak np. AWS).

Trochę sam odpowiedziałeś na własne pytanie - casual user nie zauważy, że klika mu sie 10 mln razy szybciej i zazwyczaj nie ma zapotrzebowania na większą wydajność. Zaryzykowałbym stwierdzenie, że gdyby nie gry i czasami "ciężkie" strony internetowe, to większości ludzi nadal wystarczyłby sprzęt sprzed 10-12 lat (czasem jakościowo nawet lepszy). Z kolei developer czy admin stojąc przed potrzebą większej wydajności, moim zdaniem, mają w czym wybierać, choć nie zawsze jest to tak proste jak kupno lepszej karty graficznej czy monitora.

 

A co do produkcji grafenowej elektroniki z artykułu - zdefiniuj "stosunkowo niedługi czas" ;)

Edytowane przez cent

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Minęło 5 lat. W elektronice to chyba stosunkowo długi okres czasu :D

5 lat temu mało kto nosił komputer osobisty w kieszeni.

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Zgadzam się ale pokłócę się dla zasady.

 

5 lat w elektronice to owszem dużo. Pytanie - jak dużym skokiem technologicznym cechował się postęp w rozwoju elektroniki krzemowej na przestrzeni 5 lat, kiedy ta była w powijakach i była nowinką technologiczną? (to nie jest retoryka, po prostu za młody jestem żeby wiedzieć ;) ). Trzeba też uwzględnić jak dobrze na tamten czas był znany surowiec i jego właściwości - krzem, w porownaniu do grafenu, który sam w sobie został odkryty stosunkowo niedawno.

 

Do hurra optymizmu mi daleko i wszelkie "rewolucje" traktuję z rezerwą, ale jeśli już coś ma "namieszać" w najbliższej przyszłości ( ;] ) w elektronice to raczej właśnie grafen.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Oj to nie takie proste. Bo piszemy o rozwoju docierającym pod strzechy. A historia o wiele lepiej odnotowuje właśnie odkrycia w laboratoriach.

Tranzystor to:

patenty w latach 20-stych

pierwszy egzemplarz 1947

radio 1954

pierwsze powszechne radio tranzystorowe w Polsce 1960.

No ale wtedy były bariery pomiędzy krajami.

Dziś jak firma zrobi smartfona to wiesz o tym że robią, wiesz o tym że będzie premiera. Wreszcie możesz kupić i to wszystko góra rok zajmuje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W projektach związanych z syntezą termojądrową konieczne jest wykorzystanie materiałów odpornych na wysokie temperatury i uszkodzenia radiacyjne. Obiecujące pod tym względem są materiały bazujące na węglu, zwłaszcza nanorurki węglowe i grafen. Naukowcy z Zakładu Badań Reaktorowych NCBJ brali udział w badaniach odporności detektorów grafenowych na wysokie strumienie neutronów.

      Reaktory termojądrowe, takie jak powstające obecnie w Cadarache we Francji urządzenie badawcze ITER (International Thermonuclear Experimental Reactor), czy powstający w Hiszpanii jego następca – DEMO (Demonstration Power Plant), wykorzystują silne pole magnetyczne do uwięzienia plazmy, w której zachodzą reakcje syntezy lekkich jąder atomowych. By umożliwić efektywne zachodzenie reakcji syntezy, plazmę należy podgrzać do temperatury dziesiątek milionów stopni Celsjusza. Aby zapewnić stabilne działanie urządzenia, konieczna jest precyzyjna diagnostyka pola magnetycznego. Ze względu na działające na znajdującą się we wnętrzu reaktora elektronikę warunki, takie jak wysoka temperatura (rzędu kilkuset °C) czy silne promieniowanie neutronowe, większość komercyjnie dostępnych półprzewodnikowych czujników pola magnetycznego nie jest w stanie pracować w takich układach. Z tego powodu prowadzone są badania nad detektorami metalowymi, opartymi o chrom czy bizmut. Niestety, detektory oparte o nie mają niską czułość i duży przekrój czynny na oddziaływanie z neutronami.
      Interesującą alternatywą wydają się być detektory wykonane w technologii kwaziswobodnego grafenu epitaksjalnego na węgliku krzemu. Warstwy grafenu mogą być formowane w bardzo czułe sensory efektu Halla: jeżeli przewodnik, przez który płynie prąd elektryczny, znajduje się w polu magnetycznym, pojawia się w nim różnica potencjałów – tzw. napięcie Halla, które może posłużyć do pomiaru pola magnetycznego. Zbadana została już odporność grafenu na promieniowanie. Badania przeprowadzono wykorzystując zarówno wiązki jonów, protonów, jak i elektronów, i nie wykryto istotnych zmian właściwości napromienionych próbek. Przewidywania teoretyczne sugerują, że podobnie grafen reaguje na promieniowanie neutronowe, jednak nigdy wcześniej nie zostało to bezpośrednio potwierdzone eksperymentalnie.
      W pracy, która ukazała się na łamach czasopisma Applied Surface Science, zbadano wpływ prędkich neutronów na układ detektora opartego na grafenie. Instytut Mikroelektroniki i Fotoniki (IMiF) funkcjonujący w Sieci Badawczej Łukasiewicz wytworzył strukturę składającą się z grafenu na wysyconej atomami wodoru powierzchni węglika krzemu 4H-SiC(0001). Całość pokryto dielektryczną pasywacją z tlenku glinu, stanowiącą zabezpieczenie środowiskowe warstwy aktywnej detektora – mówi dr inż. Tymoteusz Ciuk, kierujący pracami w Łukasiewicz-IMiF. Tak przygotowany układ został następnie poddany napromienieniu neutronami prędkimi wewnątrz rdzenia reaktora MARIA w NCBJ.
      Zamontowana w rdzeniu reaktora MARIA unikatowa instalacja do napromieniania neutronami prędkimi pozwala nam przeprowadzać badania materiałów, bądź podzespołów przewidywanych do wykorzystania w układach termojądrowych, w których także są generowane prędkie neutrony – opowiada dr inż. Rafał Prokopowicz, kierownik Zakładu Badań Reaktorowych NCBJ, współautor pracy. W przypadku badań nad strukturami detekcyjnymi z grafenu, próbki napromienialiśmy przez ponad 120 godzin neutronami prędkimi o fluencji rzędu 1017 cm–2, by oddać warunki, na jakie narażona jest elektronika w instalacjach termojądrowych – dodaje mgr Maciej Ziemba z Zakładu Badań Reaktorowych. „Aby zapewnić bezpieczeństwo badań, testy podzespołów wykonano, gdy aktywność próbek nie stanowiła już zagrożenia, czyli po kilku miesiącach od napromienienia”.
      Zarówno przed napromienieniem, jak i po napromienieniu próbek, w Instytucie Fizyki Politechniki Poznańskiej dokładnie zbadano ich strukturę i właściwości elektryczne. Wykorzystano do tego spektroskopię Ramana, badania efektu Halla, jak również wielkoskalowe modelowanie z użyciem teorii funkcjonału gęstości (DFT – density functional theory). Dodatkowo, naukowcy z Politechniki Poznańskiej przeprowadzili charakteryzację napromienionych struktur po ich wygrzewaniu w temperaturze od 100 do 350°C, by zbadać działanie temperatury, w połączeniu z wpływem prędkich neutronów, na właściwości elektryczne. Dzięki testom wykryto na przykład, że z powodu promieniowania, w materiale pojawia się zależność właściwości elektrycznych od temperatury, która nie występowała przed umieszczeniem próbek w strumieniu neutronów – wyjaśnia dr inż. Semir El-Ahmar, kierujący badaniami na Politechnice Poznańskiej. Co więcej, promieniowanie neutronowe powoduje zmniejszenie gęstości nośników ładunku w badanej strukturze. Okazuje się jednak, że odpowiada za to warstwa wodoru, a więc napromienienie jedynie w umiarkowanym stopniu wpływa na strukturę i właściwości grafenu.
      Na podstawie charakteryzacji właściwości badanych struktur przed napromienieniem i po ich napromienieniu, oceniono odporność grafenu na promieniowanie neutronowe jako bardzo dobrą. Gęstość uszkodzeń radiacyjnych była 7 rzędów wielkości mniejsza, niż wartość strumienia neutronów, co oznacza dość niski przekrój czynny grafenu na oddziaływanie z neutronami prędkimi. Mimo, iż wystąpiły uszkodzenia struktury spowodowane promieniowaniem, to w porównaniu z detektorami bazującymi na metalach, czułość układu z grafenem na pole magnetyczne pozostaje kilka rzędów wielkości większa – podsumowuje wyniki dr El-Ahmar. Dodatkowo, okazało się, że duża część uszkodzeń była związana nie z samymi warstwami grafenu, a z warstwą wodoru, która z kolei przy temperaturach powyżej 200°C, jakie będą panować w instalacjach takich jak DEMO, wykazuje wręcz pewien potencjał samo-naprawczy. Z uwagi na to, grafenowe detektory pola magnetycznego mogą stanowić obiecujące struktury do wykorzystania w reaktorach termojądrowych.
      Nad zastosowaniem grafenu jako bazy przy detekcji pola magnetycznego w instalacjach termojądrowych prowadzone będą dalsze badania. Naukowcy rozważają wykorzystanie innego typu podłoża – np. 6H-SiC(0001), na którym formowana struktura może być bardziej odporna na promieniowanie neutronowe. Rozważane jest też zastąpienie warstwy wodoru buforową warstwą atomów węgla.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Od dekad tranzystory są mniejsze i mniejsze. Dzięki temu w procesorze możemy upakować ich więcej. To zaś najłatwiejszy sposób na zwiększenie wydajności procesora. Powoli zbliżamy się do momentu, w którym nie będziemy już w stanie zmniejszać długości bramki tranzystora. Niewykluczone, że Chińczycy właśnie dotarli do tej granicy.
      Prąd w tranzystorze przepływa pomiędzy źródłem a drenem. Przepływ ten kontrolowany jest przez bramkę, która przełącza się pod wpływem napięcia. Długość bramki to kluczowy czynnik decydujący o rozmiarach tranzystora.
      W ostatnich latach naukowcy zaczęli eksperymentować z nowymi materiałami, z których chcą budować elektronikę przyszłości. W obszarze ich zainteresowań jest na przykład grafen – dwuwymiarowy materiał składający się z pojedynczej warstwy atomów węgla – czy disiarczek molibdenu, czyli warstwa atomów molibdenu zamknięta między dwiema warstwami siarki.
      Teraz specjaliści z Chin wykorzystali te materiały do zbudowania rekordowo małego tranzystora. Długość jego bramki wynosi zaledwie 0,34 nanometra. To tyle, co średnica atomu węgla.
      Nowy tranzystor można porównać do dwóch schodów. Na górnym znajduje się źródło, na dolnym zaś dren. Oba zbudowane są z tytanu i palladu. Powierzchnia schodów działa jak łączący je kanał. Jest ona zbudowana w pojedynczej warstwy disiarczku molibdenu, pod którą znajduje się izolująca warstwa ditlenku hafnu. Wyższy stopień zbudowany jest z wielu warstw. Na samy dole znajduje sie warstwa grafenu, nad nią zaś aluminium pokryte tlenkiem aluminium. Jego zadaniem jest oddzielenie grafenu i disiarczku molibdenu. Jedynym miejscem ich połączenia jest widoczna na grafice niewielka szczelina w wyższym stopniu.
      Gdy bramka zostaje ustawiona w pozycji „on” jej długość wynosi zaledwie 0,34 nm. Autorzy nowego tranzystora twierdzą, że nie uda się tej odległości już bardziej zmniejszyć. Na pewno zaś próba zbudowania jeszcze mniejszych tranzystorów będzie wymagała nowatorskiego podejścia do materiałów dwuwymiarowych.
      Ze szczegółami pracy zespołu z Tsinghua University można zapoznać się na łamach Nature.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...