Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Naukowcy z Electro-Optics Center (EOC) Material Division na Pennsylvania State University stworzyli 100-milimetrowy plaster grafenowy. To niezwykle ważny krok w kierunku wykorzystania grafenu do budowy urządzeń elektronicznych.

Grafen to dwuwymiarowa forma grafitu, w której elektrony poruszają się znacznie szybciej niż w krzemie. Ocenia się, że dzięki zastąpieniu krzemu grafenem uda się stworzyć procesory, które będą od 100 do 1000 razy bardziej wydajne, od obecnie wykorzystywanych.

David Snyder i Randy Cavalero z EOC wykorzystali proces znany jako sublimacja krzemowa. Podgrzewali oni plastry z węglika krzemu tak długo, aż krzem przemieścił się z jego powierzchni i pozostała na niej warstwa grafenu o grubości 1-2 atomów. Dotychczas udawało się to uzyskać na 50-miliometrowym plastrze. Teraz przeprowadzono eksperyment z plastrem o średnicy 100 milimetrów. To największe dostępne na rynku plastry krzemowe.

Jak poinformował Joshua Robinson, naukowcy z Penn State umieszczają teraz na plastrze tranzystory i wkrótce rozpoczną testy wydajności. Ich celem jest zbliżenie się do maksymalnej teoretycznej wydajności grafenu wykonanego z węgliku krzemu. Elektrony powinny poruszać się w nim około 100-krotnie szybciej niż w krzemie. To jednak wymaga bardzo czystego materiału, przed uczonymi zatem sporo pracy.

Z kolei inna grupa specjalistół już zaczęła prace nad urządzeniami i technologiami, które pozwolą produkować grafenowe plastry z 200-milimetrowych plastrów krzemowych.

Share this post


Link to post
Share on other sites

"100-krotnie szybciej niż w krzemie" czyli taki procesor 1GHz będzie miał bez problemu 100GHz ?  :D

Share this post


Link to post
Share on other sites

Częstotliwość procesora nie ma związku z szybkością poruszania się elektronów. Zwyczajnie szybsze poruszanie się ładunku elektrycznego będzie miało wpływ na czas, jaki jest potrzebny na dotarcie informacji z jednego punktu do drugiego, więc skróci się czas oczekiwania np. na dane z pamięci podręcznej procesora :D

Share this post


Link to post
Share on other sites

Po pierwsze sama szybkość procesora nie ma generalnego wpływu na wydajność przy obliczeniach , istotne są poszczególne elementy procesora jak ilość pamięci procesora , instrukcje , architektura , rozmiar stosu i szybkość dostępu do niego oraz całe multum fizycznych elementów .

 

Po drugie jak już powstanie prototyp takiego procesora będzie potrzeba odpowiednich układów scalonych które obsłużą tak duże częstotliwości i tak duży potok danych , odpowiednio pojemne pamięci itd .

 

Po trzecie jak już 1 i 2 powstaną będzie trzeba przygotować odpowiedni soft dla takiego sprzętu z systemem operacyjnym na czele .

Share this post


Link to post
Share on other sites

Megawebmaster a czy "czas, jaki jest potrzebny na dotarcie informacji z jednego punktu do drugiego" nie przekłada się na szybkosc działania procesora(częstotliwość)? bo dla mnie częstotliwość to właśnie to minus czas działania bramek/rejestrów

Share this post


Link to post
Share on other sites

Megawebmaster a czy "czas, jaki jest potrzebny na dotarcie informacji z jednego punktu do drugiego" nie przekłada się na szybkosc działania procesora(częstotliwość)? bo dla mnie częstotliwość to właśnie to minus czas działania bramek/rejestrów

Moim zdaniem nie jest to to samo - "czas, jaki jest potrzebny na dotarcie informacji z jednego punktu do drugiego" to wartość teoretyczna, czyli procesor mógłby być tak szybki. Natomiast "szybkosc działania procesora(częstotliwość)" to już wartość praktyczna uzyskana przez wykorzystanie takiej a nie innej technologii.

 

Tak jak już wcześniej zostało powiedziane procesory RISC są zdecydowanie szybsze ze względu na specjalizację od procesorów CISC, pomimo że mogą jednocześnie mieć niższe taktowanie.

 

Ciekawi mnie co by powstało po połączeniu technologii procesorów AMD(optymalizacje) z procesorami Intela (taktowanie).

Share this post


Link to post
Share on other sites

Częstotliwość określa jak szybko tranzystor może zmienić swój stan (a dokładniej - ile razy może zmienić stan w ciągu jednej sekundy), więc szybkość poruszania się elektronów nie ma z tym żadnego związku. Reakcja substancji, jest reakcją substancji, a nie szybkością przekazywania energii (w tym wypadku pod postacią elektronów).

 

Co do częstotliwości, która nie ma wpływu - a czy uważasz, że mając 100 MB pamięci podręcznej (powiedzmy, że 10 MB L1 cache, i 90 MB L2) i 100 MHz procesor otrzymałbyś większą wydajność niż procesor 3 GHz i 6 MB L2 oraz (z tego co pamiętam) 64 kB L1? Nie.

 

Jeszcze mam jedno pytanie do Czesia - co masz na myśli mówiąc optymalizacje AMD i częstotliwość Intela? Bo osobiście nie widzę w tym najmniejszego sensu - obie konstrukcje są zgodne z x86 i co najdziwniejsze - dość do siebie podobne (myślę o Core i7 oraz Phenomach 2)

Share this post


Link to post
Share on other sites

Teraz już tak, kiedyś było ciut inaczej. O co mi chodziło? O to, że procesory AMD choć były wolniej taktowane działały porównywalnie do szybszych procesorów Intela (Np. Sempron o taktowaniu 2ghz jako odpowiednik Intela 2,8 Ghz, oczywiście po uwzględnieniu marketingowego bełkotu kończy się pewnie na tym, że ten Sempron jest porównywalny bardziej z procesorem Intel 2,4 Ghz niż 2,8 jednak bycie wydajniejszym przy tym samym taktowaniu coś oznacza.) Przyznaję - dzisiaj w dobie 20 różnych typów procesorów o tym samym taktowaniu STRACIŁEM rozeznanie, więc możliwe że moja wypowiedź jest zupełnie oderwana od rzeczywistości.

Share this post


Link to post
Share on other sites

Wie ktoś jak może wyglądać sprawa grzania się takich procesorów? Jest to coraz bardziej istotne, szczególnie w laptopach.

Share this post


Link to post
Share on other sites

Wie ktoś jak może wyglądać sprawa grzania się takich procesorów? Jest to coraz bardziej istotne, szczególnie w laptopach.

 

Mysle ze komputery z tymi nowymi procesorami moga miec bezposrednie podlaczenia do miejskich cieplowni  ;D :D

Share this post


Link to post
Share on other sites

Rozumiem fascynację kolegów zastosowaniem grafenu w technice komputerowej, ale elektronika i informatyka, to nie całość świata techniki. Grafen ma też zdumiewające własności wytrzymałościowe. Wyobraźcie sobie grafenowy kombinezon chroniący osoby pracujące w ekstremalnych warunkach przed urazami mechanicznymi, grafenową kamizelkę kuloodporną, a jak kto bardziej przyziemny - grafenowe nieścieralne skarpetki. ;)

Share this post


Link to post
Share on other sites

Wie ktoś jak może wyglądać sprawa grzania się takich procesorów? Jest to coraz bardziej istotne, szczególnie w laptopach.

 

Dopiero co tyu gdzieś na KW czytałem, że zasadniczo grafen ochładza się podczas pracy. Żart oczywiście.

 

Ma być dużo chłodniejszy. Osobiście sądzę, że jak już powstaną procesory na grafenie to konstruktorzy natychmiast dojdą do granic możliwości i będziemi mieli nieustający koniec ery grafenu. Będzie toto 1000 razy szybsze a i tak za wolne, żeby pograć w jakieś Fart Far 3D. A NP zupełni to już wogóle nie liczą na nic, ale może da się napisać GO na brute force ;)

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Chińscy naukowcy uzyskali wysokiej jakości piankę grafenową z gazów odpadowych pochodzących z pirolizy odpadów organicznych. Chińczycy twierdzą, że ich metoda jest tańsza i bardziej przyjazna dla środowiska niż dotychczasowe sposoby wytwarzania pianki.
      Jak zapewnia Hong Jiang z Chińskiego Uniwersytetu Nauki i Technologi w Hefei, wyprodukowany materiał jest strukturalnie podobny do pianek grafenowych uzyskiwanych standardowymi metodami. Wykazuje on też podobne właściwości elektryczne i oraz równie dobrze absorbuje ciecze takie jak benzen czy parafina.
      Pianki grafenowe to trójwymiarowe wersje płaskich dwuwymiarowych płacht grafenu. Są one wytrzymałem, charakteryzują się dużym przewodnictwem elektrycznym, świetnie przewodzą ciepło. Mają wiele potencjalnych zastosowań. Mogą być używane do przechowywania energii, oczyszczania środowiska, przydadzą się chemikom, sprawdzą w roli bioczujników.
      Zwykle produkuje się je metodą osadzania z fazy gazowej. W metodzie tej gaz zawierający węgiel – np. metan – jest wprowadzany do podgrzanego metalowego substratu, zwykle jest nim pianka aluminiowa lub miedziana. Gdy gaz wchodzi w kontakt z substratem, dochodzi do osadzania się atomów węgla. Po zakończeniu reakcji metal jest wytrawiany i pozostaje grafenowa pianka.
      Osadzanie z fazy gazowej to metoda kosztowna, która wymaga użycia dużych ilości gazu. Dlatego też Jiang i jego zespół postanowili wykorzystać bogate w węgiel gazy z biorafinerii. W tego typu zakładach odpady organiczne są podgrzewane bez dostępu tlenu do temperatury 500 stopni Celsjusza lub wyższej. W procesie pirolizy powstaje biopaliwo.
      Chińczycy wykorzystali dwa składniki roślinne – sproszkowaną celulozę i sproszkowaną ligninę – które poddano pirolizie w temperaturze 800 stopni Celsjusza. Powstałe gazy zostały przefiltrowane, dzięki czemu oddzielono gazy o dużych molekułach. Następnie gazy o drobnych molekułach skierowano do komory osadzania z fazy gazowej, w której znajdowała się pianka aluminiowa. Uzyskany produkt przebadano za pomocą spektroskopii ramanowskiej i skaningowej mikroskopii elektronowej. Są dobrej jakości, nie widać w nich oczywistych defektów, mówi Jiang.
      Oczywiście sproszkowana celuloza i lignina są dalekie od standardowych odpadów organicznych. Dlatego też w kolejny etapie badań naukowcy wykorzystali słomę i trociny. Wyprodukowana z nich pianka grafenowa była nieco gorszej jakości niż ta z celulozy i ligniny. Jednak oba rodzaje miały jednorodną strukturę i świetne właściwości w zastosowaniach środowiskowych oraz do przechowywania energii. Zdaniem Jianga najlepszymi odpadami do produkcji pianek będą te zawierające dużo ligniny, celulozy i hemicelulozy. Jednak użyć można też innych materiałów. Oczywiście różne dodatki znajdujące się w takich odpadach wpłyną na skład pianki. Na przykład jeśli w odpadach będzie znajdowało się dużo azotu i siarki, to pierwiastki te mogą trafić też do pianki, wyjaśnia uczony.
      Edward Randviir z Manchester Metropolitan University, który nie brał udziału w opisywanych badaniach, mówi, że zwykle pianki grafenowe produkuje się za paliw kopalnych lub z czystego grafitu. Warto poszukać alternatyw dla tych materiałów, a Jiang i jego ludzie wykazali, że produkcja grafenu z biomasy jest możliwa. Jest też bardziej przyjazna środowisku i tańsza niż inne metody. Ten drugi element może jednak ulec zmianie. Grafen jest obecnie drogi, gdyż nie istnieją metody produkowania go na masową skalę. Jeśli się to zmieni, cena grafenu powinna spaść.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W procesorach Intela odkryto kolejną lukę. Dziura nazwana CacheOut to luka typu side-channel, czyli błąd pozwalający na wykorzystanie pewnych szczegółów, często prawidłowej, implementacji.
      Dziura odkryta przez naukowców z University of Michigan i University of Adelaide występuje we wszystkich procesorach od architektury SkyLake po Coffee Lake powstałych przed rokiem 2019. Wiadomo, że nie występuje ona w procesorach AMD, ale badacze nie wykluczają, że jest obecna w układach IBM-a i ARM.
      Jak zauważyli eksperci gdy dane są pobierane z cache'u L1 często trafiają do buforów, z których mogą zostać wykradzione przez napastnika. Bardzo atrakcyjnym elementem CacheOut jest fakt, że napastnik może zdecydować, które dane z L1 zostaną umieszczone w buforze, skąd dokona kradzieży. Specjaliści wykazali, że możliwy jest wyciek danych mimo wielu różnych zabezpieczeń. w tym zabezpieczeń pomiędzy wątkami, procesami, wirtualnymi maszynami, przestrzenią użytkownika a jądrem systemu.
      Intel, który o problemie został poinformowany już w ubiegłym roku, sklasyfikował lukę L1D Eviction Sampling/CVE-2020-0549/INTEL-SA-00329 jako średnio poważną i przygotował odpowiednie poprawki. Odpowiedni mikrokod zostanie upubliczniony a nwjbliższym czasie. Tymczasowym obejściem problemu jest wyłączenie wielowątkowości lub wyłączenie rozszerzenia TSX.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z University of Illinois pogodzili ekspertów, którzy nie mogli dotychczas dojść do porozumienia, co do właściwości grafenu odnośnie jego zginania. Dzięki połączeniu eksperymentów z modelowaniem komputerowym określili, ile energii potrzeba do zgięcia wielowarstwowego grafenu i stwierdzili, że wszyscy badacze, którzy uzyskiwali sprzeczne wyniki... mieli rację.
      Większość badań nad grafenem skupia się na zbudowaniu z niego przyszłych urządzeń elektronicznych. Jednak wiele technologii przyszłości, jak elastyczna elektronika, czy miniaturowe niewidoczne gołym okiem roboty, wymagają zrozumienia nie tylko właściwości elektrycznych, ale i mechanicznych grafenu. Musimy się dowiedzieć przede wszystkim, jak materiał ten rozciąga się i zgina.
      Sztywność materiału to jedna z jego podstawowych właściwości mechanicznych. Mimo tego, że badamy grafen od dwóch dekad, wciąż niewiele wiemy na temat tej jego właściwości. A dzieje się tak, gdyż badania różnych grup naukowych dawały wyniki, różniące sie od siebie o całe rzędy wielkości, mówi współautor najnowszych badań, Edmund Han.
      Naukowcy z Illinois odkryli, dlaczego autorzy wcześniejszych badań uzyskiwali tak sprzeczne wyniki. Zginali grafen albo w niewielkim albo w dużym stopniu. Odkryliśmy, że w sytuacjach tych grafen zachowuje się odmienne. Gdy tylko trochę zginasz wielowarstwowy grafen, to zachowuje się on jak sztywna płyta, jak kawałek drewna. Jeśli jednak zegniesz go mocno, zaczyna zachowywać się jak ryza papieru, poszczególne warstwy atomów ślizgają się po sobie, wyjaśnia Jaehyung Yu.
      Ekscytujące jest to, że mimo iż wszyscy uzyskiwali odmienne wyniki, to wszyscy mieli rację. Każda z grup mierzyła coś innego. Opracowaliśmy model, który wyjaśnia wszystkie różnice poprzez pokazanie, jak się one mają do siebie w zależności od kąta wygięcia grafenu, mówi profesor Arend van der Zande.
      Naukowcy stworzyli własne płachty wielowarstwowego grafenu i poddawali je badaniom oraz modelowaniu komputerowemu. W tej prostej strukturze istnieją dwa rodzaje sił zaangażowanych w zginanie grafenu. Adhezja, czyli przyciąganie atomów na powierzchni, próbuje ściągnąć materiał w dół. Im jest on sztywniejszy, tym większy opór stawia adhezji. Wszelkie informacje na temat sztywności materiału są zakodowane w kształcie, jaki przybiera on na poziomie atomowym podczas zginania, dodaje profesor Pinshane Huang. Naukowcy szczegółowo kontrolowali, w jaki sposób materiał się zgina i jak w tym czasie zmieniają się jego właściwości.
      Jako, że badaliśmy różne kąty wygięcia, mogliśmy zaobserwować przejście z jednego stanu, w drugi. Ze sztywnego w giętki, ze sztywnej płyty do zachowania ryzy papieru, stwierdza profesor Elif Ertekin, który był odpowiedzialny za modelowanie komputerowe. Najpierw stworzyliśmy modele komputerowe na poziomie atomowym. Wykazały one, że poszczególne warstwy będą ślizgały się po sobie. Gdy już to wiedzieliśmy, przeprowadziliśmy eksperymenty z wykorzystaniem mikroskopu elektronowego, by potwierdzić występowanie tego zjawiska". Okazuje się więc, że im bardziej grafen zostaje wygięty, tym bardziej elastyczny się staje.
      Badania te mają olbrzymie znaczenie np. dla stworzenia w przyszłości urządzeń, które będą na tyle małe i elastyczne, by mogły wchodzić w interakcje z komórkami czy materiałem biologicznym.
      Komórki mogą zmieniać kształt i reagować na sygnały ze środowiska. Jeśli chcemy stworzyć mikroroboty czy systemy o właściwościach systemów biologicznych, potrzebujemy elektroniki, która będzie w stanie zmieniać kształt i będzie bardzo miękka.  Możemy wykorzystać fakt, że poszczególne warstwy wielowarstwowego grafenu ślizgają się po sobie, dzięki czemu materiał ten jest o rzędy wielkości bardziej miękki niż standardowe materiały o tej samej grubości, wyjaśnia van der Zande.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Na MIT powstał nowoczesny mikroprocesor z tranzystorami z nanorurek węglowych. Urządzenie można wyprodukować za pomocą technik używanych obecnie przez przemysł półprzewodnikowy, co ma olbrzymie znaczenie dla ewentualnego wdrożenia.
      Nanorurki węglowe są od dawna przedmiotem zainteresowań, gdyż dają nadzieję na zbudowanie kolejnej generacji komputerów po tym, gdy układów krzemowych nie będzie można już miniaturyzować. Tranzystory polowe z nanorurek węglowych (CNFET) mogą mieć bardzo obiecujące właściwości. Z dotychczasowych badań wynika, że powinny być one około 10-krotnie bardziej efektywne pod względem zużycia energii i pozwolić na przeprowadzanie obliczeń ze znacznie większą prędkością. Problem jednak w tym, że przy masowej produkcji w nanorurkach pojawia się tak wiele defektów, że nie można ich w praktyce wykorzystać.
      Naukowcy z MIT opracowali nową technikę, która znacząco zmniejsza liczbę defektów i daje pełną kontrolę nad produkcję CNFET. Co ważne, technika ta wykorzystuje procesy już używane w przemyśle półprzewodnikowym. Dzięki niej na MIT wyprodukowano 16-bitowy mikroprocesor składający się z 14 000 CNFET, który jest w stanie wykonywać te same obliczenia co tradycyjny procesor.
      Nowy procesor oparto na architekturze RISC-V. Testy wykazały, że jest on zdolny do wykonania pełnego zestawu instrukcji dla tej technologii.
      To, jak dotychczas, najbardziej zaawansowany chip wykonany w nowym procesie nanotechnologicznym, który daje nadzieję na wysoką wydajność i efektywność energetyczną, mówi współautor badań, profesor Max M. Shulaker. Krzem ma swoje ograniczenia. Jeśli chcemy coraz szybszych komputerów, to węglowe nanorurki są najbardziej obiecującym materiałem. Nasze badania pokazują zupełnie nowy sposób budowy układów scalonych z węglowymi nanorurkami.
      Shulaker i jego zespół od dawna pracują nad układami scalonymi z CNFET. Przed sześcioma laty byli w stanie zaprezentować procesor złożony ze 178 CNFET, który mógł pracować na pojedynczym bicie danych. Od tamtego czasu uczeni skupili się na rozwiązaniu trzech kluczowych problemów: defektach materiałowych, niedociągnięciach produkcyjnych oraz problemach funkcjonalnych.
      Największym problemem było uzyskanie nanorurek odpowiedniej jakości. Żeby CNFET działał bez zakłóceń, musi bez problemów przełączać się pomiędzy stanem 0 i 1, podobnie jak tradycyjny tranzystor. Jednak zawsze podczas produkcji powstanie jakaś część nanorurek, które będą wykazywały właściwości metalu, a nie półprzewodnika. Takie nanorurki czynią CNFET całkowicie nieprzydatnym. Zaawansowane układy scalone, by być odpornymi na obecność wadliwych nanorurek i móc szybko wykonywać zaawansowane obliczenia, musiałyby korzystać z nanorurek o czystości sięgającej 99,999999%. Obecnie jest to niemożliwe do osiągnięcia.
      Naukowcy z MIT opracowali technikę nazwaną DREAM (designing resilency against metallic CNT), która tak pozycjonuje metaliczne CNFET, że nie zakłócają one obliczeń. Dzięki temu zmniejszyli wymagania dotyczące czystości nanorurek aż o cztery rzędy wielkości. To zaś oznacza, że do wyprodukowania w pełni sprawnego układu potrzebują nanorurek o czystości sięgającej 99,99%, a to jest obecnie możliwe.
      Uczeni przeanalizowali różne kombinacje bramek logicznych i zauważyli, że metaliczne nanorurki węglowe nie wpływają na nie w ten sam sposób. Okazało się, że pojedyncza metaliczna nanorurki w bramce A może uniemożliwić komunikację pomiędzy nią, a bramką B, ale już liczne metaliczne nanorurki w bramce B nie wpływają negatywnie na jej możliwości komunikacji z żadną bramką. Przeprowadzili więc symulacje, by odnaleźć wszystkie możliwe kombinacje bramek, które byłyby odporne na obecność wadliwych nanorurek. Podczas projektowania układu scalonego brano pod uwagę jedynie te kombinacje. Dzięki technice DREAM możemy po prostu kupić komercyjne dostępne nanorurki, umieścić je na plastrze i stworzyć układ scalony, nie potrzebujemy żadnych specjalnych zabiegów, mówi Shulaker.
      Produkcja CNFET rozpoczyna się od nałożenia znajdujących się w roztworze nanorurek na podłoże z predefiniowanym architekturą układu. Jednak nie do uniknięcia jest sytuacja, w której część nanorurek pozbija się w grupy, tworząc rodzaj dużych cząstek zanieczyszczających układ scalony. Poradzono sobie z tym problemem tworząc technikę RINSE (removal of incubated nanotubes through selective exfoliation). Na podłoże nakłada się wcześniej związek chemiczny, który ułatwia nanorurkom przyczepianie się do niego. Następnie, już po nałożeniu nanorurek, całość pokrywana jest polimerem i zanurzana w specjalnym rozpuszczalniku. Rozpuszczalnik zmywa polimer, a ten zabiera ze sobą pozbijane w grupy nanorurki. Te zaś nanorurki, które nie zgrupowały się z innymi, pozostają przyczepione do podłoża. Technika ta aż 250-kronie zmniejsza zagęszczenie zbitek nanorurek w porównaniu z alternatywnymi metodami ich usuwania.
      Poradzono sobie też z ostatnim problemem, czyli wytworzeniem tranzystorów typu N i typu P. Zwykle produkcja tych tranzystorów z węglowych nanorurek kończyła się uzyskaniem urządzeń o bardzo różniącej się wydajności. Problem rozwiązano za pomocą nowej techniki o nazwie MIXED (metal interface engineering crossed with electrostatic doping), dzięki której możliwe jest precyzyjna optymalizacja procesorów do wymaganych zadań. Technika ta polega na dołączeniu do każdego tranzystora, w zależności czy ma być on P czy N, odpowiedniego metalu, platyny lub tytanu. Następnie tranzystory są pokrywane tlenkiem, co pozwala na ich dostosowanie do zadań, jakie będą spełniały. Można więc osobno dostroić je do pracy w zastosowaniach w wysoko wydajnych serwerach, a osobno do energooszczędnych implantów medycznych.
      Obecnie, w ramach programu prowadzonego przez DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych), wspomniane techniki produkcji układów scalonych z węglowych nanorurek wdrażane są w fabrycznych liniach produkcyjnych. W tej chwili nikt nie potrafi powiedzieć, kiedy w sklepach pojawią się pierwsze procesory z CNFET. Shulaker mówi, że może się to stać już w ciągu najbliższych pięciu lat. Sądzimy, że teraz to już nie jest pytanie czy, ale pytanie kiedy, mówi uczony.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Wydziału Inżynierii Chemicznej i Procesowej Politechniki Warszawskiej wykorzystują tlenek grafenu i związki grafenopochodne do opracowania nowych materiałów zabezpieczających przed promieniowaniem podczerwonym. Projekt IR-GRAPH realizowali ze środków Narodowego Centrum Badań i Rozwoju.
      Chcemy, żeby nasze materiały stanowiły barierę zarówno przed wpuszczaniem, jak i wypuszczaniem ciepła – mówi kierująca pracami dr inż. Marta Mazurkiewicz-Pawlicka. To kompozyty. Tworzymy je na bazie polimerów, obecnie dwóch rodzajów. Jako napełniacz stosujemy materiały grafenowe z dodatkiem tlenków metali, np. tlenku tytanu.
      Takie połączenie gwarantuje skuteczne ekranowanie. Materiały grafenowe są dodawane w celu pochłonięcia promieniowania, a tlenki metali mają za zadanie je rozpraszać – wyjaśnia badaczka.
      Konkurencyjny materiał
      Na rynku są już dostępne np. folie na okna, które chronią przed promieniowaniem. Materiały opracowywane przez naukowców z Politechniki Warszawskiej mogą być jednak dla nich konkurencją. Żeby obniżyć temperaturę o kilka stopni Celsjusza, dodaje się tam około 5% napełniacza – tłumaczy dr Mazurkiewicz-Pawlicka. My podobne wyniki uzyskujemy przy dodaniu 0,1% napełniacza, czyli 50 razy mniej.
      Na razie zespół skupia się jednak na samych materiałach, a nie konkretnych aplikacjach. Choć nietrudno wskazać potencjalne zastosowania, takie jak właśnie okna, ale też elewacje, a nawet tkaniny. Zimą takie materiały chroniłyby przed utratą ciepła, a latem przed nadmiernym nagrzaniem.
      W przypadku budynków czy pojazdów mogłaby to być pewna alternatywa dla powszechnie dzisiaj stosowanej klimatyzacji. Jej używanie pochłania przecież mnóstwo energii. Im bardziej chcemy zmienić temperaturę w stosunku do tej naturalnej dla danego pomieszczenia, tym więcej energii potrzeba. Każde mniej energochłonne wsparcie oznaczałoby oszczędności w budżecie i korzyść dla środowiska.
      Patrząc w przyszłość
      Nasi naukowcy przeprowadzili badania krótkoterminowe. Ich wyniki są obiecujące, ale wiele kwestii wymaga jeszcze dokładniejszego sprawdzenia, m.in. zachowanie polimerów w promieniowaniu UV, podwyższonej temperaturze czy zmienionej wilgotności. Ważne jest przetestowanie dotychczasowych rozwiązań zarówno w różnych warunkach, jak i w dłuższym czasie. Badania takie można przeprowadzić przy użyciu komory klimatycznej, do której na kilka tygodni można wstawić próbkę materiału i ją obserwować.
      Na przykład żeby wykorzystać nasze materiały w folii na okna musimy popracować nad barwą, bo obecna, w odcieniach szarości, ogranicza widzialność – mówi dr Mazurkiewicz-Pawlicka. Chcemy też znaleźć nowe polimery, które mogłyby zostać użyte jako osnowa w naszych materiałach.
      Współpraca
      Zespół dr Mazurkiewicz-Pawlickiej tworzyli dr hab. Leszek Stobiński, dr Artur Małolepszy oraz grupa studentów wykonujących w ramach projektu prace inżynierskie i magisterskie. Swoją cegiełkę dołożyli też członkowie Koła Naukowego Inżynierii Chemicznej i Procesowej. Zrobili urządzenie, które mierzy efektywność naszych folii – opowiada dr Mazurkiewicz-Pawlicka. Składa się z lampy emitującej promieniowanie podczerwone i czujnika, który mierzy, o ile stopni udało się obniżyć temperaturę.
      W ramach IR-GRAPH naukowcy z PW ściśle współpracowali z Tatung University na Tajwanie. Korzystali także ze wsparcia Wydziału Fizyki Uniwersytetu Warszawskiego. Prof. Dariusz Wasik, Dziekan Wydziału i dr hab. Andrzej Witowski są specjalistami w fizyce ciała stałego i wykonali dla nas pomiary spektrometryczne – mówi dr Mazurkiewicz-Pawlicka.
      Dlaczego ekranować podczerwień?
      Grafen kojarzony jest przede wszystkim z zastosowaniami w elektronice i automatyce. Wykorzystanie go do ekranowania promieniowania nie jest jeszcze tak rozpowszechnione. Są doniesienia literaturowe, że grafen ekranuje promieniowanie elektromagnetyczne – opowiada dr Mazurkiewicz-Pawlicka. Jest to szeroko badane pod kątem promieniowania mikrofalowego, a ostatnio też terahercowego, głównie w zastosowaniach militarnych. Pomyśleliśmy, żeby sprawdzić właściwości grafenu dla promieniowania podczerwonego, bo na ten temat wiadomo niewiele.
      Promieniowanie podczerwone charakteryzuje się długością fal między 780 nanometrów a 1 milimetr. Wspólnie ze światłem widzialnym i promieniowaniem UV tworzy spektrum promieniowania słonecznego. W nadmiarze ma ono negatywny wpływ na naszą skórę. A aż około 50% tego promieniowania, które dociera do powierzchni Ziemi, stanowi właśnie podczerwień (odczuwana w postaci ciepła). Dlatego tak ważne jest jej ekranowanie.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...