Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Grafen 100-krotnie przyspieszy internet

Recommended Posts

Grafenowe urządzenia wykorzystane w roli fotodetektorów mogą nawet stukrotnie przyspieszyć łącza internetowe. Do takich wniosków doszedł zespół naukowców z University of Manchester i University of Cambridge, wśród których byli odkrywcy grafenu, Andre Geim i Kostya Novoselov.

Uczeni wykazali, że połączenie grafenu z metalicznymi nanostrukturami powoduje, że grafen dwudziestokrotnie lepiej wykrywa światło. Już wcześniej odkryto, że gdy do kawałka grafenu zostaną przymocowane, w niewielkiej odległości od siebie, dwa metalowe przewody, to po oświetleniu całość generuje prąd elektryczny. Co jednak ważniejsze, takie urządzenie pracuje niezwykle szybko, być może nawet 100 razy szybciej niż obecnie wykorzystywane fotodetektory. Dzieje się tak dzięki olbrzymiej mobilności i szybkości elektronów w grafenie.

Dotychczas jednak poważną przeszkodą był fakt, że grafen absorbował jedynie 3% światła. Reszta impulsu przechodziła przez materiał nie wywołując żadnej reakcji elektronów.

Naukowcy rozwiązali ten problem łącząc grafen z metalicznymi nanostrukturami. Te tzw. plazmoniczne nanostruktury dwudziestokrotnie zwiększyły absorpcję światła przez grafen nie wpływając jednocześnie negatywnie na inne jego właściwości. Naukowcy nie wykluczają, że uda się jeszcze bardziej poprawić właściwości grafenu.

Grafen wydaje się naturalnym towarzyszem dla plazmoniki. Spodziewaliśmy się, że plazmoniczne nanostruktury mogą poprawić właściwości grafenu, ale miłym zaskoczeniem był fakt, że poprawa jest tak olbrzymia - mówi doktor Alexander Grigorenko, ekspert ds. plazmoniki.

Grafen odkrył zatem przed nami swoje kolejne niezwykłe właściwości. Jak zauważył profesor Andrea Ferrari z Cambridge Engineering Department dotychczas skupiano się na właściwościach grafenu przydatnych w fizyce i elektronice. Teraz widzimy, że jego potencjał można wykorzystać też na polu fotoniki i optoelektroniki, gdzie połączenie unikatowych optycznych i elektronicznych właściwości grafenu z nanostrukturami plazmonicznymi pozwoli na wykorzystanie tego materiału nawet w przypadku braku pasma wzbronionego, w takich zastosowaniach jak fotodetektory czy ogniwa słoneczne.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Chińscy naukowcy uzyskali wysokiej jakości piankę grafenową z gazów odpadowych pochodzących z pirolizy odpadów organicznych. Chińczycy twierdzą, że ich metoda jest tańsza i bardziej przyjazna dla środowiska niż dotychczasowe sposoby wytwarzania pianki.
      Jak zapewnia Hong Jiang z Chińskiego Uniwersytetu Nauki i Technologi w Hefei, wyprodukowany materiał jest strukturalnie podobny do pianek grafenowych uzyskiwanych standardowymi metodami. Wykazuje on też podobne właściwości elektryczne i oraz równie dobrze absorbuje ciecze takie jak benzen czy parafina.
      Pianki grafenowe to trójwymiarowe wersje płaskich dwuwymiarowych płacht grafenu. Są one wytrzymałem, charakteryzują się dużym przewodnictwem elektrycznym, świetnie przewodzą ciepło. Mają wiele potencjalnych zastosowań. Mogą być używane do przechowywania energii, oczyszczania środowiska, przydadzą się chemikom, sprawdzą w roli bioczujników.
      Zwykle produkuje się je metodą osadzania z fazy gazowej. W metodzie tej gaz zawierający węgiel – np. metan – jest wprowadzany do podgrzanego metalowego substratu, zwykle jest nim pianka aluminiowa lub miedziana. Gdy gaz wchodzi w kontakt z substratem, dochodzi do osadzania się atomów węgla. Po zakończeniu reakcji metal jest wytrawiany i pozostaje grafenowa pianka.
      Osadzanie z fazy gazowej to metoda kosztowna, która wymaga użycia dużych ilości gazu. Dlatego też Jiang i jego zespół postanowili wykorzystać bogate w węgiel gazy z biorafinerii. W tego typu zakładach odpady organiczne są podgrzewane bez dostępu tlenu do temperatury 500 stopni Celsjusza lub wyższej. W procesie pirolizy powstaje biopaliwo.
      Chińczycy wykorzystali dwa składniki roślinne – sproszkowaną celulozę i sproszkowaną ligninę – które poddano pirolizie w temperaturze 800 stopni Celsjusza. Powstałe gazy zostały przefiltrowane, dzięki czemu oddzielono gazy o dużych molekułach. Następnie gazy o drobnych molekułach skierowano do komory osadzania z fazy gazowej, w której znajdowała się pianka aluminiowa. Uzyskany produkt przebadano za pomocą spektroskopii ramanowskiej i skaningowej mikroskopii elektronowej. Są dobrej jakości, nie widać w nich oczywistych defektów, mówi Jiang.
      Oczywiście sproszkowana celuloza i lignina są dalekie od standardowych odpadów organicznych. Dlatego też w kolejny etapie badań naukowcy wykorzystali słomę i trociny. Wyprodukowana z nich pianka grafenowa była nieco gorszej jakości niż ta z celulozy i ligniny. Jednak oba rodzaje miały jednorodną strukturę i świetne właściwości w zastosowaniach środowiskowych oraz do przechowywania energii. Zdaniem Jianga najlepszymi odpadami do produkcji pianek będą te zawierające dużo ligniny, celulozy i hemicelulozy. Jednak użyć można też innych materiałów. Oczywiście różne dodatki znajdujące się w takich odpadach wpłyną na skład pianki. Na przykład jeśli w odpadach będzie znajdowało się dużo azotu i siarki, to pierwiastki te mogą trafić też do pianki, wyjaśnia uczony.
      Edward Randviir z Manchester Metropolitan University, który nie brał udziału w opisywanych badaniach, mówi, że zwykle pianki grafenowe produkuje się za paliw kopalnych lub z czystego grafitu. Warto poszukać alternatyw dla tych materiałów, a Jiang i jego ludzie wykazali, że produkcja grafenu z biomasy jest możliwa. Jest też bardziej przyjazna środowisku i tańsza niż inne metody. Ten drugi element może jednak ulec zmianie. Grafen jest obecnie drogi, gdyż nie istnieją metody produkowania go na masową skalę. Jeśli się to zmieni, cena grafenu powinna spaść.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Inżynierowie z University of Illinois pogodzili ekspertów, którzy nie mogli dotychczas dojść do porozumienia, co do właściwości grafenu odnośnie jego zginania. Dzięki połączeniu eksperymentów z modelowaniem komputerowym określili, ile energii potrzeba do zgięcia wielowarstwowego grafenu i stwierdzili, że wszyscy badacze, którzy uzyskiwali sprzeczne wyniki... mieli rację.
      Większość badań nad grafenem skupia się na zbudowaniu z niego przyszłych urządzeń elektronicznych. Jednak wiele technologii przyszłości, jak elastyczna elektronika, czy miniaturowe niewidoczne gołym okiem roboty, wymagają zrozumienia nie tylko właściwości elektrycznych, ale i mechanicznych grafenu. Musimy się dowiedzieć przede wszystkim, jak materiał ten rozciąga się i zgina.
      Sztywność materiału to jedna z jego podstawowych właściwości mechanicznych. Mimo tego, że badamy grafen od dwóch dekad, wciąż niewiele wiemy na temat tej jego właściwości. A dzieje się tak, gdyż badania różnych grup naukowych dawały wyniki, różniące sie od siebie o całe rzędy wielkości, mówi współautor najnowszych badań, Edmund Han.
      Naukowcy z Illinois odkryli, dlaczego autorzy wcześniejszych badań uzyskiwali tak sprzeczne wyniki. Zginali grafen albo w niewielkim albo w dużym stopniu. Odkryliśmy, że w sytuacjach tych grafen zachowuje się odmienne. Gdy tylko trochę zginasz wielowarstwowy grafen, to zachowuje się on jak sztywna płyta, jak kawałek drewna. Jeśli jednak zegniesz go mocno, zaczyna zachowywać się jak ryza papieru, poszczególne warstwy atomów ślizgają się po sobie, wyjaśnia Jaehyung Yu.
      Ekscytujące jest to, że mimo iż wszyscy uzyskiwali odmienne wyniki, to wszyscy mieli rację. Każda z grup mierzyła coś innego. Opracowaliśmy model, który wyjaśnia wszystkie różnice poprzez pokazanie, jak się one mają do siebie w zależności od kąta wygięcia grafenu, mówi profesor Arend van der Zande.
      Naukowcy stworzyli własne płachty wielowarstwowego grafenu i poddawali je badaniom oraz modelowaniu komputerowemu. W tej prostej strukturze istnieją dwa rodzaje sił zaangażowanych w zginanie grafenu. Adhezja, czyli przyciąganie atomów na powierzchni, próbuje ściągnąć materiał w dół. Im jest on sztywniejszy, tym większy opór stawia adhezji. Wszelkie informacje na temat sztywności materiału są zakodowane w kształcie, jaki przybiera on na poziomie atomowym podczas zginania, dodaje profesor Pinshane Huang. Naukowcy szczegółowo kontrolowali, w jaki sposób materiał się zgina i jak w tym czasie zmieniają się jego właściwości.
      Jako, że badaliśmy różne kąty wygięcia, mogliśmy zaobserwować przejście z jednego stanu, w drugi. Ze sztywnego w giętki, ze sztywnej płyty do zachowania ryzy papieru, stwierdza profesor Elif Ertekin, który był odpowiedzialny za modelowanie komputerowe. Najpierw stworzyliśmy modele komputerowe na poziomie atomowym. Wykazały one, że poszczególne warstwy będą ślizgały się po sobie. Gdy już to wiedzieliśmy, przeprowadziliśmy eksperymenty z wykorzystaniem mikroskopu elektronowego, by potwierdzić występowanie tego zjawiska". Okazuje się więc, że im bardziej grafen zostaje wygięty, tym bardziej elastyczny się staje.
      Badania te mają olbrzymie znaczenie np. dla stworzenia w przyszłości urządzeń, które będą na tyle małe i elastyczne, by mogły wchodzić w interakcje z komórkami czy materiałem biologicznym.
      Komórki mogą zmieniać kształt i reagować na sygnały ze środowiska. Jeśli chcemy stworzyć mikroroboty czy systemy o właściwościach systemów biologicznych, potrzebujemy elektroniki, która będzie w stanie zmieniać kształt i będzie bardzo miękka.  Możemy wykorzystać fakt, że poszczególne warstwy wielowarstwowego grafenu ślizgają się po sobie, dzięki czemu materiał ten jest o rzędy wielkości bardziej miękki niż standardowe materiały o tej samej grubości, wyjaśnia van der Zande.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Iskra
      Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
      Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
      Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie  „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
       

       
      Trudne początki
      Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
      Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
      Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
      W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dokładnie przed 50 laty, 29 października 1969 roku, dwaj naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles, wykorzystali nowo powstałą, rewolucyjną sieć ARPANET, do przesłania pierwszej wiadomości. Po wielu nieudanych próbach około godziny 22:30 udało się zalogować do komputera w oddalonym o 600 kilometrów Stanford Research Institute.
      Wieloletnia podróż, która rozpoczęła się od... wysłania Sputnika przez Związek Radziecki i trwa do dzisiaj w postaci współczesnego internetu, to fascynująca historia genialnych pomysłów, uporu, porażek i ciężkiej pracy wielu utalentowanych ludzi. Ludzi, wśród których niepoślednią rolę odegrał nasz rodak Paul Baran.
      To, co rozpoczęło się od zimnowojennej rywalizacji atomowych mocarstw, jest obecnie narzędziem, z którego na co dzień korzysta ponad połowa ludzkości. W ciągu pół wieku przeszliśmy od olbrzymich mainframe'ów obsługiwanych z dedykowanych konsol przez niewielką grupę specjalistów, po łączące się z globalną siecią zegarki, lodówki i telewizory, które potrafi obsłużyć dziecko.
      Zapraszamy do zapoznania się z fascynującą historią internetu, jednego z największych wynalazków ludzkości.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Naukowcy z Wydziału Inżynierii Chemicznej i Procesowej Politechniki Warszawskiej wykorzystują tlenek grafenu i związki grafenopochodne do opracowania nowych materiałów zabezpieczających przed promieniowaniem podczerwonym. Projekt IR-GRAPH realizowali ze środków Narodowego Centrum Badań i Rozwoju.
      Chcemy, żeby nasze materiały stanowiły barierę zarówno przed wpuszczaniem, jak i wypuszczaniem ciepła – mówi kierująca pracami dr inż. Marta Mazurkiewicz-Pawlicka. To kompozyty. Tworzymy je na bazie polimerów, obecnie dwóch rodzajów. Jako napełniacz stosujemy materiały grafenowe z dodatkiem tlenków metali, np. tlenku tytanu.
      Takie połączenie gwarantuje skuteczne ekranowanie. Materiały grafenowe są dodawane w celu pochłonięcia promieniowania, a tlenki metali mają za zadanie je rozpraszać – wyjaśnia badaczka.
      Konkurencyjny materiał
      Na rynku są już dostępne np. folie na okna, które chronią przed promieniowaniem. Materiały opracowywane przez naukowców z Politechniki Warszawskiej mogą być jednak dla nich konkurencją. Żeby obniżyć temperaturę o kilka stopni Celsjusza, dodaje się tam około 5% napełniacza – tłumaczy dr Mazurkiewicz-Pawlicka. My podobne wyniki uzyskujemy przy dodaniu 0,1% napełniacza, czyli 50 razy mniej.
      Na razie zespół skupia się jednak na samych materiałach, a nie konkretnych aplikacjach. Choć nietrudno wskazać potencjalne zastosowania, takie jak właśnie okna, ale też elewacje, a nawet tkaniny. Zimą takie materiały chroniłyby przed utratą ciepła, a latem przed nadmiernym nagrzaniem.
      W przypadku budynków czy pojazdów mogłaby to być pewna alternatywa dla powszechnie dzisiaj stosowanej klimatyzacji. Jej używanie pochłania przecież mnóstwo energii. Im bardziej chcemy zmienić temperaturę w stosunku do tej naturalnej dla danego pomieszczenia, tym więcej energii potrzeba. Każde mniej energochłonne wsparcie oznaczałoby oszczędności w budżecie i korzyść dla środowiska.
      Patrząc w przyszłość
      Nasi naukowcy przeprowadzili badania krótkoterminowe. Ich wyniki są obiecujące, ale wiele kwestii wymaga jeszcze dokładniejszego sprawdzenia, m.in. zachowanie polimerów w promieniowaniu UV, podwyższonej temperaturze czy zmienionej wilgotności. Ważne jest przetestowanie dotychczasowych rozwiązań zarówno w różnych warunkach, jak i w dłuższym czasie. Badania takie można przeprowadzić przy użyciu komory klimatycznej, do której na kilka tygodni można wstawić próbkę materiału i ją obserwować.
      Na przykład żeby wykorzystać nasze materiały w folii na okna musimy popracować nad barwą, bo obecna, w odcieniach szarości, ogranicza widzialność – mówi dr Mazurkiewicz-Pawlicka. Chcemy też znaleźć nowe polimery, które mogłyby zostać użyte jako osnowa w naszych materiałach.
      Współpraca
      Zespół dr Mazurkiewicz-Pawlickiej tworzyli dr hab. Leszek Stobiński, dr Artur Małolepszy oraz grupa studentów wykonujących w ramach projektu prace inżynierskie i magisterskie. Swoją cegiełkę dołożyli też członkowie Koła Naukowego Inżynierii Chemicznej i Procesowej. Zrobili urządzenie, które mierzy efektywność naszych folii – opowiada dr Mazurkiewicz-Pawlicka. Składa się z lampy emitującej promieniowanie podczerwone i czujnika, który mierzy, o ile stopni udało się obniżyć temperaturę.
      W ramach IR-GRAPH naukowcy z PW ściśle współpracowali z Tatung University na Tajwanie. Korzystali także ze wsparcia Wydziału Fizyki Uniwersytetu Warszawskiego. Prof. Dariusz Wasik, Dziekan Wydziału i dr hab. Andrzej Witowski są specjalistami w fizyce ciała stałego i wykonali dla nas pomiary spektrometryczne – mówi dr Mazurkiewicz-Pawlicka.
      Dlaczego ekranować podczerwień?
      Grafen kojarzony jest przede wszystkim z zastosowaniami w elektronice i automatyce. Wykorzystanie go do ekranowania promieniowania nie jest jeszcze tak rozpowszechnione. Są doniesienia literaturowe, że grafen ekranuje promieniowanie elektromagnetyczne – opowiada dr Mazurkiewicz-Pawlicka. Jest to szeroko badane pod kątem promieniowania mikrofalowego, a ostatnio też terahercowego, głównie w zastosowaniach militarnych. Pomyśleliśmy, żeby sprawdzić właściwości grafenu dla promieniowania podczerwonego, bo na ten temat wiadomo niewiele.
      Promieniowanie podczerwone charakteryzuje się długością fal między 780 nanometrów a 1 milimetr. Wspólnie ze światłem widzialnym i promieniowaniem UV tworzy spektrum promieniowania słonecznego. W nadmiarze ma ono negatywny wpływ na naszą skórę. A aż około 50% tego promieniowania, które dociera do powierzchni Ziemi, stanowi właśnie podczerwień (odczuwana w postaci ciepła). Dlatego tak ważne jest jej ekranowanie.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...