Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD.

Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii.

Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York.

W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii.

Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku.

Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.

 

Może się przydać dla kopiowania dysku na dysk (jeden błysk światła przez odpowiednią matrycę i gotowe) ale do normalnej pracy zbyt wolne.

  • Negatyw (-1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Waldi wie lepiej :-) normalka, połowa Polaków tak ma.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Waldi wie lepiej

 

Byle tranzystor zapyla 1Ghz ale lasery już nie (a na pewno nie do zastosowań powszechnych).

 

200Gb/sek

 

czyli 200giga błysków na sekundę :D puknij się w czoło i zacznij myśleć (na początek pomyśl o szybkości wypalania płytek CD tam też masz laser).

 

ale również dzięki ultrakrótkim impulsom cieplnym.

 

Ultra krótkie to do 300Mhz.

  • Negatyw (-1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Byle tranzystor zapyla 1Ghz ale lasery już nie (a na pewno nie do zastosowań powszechnych).

Na tym polega nowa technologia, że jeszcze nie jest powszechna. BTW słyszałeś kiedyś o laserach femtosekundowych?

czyli 200giga błysków na sekundę :D puknij się w czoło i zacznij myśleć (na początek pomyśl o szybkości wypalania płytek CD tam też masz laser).
Mało tego - pomyśl jak wolno błyska żarówka w kibelku! To niemożliwe, żeby coś błyskało szybciej od żarówki w kibelku!

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
słyszałeś kiedyś o laserach femtosekundowych?

 

Femtosekundę trwa błysk (następny po 1 sek i wodny układ chłodzenia) , spróbuj teraz wykonać takich błysków 200giga w sekundę (diody LED gdzie akcji laserowej nie ma mrygają w okolicach 2MHz - a gdzie przygotowanie i podanie informacji , czas na obrócenie krążkiem dysku??).

 

 

 

 

Ps. jak żarówka w kibelku ci mruga to ją dokręć lub wymień a nie stawiaj jako przykład.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale cóż mogę poradzić na to, że próbujesz oświadczyć, że przedstawione odkrycie nie jest prawdziwe, bo Ty tak sądzisz? :) Witki opadają, tak się zacietrzewiłeś. Najwidoczniej, skoro jest nowa technologia i udało się te superszybkie błyski uzyskać, coś jest na rzeczy i istnieje możliwość wdrożenia tej technologii w stosunkowo bliskiej przyszłości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Ale cóż mogę poradzić na to, że próbujesz oświadczyć, że przedstawione odkrycie nie jest prawdziwe

 

W notce jedyne określenie jakie pada co szybkości pracy to "Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy " . i tu się wszystko zgadza (jeśli są kompresowane) ale na końcu tekstu jest podane że użyto ultra krótkich impulsów cieplnych a to oznacza do ok.300MHz (tyle błysków) .

 

W linku zamieszczonym stwierdza się że impuls trwający 1/10000 nanosekundy wystarczy do zaznaczenia kropki i jest ona czytelna skąd po prostym przeliczeniu wyszły domniemane osiągi ale nie zapisano tą metodą ani jednego kilobajta informacji z prostej przyczyny nie ma laserów mogących impulsować w sposób ciągły taką szybkością (ani elektroniki do obsłużenia tego).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

300 MHz podane przez Ciebie dotyczy częstotliwości fali, ale nie częstotliwości błysków - masz chyba tę świadomość, że to dwa całkowicie odmienne parametry?

nie zapisano tą metodą ani jednego kilobajta informacji z prostej przyczyny nie ma laserów mogących impulsować w sposób ciągły taką szybkością

"Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła". A więc coś tam jednak zapisano.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Po dziesięcioleciach udało się odkryć ambipolarne (dwukierunkowe) pole elektryczne Ziemi. To słabe pole elektryczne naszej planety, które jest tak podstawową jej cechą jak grawitacja czy pola magnetyczne. Hipoteza o istnieniu takiego pola pojawiła się ponad 60 lat temu i od tamtego czasu poszukiwano tego pola. Jest ono kluczowym mechanizmem napędzającym „wiatr polarny”, czyli ucieczkę naładowanych cząstek z ziemskiej atmosfery w przestrzeń kosmiczną. Ma ona miejsce nad ziemskimi biegunami.
      „Wiatr polarny” został odkryty w latach 60. XX wieku. Od samego początku naukowcy uważali, że jego siłą napędową jest nieznane pole elektryczne. Uważano, że jest ono generowane w skali subatomowej i jest niezwykle słabe. Przez kolejnych kilkadziesiąt lat ludzkość nie dysponowała narzędziami, które mogły zarejestrować takie pole.
      W 2016 roku Glyn Collinson i jego zespół z Goddars Space Flight Center zaczęli pracować nad instrumentami zdolnymi do zmierzenia ambipolarnego pola elektrycznego. Stworzone przez nich urządzenia oraz metoda pomiaru zakładały przeprowadzenie badań za pomocą rakiety suborbitalnej wystrzelonej z Arktyki. Badacze nazwali swoją misję Endurance, na cześć statku, którym Ernest Shackleton popłynął w 1914 roku na swoją słynną wyprawę na Antarktykę. Rakietę postanowiono wystrzelić ze Svalbardu, gdzie znajduje się najbardziej na północ wysunięty kosmodrom. Svalbard to jedyny kosmodrom na świecie, z którego można wystartować, by przelecieć przez wiatr polarny i dokonać koniecznych pomiarów, mówi współautorka badań, Suzie Imber z University of Leicester.
      Misja Endurance została wystrzelona 11 maja 2022 roku. Rakieta osiągnęła wysokość 768,03 km i 19 minut później spadła do Morza Grenlandzkiego. Urządzenia pokładowe zbierały dane przez 518 kilometrów nabierania wysokości i zanotowały w tej przestrzeni zmianę potencjału elektrycznego o 0,55 wolta. Pół wolta to tyle co nic, to napięcie baterii w zegarku. Ale to dokładnie tyle, ile trzeba do napędzenia wiatru polarnego, wyjaśnia Collinson.
      Generowane pole elektryczne oddziałuje na jony wodoru, które dominują w wietrze polarnym, z siłą 10,6-krotnie większą niż grawitacja. To więcej niż trzeba, by pokonać grawitację. To wystarczająco dużo, by wystrzelić jony z prędkością naddźwiękową prosto w przestrzeń kosmiczną, dodaje Alex Glocer z NASA. Pole napędza też cięższe pierwiastki, jak jony tlenu. Z badań wynika, że dzięki obecności tego pola elektrycznego jonosfera jest na dużej wysokości o 271% bardziej gęsta, niż byłaby bez niego. Mamy tutaj rodzaj taśmociągu, podnoszącego atmosferę do góry, dodaje Collinson.
      Pole to nazwano ambipolarnym (dwukierunkowym), gdyż działa w obie strony. Opadające pod wpływem grawitacji jony ciągną elektrony w dół, a w tym samym czasie elektrony – próbując uciec w przestrzeń kosmiczną – ciągną jony w górę. Wskutek tego wysokość atmosfery zwiększa się, a część jonów trafia na wystarczającą wysokość, by uciec w przestrzen kosmiczną w postaci wiatru polarnego.
      Odkrycie ambipolarnego pola elektrycznego otwiera przed nauką nowe pola badawcze. Jest ono bowiem, obok grawitacji i pola magnetycznego, podstawowym polem energetycznym otaczającym naszą planetę, wciąż wpływa na ewolucję naszej atmosfery w sposób, który dopiero teraz możemy badać. Co więcej, każda planeta posiadająca atmosferę powinna mieć też ambipolarne pole elektryczne. Można więc będzie go szukać i badać na Marsie czy Wenus.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Intensywność pola magnetycznego Ziemi zmniejsza się od około 200 lat. Proces ten przebiega na tyle szybko, że niektórzy naukowcy ogłosili, iż w ciągu 2000 lat dojdzie do zamiany biegunów magnetycznych. Przebiegunowanie mogłoby spowodować, że przez kilka tysięcy lat Ziemia byłaby gorzej chroniona przed szkodliwym promieniowaniem kosmicznym i słonecznym. To z kolei doprowadziłoby do poważnych zakłóceń i awarii sprzętu elektronicznego, wzrostu przypadków zachorowań na nowotwory i zwiększenia się liczby mutacji genetycznych. Niewykluczone, że ucierpiałyby też te gatunki zwierząt, które w swoich migracjach orientują się wedle pola magnetycznego.
      Naukowcy z MIT-u opublikowali na łamach PNAS artykuł opisujący wyniki ich badań nad stanem pola magnetycznego planety. Ich zdaniem przebiegunowanie nie grozi nam w najbliższym czasie. Uczeni obliczyli średnią intensywność stabilnego ziemskiego pola magnetycznego na przestrzeni ostatnich 5 milionów lat i odkryli, że obecnie pole to jest dwukrotnie bardziej intensywne niż średnia z tego okresu. To oznacza, że minie jeszcze sporo czasu, zanim pole magnetyczne planety stanie się niestabilne i dojdzie do przebiegunowania. To olbrzymia różnica, czy dzisiejsze pole magnetyczne jest takie jak średnia długoterminowa czy też jest powyżej średniej. Teraz wiemy, że nawet jeśli intensywność pola magnetycznego Ziemi się zmniejsza to jeszcze przez długi czas będzie się ono znajdowało w bezpiecznym zakresie - mówi Huapei Wang, główny autor badań.
      Z innych badań wiemy, że w przeszłości wielokrotnie dochodziło do przebiegunowania naszej planety. Jest to jednak proces bardzo nieregularny. Czasami przez 40 milionów lat nie było przebiegunowania, a czasem bieguny zmieniały się 10-krotnie w ciągu miliona lat. Średni czas pomiędzy przebiegunowaniami wynosi kilkaset tysięcy lat. Ostatnie przebiegunowanie miało miejsce około 780 000 lat temu, zatem średnia już została przekroczona - dodaje Wang.
      Sygnałem nadchodzącego przebiegunowania jest znaczący spadek poniżej średniej długoterminowej intensywności pola magnetycznego. To wskazuje, że stanie się ono niestabilne. Zarówno z badań terenowych jak i satelitarnych mamy dobre dane dotyczące ostatnich 200 lat. Mówiąc o przeszłości musimy opierać się na mniej pewnych szacunkach.
      Grupa Wanga zdobywała informacje o przeszłości ziemskiego pola magnetycznego badając skały wyrzucone przez wulkany na Galapagos. To idealne miejsce, gdyż wyspy położone są na równiku. Stabilne pole magnetyczne jest dipolem, jego intensywność powinna być taka sama na obu biegunach, a na równiku powinna być o połowę mniejsza. Wang stwierdził, że jeśli pozna historyczną intensywność pola magnetycznego na równiku i na biegunach uzyska dokładne dane na temat średniej historycznej intensywności. Sam zdobył próbki z Galapagos, a próbki z Antarktyki dostarczyli mu naukowcy ze Scripps Institution of Oceanography. Naukowcy najpierw zmierzyli naturalny magnetyzm skał. Następnie podgrzali je i ochłodzili w obecności pola magnetycznego i zmierzyli ich magnetyzm po ochłodzeniu. Naturalny magnetyzm skał jest proporcjonalny do pola magnetycznego, w którym stygły. Dzięki eksperymentom naukowcy byli w stanie obliczyć średnią historyczną intensywność pola magnetycznego. Wynosiła ona około 15 mikrotesli na równiku i 30 mikrotesli na biegunach. Dzisiejsza intensywność wynosi zaś, odpowiednio, 30 i 60 mikrotesli. To oznacza, że dzisiejsza intensywność jest nienormalnie wysoka i jeśli nawet ona spadnie, to będzie to spadek do długoterminowej średniej, a nie ze średniej do zera, stwierdza Wang.
      Uczony uważa, że naukowcy, którzy postulowali nadchodzące przebiegunowanie opierali się na wadliwych danych. Pochodziły one z różnych szerokości geograficznych, ale nie z równika. Dopiero Wang wziął pod uwagę dane z równika. Ponadto odkrył, że w przeszłości źle rozumiano sposób, w jaki w skałach pozostaje zapisana informacja o ziemskim magnetyzmie. Z tego też powodu przyjęto błędne założenie. Uznano, że gdy poszczególne ferromagnetyczne ziarna w skałach ulegały schłodzeniu spiny elektronów przyjmowały tę samą orientację, z której można było odczytać intensywność pola magnetycznego. Teraz wiemy, że jest to prawdą ale tylko do pewnej ograniczonej wielkości ziaren. Gdy są one większe spiny elektronów w różnych częściach ziarna przyjmują różną orientację. Wang opracował więc metodę korekty tego zjawiska i zastosował ją przy badaniach skał z Galapagos.
      Wang przyznaje, że nie wie, kiedy dojdzie do kolejnego przebiegunowania. Jeśli założymy, że utrzyma się obecny spadek, to za 1000 lat intensywność pola magnetycznego będzie odpowiadała średniej długoterminowej. Wówczas może zacząć się zwiększać. Tak naprawdę nie istnieje sposób, by przewidzieć, co się stanie. Proces magnetohydrodynamiczny ma bowiem chaotyczną naturę".

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy.
      Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji.
      Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003.
      Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny.
      Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji.
      Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jak się okazuje, do rozwoju wielkich cywilizacji ludzkości potrzebny był nie tylko miecz i pług, ale również pióro. Autorzy najnowszej analizy dowodzą, że o być albo nie być protopaństw i pierwszych cywilizacji decydowała technologia informacyjna.
      Analiza danych zgromadzonych w ramach projektu „Seshat: Global History Databank” dowodzi, że na pewnym etapie rozwoju rodzące się państwa napotykały wąskie gardło w postaci konieczności wymiany informacji. Te, które sobie z tym poradziły, mogły rozwijać się dalej.
      Jaeweon Shin z Rice University, Michael Holton Price, David Wolpert, Hajime Shimao i Brendan Tracey z Santa Fe Institute oraz Timothy Kohler z Washington State University dowodzą, że każda cywilizacja rozwijała się w trzech etapach.
      Na początkowym etapie rozwój protopaństwa napędzany był samym wzrostem liczby ludności. Osiadły tryb życia, udomowienie roślin i zwierząt pojawiły się niezależnie w wielu miejscach na Ziemi. W wielu społeczeństwach doszło też do znacznej zmiany mobilności ich członków. Wraz z pojawianiem się nadwyżek żywności, przekazywaniem zgromadzonych dóbr kolejnym pokoleniom rosły nierówności, pojawiały się i umacniały ośrodki władzy.
      Powstawały protopaństwa, a wzrost ich siły był napędzany wzrostem liczby ludności. Niemal wszędzie obserwuje się występowanie takich powiązanych ze sobą zjawisk jak wzrost produkcji rolnej, wzrost liczby ludności, pojawianie się zaczątków miast, rozwój hierarchii politycznej i coraz większe nierówności majątkowe. Na wszystkich kontynentach gdzie pojawiło się rolnictwo zauważalny jest wysoki stopień podobieństwa zarówno w sposobie formowania się społeczności ludzkich, od niewielkich grup łowców-zbieraczy po ostatnią znaną nam formę czyli wielkie społeczeństwa miejskie.
      Naukowcy chcieli sprawdzić, co powoduje, że społeczeństwa rozwijają się w tak bardzo podobny sposób. W tym celu wzięli na warsztat bazę Seshat. To ambitny projekt, w którym pod uwagę branych jest ponad 1500 zmiennych, za pomocą których opisano ponad 400 społeczeństw z 6 kontynentów na przestrzeni ostatnich 10 000 lat historii.
      Na podstawie wykonanej analizy autorzy badań doszli do wniosku, że po początkowej pierwszej fazie rozwoju protopaństw wzrost liczby ludności przestaje wystarczać i pojawia się wąskie gardło. Jest nim konieczność opracowania efektywnego systemu wymiany informacji i przeprowadzania transakcji handlowych. Istnieje bardzo silny związek pomiędzy sposobem, w jaki społeczeństwa przetwarzają informacją, a tym, jak duże mogą się stać. Wydaje się, że wcześnie dokonany postęp w przetwarzaniu informacji, a zatem np. pojawienie się pisma czy pieniądze, był dla rozwoju tamtych społeczeństw równie ważny, jak dla nas ważny jest dzisiaj internet, mówi Tim Kohler. Dopiero, gdy w takim protopaństwie pojawi się pismo i pieniądz, społeczeństwo może nadal się rozwijać i przejść do fazy trzeciej.
      Nasze analizy wykazały, że starożytne cywilizacje, po osiągnięciu pewnej wielkości, natykały się na informacyjne wąskie gardło. To punkt zwrotny naszej skali rozwoju społeczeństw. Bardzo rzadko zdarzało się, by bez pisma lub pieniądza, mogły nadal się rozwijać. Jednak tam, gdzie dokonano tych wynalazków, narodziły się wielkie imperia, dodaje Kohler.
      Badania Kohlera i jego kolegów dostarczają też możliwego wyjaśnienia różnic technologicznych, jakie widzimy pomiędzy cywilizacjami Starego i Nowego Świata. Ich praca dowodzi bowiem, że bardzo mało cywilizacji obu Ameryk było w stanie dotrzeć do punktu zwrotnego. W związku z tym istniała tam mniejsza presja na rozwój pisma i innych form informacji, które przyniosły postęp technologiczny w Europie i Azji.
      Jednym z głównych powodów, dla których cywilizacje Ameryki nigdy nie osiągnęły punktu zwrotnego był brak koni, wołów i innych dużych zwierząt zdolnych do przenoszenia ludzi i ładunków. Takie zwierzęta pozwalały na powstanie nadwyżek żywności, ułatwiały handel i umożliwiały ekspansję imperiów w Azji i Europie, dodaje Kohler.
      Naukowcy mają nadzieję, że analiza bazy Seshat da też odpowiedź na inne interesujące pytania, jak np. dlaczego niektóre cywilizacje upadły, mimo że nie widać żadnych zewnętrznych przyczyn ich porażki. Mamy nadzieję, że z czasem, gdy do Seshat będzie trafiało coraz więcej danych, uda nam się odpowiedzieć na tego typu pytania, mówi Kohler.
      Obecnie posiadamy nowe niezwykłe możliwości przechowywania i przetwarzania danych. Większe niż kiedykolwiek wcześniej. Czy to oznacza, że przed nami nowy etap rozwoju ludzkiej cywilizacji? A jeśli tak, to jak będzie on wyglądał, zastanawia się uczony.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Uniwersytetu Stanforda są pierwszymi, którzy uzyskali system składający się z „zaprojektowanych elektronów“. Pozwala to na dobranie właściwości elektronów, a w przyszłości umożliwi stworzenie nowych typów materiałów.
      Sercem wszystkich dzisiejszych technologii jest zachowanie się elektronów w materiale. Teraz jesteśmy w stanie dobrać podstawowe właściwości elektronów tak, by zachowywały się one w sposób rzadko spotykany w zwykłych materiałach - mówi profesor Hari Manoharan.
      Pierwszym stworzonym w ten sposób materiałem jest struktura w kształcie plastra miodu, zainspirowana grafenem. Naukowcy nazwali ją „molekularnym grafenem“.
      Uczeni za pomocą skaningowego mikroskopu elektronowego umieszczali pojedyncze molekuły tlenku węgla na idealnie gładkiej powierzchni miedzi. Węgiel odpychał wolne elektrony z atomów miedzi i zmuszał je do utworzenia heksagonalnej struktury, w której miały właściwości podobne do elektronów w grafenie, czyli zachowywały się tak, jakby nie miały masy. Aby odpowiednio dobrać ich właściwości uczeni przesuwali molekuły CO, co zmieniało symetrie przepływu elektronów. W pewnych ustawieniach zachowywały się one tak, jakby były wystawione na działanie pola elektrycznego bądź magnetycznego. Inne ułożenie molekuł umożliwiało np. na precyzyjne dobranie gęstości elektronów na powierzchni. Możliwe było też wyznaczenie obszarów, na których elektrony zachowywały się tak, jakby posiadały masę. Jedną z najbardziej niesamowitych rzeczy, którą osiągnęliśmy jest spowodowanie, by elektrony zachowywały się tak, jakby znajdowały się w silnym polu magnetycznym, podczas gdy w rzeczywistości nie ma żadnego pola - stwierdza Manoharan. Dzięki teorii opracowanej przez współautora badań, którym jest Francisco Guinea z Hiszpanii, naukowcy byli w stanie obliczyć, jak ułożyć atomy węgla, by elektrony zachowywały się jak zostały poddane polu magnetycznemu do 60 tesli.
      To nowe pole do badań dla fizyki. Grafen molekularny to pierwsza z wielu możliwych struktur. Sądzimy, że nasze badania pozwolą na stworzenie nowych przydatnych w elektronice materiałów - mówi Manoharan.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...