Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Badacze z IBM-owskiego Almaden Research Centre poinformowali o opracowaniu nowego rodzaju pamięci, dzięki któremu w ciągu dekady mogą powstać np. odtwarzacze MP3 zdolne do przechowywania setek tysięcy plików.

Racetrack memory (RM) wykorzystuje spintronikę, a nazwę zawdzięcza swojej budowie. Składa się z miliardów nanokabli w kształcie litery U, które są przytwierdzone do krzemowego podłoża. Każdy z kabli przechowuje setki bitów danych. Są one przechowane w formie całej serii pól magnetycznych rozmieszczonych wzdłuż nanokabla. W przeciwieństwie do pamięci flash, która z czasem traci zdolności do przechowywania danych, RM w ogóle się nie zużywa.

W miejscu, w którym kabel jest przytwierdzony do krzemu znajduje się niewielkie, nieruchome urządzenie odczytujące. Przyłożenie napięcia elektrycznego do nanokabli powoduje przesuwanie się magnetycznych domen. Głowica odczytująca mierzy magnetooporność każdej z domen, odczytując w ten sposób zapisane informacje. Podobne, umieszczone obok urządzenie, może zapisywać dane odpowiednio manipulując napięciem elektrycznym.
Możliwe jest umieszczanie nanokabli zarówno w pionie jak i w poziomie.

Racetrack nie ma ruchomych części, więc się nie zużywa. Może przechowywać dane przez całe dziesięciolecia. Do pracy wymaga bardzo mało energii elektrycznej i niemal nie wydziela ciepła, a zapis i odczyt przebiegają bardzo szybko. Ponadto pozwala przechować olbrzymią ilość danych na niewielkiej przestrzeni. Ma więc wszystkie zalety pamięci RAM, flash i dysków twardych, a jednocześnie pozbawiony jest ich wad.

Stuart Parkin, szef zespołu, który opracował RM, mówi, że nowe pamięci powinny trafić na rynek w ciągu najbliższych 5-10 lat.
Inżynierowie pokonali już główne przeszkody i myślą o zastosowaniu w przyszłości trójwymiarowych struktur do budowy układów RM.

Parkin stwierdził: perspektywy, które otwiera przed nami pamięć racetrack - na przykład możliwość przenoszenia w kieszeni olbrzymich ilości danych - są tak olbrzymie, że powstaną urządzenia i aplikacje, jakich obecnie nie jesteśmy w stanie sobie wyobrazić.

Share this post


Link to post
Share on other sites

Pamięć podbije rynek kamer, telewizorów i telefonów komórkowych jeśli nie będzie mowy o zakłoceniach z tym sprzętem. Pomysł bardzo dobry na to aby zastąpić starszego typu pamięci.

Share this post


Link to post
Share on other sites
Guest shadowmajk

No na bank przeniosny sprzet zostanie niedlugo w takie pamieci wyposazony ;) wszelkiej masci odtwarzacze dzwieku a przede wszystkim na czołówce Apple iPod ;)

Share this post


Link to post
Share on other sites

Cena pewnie bedzie na początku zaporowa. oby tylko na początku. Jeśli zostanie on dalej rozwinięty i pamieci stana się tak szybkie jak dzisiejszy ram to może naprawde być rewolucja.wyobrażacie sobie niezużywający sie dysk twardy o pojemności 1PB o prędkości zapisu 3Gb/s?? albo więcej??? Aplikacje mogły by działać z naprawde oszałamiającą prędkością!!! Lub dyski twarde wbudowane w płyty główne o pojemnościach liczonych w Terabajtach?? w połaczeniu z opracowywanymi chipami będącymi jednoczęśnie CPU/GPU i kontrolerem pamięci można by budować ultraszybkie i ultramałe komputery do absolutnie wszystkiego:D Przyszłość zaczyna się dziś!!

Share this post


Link to post
Share on other sites
Guest tymeknafali

Brzmi porażająco... wyobraźcie sobie gry jakie mogą powstać dzięki takim możliwościom... ci z second life'a przejdą w końcu w wirtual, a real stanie się dla nich mitem... ;)

Share this post


Link to post
Share on other sites

setki tysięcy plików to ja mogę mieć na swoim komputerze z dyskiem 30 GB (wystarczy dobra tablica alokacji). Co do tej technologii, wolałbym podejść bardziej sceptycznie. Za 5 -10 lat zobaczymy co z tego będzie, a na razie to niech pracują nad ulepszaniem tej technologii:P

Share this post


Link to post
Share on other sites

5-10 lat? Dość długo... ale pewnie to dlatego ze jeszcze na flash'ach musza sobie zarobic... =/

ale wynalazek cieszy i budzi nadzieje...

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Już pojedyncza sesja ćwiczeń wystarczy, by zwiększyć aktywację obwodów mózgowych związanych z pamięcią, w tym hipokampa, który kurczy się z wiekiem.
      Dotąd udało się wykazać, że regularne ćwiczenia mogą zwiększać objętość hipokampa. Nasze badanie uzupełnia wiedzę na ten temat i pokazuje, że pojedyncze sesje ćwiczeń [ang. acute exercise] także mogą wpłynąć na ten ważny obszar mózgu - podkreśla dr J. Carson Smith ze Szkoły Zdrowia Publicznego Uniwersytetu Maryland.
      Zespół Smitha mierzył za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) aktywność mózgu 26 zdrowych ochotników w wieku 55-85 lat, którzy mieli wykonywać zadanie pamięciowe (identyfikowali sławne i "zwykłe" nazwiska). Co istotne, zapamiętywanie sławnych nazwisk aktywuje sieć neuronalną związaną z pamięcią semantyczną, która pogarsza się z wiekiem.
      Test przeprowadzano 2-krotnie na oddzielnych wizytach w laboratorium: 1) pół godziny po sesji umiarkowanie intensywnych ćwiczeń (70% maksymalnego wysiłku) na rowerze stacjonarnym albo 2) po okresie odpoczynku.
      Sesja ćwiczeń wiązała się z zachodzącą w odpowiednim momencie większą aktywacją pamięci semantycznej w zakręcie czołowym środkowym, zakręcie skroniowym dolnym, zakręcie skroniowym środkowym i zakręcie wrzecionowatym. Widoczna była także zwiększona obustronna aktywacja hipokampa.
      [...] Pojedyncze sesje ćwiczeń mogą wpływać na poznawcze obwody neuronalne w korzystny sposób, który sprzyja długoterminowym adaptacjom i przyczynia się do zwiększonej integralności/lepszego działania sieci, a więc skuteczniejszego dostępu do wspomnień.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rozwój spintroniki zależy od materiałów gwarantujących kontrolę nad przepływem prądów spolaryzowanych magnetycznie. Trudno jednak mówić o kontroli, gdy nieznane są szczegóły transportu ciepła przez złącza między materiałami. Cieplna luka w naszej wiedzy została właśnie wypełniona dzięki polsko-niemieckiemu zespołowi fizyków, który po raz pierwszy dokładnie opisał zjawiska dynamiczne zachodzące na złączu między ferromagnetykiem a półprzewodnikiem.
      Spintronika to następczyni wszechobecnej elektroniki. W urządzeniach spintronicznych prądy elektryczne próbuje się zastępować prądami spinowymi. Obiecującym materiałem dla tego typu zastosowań wydaje się być złącze arsenku galu z krzemianem żelaza: na każde cztery elektrony przepływające przez złącze aż trzy niosą tu informację o kierunku momentu magnetycznego. Do tej pory niewiele było jednak wiadomo, jak zmieniają się właściwości dynamiczne złącza, decydujące o przepływie ciepła. Połączenie sił Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie, Instytutu Technologicznego w Karlsruhe (KIT), Instytutu Paula Drudego w Berlinie i ośrodka badawczego DESY w Hamburgu pozwoliło tę zagadkę wreszcie rozwiązać.
      Układy z krzemianu żelaza Fe3Si i arsenku galu GaAs są szczególne. Oba materiały znacznie różnią się właściwościami: pierwszy jest bardzo dobrym ferromagnetykiem, drugi to półprzewodnik. Natomiast stałe sieci, czyli charakterystyczne odległości między atomami, w obu materiałach różnią się zaledwie o 0,2%, są więc niemal identyczne. W rezultacie materiały te świetnie się łączą, a na złączach nie ma defektów ani znaczących naprężeń - mówi dr hab. Przemysław Piekarz (IFJ PAN).
      Grupa skoncentrowała się na przygotowaniu teoretycznego modelu drgań sieci krystalicznych w badanym złączu. Istotną rolę odegrało tu oprogramowanie PHONON, stworzone i od ponad 20 lat rozwijane przez prof. dr hab. Krzysztofa Parlińskiego (IFJ PAN). W oparciu o podstawowe prawa mechaniki kwantowej wyliczane są tu siły oddziaływań między atomami, co pozwala rozwiązywać równania opisujące ruch atomów w sieciach krystalicznych.
      Dr hab. Małgorzata Sternik (IFJ PAN), która wykonała większość obliczeń, wyjaśnia: W naszym modelu podłożem jest arsenek galu, którego najbardziej zewnętrzna warstwa składa się z atomów arsenu. Nad nią znajdują się naprzemiennie ułożone warstwy z atomami żelaza i krzemu oraz samego żelaza. Drgania atomowe wyglądają inaczej dla litego kryształu, a inaczej w pobliżu interfejsu. Dlatego badaliśmy, jak zmienia się widmo drgań w zależności od odległości od interfejsu.
      Dynamika atomów w kryształach nie jest przypadkowa. Materiały te charakteryzują się dużym uporządkowaniem. W efekcie ruch atomów nie jest tu chaotyczny, lecz podlega pewnym, niekiedy bardzo złożonym wzorcom. Za transport ciepła odpowiadają głównie fale akustyczne poprzeczne. Oznacza to, że przy analizie dynamiki sieci badacze musieli ze szczególną uwagą przyglądać się drganiom atomowym zachodzącym w płaszczyźnie równoległej do złącza. Gdyby fale drgań atomów w obu materiałach były do siebie dopasowane, ciepło efektywnie przepływałoby przez złącze.
      Próbki materiałów Ge/Fe3Si/GaAs, zawierające różną liczbę monowarstw krzemianu żelaza (3, 6, 8 oraz 36), zostały przygotowane w Instytucie Paula Drudego przez Jochena Kalta, doktoranta w Instytucie Technologicznym w Karlsruhe. Same doświadczenia zrealizowano w synchrotronie Petra III, na linii pomiarowej Dynamics Beamline P01 w ośrodku DESY.
      Pomiar widma drgań atomowych w ultracienkich warstwach jest wielkim wyzwaniem dla fizyków ciała stałego - mówi kierujący eksperymentem dr Svetoslav Stankov (KIT) i dodaje: Dzięki wyjątkowym własnościom promieniowania synchrotronowego, potrafimy obecnie za pomocą nieelastycznego rozpraszania jądrowego wyznaczać z dużą rozdzielczością widmo drgań atomowych w nanostrukturach. W naszych pomiarach wiązka promieniowania synchrotronowego padała na złącze w kierunku praktycznie równoległym do jego powierzchni. Takie ustawienie gwarantowało możliwość obserwacji drgań atomowych zachodzących równolegle do złącza. Co więcej, jest to pomiar selektywny dla atomów żelaza, bez zaburzenia pochodzącego od tła.
      Okazało się, że mimo podobieństw struktury krystalicznej obu materiałów, drgania atomów w pobliżu interfejsu znacznie różnią się od tych w litym materiale. Obliczenia z pierwszych zasad doskonale pokryły się z wynikami eksperymentalnymi, odtwarzając nowe cechy w widmach drgań atomów.
      Niemal doskonała zgodność teorii z eksperymentem otwiera drogę do nanoinżynierii fononowej, która może doprowadzić do powstania bardziej wydajnych urządzeń termoelektrycznych i efektywnego zarządzania przepływem ciepła - podsumowuje dr Stankov.
      Złącze Fe3Si/GaAs okazało się doskonałym układem do badania własności dynamicznych i spintronicznych. W przyszłości zespół naukowców, finansowany przez Narodowe Centrum Nauki (2017/25/B/ST3/02586), Helmholtz Association (HGF, VH-NG-625) i German Ministry for Research and Education (BMBF, 05K16VK4), zamierza rozszerzyć zakres badań interfejsu w celu dokładnego poznania jego własności elektronowych i magnetycznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Międzynarodowa grupa naukowa pracująca pod przewodnictwem inżynierów z Narodowego Uniwersytetu Singapuru opracowała nowe urządzenie spintroniczne do manipulowania cyfrową informacją. Jest ono 20-krotnie bardziej wydajne i 10-krotnie bardziej stabilne niż dostępne obecnie rozwiązania komercyjne. Nowe urządzenie zostało opracowane we współpracy z naukowcami z Instytutu Technologicznego Toyoty oraz Uniwersytetu Koreańskiego.
      Nasze odkrycie może stać się nową platformą rozwojową dla przemysłu spintronicznego, który obecnie zmaga się z problemami związanymi z niestabilnością i skalowalnością, gdyż wykorzystuje się tutaj bardzo cienkie elementy magnetyczne, mówi profesor Yang Hyunso z Singapuru.
      Obecnie na świecie powstają olbrzymie ilości cyfrowych informacji. Istnieje więc duże zapotrzebowanie na tanie, energooszczędne, stabilne i skalowalne produkty do przechowywania tej informacji i manipulowania nią. Stawiane warunki mogłyby spełniać materiały spintroniczne bazujące na rozwiązaniach ferromagnetycznych. Jednak wciąż są one bardzo drogie z powodu problemów ze skalowalnością i stabilnością. Układy pamięci bazujące na ferromagnetykach nie mogą mieć grubości większej niż kilka nanometrów, gdyż efektywność ich okablowania wykładniczo spada wraz z rosnącą grubością. Zaś obecna grubość jest niewystarczająca, by zapewnić stabilne przechowywanie danych w warunkach naturalnie wahających się temperatur, wyjaśnia doktor Yu Jiawei.
      Uczeni, aby poradzić sobie z tym problemem, zaprzęgli do pracy materiały ferrimagnetyczne. Zauważyli, że mogą być one 10-krotnie grubsze niż materiały ferromagnetyczne i nie wpływa to na ich wydajność. W ferrimagnetykach spin elektronów napotyka na minimalne opory. To jest taka różnica, jakbyśmy jechali samochodem drogą 8-pasmową, w porównaniu do jazdy 1-pasmową ulicą w mieście. Dla spinu ferromagnetyk to jak wąska ulica w mieście, zaś ferrimagnetyk jest jak szeroka autostrada, mówi jeden z badaczy, Rahul Mishra.
      Pamięć stworzona z materiału ferrimagnetycznego okazała się 10-krotnie bardziej stabilna i 20-krotnie bardziej wydajna niż pamięć z ferromagnetyku. Zdaniem profesora Yanga, za różnicę w wydajności odpowiada unikatowe uporządkowanie atomów.W ferrimagnetykach sąsiadujące ze sobą domeny magnetyczne są zwrócone do siebie przeciwnymi znakami. Zaburzenia spinu powodowane przez jeden atom, są kompensowane przez sąsiedni. Dzięki temu informacja może przepływać szybciej, dalej i przy mniejszym zużyciu energii, stwierdził.
      Na kolejnym etapie badań naukowcy przyjrzą się już nie tylko problemowi przesyłania informacji w ferrimagnetykach, ale zbadają też tempo jej odczytu i zapisu. Spodziewają się, że będzie ono niezwykle szybkie. Chcą też rozpocząć współpracę z przemysłem, by ich wynalazek jak najszybciej trafił do praktycznego użycia.

      « powrót do artykułu
×
×
  • Create New...