Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Powstał superszybki energooszczędny sposób przechowywania danych

Recommended Posts

Międzynarodowy zespół naukowy opracował metodę przechowywania danych, która niemal nie zużywa energii. Cyfrowe dane są zapisane na nośniku magnetycznym, który nie potrzebuje zasilania. Cała metoda jest niezwykle szybka i rozwiązuje problem zwiększenia wydajności przetwarzania danych bez zwiększania poboru energii.

Obecnie centra bazodanowe odpowiadają za 2–5 procent światowego zużycia energii. W czasie ich pracy generowane są olbrzymie ilości ciepła, które wymagają dużych ilości energii przeznaczonej na chłodzenie. Problem jest na tyle poważny, że np. Microsoft zatopił centra bazodanowe w oceanie, by je lepiej chłodzić i obniżyć koszty.

Większość danych przechowywanych jest w formie cyfrowej, gdzie 0 i 1 są reprezentowane za orientacji domen magnetycznych. Nad materiałem magnetycznym przesuwa się głowica odczytująco/zapisująca.

Teraz na łamach Nature dowiadujemy się o nowej metodzie zapisu, która wykorzystuje niezwykle krótkie, trwające bilionowe części sekundy, impulsy światła, które wysyłane są do anten umieszczonych na magnesach. Całość pracuje niezwykle szybko i niemal nie zużywa przy tym energii, gdyż temperatura magnesów nie rośnie.

Autorzy nowej metody wykorzystali impulsy światła w zakresie dalekiej podczerwieni, w paśmie teraherców. Jednak nawet najpotężniejsze terahercowe źródła światła nie są na tyle mocne, by zmienić orientację pola magnetycznego. Przełom nadszedł, gdy uczeni opracowali wydajny mechanizm sprzęgania pomiędzy spinem pola magnetycznego i terahercowym polem elektrycznym. Następnie stworzyli miniaturowe anteny, które pozwalają skoncentrować, a zatem i wzmocnić pole elektryczne światła. Okazało się ono na tyle silne, że można za jego pomocą zmieniać spin w ciągu bilionowych części sekundy.

Temperatura magnesu nie rośnie podczas pracy, gdyż cały proces zapisu wymaga jednego kwanta energii na spin. Rekordowo niski pobór energii czyni tę metodę skalowalną. Przyszłe systemy do składowania danych będą mogły wykorzystać również świetne zdefiniowanie przestrzenne anten, co pozwoli na stworzenie praktycznych układów pamięci magnetycznej o maksymalnej prędkości i efektywności energetycznej, mówi jeden z autorów badań, doktor Rościsław Michajłowskij z Lancaster University.

Uczony planuje przeprowadzenie kolejnych badań, podczas których chce wykorzystać nowy ultraszybki laser z Lancaster University oraz akceleratory z Cockroft Institute zdolne do generowania intensywnych impulsów światła. Chce w ten sposób określić praktyczne i fundamentalne limity prędkości i energii dla zapisu magnetycznego.


« powrót do artykułu

Share this post


Link to post
Share on other sites
7 godzin temu, KopalniaWiedzy.pl napisał:

Międzynarodowy zespół naukowy opracował metodę przechowywania danych, która niemal nie zużywa energii. Cyfrowe dane są zapisane na nośniku magnetycznym, który nie potrzebuje zasilania.

Przecież HDD czy SSD też "niemal nie zużywa energii". a jak jest nie włączony to nie zużywa wcale. Sam mechanizm zapisu/odczytu dzisiejszych dysków pobiera śmiesznie małe ilości energii i nie stanowi problemu. Duże zużycie energii jest dalej, na poziomie elektroniki która zmaga się z przetwarzaniem tych Gb/s danych. i tutaj dopiero są te wentylatory,radiatory itd.

Share this post


Link to post
Share on other sites

autor Pan Marek możliwe, że nie precyzyjnie się wyraził, może chodzi o infrastrukturę przechowywania danych, więc co w tym temacie mają do powiedzenia bazy holograficzne? 

Share this post


Link to post
Share on other sites

Tyle że SSD niestety ma nadal niską żywotność i jest drogi. A w razie awarii praktycznie niemożliwe jest odzyskanie danych ze spalonego układu. SSD jest dobry tylko w domowym komputerze.

Share this post


Link to post
Share on other sites
2 godziny temu, Rowerowiec napisał:

Tyle że SSD niestety ma nadal niską żywotność i jest drogi

Ale chmury preferują instalacje ssd. Czyżby chodziło o GB/kWh?

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy pracujący przy instrumentach LIGO i VIRGO potwierdzili odkrycie, o którym informowaliśmy w sierpniu – po raz pierwszy udało się bezpośrednio zaobserwować fale grawitacyjne oraz emisję światła pochodzące ze zderzenia gwiazd neutronowych.
      Gdy wspomniane gwiazdy krążyły wokół siebie doszło do emisji fal grawitacyjnych, które obserwowano przez około 100 sekund. Gdy gwiazdy się zderzyły, rozbłysk światła był widziany z Ziemi po około 2 sekundach od zarejestrowania fal grawitacyjnych. W ciągu dni i tygodni następujących po zderzeniu obserwowano inne rodzaje emisji, w tym emisję w zakresach ultrafioletu, podczerwieni, światło widzialne, fale radiowe i promieniowanie rentgenowskie.
      Obserwacje zderzenia gwiazd neutronowych były też niepowtarzalną okazją do przeprowadzenia wielu badań. Na przykład dzięki teleskopom Gemini Obserwatory, Hubble'a i European Very Large Telescope naukowcy dowiedzieli się, że podczas kolizji doszło do syntezy wielu materiałów, w tym złota i platyny. To z kolei pozwoliło na rozwiązanie zagadki pochodzenia pierwiastków cięższych od żelaza.
      Możliwość obserwowania rzadkiego wydarzenia zmieniającego nasze rozumienie działania wszechświata jest niezwykle ekscytująca. Dzięki temu wielu specjalistów mogło w końcu osiągnąć postawione sobie cele badawcze i jednocześnie obserwować zjawisko zarówno w formie tradycyjnej jak i fal grawitacyjnych, mówi France A. Cordova, dyrektor National Science Foundation.
      Sygnał grawitacyjny GW170817 wykryto po raz pierwszy 17 sierpnia bieżącego roku. Zauważono go w bliźniaczych detektorach LIGO umiejscowionych w Hanford w stanie Waszyngton i Livingston w Luizjanie. Informacje z detektora Virgo z okolic PIzy pozwoliły na ściślejsze określenie źródła sygnału. Mniej więcej w tym samym czasie gdy sygnał został wykryty w jednym z detektorów LIGO teleskop kosmiczny Fermi zarejestrował rozbłysk gamma. Analizy przeprowadzone przy użyciu oprogramowania LIGO-Virgo wykazały, że jest mało prawdopodobne, by sygnały pochodziły z różnych źródeł. Kolejna analiza pokazała, że i drugi z detektorów LIGO zarejestrował wspomniany sygnał. O zjawisku poinformowano ośrodki naukowe na całym świecie, dzięki czemu można było skierować teleskopy w odpowiednie miejsce.
      Dane z LIGO pokazały, że w odległości około 130 milionów lat świetlnych od Ziemi znajdują się dwa krążące wokół siebie obiekty. Masę obu obiektów oszacowano na 1,1-1,6 masy Słońca, co wskazywało, że nie są to czarne dziury, a gwiazdy neutronowe. To było niezwykle cenne odkrycie, gdyż wcześniej rejestrowano wyłącznie fale grawitacyjne pochodzące z czarnych dziur. Taki sygnał trwa ułamki sekund. Tymczasem sygnał z gwiazd neutronowych nie tylko rejestrowano przez 100 sekund, ale też był on obecny we wszystkich częstotliwościach pracy LIGO. Przeprowadzone przez nas analizy wykazały, że błędny sygnał o takiej sile może się zdarzyć rzadziej niż raz na 80 000 lat, mówi Laura Cadonati, profesor fizyki na Georgia Tech. To odkrycie otwiera nowe możliwości przed astrofizyką. Zostanie ono zapamiętane jako jedno z najintensywniej badanych zjawisk astrofizycznych w dziejach, dodaje uczona.
      Odkrycie rozwiązało kilka zagadek, na przykład pozwoliło stwierdzić, że krótkotrwałe rozbłyski gamma rzeczywiście mają związek z łączeniem się gwiazd neutronowych, ale pojawiły się też nowe pytania. Na przykład źródło rozbłysku gamma znajdowało się wyjątkowo blisko Ziemi, jednak sam rozbłysk był zadziwiająco słaby jak na tę odległość. Naukowcy już pracują nad modelami wyjaśniającymi, dlaczego tak się stało.
      Mimo, że amerykański LIGO jako pierwszy odkrył sygnał, to europejski Virgo odegrał kluczową rolę w badaniach. Jego orientacja względem źródła sygnału w momencie jego zarejestrowania dostarczyła danych, które po połączeniu z danymi z LIGO pozwoliły na precyzyjne zlokalizowanie źródła sygnału. To najdokładniej zlokalizowane ze wszystkich dotychczas odkrytych źródeł fal grawitacyjnych. Tak duża precyzja położenia źródła pozwoliła na przeprowadzenie wielu przełomowych badań, stwierdził Jo van den Brand z Narodowego Holenderskiego Instytutu Fizyki Subatomowej, rzecznik projektu Virgo. To wspaniały przykład efektywności pracy zespołowej, pokazujący jak ważna jest koordynacja i współpraca naukowa, dodaje dyrektor Federico Ferrini z European Gravitational Observatory.
      Przed mniej więcej 130 milionami lat dwie gwiazdy neutronowe krążyły wokół siebie w odległości około 300 kilometrów, a im bliżej siebie były, tym większą miały prędkość. Gwiazdy zaburzały czasoprzestrzeń, emitując fale grawitacyjne. W momencie zderzenia połączyły się w jeden ultragęsty obiekt emitując promieniowanie gamma. Teraz pomiary fal grawitacyjnych i promieniowania gamma potwierdziły ogólną teorię względności, która przewiduje, że fale grawitacyjne powinny poruszać się z prędkością światła. Przez najbliższe tygodnie i miesiące teleskopy z całego świata będą obserwowały i badały to, co pozostało ze zderzenia obu gwiazd.
      Gdy planowaliśmy LIGO pod koniec lat 80. ubiegłego wieku, wiedzieliśmy, że będziemy potrzebowali całej międzynarodowej sieci obserwatoriów fal grawitacyjnych, w tym obserwatoriów znajdujących się w Europie. Dopiero taka sieć pozwoli na zlokalizowanie źródła fal grawitacyjnych, dzięki czemu można je będzie obserwować za pomocą teleskopów optycznych. Teraz możemy potwierdzić, że sieć obserwatoriów wspaniale działa i wraz z teleskopami optycznymi zapowiada nową erę w astronomii. A będzie jeszcze lepiej, gdyż planowane są obserwatoria w Indiach i Japonii, mówi Fred Raab, odpowiedzialny w LIGO za obserwacje.
      LIGO zostało sfinansowane przez amerykańską Narodową Fundację Nauki (NSF), a zarządzają nim specjaliści z California Institute of Technology i MIT. Rozbudowa detektora do Advanced LIGO została również sfinansowana przez NSF, ale zyskała też wsparcie finansowe ze niemieckiego Towarzystwa im. Maxa Plancka, brytyjskiego Science and Technology Facilities Council oraz Australian Research Council. W pracach LIGO Scientific Collaboration bierze udział ponad 1200 naukowców z około 100 instytucji z całego świata.
      Z kolei w prace Virgo zaangażowanych jest ponad 280 naukowców z 20 europejskich instytucji badawczych m.in. z Francji, Włoch, Holandii, Węgier, Polski i Hiszpanii. Detektor Virgo znajduje się w Pizie w European Gravitational Observatory, które jest finansowane ze środków francuskich, włoskich i holenderskich.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Fizyk z Uniwersytetu Kalifornijskiego w Riverside przeprowadził obliczenia, z których wynika, że bąble wypełnione gazem zawierającym pozytonium są stabilne w ciekłym helu. Obliczenia przybliżają nas do powstania lasera emitującego promieniowanie gamma, który może mieć zastosowanie w obrazowaniu medycznym, napędzie kosmicznym i leczeniu nowotworów.
      Pozytonium to układ złożony z elektronu (e-) i jego antycząstki pozytonu (e+) krążących wokół wspólnego środka masy. Jego średni czas życia wynosi około 142 ns, a następnie pozyton i elektron ulegają anihilacji, podczas której emitowane jest promieniowanie gamma.
      Do stworzenia lasera gamma potrzebujemy pozytonium w stanie zwanym kondensatem Bosego-Einsteina. Z moich obliczeń wynika, że zanurzone w ciekłym helu bąble składające się z milionów pozytonium miałyby gęstość sześciokrotnie większą od powietrza i tworzyłyby kondensat Bosego-Einsteina, mówi autor badań, Allen Mills z Wydziału Fizyki i Astronomii. Praca Millsa ukazał się właśnie w Physical Review A.
      Hel, drugi najbardziej rozpowszechniony pierwiastek we wszechświecie, przybiera formę ciekłą jedynie w bardzo niskich temperaturach. Hel ma ujemne powinowactwo do pozytonium, więc w ciekłym helu powstają bąble, gdyż hel odpycha pozytonium.
      Mills, który stoi na czele Positron Laboratory w UC Riverside poinformował, że jego laboratorium rozpoczęło konfigurację swoich urządzeń tak, by uzyskać stabilne bąble pozytonium w ciekłym helu. Mogą one służyć jako źródło zbudowanego z pozytonium kondensatu Bosego-Einsteina. Chcemy w najbliższym czasie przeprowadzić eksperymenty z tunelowaniem pozytonium przez grafenową membranę, która nie przepuszcza zwykłych atomów, w tym atomów helu, oraz stworzenie lasera działającego dzięki pozytonium. Laser taki mógłby znaleźć zastosowanie w informatyce kwantowej, mówi Mills.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Prace nad zapisywaniem danych w szkle są prowadzone przez Microsoft Research i stanowią one część projektu, w ramach którego Microsoft opracowuje nowe technologie archiwizacji danych na potrzeby platformy Azure.
      Budujemy całkiem nowy system, poinformował dyrektor wykonawczy Microsoftu Satya Nadella podczas konferencji Ignite. W ramach Project Silica wykorzystywane jest standardowe szkło kwarcowe.
      Obecnie Warner Bros archiwizuje filmy przenosząc ich wersje cyfrowe na taśmę i dzieląc je na trzy kolory składowe. Monochromatyczne negatywy są bowiem bardziej odporne na upływ czasu niż filmy kolorowe. To kosztowny i długotrwały proces. Microsoft chce go uprościć i obniżyć jego koszty. Jeśli Project Silica okaże się skalowalny i efektywny ekonomicznie, to będzie czymś, co z chęcią zastosujemy. Jeśli dobrze sprawdzi się w naszym przypadku, sądzimy, że będzie też przydatny dla każdego, kto chce archiwizować dane, mówi Vicky Colf, dyrektor ds. technologicznych w Warner Bros.
      Microsoft wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Wybór szkła jako nośnika danych może dziwić, jednak to bardzo obiecujący materiał. Szkło może przetrwać tysiące lat. Na płytce o wymiarach 75x75x2 milimetry można zapisać ponad 75 gigabajtów danych i zostanie sporo miejsca na zapisanie informacji do korekcji błędów. Podczas testów szkło było zalewane wodą, poddawane działaniu pola magnetycznego, mikrofal, gotowane w wodzie, pieczone w temperaturze 260 stopni Celsjusza i rysowane za pomocą stalowych drapaków. Za każdym razem dane można było odczytać.
      Duża wytrzymałość szkła oznacza, że archiwa z cyfrowymi danymi będą mniej podatne na powodzie, pożary, trzęsienia ziemi, zaburzenia powodowane polem magnetycznym czy na wyłączenia prądu. Ponadto szkło zajmuje niewiele miejsca. Jego największą zaletą jest wytrzymałość. Prawdopodobnie zapisane w nim dane można będzie przechowywać przez ponad 1000 lat. Stosowane obecnie metody magnetycznego zapisu ulegają szybkiej degradacji w ciągu kilku lat, dlatego też archiwalne dane zapisane na dyskach są co jakiś czas przegrywane na kolejne urządzenia.
      Celem Project Silica nie jest stworzenie produktu dla konsumentów indywidualnych. Szklane systemy przechowywania danych mają być skierowane do firm chcących archiwizować duże ilości informacji. Nie próbujemy stworzyć czegoś, co będzie używane w domu. Pracujemy nad metodą archiwizacji w skali chmur obliczeniowych. Chcemy wyeliminować kosztowny cykl ciągłego przenoszenia i zapisywania danych. Chcemy mieć coś, co można będzie odłożyć na półkę na 50, 100 czy 1000 lat i zapomnieć o tym do czasu, aż będzie potrzebne, mówi Ant Rowstron, zastępca dyrektora laboratorium w Microsoft Research Cambridge.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Amerykańscy naukowcy opracowali syntetyczne rozwiązanie, które wykazuje fototropizm, czyli podąża za kierunkiem padającego światła. Jest ono porównywane do sztucznego słonecznika. Opis systemu SunBOT (od ang. sunflower-like biomimetic omnidirectional tracker) ukazał się w periodyku Nature Technology.
      Akademicy podkreślają, że wiele sztucznych materiałów wykazuje reakcje nastyczne, co oznacza. że kierunek wygięcia nie zależy od tego, z jakiego miejsca działa bodziec. Niestety, dotąd żaden nie wykrywał i nie podążał precyzyjnie za kierunkiem bodźca, a więc nie wykazywał tropizmu.
      SunBOT powstał z połączenia 2 rodzajów nanomateriałów: światło- i termowrażliwego. Pierwszy pochłania światło i przekształca je w ciepło, drugi zaś kurczy się pod wpływem ekspozycji na ciepło.
      Zespół nadał polimerowi formę łodygi i oświetlał ją pod różnymi kątami. Okazało się, że łodyga wyginała się, nakierowując się na źródło światła. Jak tłumaczą Amerykanie, światło było absorbowane przez konkretny fragment łodygi, a powstające ciepło prowadziło do kurczenia się materiału po stronie źródła światła, przez co łodyga wyginała się w jego kierunku. Łodyga zatrzymywała się, gdy zaczynała częściowo zasłaniać promień.
      Podczas testów na łodydze umieszczano też "kwiat" będący małym panelem słonecznym. Wyniki pokazują, że urządzenie można wykorzystać do utrzymania ogniw fotowoltaicznych nakierowanych na słońce (znacząco podwyższa to ich wydajność).
       

       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowym sposobem na poznanie przyczyn spadku liczebności pszczół jest podłączenie ula do Internetu i stworzenie czegoś w rodzaju scyfryzowanej jego wersji.
      Tieto, szwedzka firma zajmująca się konsultacjami z zakresu oprogramowania komputerowego, umieściła czujniki w 2 ulach (w każdym z uli mieszka ok. 80 tys. pszczół). Pierwszego października jeden scyfryzowany ul trafił do HSB Living Lab w Göteborgu. Drugi, prototyp, znajduje się w Kalmarze, przy siedzibie firmy. Zamontowano w nim czujniki do pomiaru liczebności owadów, wilgotności, ciśnienia czy temperatury w ulu.
      Ule są podłączone do Internetu i wysyłają dane na serwer. Jak tłumaczą twórcy, oznacza to zdalny dostęp do nich w czasie rzeczywistym. Analizą zajmą się algorytmy sztucznej inteligencji. Projekt ma pomoc w zarządzaniu ulem, tworzeniu zdrowych kolonii czy zachowaniu bioróżnorodności w bezpośrednim otoczeniu.
      Mikael Ekström, który po godzinach sam zajmuje się pszczelarstwem, wyjaśnia, że dzięki technologii można lepiej monitorować liczebność pszczół, żywotność kolonii, a także ilość wytwarzanego miodu. To również świetny sposób na zilustrowanie korzyści związanych ze scyfryzowanym społeczeństwem oraz na pokazanie, jak cyfrowe rozwiązania mogą stworzyć lepsze warunki zarówno dla ludzi, jak i dla pszczół.
      Ekström ma nadzieję, że w przyszłości technologia pomoże w wykrywaniu wybuchów epidemii różnych pszczelich chorób.
      Na razie skala projektu jest niewielka, ale Tieto prowadzi już rozmowy ze Szwedzkim Krajowym Stowarzyszeniem Pszczelarzy. Wspólnie być może uda się ustalić, jak go rozszerzyć na cały kraj. Szybki rozwój technologii działa na naszą korzyść.

      « powrót do artykułu
×
×
  • Create New...