Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Naukowcy IBM-a są autorami przełomowych badań, dzięki którym możliwe stało się obserwowanie, studiowanie i zapisywanie zachowania atomów w czasie rzeczywistym. Odkrycie będzie miało olbrzymi wpływ na przyszłe technologie budowy układów elektronicznych. Pozwala ono bowiem obserwować zachowania atomów w odstępach nanosekund, a nie, jak dotychczas, milisekund.

Dzięki nim możliwe będzie np. zbadanie, jak długo atom jest w stanie przechowywać informacje czy w jaki sposób przebiegają obliczenia na poziomie atomowym, co pozwoli na budowanie mniejszych i bardziej wydajnych układów scalonych.

Badania IBM Research przyczynią się też do szybszego rozwoju energetyki słonecznej, pozwalają bowiem obserwować, w jaki sposób foton uderzający w ogniwo słoneczne, zamienia się w elektron. Uczeni będą mogli też zrozumieć aktywność magnetyczną i elektryczną atomów, dzięki czemu zbudują lepsze układy do przechowywania danych.

Jeśli nie możesz zobaczyć, jak zachodzi jakiś proces, musisz go wydedukować z nieprecyzyjnych pomiarów - mówi Andreas Heinrich z IBM Research.

Opracowana przez naukowców Błękitnego Giganta technika obserwacji zakłada wykorzystanie specjalnie zmodyfikowanego skaningowego mikroskopu tunelowego. Atomy są poddawane działaniu prądu elektrycznego, a mikroskop klatka po klatce rejestruje ich zachowanie.

Uczeni z IBM-a mają nadzieję, że podobną technikę będzie można wykorzystać w wielu laboratoriach na świecie, gdyż modyfikacje mikroskopu zostały dokonane przez nich samych, a nie przez producenta, zatem mogą być też przeprowadzone przez ich kolegów z innych ośrodków.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

...foton uderzający w ogniwo słoneczne, zamienia się w elektron....

 

Poproszę o przybliżenie tematu. Nie mogę sobie wyobrazić sposobu na "widzenie" fotonu bez ingerencji w jego zachowanie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wydawało mi się, że zasada nieoznaczoności Heisenberga wyklucza taką dokładność...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
      Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
      Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
      Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dwie amerykańskie grupy badawcze stworzyły – niezależnie od siebie – pierwsze kwantowe procesory, w których rolę kubitów odgrywają atomy. To potencjalnie przełomowe wydarzenie, gdyż oparte na atomach komputery kwantowe mogą być łatwiej skalowalne niż dominujące obecnie urządzenia, w których kubitami są uwięzione jony lub nadprzewodzące obwody.
      W 2020 roku firma Heoneywell pochwaliła się, że jej komputer na uwięzionych jonach osiągnął największą wartość „kwantowej objętości”. Tego typu maszyny, mają tę zaletę, że jony w próżni jest dość łatwo odizolować od zakłóceń termicznych, a poszczególne jony w chmurze są nieodróżnialne od siebie. Problemem jest jednak fakt, że jony wchodzą w silne interakcje, a do manipulowania nimi trzeba używać pól elektrycznych, co nie jest łatwym zadaniem.
      Z drugiej zaś strony mamy kwantowe maszyny wykorzystujące obwody nadprzewodzące. Za najpotężniejszy obecnie procesor kwantowy z takimi obwodami uznaje się 127–kubitowy Eagle IBM-a. Jednak wraz ze zwiększaniem liczby kubitów, urządzenia tego typu napotykają coraz więcej problemów. Każdy z kubitów musi być w nich wytwarzany indywidualnie, co praktycznie uniemożliwia wytwarzanie identycznych kopii, a to z kolei – wraz z każdym dodanym kubitem – zmniejsza prawdopodobieństwo, że wynik obliczeń prowadzonych za pomocą takiego procesora będzie prawidłowy. Jakby jeszcze tego było mało, każdy z obwodów musi być schłodzony do niezwykle niskiej temperatury.
      Już przed sześcioma laty zespoły z USA i Francji wykazały, że możliwe jest przechowywanie kwantowej informacji w atomach, którymi manipulowano za pomocą szczypiec optycznych. Od tamtego czasu Amerykanie rozwinęli swój pomysł i stworzyli 256-bitowy komputer kwantowy bazujący na tej platformie. Jednak nikt dotychczas nie zbudował pełnego obwodu kwantowego na atomach.
      Teraz dwa niezależne zespoły zaprezentowały procesory bazujące na takich atomach. Na czele grupy z Uniwersytetu Harvarda i MTI stoi Mikhail Lukin, który w 2016 roku opracował ten oryginalny pomysł. Zespołem z University of Wisonsin-Madison, w pracach którego biorą też udział specjaliści z firm ColdQuant i Riverlane, kieruje zaś Mark Saffman. Zespół Lukina wykorzystał atomy rubidu, zespół Saffmana użył zaś cezu.
      Jeśli mamy obok siebie dwa atomy w stanie nadsubtelnym, to nie wchodzą one w interakcje. Jeśli więc chcemy je splątać, jednocześnie wzbudzamy je do stanu Rydberga. W stanie Rydberga wchodzą one w silne interakcje, a to pozwala nam je szybko splątać. Później możemy z powrotem wprowadzić je w stan nadsubtelny, gdzie można nimi manipulować za pomocą szczypiec optycznych, wyjaśnia Dolev Bluvstein z Uniwersytetu Harvarda.
      Grupa z Harvarda i MIT wykorzystała stan nadsubtelny do fizycznego oddzielenia splątanych atomów bez spowodowania dekoherencji, czyli utraty kwantowej informacji. Gdy każdy z atomów został przemieszczony na miejsce docelowe został za pomocą lasera splątany z pobliskim atomem. W ten sposób naukowcy byli w stanie przeprowadzać nielokalne operacje bez potrzeby ustanawiania specjalnego fotonicznego lub atomowego łącza do przemieszczania splątania w obwodzie.
      W ten sposób uruchomiono różne programy. Przygotowano m.in. kubit logiczny, składający się z siedmiu kubitów fizycznych, w którym można było zakodować informacje w sposób odporny na pojawienie się błędów. Naukowcy zauważają, że splątanie wielu takich logicznych kubitów może być znacznie prostsze niż podobne operacje na innych platformach. Istnieje wiele różnych sztuczek, które są stosowane by splątać kubity logiczne. Jednak gdy można swobodnie przesuwać atomy, to jest to bardzo proste. Jedyne, co trzeba zrobić to stworzyć dwa niezależne kubity logiczne, przesunąć je i przemieszać z innymi grupami, wprowadzić za pomocą lasera w stan Rydberga i utworzyć pomiędzy nimi bramkę, stwierdza Dluvstein. Te technika, jak zapewnia uczony, pozwala na przeprowadzenie korekcji błędów i splątania pomiędzy kubitami logicznymi w sposób niemożliwy do uzyskania w obwodach nadprzewodzących czy z uwięzionymi jonami.
      Grupa z Wisconsin wykorzystała inne podejście. Naukowcy nie przemieszczali fizycznie atomów, ale za pomocą lasera manipulowali stanem Rydberga i przemieszczali splątanie po macierzy atomów. Mark Saffman podaje przykład trzech kubitów ustawionych w jednej linii. Za pomocą laserów oświetlamy kubit po lewej i kubit centralny Zostają one wzbudzone do stanu Rydberga i splątane. Następnie oświetlamy atom centralny oraz ten po prawej. W ten sposób promienie laserów kontrolują operacje na bramkach, ale tym, co łączy kubity są interakcje zachodzące w stanach Rydberga.
      Grupa Saffmana wykorzystała opracowaną przez siebie technikę do stworzenia składających się z sześciu atomów stanów Greenbergera-Horne'a-Zeilingera. Wykazali też, że ich system może działać jak kwantowy symulator służący np. do szacowania energii molekuły wodoru. Dzięki temu, że nie trzeba było przesuwać atomów, zespół z Wisconsin osiągnął kilkaset razy większe tempo pracy niż zespół z Harvarda i MIT, jednak ceną była pewna utrata elastyczności. Saffman uważa, że w przyszłości można będzie połączyć oba pomysły w jeden lepszy system.
      Na razie oba systemy korzystają z niewielkiej liczby kubitów, konieczne jest też wykazanie wiarygodności obliczeń oraz możliwości ich skalowania. Chris Monroe, współtwórca pierwszego kwantowego kubita – który oparty był na uwięzionych jonach – uważa, że obie grupy idą w dobrym kierunku, a kubity na atomach mogą osiągnąć wiarygodność 99,9% i to bez korekcji błędów. Obecnie osiągamy taki wynik na uwięzionych jonach i – mimo że technologia wykorzystania atomów jest daleko z tyłu – nie mam wątpliwości, że w końcu osiągną ten sam poziom, stwierdza.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z Thomas Jefferson National Accelerator Facility (TJNAF – Jefferson Lab) zmierzyli z niezwykłą dokładnością grubość neutronowej „skórki” tworzącej otoczkę jądra ołowiu. Na łamach Physical Review Letters poinformowali, że grubość ta wynosi 0,28 milionowych części nanometra. A ich pomiary mają duże znaczenie dla określenia struktury i rozmiarów... gwiazd neutronowych.
      Jądro każdego pierwiastka składa się z protonów i neutronów. To m.in. one określają właściwości pierwiastków i pozwalają nam je od siebie odróżnić. Fizycy od dawna badają jądra atomowe, by dowiedzieć się, w jaki sposób protony i neutrony oddziałują ze sobą. W Jefferson Lab prowadzony jest Lead Radius Experiment (PREx), którego celem jest dokładne zbadanie rozkładu protonów i neutronów w jądrze ołowiu.
      Pytanie brzmi, gdzie w jądrze znajdują się neutrony. Ołów to ciężki pierwiastek. Posiada dodatkowe neutrony. Jeśli jednak bierzemy pod uwagę wyłącznie oddziaływanie sił jądrowych, które wiążą protony i neutrony w jądrze, to lepiej sprawdza się model, w którym jądro ołowiu posiada równą liczbę protonów i neutronów, mówi profesor Kent Paschke z University of Virginia, rzecznik prasowy PREx.
      W lekkich jądrach, zawierających niewiele protonów, zwykle rzeczywiście liczba protonów i neutronów jest równa. Jednak im cięższe jądro, tym potrzebuje więcej neutronów niż protonów, by pozostać stabilnym. Wszystkie stabilne jądra pierwiastków, które zawierają ponad 20 protonów, mają więcej neutronów niż protonów. Ołów zaś to najcięższy pierwiastek o stabilnych izotopach. Jego jądro zawiera 82 protony i 126 neutronów. A do zrozumienia, jak to wszystko trzyma się razem, musimy wiedzieć, w jaki sposób w jądrze rozłożone są dodatkowe neutrony.
      Protony w jądrze ołowiu ułożone są w kształt sfery. Neutrony tworzą większą sferę otaczającą mniejszą. Tę większą sferę nazwaliśmy skórką neutronową, wyjaśnia Paschke. Tę skórkę po raz pierwszy zauważono właśnie w Jefferson Lab w 2012 roku. Od tamtej pory naukowcy starają się mierzyć jej grubość z coraz większą precyzją.
      Neutrony trudno jest badać, gdyż wiele narzędzi, które mają do dyspozycji fizycy, rejestruje oddziaływania elektromagnetyczne, które są jednymi z czterech podstawowych sił natury. Eksperyment PREx do pomiarów wykorzystuje inną z podstawowych sił – oddziaływania słabe. Protony posiadają ładunek elektryczny, który możemy badań za pomocą oddziaływań elektromagnetycznych. Neutrony nie posiadają ładunku elektrycznego, ale – w porównaniu z protonami – generują potężne oddziaływania słabe. Jeśli więc jesteś w stanie to wykorzystać, możesz określić, gdzie znajdują się neutrony, dodaje Paschke.
      Autorzy nowych badań wykorzystali precyzyjnie kontrolowany strumień elektronów, który został wystrzelony w stronę cienkiej warstwy ołowiu schłodzonej do temperatur kriogenicznych. Elektrony obracały się w kierunku ruchu wiązki i wchodziły w interakcje z protonami i neutronami w atomach ołowiu. Oddziaływania elektromagnetyczne zachowują symetrię odbicia, a oddziaływania słabe nie. to oznacza, że elektron, który wchodzi w interakcję za pomocą sił elektromagnetycznych, robi to niezależnie od kierunku swojego spinu. Natomiast jeśli chodzi o interakcje za pomocą oddziaływań słabych, to widoczna jest tutaj wyraźna preferencja jednego kierunku spinu. Możemy więc wykorzystać tę asymetrię do badania siły oddziaływań, a to pozwala nam określić obszar zajmowany przez neutrony. Zdradza nam zatem, gdzie w odniesieniu do protonów, znajdują się neutrony, mówi profesor Krishna Kumar z University of Massachusetts Amherst.
      Przeprowadzenie eksperymentów wymagało dużej precyzji. Dość wspomnieć, że kierunek spinu elektronów w strumieniu był zmieniany 240 razy na sekundę, a elektrony, zanim dotarły do badanej próbki ołowiu, odbywały ponad kilometrową podróż przez akcelerator. Badacze znali relatywną pozycję względem siebie strumieni elektronów o różnych spinach z dokładnością do szerokości 10 atomów.
      Dzięki tak wielkiej precyzji naukowcy stwierdzili, że średnica sfery tworzonej przez protony wynosi około 5,5 femtometrów. A sfera neutronów jest nieco większa, ma około 5,8 femtometrów. Skórka neutronowa ma więc 0,28 femtometra grubości. To około 0,28 milionowych części nanometra, informuje Paschke.
      Jak jednak te pomiary przekładają się na naszą wiedzę o gwiazdach neutronowych? Wyniki uzyskane w Jefferson Lab wskazują, że skórka neutronowa jest grubsza, niż sugerowały niektóre teorie. To zaś oznacza, że do ściśnięcia jądra potrzebne jest większe ciśnienie niż sądzono, zatem samo jądro jest nieco mniej gęste. A jako, że nie możemy bezpośrednio badać wnętrza gwiazd neutronowych, musimy opierać się na obliczeniach, do których używamy znanych właściwości składowych tych gwiazd.
      Nowe odkrycie ma też znaczenie dla danych z wykrywaczy fal grawitacyjnych. Krążące wokół siebie gwiazdy neutronowe emitują fale grawitacyjne, wykrywane przez LIGO. Gdy już są bardzo blisko, w ostatnim ułamku sekundy oddziaływanie jednej gwiazdy powoduje, że druga staje się owalna. Jeśli skórka neutronowa jest większa, gwiazda przybierze inny kształt niż wówczas, gdy skórka ta jest mniejsza. A LIGO potrafi zmierzyć ten kształt. LIGO i PREx badają całkowicie różne rzeczy, ale łączy je podstawowe równanie – równanie stanu materii jądrowej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prace międzynarodowej grupy badawczej, na czele której stali specjaliści ze Skołkowskiego Instytutu Nauki i Technologii (Skoltech) w Moskwie oraz IBM-a zaowocowały powstaniem energooszczędnego superszybkiego przełącznika optycznego. Urządzenie nie wymaga chłodzenia, a jednocześnie jest ponad 100-krotnie szybsze od najszybszych współczesnych tranzystorów.
      Tym, co czyni to urządzenie tak bardzo energooszczędnym jest fakt, że do przełączenia stanu potrzebuje zaledwie kilku fotonów, mówi główny autor badań Anton Zasiedatieliew. W laboratorium udało się nam go przełączać za pomocą pojedynczego fotonu. I to w temperaturze pokojowej. Jednak minie sporo czasu, zanim taka technologia będzie mogła trafić do procesorów optycznych, dodaje profesor Pawlos Lagudakis.
      Możliwość przełączania za pomocą pojedynczego fotonu oznacza, że układ jest niezwykle energooszczędny i zostało niewiele miejsca na jego dalsze udoskonalenie. Oczywiście musimy przy tym pamiętać, że obecnie działa to jedynie w wyspecjalizowanym laboratorium. Jednak tak właśnie zaczyna się wielu historia technologii, które w końcu trafiają do codziennego użytku. Większość współczesnych tranzystorów elektrycznych potrzebuje dziesiątki razy więcej energii, by się przełączyć, a te, którym wystarczy pojedynczy elektron, działają znacznie wolniej niż zademonstrowany właśnie przełącznik optyczny.
      Jednak szybkość i energooszczędność to nie jedyne zalety nowej technologii. Równie ważny jest fakt, że przełącznik działa w temperaturze pokojowej i nie wymaga chłodzenia. Tymczasem systemy chłodzenia potrzebne współczesnym komputerom nie tylko wpływają na koszty samego sprzętu, ale też znacząco zwiększają zużycie energii koniecznej do ich zasilania.
      Urządzenie składa się z dwóch laserów. Bardzo słaby promień lasera kontrolnego jest używany do przełączania stanu drugiego jaśniejszego z laserów. Do przełączenia wystarczy kilka fotonów, stąd wynika wysoka efektywność całości. Przełączanie odbywa się wewnątrz mikrownęki. To 35-nanometrowej grubości organiczny polimer półprzewodzący zamknięty pomiędzy dwiema nieorganicznymi warstwami o wysokim współczynniku odbicia. Mikrownęka zbudowana jest w taki sposób, by jak najdłużej więzić nadchodzące światło, prowadząc w ten sposób do jego sprzężenia z materiałem wnęki.
      Oddziaływanie światła z materią to podstawa działania nowego urządzenia. Gdy fotony sprzęgają się z parami dziura-elektron – tworzącymi kwazicząstkę o nazwie ekscyton – pojawiają się kwazicząstki ekscyton-polaryton. Gdy silniejszy z laserów oświetla przełącznik powstają tysiące identycznych krótko żyjących kwazicząstek tworzących kondensat Bosego-Einsteina, w którym kodowany jest stan urządzenia „0” lub „1”.
      Najpierw za pomocą silniejszego lasera we wnęce tworzone są kwazicząstki o energiach większych niż energia podstawowa. Przełącznik znajduje się w stanie „0” Do przełączenia potrzebny jest laser słabszy, za pomocą którego tworzona jest grupa kwazicząstek o energii podstawowej. Ich pojawienie się wywołuje lawinowy proces przełączania się pozostałych kwazicząstek do stanu podstawowego. W ten sposób uzyskujemy stan „1”. Czas przełączania liczony jest w femtosekundach, dzięki czemu przełącznik jest ponad 100-krotnie szybszy od współczesnych tranzystorów.
      Naukowcy użyli kilku sztuczek, by utrzymać zapotrzebowanie na energię na jak najniższym poziomie przy jednoczesnym zmaksymalizowaniu pracy urządzenia. W efektywnym przełączaniu pomagają wibracje molekuł półprzewodzącego polimeru. Konieczne było precyzyjne dopasowanie częstotliwości pracy laserów, stanu kondensatu i energii wibracji molekuł polimeru.
      Przed nami jeszcze sporo pracy. Musimy zmniejszyć całkowite zapotrzebowania urządzenia na energię. Obecnie jest ono zdominowane przez silniejszy z laserów, który utrzymuje przełącznik w gotowości. Prawdopodobnie trzeba będzie wykorzystać tutaj perowskitowego superkryształu, z którym wcześniej eksperymentowaliśmy. Są one doskonałymi kandydatami to zbudowania naszego przełącznika, gdyż zapewniają bardzo silną interakcję światła z materią, stwierdzają autorzy badań.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB.
      Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych.
      Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych.
      Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach.
      Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą.
      O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...