Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Przedstawiciele ARM poinformowali o przeprowadzeniu drugiego już w ostatnim czasie ataku na pozycja Intela. Tym razem "chodzi o atak z flanki", jak stwierdził Eric Schom, wiceprezes firmy ds. marketingu.

We wrześniu na rynek trafił układ Cortex A9, który ma konkurować z Intelem o rynek netbooków. Tym razem ARM zapowiada sprzedaż procesora Cortex A5, przeznaczonego na rynek tanich urządzeń przenośnych, takich jak smartfony.

Jak zapewnia Schom, Cortex A5 jest o rząd wielkości mniejszy od Atoma, co oznacza, że jest tańszy w produkcji i zużywa mniej energii. Przedstawiciel ARM twierdzi, że Intel musiałby produkować Atoma w procesie 15 nanometrów, by rozmiarami mógł się on równać z najnowszym Corteksem. Tym samym, zdaniem Schoma, Atom jest o "dekadę do tyłu".

Cortex A5 może pracować w konfiguracjach od jedno- do czterordzeniowej. Jest w pełni kompatybilny z układem A9, co oznacza, że nie trzeba specjalnie przerabiać istniejących aplikacji na jego potrzeby.

Układ wykorzystuje technologię bezpieczeństwa TrustZone oraz silnik multimedialny NEON ze 128-bitowym rozszerzeniem SIMD (Single Instruction, Multiple Data).

Cortex A5 ma być gotowy jeszcze przed końcem bieżącego roku. Jednak zanim zobaczymy go w dostępnych w sklepach urządzeniach mogą minąć 2-3 lata.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Im więcej czytuję i prockach ARM, tym bardziej podoba mi się idea netbooka na nim opartego. Ciupki procek, który z palcem w… odtwarza obraz HD, pobiera kilkadziesiąt razy mniej prądu niż x86, a komp na nim oparty działa bez ładowania i kilkadziesiąt godzin. Naprawdę fajna rzecz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No, netbooki na tym są, i są dość fajne (diabelnie długo działają na bateriach, a płyta główna wygląda jak jakaś przejściówka do USB). Problem tylko taki, że Atom pociągnie Windows XP/Vista/7, a ARM - Win CE albo linuksa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ano dlatego, że architektura ARM nie jest kompatybilna z x86, z tym że jest naprawdę lepsza. Do tego wątpię czy uda się po prostu przekompilować kod z x86 na ARM (inna idea pisania oprogramowania, inne zarządzanie danymi i mocą procesora), więc z tego wynika, że Windows (biurkowy) nie zadziała na ARM. Ale po co nam Windows, skoro mamy stabilniejsze jądra Linuksa?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

po to nam windows zeby odpalać na nim miliony programów napisanych pod windows... a linux, cóż... żeby by ł użyteczny to możemy na nim odpalić Wine ;) tylko tu się rodzi prawdziwe pytanie, po co Lin + Wine skoro można od razu i nie przejmowac niepełną kompatybilnością?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Skoro jest lepsza, to nie rozumiem dlaczego nań nie pisać?

Skoro Linux potrafi zaprzęgnąć tego niesfornego rumaka w lejce, znakiem toż, iż System Spod Znaku Pingwina zacnym jest ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

no zacnym zacnym, ale... problem jest z narzędziami programistycznymi. MS daje użytkownikom wspaniałe narzędzia z serii Visual Studio, pomocny msdn, a linux.. mase różnych fajnych programików, jednak zanim komukolwiek uda się to wszystko zainstalować i odpalić, to może mu się programowania odechcieć.

 

A pod Windows, instalujesz DARMOWE VC Express.. i chulaj dusza! Pierwsza forma w 10 sekund, i dalej dopisujesz co chcesz, szybko, wygodnie, przyjemnie. Pisanie w C# z ich systemem podpowiedzi kodu to bajka.

 

Pod linuxem Eclipse blech.. potężny powolny moloch, który trzeba łączyć z gcc jakimiś pluginami dodatkami, tysiąc bibliotek lipnie lub wcale nie opisanych... jak człowiek poużywa visual studio to się go wołami do gorszego środowiska nie zaciągnie...

 

Programiści lubią skupiać się na kodzie, a nie męczarni z kompilatorem :/

 

żeby nie być gołosłownym - pisałem kiedyś prosta aplikację klient serwer w vi + gcc. po 3 miesiącach doszedłem do jako takiej biegłości, dorobiłem sobie skrypty, make itd.. nauczyłem się dobrze skakać po konsolach, jednak i tak pisanie kodu nie dorównało w przyjemności użytkowania i wygodzie pisania w aplikacji Microsoftu ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ano dlatego, że architektura ARM nie jest kompatybilna z x86, z tym że jest naprawdę lepsza. Do tego wątpię czy uda się po prostu przekompilować kod z x86 na ARM (inna idea pisania oprogramowania, inne zarządzanie danymi i mocą procesora)

Z tego co ja się skromnie nie orientuję pewne fragmenty Windy są pisane w asemblerze, z szczególnym uwzględnieniem właściwości architektury x86 ("drogi na skróty"), jest to kod w 1000% nieprzenośny, który nierzadko jest niemożliwy do przepisania na inną architekturę - konieczne było by stworzenie tych fragmentów od podstaw, a w to nikt się bawić nie będzie.

 

Skoro jest lepsza, to nie rozumiem dlaczego nań nie pisać?

Skoro Linux potrafi zaprzęgnąć tego niesfornego rumaka w lejce, znakiem toż, iż System Spod Znaku Pingwina zacnym jest ;)

Linux, a konkretnie jądro Linuksa jest zupełnie inną parą kaloszy - tam od początku było tworzone z myślą o przenośności, w efekcie rzeczy niemożliwe dla MS zajmują relatywnie "chwile" w przypadku Linuksa.

 

C# nie jest remedium na wszystkie problemy programowania - programy działają tylko pod MS i to pod warunkiem posiadania odpowiedniej wersji net. framework, miałem już do czynienia z aplikacjami c# (aktualizacja mapy MIO), które się po prostu wykrzaczały, zamiast informować którą wersję .net framework trzeba pobrać, aby wszystko działało.

 

 

Z innej beczki - czy ktoś kiedykolwiek zastanowił się, jak wypada wydajnościowo "wunder" ATOM w porównaniu z poczciwym P3?! Jedyną, często wątpliwą zaletą jest dłuższy czas pracy na baterii, ale pod względem wydajności Atom jest moim zdaniem powrotem do ery kamienia łupanego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Z innej beczki - czy ktoś kiedykolwiek zastanowił się, jak wypada wydajnościowo "wunder" ATOM w porównaniu z poczciwym P3?! Jedyną, często wątpliwą zaletą jest dłuższy czas pracy na baterii, ale pod względem wydajności Atom jest moim zdaniem powrotem do ery kamienia łupanego."

Co komu potrzeba. Ja osobiście nie kupuję i nie kupię lapka, do czasu aż nie będą wytrzymywały 12 godzin na bateriach przy normalnej pracy. Nie potrzebuję grać czy obciążać pracą zbytnio komputera poza domem i pracą, ale pocztę bym przejrzał, stronki poprzeglądał, film jakiś obejrzał - ale po 4 godzinach kończy się zabawa - więc dla mnie odpada. Nie każdemu jest potrzebny demon prędkości ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Możliwe jest po prostu napisanie dobrego emulatora x86 dla arm i to by rozwiązało wiele problemów , inna możliwość dodanie nowych instrukcji które zbliża obie architektury .

 

A skoro windowsowi się nie śpieszy do arm to niech ten kawałek tortu wykorzysta linux , *bsd , symbian i opensolaris ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A pamiętacie procesory Transmeta Crusoe? Miały własny zestaw instrukcji, ale rdzeń „otoczony” był warstwą emulującą x86. Wypadały naprawdę dobrze pod względem prądożerności. W wydajności wypadały tak sobie w typowych testach, ale w zadaniach strumieniowych (kompresja/dekompresja filmów) dzięki nietłumaczeniu już przetłumaczonych fraz instrukcji biły x86. No i warstwa emulująca była programowalna, co by stwarzało możliwość optymalizacji, czy nawet programowej zmiany architektury procesora.

Szkoda, że się to jakoś nie przyjęło. (Piszę z pamięci, mam nadzieję, że nic nie przekręciłem.)

 

thibris: pojawiają się już netbooki dające radę pracować 12-14 godzin. Laptopy będą następne, z pewnością też pojawi się wiele modeli pośrednich. Ale ARM i tak będzie pod tym względem lepszy, to kwestia architektury i wydatków na utrzymanie wstecznej kompatybilności.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Strach pomyśleć co będzie jak rozwiną technologię indukcji prądu elektrycznego z fal em , łatwego transferu między urzadzeniami oraz lepszych akumulatorów , wtedy netbooki będą działać po 2-3 dobry a komórek nie będzie trzeba wogóle ładować w gniazdku .

 

Chociaż w afryce jest już phon zasilany energią słoneczną ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Intel ogłosił, że wybuduje w Polsce supernowoczesny zakład integracji i testowania półprzewodników. Stanie on w Miękini pod Wrocławiem, a koncern ma zamiar zainwestować w jego stworzenie do 4,6 miliarda dolarów. Inwestycja w Polsce to część obecnych i przyszłych planów Intela dotyczących Europy. Firma ma już fabrykę półprzewodników w Leixlip w Irlandii i planuje budowę drugiej w Magdeburgu w Niemczech. W sumie Intel chce zainwestować 33 miliardy euro w fabrykę w Niemczech, zakład badawczo-rozwojowo-projektowy we Francji oraz podobne przedsięwzięcia we Włoszech, Hiszpanii i Polsce.
      Zakład w Polsce ma rozpocząć pracę w 2027 roku. Zatrudnienie znajdzie w nim około 2000 osób, jednak inwestycja pomyślana została tak, by w razie potrzeby można było ją rozbudować. Koncern już przystąpił do realizacji fazy projektowania i planowania budowy, na jej rozpoczęcie będzie musiała wyrazić zgodę Unia Europejska.
      Intel już działa w Polsce i kraj ten jest dobrze przygotowany do współpracy z naszymi fabrykami w Irlandii i Niemczech. To jednocześnie kraj bardzo konkurencyjny pod względem kosztów, w którym istnieje solidna baza utalentowanych pracowników, stwierdził dyrektor wykonawczy Intela, Pat Gelsinger. Przedstawiciele koncernu stwierdzili, że Polskę wybrali między innymi ze względu na istniejącą infrastrukturę, odpowiednio przygotowaną siłę roboczą oraz świetne warunki do prowadzenia biznesu.
      Zakład w Miękini będzie ściśle współpracował z fabryką w Irlandii i planowaną fabryką w Niemczech. Będą do niego trafiały plastry krzemowe z naniesionymi elementami elektronicznymi układów scalonych. W polskim zakładzie będą one cięte na pojedyncze układy scalone, składane w gotowe chipy oraz testowane pod kątem wydajności i jakości. Stąd też będą trafiały do odbiorców. Przedsiębiorstwo będzie też w stanie pracować z indywidualnymi chipami otrzymanymi od zleceniodawcy i składać je w końcowy produkt. Będzie mogło pracować z plastrami i chipami Intela, Intel Foundry Services i innych fabryk.
      Intel nie ujawnił, jaką kwotę wsparcia z publicznych pieniędzy otrzyma od polskiego rządu. Wiemy na przykład, że koncern wciąż prowadzi negocjacje z rządem w Berlinie w sprawie dotacji do budowy fabryki w Magdeburgu. Ma być ona warta 17 miliardów euro, a Intel początkowo negocjował kwotę 6,8 miliarda euro wsparcia, ostatnio zaś niemieckie media doniosły, że firma jest bliska podpisania z Berlinem porozumienia o 9,9 miliardach euro dofinansowania. Pat Gelsinger przyznał, że Polska miała nieco więcej chęci na inwestycję Intela niż inne kraje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Experimental Psychology: General opublikowano wyniki badań, z których dowiadujemy się, że używanie urządzeń elektronicznych, takich jak smartfony, pomaga poprawić nasze zdolności pamięciowe. Z badań przeprowadzonych przez naukowców z University College London (UCL) wynika, że na urządzeniach przechowujemy bardzo ważne informacje, to zaś zwalnia naszą pamięć i ułatwia przywoływanie dodatkowych, mniej ważnych informacji. Wyniki badań stoją w sprzeczności z wcześniejszymi obawami neurologów, którzy sądzili, że nadużywanie nowoczesnych technologii może prowadzić do upośledzenia zdolności poznawczych i powoduje „cyfrową demencję”.
      Okazało się jednak, że wykorzystywanie urządzeń cyfrowych jako pamięci zewnętrznej pomaga nie tylko w zapamiętywaniu informacji zapisanych na tych urządzeniach, ale również w zapamiętywaniu niezapisanych informacji.
      Naukowcy z UCL opracowali specjalny test pamięci na tablety i komputery. Do badań zaangażowali 158 ochotników w wieku 18–71 lat. Uczestnikom pokazywano na ekranie do 12 ponumerowanych okręgów, a ich zadaniem było przeciągnięcie części z nich na prawą, a części na lewą stronę ekranu. Badani mieli zapamiętać numery okręgów, jakie przeciągnęli na każdą ze stron. Im więcej ich zapamiętali, tym wyższą wypłatę otrzymywali na koniec eksperymentu. Jedna ze stron ekranu była stroną o wysokiej wartości. Za zapamiętanie przeciągniętego tam numeru płacono 10-krotnie więcej, niż za zapamiętanie numeru przeciągniętego na stronę o niskiej wartości.
      Uczestnicy wykonywali test 16-krotnie. Przy połowie testów musieli polegać wyłącznie na własnej pamięci, przy połowie zaś mogli zapisywać wyniki na urządzeniach elektronicznych. Badani zwykle zapisywali na urządzeniach elektronicznych wartości okręgów przeciąganych do strony o wysokiej wartości. Okazało się, że gdy to robili, byli w stanie samodzielnie zapamiętać o 18% więcej liczb przeciągniętych do strony o wysokiej wartości. Ale to nie wszystko. Zapamiętywali też o 27% liczb przeciągniętych do strony o niższej wartości, mimo że tych liczb nie zapisywali.
      Jednak używanie urządzeń elektronicznych miało też i negatywną stronę. Gdy je bowiem uczestnikom badań zabrano, lepiej pamiętali liczby ze strony o niższej wartości. To wskazuje, że zapamiętywanie liczb o wyższej wartości powierzyli urządzeniu elektronicznemu i bardzo szybko o nich zapomnieli.
      Chcieliśmy zbadać, jak przechowywanie informacji na urządzeniu elektronicznym wpływa na zdolność do zapamiętywania. Odkryliśmy, że gdy ludzie mogą używać pamięci zewnętrznej, pomaga im to w zapamiętywaniu informacji, które zapisali. To nie było zaskoczeniem. Ale zauważyliśmy też, że lepiej zapamiętywali informacje, których nie zapisali. Działo się tak, gdyż używanie urządzenia elektronicznego zmieniło sposób, w jaki używali pamięci do przechowywania ważnych i mniej ważnych danych. Gdy musimy zapamiętać coś samodzielnie, używamy pamięci to przechowywania najważniejszych informacji. Ale gdy możemy użyć zewnętrznego urządzenia, najważniejsze informacje są na nim zapisywane, a naszą własną pamięć wykorzystujemy do zapamiętania tych mniej ważnych, mówi doktor Sam Gilbert.
      Uczony zauważa, że – wbrew obawom – urządzenia elektroniczne nie wywołują „cyfrowej demencji”, ale przyczyniają się do lepszego zapamiętywania informacji, których na nich nie zapisaliśmy. Musimy jednak ostrożnie przechowywać nasze najważniejsze dane. Gdy bowiem urządzenie elektroniczne zawiedzie, może się okazać, że w naszej pamięci zostały nam tylko i wyłącznie mniej ważne informacje, ostrzega uczony.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Od dekad elastyczna elektronika była niewielką niszą. Teraz może być gotowa, by wejść do mainstream'u, stwierdził Rakesh Kumar, lider zespołu, który stworzył plastikowy procesor. O elektronice zintegrowanej w praktycznie każdym przedmiocie, od podkoszulków poprzez butelki po owoce, słyszymy od lat. Dotychczas jednak plany jej rozpowszechnienia są dalekie od realizacji, a na przeszkodzi stoi brak elastycznego, plastikowego, wydajnego i taniego procesora, który można by masowo produkować.
      Wiele przedsiębiorstw próbowało stworzyć takie urządzenie i im się nie udało. Według naukowców z amerykańskiego University of Illinois Urbana-Champaign i specjalistów z brytyjskiej firmy PragmatIC Semiconductor, problem w tym, że nawet najprostszy mikrokontroler jest zbyt złożony, by można go było masowo wytwarzać na plastikowym podłożu.
      Amerykańsko-brytyjski zespół zaprezentował właśnie uproszczony, ale w pełni funkcjonalny, plastikowy procesor, który można masowo produkować bardzo niskim kosztem. Przygotowano dwie wersje procesora: 4- i 8-bitową. Na substracie z 4-bitowymi układami, których koszt masowej produkcji liczyłby się dosłownie w groszach, działa 81% procesorów. To wystarczająco dobry wynik, by wdrożyć masową produkcję.
      Procesory wyprodukowano z cienkowarstwowego tlenku indowo-galowo-cynkowego (IGZO), dla którego podłożem był plastik. Innowacja polegała zaś na stworzeniu od podstaw nowej mikroarchitektury – Flexicore.Musiała być maksymalnie uproszczona, by sprawdziła się w na plastiku. Dlatego zdecydowano się na układy 4- i 8-bitowe zamiast powszechnie wykorzystywanych obecnie 16- i 32-bitowych. Naukowcy rozdzielili moduły pamięci przechowującej instrukcje od pamięci przechowującej dane. Zredukowano również liczbę i stopień złożoności instrukcji, jakie procesor jest w stanie wykonać. Dodatkowym uproszczeniem jest wykonywanie pojedynczej instrukcji w jednym cyklu zegara.
      W wyniku wszystkich uproszczeń 4-bitowy FlexiCore składa się z 2104 podzespołów. To mniej więcej tyle samo ile tranzystorów posiadał procesor Intel 4004 z 1971 roku. I niemal 30-krotnie mniej niż konkurencyjny PlasticARM zaprezentowany w ubiegłym roku. Uproszczenie jest więc ogromne. Stworzono też procesor 8-bitowy, jednak nie sprawuje się on tak dobrze, jak wersja 4-bitowa.
      Obecnie trwają testy plastikowych plastrów z procesorami. Są one sprawdzane zarówno pod kątem wydajności, jak i odporności na wyginanie. Jednocześnie twórcy procesorów prowadzą prace optymalizacyjne, starając się jak najlepiej dostosować architekturę do różnych zadań. Jak poinformował Kumar, badania już wykazały, że można znacznie zredukować pobór prądu, nieco zbliżając do siebie poszczególne bramki.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dwie amerykańskie grupy badawcze stworzyły – niezależnie od siebie – pierwsze kwantowe procesory, w których rolę kubitów odgrywają atomy. To potencjalnie przełomowe wydarzenie, gdyż oparte na atomach komputery kwantowe mogą być łatwiej skalowalne niż dominujące obecnie urządzenia, w których kubitami są uwięzione jony lub nadprzewodzące obwody.
      W 2020 roku firma Heoneywell pochwaliła się, że jej komputer na uwięzionych jonach osiągnął największą wartość „kwantowej objętości”. Tego typu maszyny, mają tę zaletę, że jony w próżni jest dość łatwo odizolować od zakłóceń termicznych, a poszczególne jony w chmurze są nieodróżnialne od siebie. Problemem jest jednak fakt, że jony wchodzą w silne interakcje, a do manipulowania nimi trzeba używać pól elektrycznych, co nie jest łatwym zadaniem.
      Z drugiej zaś strony mamy kwantowe maszyny wykorzystujące obwody nadprzewodzące. Za najpotężniejszy obecnie procesor kwantowy z takimi obwodami uznaje się 127–kubitowy Eagle IBM-a. Jednak wraz ze zwiększaniem liczby kubitów, urządzenia tego typu napotykają coraz więcej problemów. Każdy z kubitów musi być w nich wytwarzany indywidualnie, co praktycznie uniemożliwia wytwarzanie identycznych kopii, a to z kolei – wraz z każdym dodanym kubitem – zmniejsza prawdopodobieństwo, że wynik obliczeń prowadzonych za pomocą takiego procesora będzie prawidłowy. Jakby jeszcze tego było mało, każdy z obwodów musi być schłodzony do niezwykle niskiej temperatury.
      Już przed sześcioma laty zespoły z USA i Francji wykazały, że możliwe jest przechowywanie kwantowej informacji w atomach, którymi manipulowano za pomocą szczypiec optycznych. Od tamtego czasu Amerykanie rozwinęli swój pomysł i stworzyli 256-bitowy komputer kwantowy bazujący na tej platformie. Jednak nikt dotychczas nie zbudował pełnego obwodu kwantowego na atomach.
      Teraz dwa niezależne zespoły zaprezentowały procesory bazujące na takich atomach. Na czele grupy z Uniwersytetu Harvarda i MTI stoi Mikhail Lukin, który w 2016 roku opracował ten oryginalny pomysł. Zespołem z University of Wisonsin-Madison, w pracach którego biorą też udział specjaliści z firm ColdQuant i Riverlane, kieruje zaś Mark Saffman. Zespół Lukina wykorzystał atomy rubidu, zespół Saffmana użył zaś cezu.
      Jeśli mamy obok siebie dwa atomy w stanie nadsubtelnym, to nie wchodzą one w interakcje. Jeśli więc chcemy je splątać, jednocześnie wzbudzamy je do stanu Rydberga. W stanie Rydberga wchodzą one w silne interakcje, a to pozwala nam je szybko splątać. Później możemy z powrotem wprowadzić je w stan nadsubtelny, gdzie można nimi manipulować za pomocą szczypiec optycznych, wyjaśnia Dolev Bluvstein z Uniwersytetu Harvarda.
      Grupa z Harvarda i MIT wykorzystała stan nadsubtelny do fizycznego oddzielenia splątanych atomów bez spowodowania dekoherencji, czyli utraty kwantowej informacji. Gdy każdy z atomów został przemieszczony na miejsce docelowe został za pomocą lasera splątany z pobliskim atomem. W ten sposób naukowcy byli w stanie przeprowadzać nielokalne operacje bez potrzeby ustanawiania specjalnego fotonicznego lub atomowego łącza do przemieszczania splątania w obwodzie.
      W ten sposób uruchomiono różne programy. Przygotowano m.in. kubit logiczny, składający się z siedmiu kubitów fizycznych, w którym można było zakodować informacje w sposób odporny na pojawienie się błędów. Naukowcy zauważają, że splątanie wielu takich logicznych kubitów może być znacznie prostsze niż podobne operacje na innych platformach. Istnieje wiele różnych sztuczek, które są stosowane by splątać kubity logiczne. Jednak gdy można swobodnie przesuwać atomy, to jest to bardzo proste. Jedyne, co trzeba zrobić to stworzyć dwa niezależne kubity logiczne, przesunąć je i przemieszać z innymi grupami, wprowadzić za pomocą lasera w stan Rydberga i utworzyć pomiędzy nimi bramkę, stwierdza Dluvstein. Te technika, jak zapewnia uczony, pozwala na przeprowadzenie korekcji błędów i splątania pomiędzy kubitami logicznymi w sposób niemożliwy do uzyskania w obwodach nadprzewodzących czy z uwięzionymi jonami.
      Grupa z Wisconsin wykorzystała inne podejście. Naukowcy nie przemieszczali fizycznie atomów, ale za pomocą lasera manipulowali stanem Rydberga i przemieszczali splątanie po macierzy atomów. Mark Saffman podaje przykład trzech kubitów ustawionych w jednej linii. Za pomocą laserów oświetlamy kubit po lewej i kubit centralny Zostają one wzbudzone do stanu Rydberga i splątane. Następnie oświetlamy atom centralny oraz ten po prawej. W ten sposób promienie laserów kontrolują operacje na bramkach, ale tym, co łączy kubity są interakcje zachodzące w stanach Rydberga.
      Grupa Saffmana wykorzystała opracowaną przez siebie technikę do stworzenia składających się z sześciu atomów stanów Greenbergera-Horne'a-Zeilingera. Wykazali też, że ich system może działać jak kwantowy symulator służący np. do szacowania energii molekuły wodoru. Dzięki temu, że nie trzeba było przesuwać atomów, zespół z Wisconsin osiągnął kilkaset razy większe tempo pracy niż zespół z Harvarda i MIT, jednak ceną była pewna utrata elastyczności. Saffman uważa, że w przyszłości można będzie połączyć oba pomysły w jeden lepszy system.
      Na razie oba systemy korzystają z niewielkiej liczby kubitów, konieczne jest też wykazanie wiarygodności obliczeń oraz możliwości ich skalowania. Chris Monroe, współtwórca pierwszego kwantowego kubita – który oparty był na uwięzionych jonach – uważa, że obie grupy idą w dobrym kierunku, a kubity na atomach mogą osiągnąć wiarygodność 99,9% i to bez korekcji błędów. Obecnie osiągamy taki wynik na uwięzionych jonach i – mimo że technologia wykorzystania atomów jest daleko z tyłu – nie mam wątpliwości, że w końcu osiągną ten sam poziom, stwierdza.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Intel potwierdził, że kosztem ponad 20 miliardów dolarów wybuduje nowy kampus w stanie Ohio. W skład kampusu wejdą dwie supernowoczesne fabryki półprzewodników, gotowe do produkcji w technologii 18A. To przyszły, zapowiadany na rok 2025 proces technologiczny Intela, w ramach którego będą powstawały procesory w technologii 1,8 nm. Budowa kampusu rozpocznie się jeszcze w bieżącym roku, a produkcja ma ruszyć w 2025 roku.
      Intel podpisał też umowy partnerskie z instytucjami edukacyjnymi w Ohio. W ich ramach firma przeznaczy dodatkowo 100 milionów dolarów na programy edukacyjne i badawcze w regionie. "To niezwykle ważna wiadomość dla stanu Ohio. Nowe fabryki Intela zmienią nasz stan, stworzą tysiące wysoko płatnych miejsc pracy w przemyśle półprzewodnikowym", stwierdził gubernator Ohio, Mike DeWine.
      To największa w historii Ohio inwestycja dokonana przez pojedyncze prywatne przedsiębiorstwo. Przy budowie kampusu zostanie zatrudnionych 7000 osób, a po powstaniu pracowało w nim będzie 3000osób. Ponadto szacuje się, że inwestycja długoterminowo stworzy dziesiątki tysięcy miejsc pracy w lokalnych firmach dostawców i partnerów.
      Kampus o powierzchni około 4 km2 powstanie w hrabstwie Licking na przedmieściach Columbus. Będzie on w stanie pomieścić do 8 fabryk. Intel nie wyklucza, że w sumie w ciągu dekady zainwestuje tam 100 miliardów dolarów, tworząc jeden z największych na świecie hubów produkcji półprzewodników.
      Tak olbrzymia inwestycja przyciągnie do Ohio licznych dostawców produktów i usług dla Intela. Będzie ona miała daleko idące konsekwencje. Fabryka półprzewodników różni się od innych fabryk. Stworzenie tak wielkiego miejsca produkcji półprzewodników jest jak budowa małego miasta, pociąga za sobą powstanie tętniącej życiem społeczności wspierających dostawców usług i produktów. [...] Jednak rozmiar ekspansji Intela w Ohio będzie w dużej mierze zależał od funduszy w ramach CHIPS Act, stwierdził wiceprezes Intela ds. produkcji, dostaw i operacji, Keyvan Esfarjani.
      Nowe fabryki mają w 100% korzystać z energii odnawialnej, dostarczać do systemu więcej wody niż pobiera oraz nie generować żadnych odpadów stałych.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...