Prezydent Biden proponuje 50 miliardów USD na wsparcie rodzimego przemysłu półprzewodnikowego
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Przemysł produkcji stali jest odpowiedzialny za około 10% antropogenicznej emisji węgla do atmosfery. Gdyby przemysł ten stanowił oddzielne państwo byłby 3. – po Chinach i USA – największym emitentem CO2. Przedstawiciele firmy Electra z Boulder twierdzą, że opracowali praktycznie bezemisyjny proces elektrochemicznej produkcji stali, a pozyskany w ten sposób materiał nie będzie droższy od wytworzonego metodami tradycyjnymi.
Aż 90% CO2 emitowanego w procesie produkcji stali powstaje podczas wytopu żelaza z rudy. Dlatego też, jeśli chcemy mówić o dekarbonizacji procesu produkcji stali, mówimy o dekarbonizacji wytopu, stwierdza prezes i współzałożyciel Elektry, Sandeep Nijhawan.
Electra opracowała „elektrochemiczny proces hydrometalurgiczny”, dzięki któremu zawarty w rudzie tlenek żelaza jest redukowany do żelaza w temperaturze 60 stopni Celsjusza. Nie trzeba przy tym spalać węgla. Najpierw ruda jest rozpuszczana w specjalnym roztworze kwasów. To znany proces hydrometalurgiczny, który stosowany jest np. podczas produkcji miedzi czy cynku. Jednak dotychczas nie udawało się go stosować w odniesieniu do żelaza. Nijhawan wraz z zespołem opracowali unikatowy proces, który to umożliwia. Dzięki niemu oddzielają zanieczyszczenia od rudy, a następnie pozyskują samo żelazo przepuszczając przez roztwór prąd elektryczny. Cały proces może być napędzany energią słoneczną i wiatrową. Ma on jeszcze jedną olbrzymią zaletę, do produkcji można używać tanich rud o niskiej zawartości żelaza. Możemy korzystać z rud, które obecnie są traktowane jak odpady. W kopalniach jest olbrzymia ilość takich rud, których nikt nie wydobywa, stwierdza Nijhawan.
Electra podpisała już umowę z firmą Nucor Corporation, największym producentem stali w USA. Firma zebrała też 85 milionów dolarów od inwestorów za które rozwija swoją technologię i buduje eksperymentalną fabrykę w Boulder w USA. Ma ona ruszyć jeszcze w bieżącym roku, a przed końcem dekady ma rozpocząć się komercyjna produkcja stali z wykorzystaniem nowej technologii.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Najbardziej pożądana metoda produkcji wodoru – uzyskiwanie go z wody metodą elektrolizy – pochłania dużo energii. Optymalnym rozwiązaniem byłoby używanie energii ze źródeł odnawialnych. Profesor Gang Kevin Li z University of Melbourne zaprezentował metodę produkcji wodoru z powietrza o wilgotności zaledwie 4%. To otwiera drogę do produkcji wodoru w okolicach półsuchych, gdzie istnieje największy potencjał wykorzystania energii odnawialnej, a w których nie ma dostępu do odpowiedniej ilości wody.
Obecnie większość produkowanego wodoru uzyskuje się gazu ziemnego lub węgla. Na całym świecie trwają prace nad bardziej ekologicznymi metodami jego produkcji.
Li i jego zespół postanowili pozyskiwać wodór z powietrza. W każdej chwili w atmosferze znajduje się około 13 bilionów ton wody. Jest ona nawet obecna w środowiskach półsuchych. Naukowcy z Australii uzyskali z powietrza wodór o wysokiej, 99-procentowej, czystości. Ich prototypowa instalacja działała przez 12 dni. W tym czasie udało się średnio pozyskać niemal 750 litrów wodoru dziennie na każdy metr kwadratowy elektrolizera.
Naukowcy najpierw nasączali gąbkę lub piankę elektrolitem absorbującym wodę, a następnie umieszczali ją pomiędzy elektrodami. Woda pozyskana przez elektrolit jest spontanicznie transportowana do elektrod przez siły kapilarne. Na katodzie powstaje wodór, na anodzie tlen. To proces całkowicie pasywny. Nie są potrzebne żadne ruchome części, mówi Li.
Urządzenie testowano zarówno zasilając je samymi panelami słonecznymi, jak i samą niewielką turbiną wiatrową. Działało i w pomieszczeniu i na zewnątrz, a wydajność konwersji energii słonecznej na wodór wynosi 15%.
Jeśli uda się pozyskać fundusze, w przyszłym roku powstanie prototyp o powierzchni elektrod sięgającej 10 m2. Jego twórcy chcą też opracować tańszy i bardziej wydajny elektrolizer.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Światło posiada niezwykle interesującą cechę. Jego fale o różnej długości nie wchodzą ze sobą w interakcje. Dzięki temu można jednocześnie przesyłać wiele strumieni danych. Podobnie, światło o różnej polaryzacji również nie wchodzi w interakcje. Zatem każda z polaryzacji mogłaby zostać wykorzystana jako niezależny kanał przesyłania i przechowywania danych, znakomicie zwiększając gęstość informacji.
Naukowcy z Uniwersytetu Oksfordzkiego poinformowali właśnie o opracowaniu metody wykorzystania polaryzacji światła do zmaksymalizowania gęstości danych. Wszyscy wiemy, że przewaga fotoniki nad elektronika polega na tym, że światło przemieszcza się szybciej i jest bardziej funkcjonalne w szerokich zakresach. Naszym celem było wykorzystanie wszystkich zalet fotoniki połączonych z odpowiednim materiałem, dzięki czemu chcieliśmy uzyskać szybsze i gęstsze przetwarzanie informacji, mówi główny autor badań, doktorant June Sang Lee.
Jego zespół, we współpracy z profesorem C. Davidem Wrightem z University of Exeter, opracował nanowłókno HAD (hybrydyzowane-aktywne-dielektryczne). Każde z nanowłókien wyróżnia się selektywną reakcją na konkretny kierunek polaryzacji, zatem możliwe jest jednoczesne przetwarzanie danych przenoszonych za pomocą różnych polaryzacji. Stało się to bazą do stworzenia pierwszego fotonicznego procesora wykorzystującego polaryzację światła. Szybkość obliczeniowa takiego procesora jest większa od procesora elektronicznego, gdyż poszczególne nanowókna są modulowane za pomocą nanosekundowych impulsów optycznych. Nowy układ może być ponad 300-krotnie bardziej wydajny niż współczesne procesory.
To dopiero początek tego, co możemy osiągnąć w przyszłości, gdy uda się nam wykorzystać wszystkie stopnie swobody oferowane przez światło, w tym polaryzację. Dzięki temu uzyskamy niezwykły poziom równoległego przetwarzania danych. Nasze prace wciąż znajdują się na bardzo wczesnym etapie, dlatego też szacunki dotyczące prędkości pracy takiego układu wciąż wymagają eksperymentalnego potwierdzenia. Mamy jednak niezwykle ekscytujące pomysły łączenia elektroniki, materiałów nieliniowych i komputerów, komentuje profesor Harish Bhakaran, który od ponad 10 lat prowadzi prace nad wykorzystaniem światła w technologiach obliczeniowych.
Ze szczegółami pracy można zapoznać się w artykule Polarisation-selective reconfigurability in hybridized-active-dielectric nanowires opublikowanym na łamach Science Advances.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Urządzenia elektroniczne pracują coraz szybciej i szybciej.Jednak w pewnym momencie dotrzemy do momentu, w którym prawa fizyki nie pozwolą na dalsze ich przyspieszanie. Naukowcy z Uniwersytetu Technologicznego w Wiedniu, Uniwersytetu Technologicznego w Grazu i Instytutu Optyki Kwantowej im. Maxa Plancka w Garching określili najkrótszą skalę czasową, w której mogą pracować urządzenia optoelektroniczne.
Podzespoły elektroniczne pracują w określonych interwałach czasowych i z sygnałami o określonej długości. Procesy kwantowo-mechaniczne, które umożliwiają wygenerowanie sygnału, trwają przez pewien czas. I to właśnie ten czas ogranicza tempo generowania i transmisji sygnału. Jego właśnie udało się określić austriacko-niemieckiemu zespołowi.
Naukowcy, chcąc dotrzeć do granic tempa konwersji pól elektrycznych w sygnał elektryczny, wykorzystali impulsy laserowe, czyli najbardziej precyzyjne i najszybsze dostępne nam pola elektromagnetyczne. O wynikach swoich badań poinformowali na łamach Nature Communications.
Badaliśmy materiały, które początkowo w ogóle nie przewodzą prądu, mówi profesor Joachim Burgdörfer z Instytutu Fizyki Teoretycznej Uniwersytetu Technologicznego w Wiedniu. Materiały te oświetlaliśmy ultrakrótkimi impulsami lasera pracującego w ekstremalnym ultrafiolecie. Impulsy te przełączały wzbudzały elektrony, które wchodziły na wyższy poziom energetyczny i zaczynały się swobodnie przemieszczać. W ten sposób laser zamieniał na krótko nasz materiał w przewodnik. Gdy tylko w materiale pojawiały się takie swobodne elektrony, naukowcy z pomocą drugiego, nieco dłuższego impulsu laserowego, przesuwali je w konkretnym kierunku. W ten sposób dochodziło do przepływu prądu elektrycznego, który rejestrowano za pomocą elektrod po obu stronach materiału.
Cały proces odbywał się w skali atto- i femtosekund. Przez długi czas uważano, że zjawiska te powstają natychmiast. Jednak obecnie dysponujemy narzędziami, które pozwalają nam je precyzyjnie badać, wyjaśnia profesor Christoph Lemell z Wiednia. Naukowcy mogli więc odpowiedzieć na pytanie, jak szybko materiał reaguje na impuls lasera, jak długo trwa generowanie sygnału i jak długo sygnał ten trwa.
Eksperyment był jednak obarczony pewną dozą niepewności związaną ze zjawiskami kwantowymi. Żeby bowiem zwiększyć tempo, konieczne były ekstremalnie krótkie impulsy lasera, by maksymalnie często dochodziło do tworzenia się wolnych elektronów. Jednak wykorzystanie ultrakrótkich impulsów oznacza, że nie jesteśmy w stanie precyzyjnie zdefiniować ilości energii, jaka została przekazana elektronom. Możemy dokładnie powiedzieć, w którym momencie w czasie dochodziło do tworzenia się ładunków, ale nie mogliśmy jednocześnie określić, w jakim stanie energetycznym one były. Ciała stałe mają różne pasma przewodzenia i przy krótkich impulsach laserowych wiele z nich jest wypełnianych wolnymi ładunkami w tym samym czacie, dodaje Lemell.
Elektrony reagują różnie na pole elektryczne, a reakcja ta zależy od tego, jak wiele energii przenoszą. Jeśli nie znamy dokładnie tej wartości, nie możemy precyzyjnie ich kontrolować i dochodzi do zaburzeń przepływu prądu. Szczególnie przy bardzo intensywnej pracy lasera.
Okazuje się, że górna granica możliwości kontrolowania procesów optoelektronicznych wynosi około 1 petaherca, mówi Joachim Burgdörfer. To oczywiście nie oznacza, że będziemy kiedykolwiek w stanie wyprodukować układy komputerowe z zegarami pracującymi nieco poniżej petaherca. Realistyczne możliwości technologii są zwykle znacznie niższe niż granice fizyczne. Jednak mimo tego, że nie jesteśmy w stanie pokonać praw fizyki, badania nad limitami fizycznych możliwości pozwalają na ich analizowanie, lepsze zrozumienie i udoskonalanie technologii.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel, trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.