Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

MUCI - nowy sposób na sterowanie komputerem
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Naukowcy z Northeastern University odkryli, w jaki sposób można na żądanie zmieniać elektroniczny stan materii. Potencjalnie może to doprowadzić do stworzenia materiałów elektronicznych, które pracują z 1000-krotnie większą prędkością niż obecnie i są bardziej wydajne. Możliwość dowolnego przełączania pomiędzy przewodnikiem a izolatorem daje nadzieję na zastąpienia krzemowej elektroniki mniejszymi i szybszymi materiałami kwantowymi. Obecnie procesory pracują z częstotliwością liczoną w gigahercach. Dzięki pracom uczonych z Northeastern, w przyszłości mogą być to teraherce.
Opisana na łamach Nature Physics technika „termicznego chłodzenia” (thermal quenching) polega przełączaniu materiału pomiędzy izolatorem a przewodnikiem za pomocą kontrolowanego podgrzewania i schładzania. Współautor odkrycia, profesor Gregory Fiete porównuje tę metodę do przełączania bramek w tranzystorze. Każdy, kto kiedykolwiek używał komputera, doszedł w pewnym momencie do punktu, w którym chciał, by komputer działał szybciej. Nie ma nic szybszego niż światło, a my używamy światła do kontrolowania właściwości materiałów z największą prędkością, jaką dopuszcza fizyka, dodaje uczony.
Naukowcy w temperaturze bliskiej temperaturze pokojowej oświetlali materiał kwantowy 1T-TaS2 uzyskując „ukryty stan metaliczny”, który dotychczas był stabilny w temperaturach kriogenicznych, poniżej -150 stopni Celsjusza. Teraz osiągnięto ten stan w znacznie bardziej praktycznych temperaturach, sięgających -60 stopni C, a materiał utrzymywał go przez wiele miesięcy. To daje nadzieję na stworzenie podzespołów składających się z jednego materiału, który w zależności od potrzeb może być przewodnikiem lub izolatorem.
Źródło: Dynamic phase transition in 1T-TaS2 via a thermal quench, https://www.nature.com/articles/s41567-025-02938-1
« powrót do artykułu -
przez KopalniaWiedzy.pl
Budowa własnego PC pozwala wydobyć maksimum możliwości z dostępnych podzespołów. Na czym jednak powinieneś skupiać się w pierwszej kolejności, jeśli potrzebujesz komputera zarówno do pracy, jak i do grania? Oto pigułka wiedzy, która rozwieje twoje wątpliwości!
Sprzęt do pracy i gier – czy da się połączyć te obie rzeczy? Budowa własnego komputera może być pewnym wyzwaniem dla osób bez większego doświadczenia. Stworzenie sprzętu z zakupionych przez siebie podzespołów pozwala jednak na kontrolowanie każdego aspektu – od procesora, przez chłodzenie po pastę termoprzewodzącą. W taki sposób możesz więc nie tylko zaoszczędzić pieniądze, ale również wykrzesać jeszcze więcej z każdego elementu.
Oczywiście produkty, z których będzie składał się twój komputer, zależą od twoich potrzeb. Niektórzy nie potrzebują zabójczo szybkich maszyn, skupiając się na przeglądaniu Internetu czy rozmowie z bliskimi. Na drugim biegunie są gracze, którzy marzą o płynnej rozgrywce i najwyższym poziomie grafiki.
Istnieją jednak użytkownicy, którzy potrzebują niezwykle wszechstronnego urządzenia. Mowa tu na przykład o osobach, które pracują zdalnie i z tego względu rozglądają się za komputerem gotowym zarówno do pisania, montażu filmów czy obróbki zdjęć, jak i do rozrywki. Na szczęście te dwa światy idą ze sobą w parze i w większości przypadków ich potrzeby mocno się ze sobą pokrywają.
Komputer do pracy – na jakich elementach powinieneś się skupić? Praca zdalna staje się coraz popularniejsza, lecz może ona przyjmować naprawdę wiele oblicz. Trudno jest więc znaleźć komputer, który będzie odpowiadać potrzebom każdego pracownika. Niektórzy zresztą nie potrzebują wystrzałowych osiągów, z których i tak nie skorzystają. Wszystko zależy więc tak naprawdę od wykonywanego zawodu.
Osoby zajmujące się pracą z tekstem przede wszystkim powinny skupić się na dużej ilości pamięci operacyjnej RAM. Dzięki temu nawet kilkanaście otwartych kart w przeglądarce nie spowolnią działania. Tym samym warto również postawić na mocny procesor, który pozwoli podtrzymać wielozadaniowość, nawet w przypadku korzystania z dwóch monitorów.
Karta graficzna w tym przypadku schodzi na dalszy plan, czego zdecydowanie nie można powiedzieć na przykład o obróbce zdjęć czy montażu filmów. GPU jest kluczem do szybkiego działania programów i przetwarzania samych plików w edytorach. Tu zresztą również konieczny jest wydajny procesor, który udźwignie na sobie niezwykle wymagające zadanie w postaci renderów, czyli kompilowania ujęć filmowych w jeden duży plik.
Grafika, stabilność, moc – kluczowe elementy dobrego PC do gier Gracze także powinni skupiać się na trzech najważniejszych elementach wspomnianych wyżej: procesorze, pamięci RAM oraz karcie graficznej. W tym ostatnim przypadku warto postawić na dedykowaną odmianę, gotową na najnowsze tytuły. Ciekawą propozycją dla osób szukających topowych rozwiązań jest nowa karta graficzna NVIDIA GeForce RTX 5090, którą możesz sprawdzić na przykład na stronie https://www.morele.net/karta-graficzna-msi-geforce-rtx-5090-ventus-3x-oc-32gb-gddr7-14471822/.
Jeśli budujesz komputer od zera, pamiętaj również o wytrzymałej płycie głównej czy mocnym zasilaczu, dzięki któremu wszystkie podzespoły będą w stanie działać na maksymalnych obrotach. Stabilność w grach online zapewni odpowiednia karta sieciowa, a długą żywotność poszczególnych elementów możesz zapewnić między innymi dzięki wydajnemu chłodzeniu.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Microsoft zatrudnił byłego projektanta układów scalonych Apple'a, , który wcześniej pracował też w firmach Arm i Intel, trafił do grupy kierowanej przez Raniego Borkara, zajmującej się rozwojem chmury Azure. Zatrudnienie Filippo wskazuje, że Microsoft chce przyspieszyć prace nad własnymi układami scalonymi dla serwerów tworzących oferowaną przez firmę chmurę. Koncern idzie zatem w ślady swoich największych rywali – Google'a i Amazona.
Obecnie procesory do serwerów dla Azure są dostarczane przez Intela i AMD. Zatrudnienie Filippo już odbiło się na akcjach tych firm. Papiery Intela straciły 2% wartości, a AMD potaniały o 1,1%.
Filippo rozpoczął pracę w Apple'u w 2019 roku. Wcześniej przez 10 lat był głównym projektantem układów w firmie ARM. A jeszcze wcześniej przez 5 lat pracował dla Intela. To niezwykle doświadczony inżynier. Właśnie jemu przypisuje się wzmocnienie pozycji układów ARM na rynku telefonów i innych urządzeń.
Od niemal 2 lat wiadomo, że Microsoft pracuje nad własnymi procesorami dla serwerów i, być może, urządzeń Surface.
Giganci IT coraz częściej starają się projektować własne układy scalone dla swoich urządzeń, a związane z pandemią problemy z podzespołami tylko przyspieszyły ten trend.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Przed dwoma laty Microsoft rozpoczął interesujący eksperyment. Firma zatopiła u wybrzeża Orkadów centrum bazodanowe. Teraz wydobyto je z dna, a eksperci przystąpili do badań dotyczących jego wydajności i zużycia energii. Już pierwsze oceny przyniosły bardzo dobre wiadomości. W upakowanym serwerami stalowym cylindrze dochodzi do mniejszej liczby awarii niż w konwencjonalnym centrum bazodanowym.
Okazało się, że od maja 2018 roku zawiodło jedynie 8 a 855 serwerów znajdujących się w cylindrze. Liczba awarii w podwodnym centrum bazodanowym jest 8-krotnie mniejsza niż w standardowym centrum na lądzie, mówi Ben Cutler, który stał na czele eksperymentu nazwanego Project Natick. Eksperci spekulują, że znacznie mniejszy odsetek awarii wynika z faktu, że ludzie nie mieli bezpośredniego dostępu do serwerów, a w cylindrze znajdował się azot, a nie tlen, jak ma to miejsce w lądowych centrach bazodanowych. Myślimy, że chodzi tutaj o atmosferę z azotu, która zmniejsza korozję i jest chłodna oraz o to, że nie ma tam grzebiących w sprzęcie ludzi, mówi Cutler.
Celem Project Natic było z jednej strony sprawdzenie, czy komercyjnie uzasadnione byłoby tworzenie niewielkich podwodnych centrów bazodanowych, która miałyby pracować niezbyt długo. Z drugiej strony chciano sprawdzić kwestie efektywności energetycznej chmur obliczeniowych. Centra bazodanowe i chmury obliczeniowe stają się coraz większe i zużywają coraz więcej energii. Zużycie to jest kolosalne. Dość wspomnieć, że miliard odtworzeń klipu do utworu „Despacito” wiązało się ze zużyciem przez oglądających takiej ilości energii, jaką w ciągu roku zużywa 40 000 amerykańskich gospodarstw domowych. W skali całego świata sieci komputerowe i centra bazodanowe zużywają kolosalne ilości energii.
Na Orkadach energia elektryczna pochodzi z wiatru i energii słonecznej. Dlatego to właśnie je Microsoft wybrał jako miejsce eksperymentu. Mimo tego, podwodne centrum bazodanowe nie miało żadnych problemów z zasilaniem. Wszystko działało bardzo dobrze korzystając ze źródeł energii, które w przypadku centrów bazodanowych na lądzie uważane są za niestabilne, mówi jeden z techników Project Natick, Spencer Fowers. Mamy nadzieję, że gdy wszystko przeanalizujemy, okaże się, że nie potrzebujemy obudowywać centrów bazodanowych całą potężną infrastrukturą, której celem jest zapewnienie stabilnych dostaw energii.
Umieszczanie centrów bazodanowych pod wodą może mieć liczne zalety. Oprócz już wspomnianych, takie centra mogą być interesującą alternatywą dla firm, które narażone są na katastrofy naturalne czy ataki terrorystyczne. Możesz mieć centrum bazodanowe w bardziej bezpiecznym miejscu bez potrzeby inwestowania w całą infrastrukturę czy budynki. To rozwiązanie elastyczne i tanie, mówi konsultant projektu, David Ross. A Ben Cutler dodaje: Sądzimy, że wyszliśmy poza etap eksperymentu naukowego. Teraz pozostaje proste pytanie, czy budujemy pod wodą mniejsze czy większe centrum bazodanowe.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Microsoft ponownie będzie dostarczał użytkownikom Windows 10 poprawki niezwiązane z bezpieczeństwem. Jak wcześniej informowaliśmy, w związku z pandemią koronawirusa koncern zmienił sposób pracy i od maja dostarczał wyłącznie poprawki związane z bezpieczeństwem.
Chris Morrissey z Microsoftu ogłosił na firmowym blogu, że od lipca dostarczane będą wszystkie poprawki dla Windows 10 oraz Windows Server dla wersji 1809 i nowszych. Kalendarz ich publikacji będzie taki, jak wcześniej, zatem dostęp do nich zyskamy w Update Tuesday. Koncern zapowiada też pewne zmiany, które mają na celu uproszczenie procesu aktualizacji.
Zmiany takie obejmą nazewnictwo poprawek oraz sposób dostarczania poprawek do testów dla firm i organizacji. Zmian mogą się też spodziewać osoby i organizacja biorące udział w Windows Insider Program oraz Windows Insider Program for Business.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.