Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

W drugim dniu IDF Intel zaprezentował projekt "Light Peak" zakładający zastąpienie zewnętrznych kabli łączących komputer, monitor, drukarkę i inne urządzenia - światłowodami. Obecnie stosowane kable są ciężkie, trudno się zginają i są krótkie.

David Perlmutter z Intela zauważa, że zwykle długość kabli monitorowych nie może przekroczyć 4 metrów, a np. okablowanie USB 3.0 jest ograniczone do 3 metrów.

Tymczasem światłowody są niezwykle lekkie, bardzo elastyczne, a kich długość może przekroczyć 100 metrów.

Zdaniem Jasona Zillera, który w Intelu odpowiedzialny jest za optyczne systemy wejścia/wyjścia, początkowo światłowodowe kable przesyłałyby w dwie strony dane z prędkością 10 Gb/s, a docelowo można by osiągnąć prędkości rzędu 100 Gb/s.

Teoretycznie takie kable mogą posłużyć do łączenia wielu różnych urządzeń. W samym komputerze możliwe będzie zastosowanie jednego z dwóch rozwiązań - albo pojedynczego huba łączącego różne urządzenia, albo też osobnych portów dla każdego z nich. Co więcej, nowe kable mają przesyłać najróżniejsze dane oraz prąd elektryczny.

W przyszłości możemy doczekać się zatem monitorów korzystających z jednego kabla, którym przesyłane będą, i dane z komputera, i prąd do zasilania. Pozbędziemy się też różnych gniazd dla różnych standardów sygnału.

Zilller informuje, że Intel już rozpoczął współpracę z producentami sprzętu komputerowego, której celem jest stworzenie odpowiednich urządzeń. Koncern prowadzi też rozmowy z organizacjami opracowującymi standardy. Chcemy, by technologia taka stała się standardem dla wszystkich segmentów rynku - mówi Ziller.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
  W przyszłości możemy doczekać się zatem monitorów korzystających z jednego kabla, którym przesyłane będą, i dane z komputera, i prąd do zasilania. Pozbędziemy się też różnych gniazd dla różnych standardów sygnału. 

Oczywista bzdura , bo będzie słychać przydzwiek sieci i inne szumy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niby jak mają być przebicia w światłowodzie?

 

Lepiej niech ktoś mi wytłumaczy jak światłowodami Intel chce przesyłać prąd.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak to jak? W centrum energetycznym komputera będzie latarka, a w pozespołach zainstalowane zostaną ogniwa fotowoltaiczne ;D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Niby jak mają być przebicia w światłowodzie? 

Fala elektromagnetyczna generowana przez kabel zasilający (niewątpliwie miedziany) to również światło (zielone i podczerwone), poza tym wyjście na głośniki zewnętrzne światłowodem??

Kłopotu dużo i obecny zewnętrzny sprzęt do śmietnika?? z drugiej strony jeśli można zaoszczędzić miedz stosując plastik ( zwarcie niemożliwe, podsłuch ograniczony) to znajdzie to zastosowanie w biurowcach, uczelniach , zusie itp.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Fala elektromagnetyczna generowana przez kabel zasilający (niewątpliwie miedziany) to również światło (zielone i podczerwone)

Kwestia użycia filtra.

Kłopotu dużo i obecny zewnętrzny sprzęt do śmietnika??

Tym lepiej - więcej kasy dla producentów. Przez przypadek podałeś doskonały argument dla Intela i całej branży.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co za problem żeby światłowód przewodził prąd? dołożą podwójny oplot jak w koncentyku ekran i po kłopoce.

Ja jestem jednak zdania ze to po pierwsze nie ta pora a po drugie nie do końca jeszcze ta technologia.

Światłowody nie przyjęły się jeszcze nawet w sieciach lokalnych a tu ktoś mi chce podłączać myszkę światłowodem.

No właśnie myszkę z tego co wiem to te przewody puki co nie są jeszcze chętne do gięcia się za bardzo. Puki co jestem na nie bo światłowodowa przepustowość jest po prostu puki co przerostem formy nad treścią. Po co komu taki transfer do pendrive`a skoro ani ze strony komputera nie będzie możliwe wysalanie takiej ilości danych ani ze strony pendrive`a odebranie. No i po co konwerter cyfrowy w pendrive za 25 PLN  czy klawiaturze za 9.90?

Większość sprzętu jest w odległości <3 metry od komputera a reszta to najczęściej sprzęt sieciowy. Po cholerę ciągnąc światłowody z komputerów do drukarki skoro dobrze działa jako sieciowa a siec setka to jest na nią kilkakrotnie za dużo i tak ? Co innego takie prędkości w samej sieci bo to daje możliwości innego podejścia do przetwarzania danych już na poziomie ze tak powiem filozoficznym. Ale drukarka sieciowa w takiej sieci i tak szybciej nie wydrukuje. Bo tak na prawdę siec gigabitowa to jest już bardzo dużo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

od rozpoczęcia prac nad tym do wdrożenia minie sporo czasu... więc może lepiej że już zaczęli nad tym myśleć...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Póki co, Tolo, ja ufam tej idei:

 

<p>W przyszłości możemy doczekać się zatem monitorów korzystających z jednego kabla, którym przesyłane będą, i dane z komputera, i prąd do zasilania. Pozbędziemy się też różnych gniazd dla różnych standardów sygnału.</p>

 

mało tego, przez ten sam kabel mogą byś przesyłane dane do wbudowanego huba w monitorze, gdzie np podłączymy sobie mysz USB bądź już na światłowodzie i inne.

 

A co do podwójnego oplotu myślę że to realne :-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To ja dodam jeno, że mam myszkę i klawiaturę USB plus kabelek S-Video podłączone do drugiego pokoju na kablu 15m i wszystko działa bez najdrobniejszych problemów.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jeden niepozorny błąd - źle wpisany adres e-mail, przypadkowo udostępniony plik w chmurze czy dokument pozostawiony w biurowej drukarce - może kosztować firmę naprawdę wiele. W dzisiejszym świecie dane to jeden z najcenniejszych zasobów, a ich ochrona staje się równie ważna jak zabezpieczenie pieniędzy czy sprzętu. Co istotne, zagrożenia nie zawsze przychodzą z zewnątrz - często wynikają z codziennej, rutynowej komunikacji. Dlatego zapobieganie utracie firmowych danych to temat, którego nie można odkładać na później. Jak robić to skutecznie? Odpowiadamy.


      Kanały ryzyka Do wycieku danych wcale nie potrzeba zaawansowanego ataku - często wystarczy zwykła codzienna pomyłka. Mail z poufnym załącznikiem trafiający do złego odbiorcy, wydruk pozostawiony w biurowej drukarce, pendrive zgubiony w drodze na spotkanie, czy plik udostępniony w chmurze bez właściwych uprawnień - to scenariusze, które zdarzają się częściej, niż mogłoby się wydawać. Do tego dochodzą rozmowy na komunikatorach i wideokonferencjach, gdzie łatwo pokazać zbyt wiele. Każdy z tych kanałów wygląda niepozornie, ale to właśnie tam najczęściej kryją się wektory wycieku, dlatego tak ważne jest stosowanie różnych mechanizmów ochrony, dopasowanych do konkretnego sposobu pracy.
       
      Podstawowe mechanizmy DLP Nowoczesne systemy DLP działają trochę jak inteligentny strażnik - potrafią rozpoznać, które pliki zawierają wrażliwe informacje, nadać im odpowiednie „etykiety” i pilnować, co dalej się z nimi dzieje. Jeśli ktoś spróbuje wysłać taki dokument na zewnątrz, system może go zablokować, poprosić o dodatkowe potwierdzenie albo przynajmniej ostrzec, że coś jest nie tak.
      Uzupełnieniem tej ochrony jest IRM, czyli zarządzanie prawami do informacji. To rozwiązanie działa bezpośrednio na samym pliku - można ustawić, kto ma prawo go otworzyć, edytować czy wydrukować. Dzięki temu nawet jeśli dokument przypadkiem trafi w niepowołane ręce, jego zawartość nadal pozostaje zabezpieczona.
       
      Kopie zapasowe i audyt Sama technologia DLP to ważny element układanki, ale nie rozwiązuje problemu w stu procentach. Nawet najlepiej skonfigurowany system nie pomoże, jeśli firma nie zadba o coś tak podstawowego jak regularne kopie zapasowe. To one pozwalają szybko wrócić do pracy po awarii, ataku ransomware czy zwykłej pomyłce pracownika. Ważne jest nie tylko ich wykonywanie, ale też sprawdzanie, czy faktycznie da się z nich odtworzyć dane - wielu organizacjom zdarzało się boleśnie odkryć, że kopie były, ale bezużyteczne.

      Drugim filarem jest audyt. To nic innego jak szczegółowe „mapowanie” danych w firmie - sprawdzenie, gdzie dokładnie się znajdują, kto ma do nich dostęp i jakimi kanałami są przesyłane. Bez takiej wiedzy trudno ustawić skuteczne zabezpieczenia. Audyt pomaga też wychwycić miejsca, w których ryzyko wycieku jest największe, na przykład dział, który korzysta z wielu zewnętrznych narzędzi czy wymienia dużo informacji z partnerami. Dzięki temu można lepiej dopasować polityki bezpieczeństwa do realnych potrzeb, zamiast wprowadzać ogólne zasady, które albo są zbyt luźne, albo nadmiernie utrudniają pracę.
       
      Architektura ochrony Najlepsze rozwiązania w zakresie ochrony informacji opierają się na wielu warstwach, bo tylko takie podejście daje realne efekty. Na poziomie komputerów i urządzeń mobilnych kontrolowane są działania użytkowników, w sieci monitorowany jest ruch wychodzący, a w aplikacjach i chmurze zabezpieczane są pliki współdzielone na co dzień. To właśnie dzięki takiej wielopoziomowej architekturze zapobieganie utracie danych staje się skuteczne - bo nawet jeśli jedno zabezpieczenie zawiedzie, kolejne wciąż stanowią barierę przed wyciekiem.
       
      Proces wdrożenia Wdrożenie systemu zapobiegania utracie danych to proces etapowy. Najpierw robi się audyt i inwentaryzację, by wiedzieć, jakie informacje firma posiada i gdzie one są. Potem następuje klasyfikacja i oznaczanie danych - ustalenie, co jest poufne, a co mniej wrażliwe. Kolejny krok to pilotaż w ograniczonym zakresie, który pozwala sprawdzić działanie systemu i reakcje użytkowników. Dopiero później wdraża się rozwiązanie w całej organizacji, a na końcu dba o stałe monitorowanie i dopasowywanie polityk, tak aby były skuteczne, ale nie paraliżowały codziennej pracy.
       
      Ograniczenia i przykłady rozwiązań Żaden system nie gwarantuje stuprocentowej ochrony. Zagrożenia mogą pojawić się w kanałach, które nie zostały objęte kontrolą, a zbyt restrykcyjne reguły mogą paraliżować pracę. Dlatego w praktyce łączy się różne podejścia: DLP, IRM, archiwizację i szkolenia pracowników. Na rynku dostępne są rozwiązania, które integrują te mechanizmy - przykładem jest GTB DLP Suite, oferowane przez iiTD, które umożliwia zarówno analizę treści, jak i kontrolę kanałów komunikacji. To jedno z narzędzi, które pokazuje, jak technologia wspiera organizacje w redukowaniu ryzyka.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Intel ogłosił, że wybuduje w Polsce supernowoczesny zakład integracji i testowania półprzewodników. Stanie on w Miękini pod Wrocławiem, a koncern ma zamiar zainwestować w jego stworzenie do 4,6 miliarda dolarów. Inwestycja w Polsce to część obecnych i przyszłych planów Intela dotyczących Europy. Firma ma już fabrykę półprzewodników w Leixlip w Irlandii i planuje budowę drugiej w Magdeburgu w Niemczech. W sumie Intel chce zainwestować 33 miliardy euro w fabrykę w Niemczech, zakład badawczo-rozwojowo-projektowy we Francji oraz podobne przedsięwzięcia we Włoszech, Hiszpanii i Polsce.
      Zakład w Polsce ma rozpocząć pracę w 2027 roku. Zatrudnienie znajdzie w nim około 2000 osób, jednak inwestycja pomyślana została tak, by w razie potrzeby można było ją rozbudować. Koncern już przystąpił do realizacji fazy projektowania i planowania budowy, na jej rozpoczęcie będzie musiała wyrazić zgodę Unia Europejska.
      Intel już działa w Polsce i kraj ten jest dobrze przygotowany do współpracy z naszymi fabrykami w Irlandii i Niemczech. To jednocześnie kraj bardzo konkurencyjny pod względem kosztów, w którym istnieje solidna baza utalentowanych pracowników, stwierdził dyrektor wykonawczy Intela, Pat Gelsinger. Przedstawiciele koncernu stwierdzili, że Polskę wybrali między innymi ze względu na istniejącą infrastrukturę, odpowiednio przygotowaną siłę roboczą oraz świetne warunki do prowadzenia biznesu.
      Zakład w Miękini będzie ściśle współpracował z fabryką w Irlandii i planowaną fabryką w Niemczech. Będą do niego trafiały plastry krzemowe z naniesionymi elementami elektronicznymi układów scalonych. W polskim zakładzie będą one cięte na pojedyncze układy scalone, składane w gotowe chipy oraz testowane pod kątem wydajności i jakości. Stąd też będą trafiały do odbiorców. Przedsiębiorstwo będzie też w stanie pracować z indywidualnymi chipami otrzymanymi od zleceniodawcy i składać je w końcowy produkt. Będzie mogło pracować z plastrami i chipami Intela, Intel Foundry Services i innych fabryk.
      Intel nie ujawnił, jaką kwotę wsparcia z publicznych pieniędzy otrzyma od polskiego rządu. Wiemy na przykład, że koncern wciąż prowadzi negocjacje z rządem w Berlinie w sprawie dotacji do budowy fabryki w Magdeburgu. Ma być ona warta 17 miliardów euro, a Intel początkowo negocjował kwotę 6,8 miliarda euro wsparcia, ostatnio zaś niemieckie media doniosły, że firma jest bliska podpisania z Berlinem porozumienia o 9,9 miliardach euro dofinansowania. Pat Gelsinger przyznał, że Polska miała nieco więcej chęci na inwestycję Intela niż inne kraje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Intel potwierdził, że kosztem ponad 20 miliardów dolarów wybuduje nowy kampus w stanie Ohio. W skład kampusu wejdą dwie supernowoczesne fabryki półprzewodników, gotowe do produkcji w technologii 18A. To przyszły, zapowiadany na rok 2025 proces technologiczny Intela, w ramach którego będą powstawały procesory w technologii 1,8 nm. Budowa kampusu rozpocznie się jeszcze w bieżącym roku, a produkcja ma ruszyć w 2025 roku.
      Intel podpisał też umowy partnerskie z instytucjami edukacyjnymi w Ohio. W ich ramach firma przeznaczy dodatkowo 100 milionów dolarów na programy edukacyjne i badawcze w regionie. "To niezwykle ważna wiadomość dla stanu Ohio. Nowe fabryki Intela zmienią nasz stan, stworzą tysiące wysoko płatnych miejsc pracy w przemyśle półprzewodnikowym", stwierdził gubernator Ohio, Mike DeWine.
      To największa w historii Ohio inwestycja dokonana przez pojedyncze prywatne przedsiębiorstwo. Przy budowie kampusu zostanie zatrudnionych 7000 osób, a po powstaniu pracowało w nim będzie 3000osób. Ponadto szacuje się, że inwestycja długoterminowo stworzy dziesiątki tysięcy miejsc pracy w lokalnych firmach dostawców i partnerów.
      Kampus o powierzchni około 4 km2 powstanie w hrabstwie Licking na przedmieściach Columbus. Będzie on w stanie pomieścić do 8 fabryk. Intel nie wyklucza, że w sumie w ciągu dekady zainwestuje tam 100 miliardów dolarów, tworząc jeden z największych na świecie hubów produkcji półprzewodników.
      Tak olbrzymia inwestycja przyciągnie do Ohio licznych dostawców produktów i usług dla Intela. Będzie ona miała daleko idące konsekwencje. Fabryka półprzewodników różni się od innych fabryk. Stworzenie tak wielkiego miejsca produkcji półprzewodników jest jak budowa małego miasta, pociąga za sobą powstanie tętniącej życiem społeczności wspierających dostawców usług i produktów. [...] Jednak rozmiar ekspansji Intela w Ohio będzie w dużej mierze zależał od funduszy w ramach CHIPS Act, stwierdził wiceprezes Intela ds. produkcji, dostaw i operacji, Keyvan Esfarjani.
      Nowe fabryki mają w 100% korzystać z energii odnawialnej, dostarczać do systemu więcej wody niż pobiera oraz nie generować żadnych odpadów stałych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2.
      Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej.
      Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach.
      Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande.
      Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash.
      Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po raz pierwszy w historii udało się zdobyć klucz szyfrujący, którym Intel zabezpiecza poprawki mikrokodu swoich procesorów. Posiadanie klucza umożliwia odszyfrowanie poprawki do procesora i jej analizę, a co za tym idzie, daje wiedzę o luce, którą poprawka ta łata.
      W tej chwili trudno jest ocenić rzeczywisty wpływ naszego osiągnięcia na bezpieczeństwo. Tak czy inaczej, po raz pierwszy w historii Intela udało się doprowadzić do sytuacji, gdy strona trzecia może wykonać własny mikrokod w układach tej firmy oraz przeanalizować poprawki dla kości Intela, mówi niezależny badacz Maxim Goryachy. To właśnie on wraz z Dmitrym Sklyarovem i Markiem Ermolovem, którzy pracują w firmie Positive Technolgies, wyekstrahowali klucz szyfrujący z układów Intela. Badacze poinformowali, że można tego dokonać w przypadku każdej kości – Celerona, Pentium i Atoma – opartej na mikroarchitekturze Goldmont.
      Wszystko zaczęło się trzy lata temu, gdy Goryachy i Ermolov znaleźli krytyczną dziurę Intel SA-00086, dzięki której mogli wykonać własny kod m.in. w Intel Management Engine. Intel opublikował poprawkę do dziury, jednak jako że zawsze można przywrócić wcześniejszą wersję firmware'u, nie istnieje całkowicie skuteczny sposób, by załatać tego typu błąd.
      Przed pięcioma miesiącami badaczom udało się wykorzystać tę dziurę do dostania się do trybu serwisowego „Red Unlock”, który inżynierowie Intela wykorzystują do debuggowania mikrokodu. Dzięki dostaniu się do Red Unlock napastnicy mogli
      zidentyfikować specjalny obszar zwany MSROM (microcode sequencer ROM). Wówczas to rozpoczęli trudną i długotrwałą procedurę odwrotnej inżynierii mikrokodu. Po wielu miesiącach analiz zdobyli m.in. klucz kryptograficzny służący do zabezpieczania poprawek. Nie zdobyli jednak kluczy służących do weryfikacji pochodzenia poprawek.
      Intel wydał oświadczenie, w którym zapewnia, że opisany problem nie stanowi zagrożenia, gdyż klucz używany do uwierzytelniania mikrokodu nie jest zapisany w chipie. Zatem napastnik nie może wgrać własnej poprawki.
      Faktem jest, że w tej chwili napastnicy nie mogą wykorzystać podobnej metody do przeprowadzenia zdalnego ataku na procesor Intela. Wydaje się jednak, że ataku można by dokonać, mając fizyczny dostęp do atakowanego procesora. Nawet jednak w takim przypadku wgranie własnego złośliwego kodu przyniosłoby niewielkie korzyści, gdyż kod ten nie przetrwałby restartu komputera.
      Obecnie najbardziej atrakcyjną możliwością wykorzystania opisanego ataku wydaje się hobbistyczne użycie go do wywołania różnego typu zmian w pracy własnego procesora, przeprowadzenie jakiegoś rodzaju jailbreakingu, podobnego do tego, co robiono z urządzeniami Apple'a czy konsolami Sony.
      Atak może posłużyć też specjalistom ds. bezpieczeństwa, który dzięki niemu po raz pierwszy w historii będą mogli dokładnie przeanalizować, w jaki sposób Intel poprawia błędy w swoim mikrokodzie lub też samodzielnie wyszukiwać takie błędy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...