Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Działająca w ramach Instytutu Inżynierów Elektryków i Elektroników (IEEE) grupa 802.3 Higher Speed Study Group (HSSG) podjęła decyzję o rozpoczęciu prac nad standardem Ethernet, którego przepustowość miałby wynosić 100 gigabitów na sekundę.

O 100-gigabitowej sieci mówi się od niemal roku, jednak dopiero oficjalna decyzja HSSG otwiera możliwość prac nad nowym standardem.

Brad Booth, prezes organizacji Ethernet Alliance, powiedział: HSSG poczyniło ważny krok w kierunku powstania 100-gigabitowego Ethernetu. To bardzo ważny krok i Ethernet Alliance w pełni popiera decyzję HSSG.

Żadne ze stron nie poinformowała, niestety, kiedy nowy standard mógłby wejść w życie.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zadeklarował, że nie będzie blokował sprzedaży urządzeń konkurencji, które naruszają należące doń patenty będące podstawą standardów przemysłowych. Chodzi tutaj np. o własność intelektualną zawartą w szeroko używanych formatach, jak JPEG czy MP3.
      Deklaracja koncernu z Redmond to reakcja na list Apple’a kierowany do urzędników Unii Europejskiej. W napisanym w listopadzie, a ujawnionym dopiero teraz liście, Apple proponuje ustalenie wspólnych zasad licencjonowania patentów wykorzystywanych w standardach.
      Microsoft zgadza się z takim stanowiskiem. Prawnik firmy, David Heiner, zauważa, że internet działa tylko dlatego, iż różne przedsiębiorstwa zgodziły się na wzajemne licencjonowanie patentów.
      Stanowisko Apple’a i Microsoftu poparło już Cisco.
      To z kolei oznacza, że coraz większa presja wywierana jest na Google’a. Koncern nie ma co prawda tak silnego portfolio patentów jak Microsoft, ale jest właśnie w trakcie przejmowania Motorola Mobility, co znacząco wzbogaci jego patenty. Motoroli już udało się przejściowo zablokować sprzedaż iPadów oraz iPhone’ów w Niemczech. Co prawda prawnik Google’a Allen Lo zadeklarował, że po przejęciu Motorola będzie licencjonowała swoje patenty, jednak zaznaczył, iż opłata licencyjna będzie wynosiła 2,25% od wartości sprzedaży netto urządzenia korzystającego z patentu. Zdaniem Floriana Muellera, specjalisty ds. prawa patentowego, który prowadzi blog Foss Patents, propozycja Google’a będzie nie do przyjęcia. Oznacza bowiem nie tylko znacznie wyższe opłaty od tych, proponowanych przez Apple’a, ale również wyższe od tych, jakie są obecnie stosowane na rynku. Mueller zauważa, że gdyby np. BMW licencjonował na takich zasadach któryś z patentów Motoroli to musiałby wnosić wielotysięczne opłaty od każdego sprzedanego samochodu. Sądzę, że Google celowo przyjmuje skrajną pozycję, by móc łatwo ustąpić podczas negocjacji i wymagać tego samego od innych - mówi Mueller.
      Niektórzy prawnicy sądzą, że część firm nie podpisze proponowanej deklaracji. Może ona bowiem uniemożliwić im obronę przed pozwami patentowymi wytaczanymi przez Apple czy Microsoft w sytuacji, gdy firmy te będą dysponowały tylko kluczowymi patentami wykorzystywanymi w standardach. Koncerny posiadają zaś olbrzymią liczbę mniej istotnych patentów, których umowa nie będzie obejmowała.
    • przez KopalniaWiedzy.pl
      Japoński koncern NTT zademonstrował nowy standard Wi-Fi. Roboczo nazwany 802.11ac może przesyłać dane z prędkością 120 Mb/s do trzech odbiorników jednocześnie.
      Łącze wykorzystuje pasmo 5 GHz, a sygnał jest multipleksowany i demultipleksowany za pomocą technologii MIMO (Multiple Input Multiple Output). Celem NTT jest opracowanie technologii pozwalającej na przesłanie 1 gigabajta danych na sekundę. Takie przepustowości będą wkrótce potrzebne do streamingu wideo HD czy przesyłania obrazów 3D.
      Podczas prezentacji sygnał wysłano za pomocą sześciu anten, a odebrano za pomocą trzech. Technologia wykorzystana przez NTT wykorzystuje układy FPGA, które za pomocą odpowiednich algorytmów rozdzielają dane i przydzielają im miejsce w paśmie. Japońska firma twierdzi, że zamiast FPGA można użyć dedykowanego układu scalonego. Koncern ma zamiar zgłosić swoją technologię w celu standaryzacji przez Instytut Inżynierów Elektryków i Elektroników (IEEE). Nawet, jeśli 802.11ac zostanie uznana za standard to nie stanie się to przed rokiem 2013. Jednak urządzenia ją wykorzystujące mogą trafić na rynek wcześniej, podobnie jak to miało miejsce w przypadku innych standardów.
    • przez KopalniaWiedzy.pl
      W listopadzie powinna być gotowa podstawowa specyfikacja standardu PCI 3.0. Jej wersja 0.9 została zaprezentowana w połowie sierpnia i była w nim mowa o łączu o maksymalnej przepustowości 8 GT/s (gigatransferów na sekundę). Specyfikacja PCI 2.0 zakłada przepustowość do 5 GT/s, a zatem mamy do czynienia ze znacznym wzrostem prędkości. Nowa specyfikacja będzie poddawana ocenie przez dwa miesiące. Proces ten zakończy się zatem około połowy października, dzięki czemu ostatecznej wersji możemy spodziewać się w listopadzie.
      Jako, że większość z nas przyzwyczajona jest do określania prędkości w bitach na sekundę, należy wyjaśnić, czym są transfery na sekundę. To liczba transferów danych, przeprowadzonych w ciągu sekundy. Zgodnie ze specyfikacją PCI Express dane kodowane są w schemacie "8b/10b", co oznacza, że każde 8 bitów jest kodowanych w 10-bitowych symbolach. A więc przesłanie 8 bitów wymaga przejścia przez szynę 10 bitów. Jeśli zatem pojedyncza linia PCI Express 1.1 może przesłać w każdym kierunku maksymalnie 2,5 gigabita, to otrzymujemy całkowity transfer rzędu 5 Gb/s. Jako, że do przesłania każdych 8 bitów musimy wykorzystać 10 bitów, efektywny transfer wynosi 4 Gb/s (5 x 8/10). Stąd łącze x16 zgodne ze standardem PCI Express 1.1 ma maksymalną przepustowość rzędu 80 Gb/s danych zakodowanych, co przekłada się na 64 Gb/s danych niekodowanych.
      Jednostka gigatransfer na sekundę (GT/s) odnosi się do całkowitej przepustowości łącza, co oznacza, że transfer potrzebnych danych jest o 20% mniejszy. Całkowitą maksymalną przepustowość urządzenia korzystającego z PCI można wyliczyć znając liczbę linii transmisyjnych i maksymalny transfer dla danej specyfikacji.
      Na pierwsze urządzenia korzystające z PCI Express 3.0 będziemy musieli poczekać do przyszłego roku. Jak mówi Al Yanes, szef PCI Special Interest Group, która pracuje nad najnowszym standardem, od czasu pojawienia się standardu do rozpoczęcia sprzedaży urządzeń mija około roku. Niewykluczone jednak, że na rynku korporacyjnym pojawią się one wcześniej.
      Z nieoficjalnych doniesień wynika, że Mellanox Technologies chce jeszcze przed czerwcem zaoferować 40-gigabitowe adaptery Infiniband, które będą korzystały z PCI Express 3.0. W drugiej połowie przyszłego roku nowy standard ma być ponoć obsługiwany również przez intelowską platformę Sandy Bridge.
      Jesteśmy skazani na kilkunastomiesięczne oczekiwanie chociażby dlatego, że dopiero w połowie przyszłego roku PCI SIG udostępni narzędzia do testowania projektów pod kątem ich zgodności z PCI Express 3.0.
    • przez KopalniaWiedzy.pl
      Grupa robocza P1817 Międzynarodowego Stowarzyszenia Inżynierów Elektryków i Elektroników (IEEE) pracuje nad nowym rodzajem mechanizmu DRM (Digital Rights Management). Ma on z jednej strony dawać legalnemu użytkownikowi pełną kontrolę nad treścią, a z drugiej - uniemożliwiać jej nielegalne rozpowszechnianie.
      Pomysł na takie rozwiązanie został zaprezentowany IEEE przed rokiem przez inżyniera Paula Sweazeya. Teraz organizacja uznała, że warto nad nim pracować.
      "Cyfrowa zawartość osobista" ma składać się z dwóch elementów - folderu i klucza.W folderze znajduje się zaszyfrowana cyfrowa treść. Może być ona dowolnie kopiowana i przekazywana. Jednak dostęp do zawartości można uzyskać tylko posiadając klucz. Jest on dostarczany wraz z zawartością. Można go przechowywać albo na konkretnym urządzeniu, albo online, w rodzaju konta bankowego. Sam klucz nie może być kopiowany, ale można go przenosić. To zapewnia użytkownikowi swobodę. Możemy na przykład skopiować znajomemu plik z filmem, ale jednocześnie powinniśmy dostarczyć mu odnośnik do miejsca, w którym znajduje się klucz. Gdy będzie on chciał skorzystać z otrzymanego przez nas pliku i połączy się z kluczem, ten zostanie przesunięty do domeny znajomego, co oznacza, że my nie będziemy mogli odtworzyć wspomnianej zawartości.
      Jak wyjaśnia w dokumentach grupa P1817 "własność pliku jest nienaruszalna. Nikt nie może ograniczyć sposobu, w jaki go używasz lub się nim dzielić. Jednak, jako że pliki są chronione prawami autorskimi, ich posiadacze mają prawo do kontroli rozprzestrzeniania dzieła. Tak jak możesz stracić drukowaną książkę, gdy pożyczysz ją obcej osobie, tak możesz stracić plik, jeśli nierozważnie go udostępnisz. Osoba, która zyska do niego dostęp, może przejąć kontrolę nad twoim kluczem. Dlatego trzeba udostępniać pliki z rozwagą. Z kolei dostępność i mobilność kluczy pozwala dowolnie pożyczać, wynajmować, przekazywać, rozdawać czy odsprzedawać cyfrową zawartość tak, jak można to robić z przedmiotami fizycznymi. Jako, że klucze są unikatowe, chronione przed kopiowaniem i podrobieniem, posiadacze praw autorskich mogą być pewni, że nie zostaną one naruszone".
    • przez KopalniaWiedzy.pl
      Trzej badacze z Instytutu Robotyki i Mechanotroniki Niemieckiej Agencji Kosmicznej DLR (Deutsches Zentrum für Luft- und Raumfahrt) wykazali, że trzeba będzie zachować ostrożność, przebywając w przyszłości w pobliżu robotów pomagających ludziom w domu. Podczas testów udowodniono bowiem, że niektóre zadane przez nie przypadkowo rany są śmiertelne.
      W eksperymencie wykorzystano ramię robota o wadze 14 kg i zasięgu 1,1 m. Dzierżyło ono różne narzędzia z ostrzami, w tym śrubokręt, nożyczki, nóż kuchenny czy nóż do steków. Maszyna miała uderzać nimi w substancje o właściwościach podobnych do naszych tkanek miękkich. Testy prowadzono, by ocenić użyteczność prototypu systemu bezpieczeństwa.
      Robota zaprogramowano w ten sposób, aby dźgał i ciął narzędziami kawałek silikonu, nogę martwej świni oraz rękę ochotnika. Testy prowadzone przy wyłączonym systemie bezpieczeństwa prowadzono tylko na mięsie i silikonie. W większości przypadków rany były głębokie i gdyby je zadać żywemu organizmowi, okazałyby się śmiertelne.
      Liczba urazów znacznie spadała, gdy Niemcy włączali system wykrywania kolizji. Aby dało się stwierdzić, że robot trafił w coś innego niż powinien i zatrzymał się, zastosowano czujniki momentu skręcającego.
      Na początku maja wyniki doświadczeń zaprezentowano na Międzynarodowej Konferencji Robotyki i Automatyki IEEE. Badania są nowatorskie, ponieważ wcześniej analizowano wypadki zupełnie innego rodzaju – zderzenia z dużymi, ciężkimi robotami.
       
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...