Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

FireWire konkurencją dla USB?

Rekomendowane odpowiedzi

Organizacja 1394 Trade Association ogłosiła powstanie nowej specyfikacji dla FireWire, która czterokrotnie zwiększy przepustowość tego interfejsu. Będzie on w stanie przesyłać dane z prędkością 3,2 gigabita na sekundę. Specyfikacja S3200 bazuje na standardzie IEEE 1394b. Przewiduje ona użycie tych samych kabli i wtyczek, jakie używane są przez FireWire 800.

Nowe kable będą potrzebne jedynie do przesyłania danych na duże odległości, 100 metrów i dalej.

FireWire może stać się alternatywą dla standardów USB 2.0 i eSATA. Pozwoli bowiem na podłączenie zewnętrznego dysku twardego bez konieczności dostarczania mu energii dodatkowym kablem, a to wszystko przy zapewnieniu szybkiego transferu.

Grupy rozwijające technologię FireWire chcą, by szerzej trafiła ona na rynek elektroniki konsumenckiej. Interfejs ten nadaje się bowiem do nagrywania obrazu w wysokiej rozdzielczości, a jednocześnie spełnia założenia stawiane przed urządzeniami obsługującymi standardy ochrony praw autorskich. Ma też i tę przewagę nad HDMI, że przesyłanie sygnału na duże odległości za pomocą FireWire jest znacznie tańsze, niż za pomocą HDMI.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Pewnie że nie :P Przecież nawet FireWire400 było szybsze od USB 2.0, nie mówiąc już o 800... Lepsze złącze, a nie upowszechniło się tak bardzo. USB jest już zbyt dobrze zakotwiczone na rynku i chyba nic już nie zmieni :) Zwłaszcza że niebawem pojawi się USB 3.0, które z resztą jest szybsze od tego nowego FireWire (4.8 Gb/s)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie pokonał tylko dlatego, że Apple (o ile mnie pamięć nie myli) żądał niezłej kasy za udzielenie licencji na wykorzystywanie FireWire.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Masz rację :)

Jednak opłaty licencyjne, których wymaga Apple od firm produkujących urządzenia obsługujące FireWire (0,25 USD za każde urządzenie), oraz znacznie kosztowniejszy sprzęt spowodowały, że FireWire uległo względem USB na rynku masowym, na którym koszt produktu jest głównym ograniczeniem.

źródło: wikipedia.pl

 

Mała poprawka: nowe FireWire będzie prawdopodobnie szybsze od USB 3.0 (pomimo pozornie dużej różnicy transferu). Inna specyfikacja, lepsze wykorzystanie dostępnej przepustuwości... Mimo to raczej nie wyprze USB, zapobiegnie co najwyżej wyparciu FireWire z tych zastosowań w których jest najbardziej popularny (kamery cyfrowe).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Popularny dowcip mówi, że gdy twórca USB umrze, zostanie wsadzony do trumny, pochowany, a następnie wykopany, wsadzony odwrotnie i ponownie pochowany. Nietrudno się domyślić, że autorem dowcipu jest użytkownik zmęczony największą niedogodność standardu USB – niesymetrycznością wtyczki i gniazda.
      Teraz współtwórca USB, Ajay Bhatt ujawnia, dlaczego port USB nie jest symetryczny i nie można się do niego podłączyć niezależnie od ułożenia wtyczki. Przyczyna takiego stanu rzeczy jest banalna – koszty.
      "Brak symetrii to największy problem. Jednak zrobiliśmy to z konkretnego powodu. Intel i jego partnerzy musieli przekonać producentów pecetów, a ci są niezwykle wrażliwi na koszty, by zastosowali nowy standard. Stworzenie symetrycznego lub okrągłęgo gniazda podwoiłoby koszty wtyczki. USB, które można podłączyć na dwa sposoby wymagałoby podwójnego okablowania i dodatkowych układów scalonych. To zaś zwiększyłoby koszty dwukrotnie", zdradza Bhatt.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Microsoft zadeklarował, że nie będzie blokował sprzedaży urządzeń konkurencji, które naruszają należące doń patenty będące podstawą standardów przemysłowych. Chodzi tutaj np. o własność intelektualną zawartą w szeroko używanych formatach, jak JPEG czy MP3.
      Deklaracja koncernu z Redmond to reakcja na list Apple’a kierowany do urzędników Unii Europejskiej. W napisanym w listopadzie, a ujawnionym dopiero teraz liście, Apple proponuje ustalenie wspólnych zasad licencjonowania patentów wykorzystywanych w standardach.
      Microsoft zgadza się z takim stanowiskiem. Prawnik firmy, David Heiner, zauważa, że internet działa tylko dlatego, iż różne przedsiębiorstwa zgodziły się na wzajemne licencjonowanie patentów.
      Stanowisko Apple’a i Microsoftu poparło już Cisco.
      To z kolei oznacza, że coraz większa presja wywierana jest na Google’a. Koncern nie ma co prawda tak silnego portfolio patentów jak Microsoft, ale jest właśnie w trakcie przejmowania Motorola Mobility, co znacząco wzbogaci jego patenty. Motoroli już udało się przejściowo zablokować sprzedaż iPadów oraz iPhone’ów w Niemczech. Co prawda prawnik Google’a Allen Lo zadeklarował, że po przejęciu Motorola będzie licencjonowała swoje patenty, jednak zaznaczył, iż opłata licencyjna będzie wynosiła 2,25% od wartości sprzedaży netto urządzenia korzystającego z patentu. Zdaniem Floriana Muellera, specjalisty ds. prawa patentowego, który prowadzi blog Foss Patents, propozycja Google’a będzie nie do przyjęcia. Oznacza bowiem nie tylko znacznie wyższe opłaty od tych, proponowanych przez Apple’a, ale również wyższe od tych, jakie są obecnie stosowane na rynku. Mueller zauważa, że gdyby np. BMW licencjonował na takich zasadach któryś z patentów Motoroli to musiałby wnosić wielotysięczne opłaty od każdego sprzedanego samochodu. Sądzę, że Google celowo przyjmuje skrajną pozycję, by móc łatwo ustąpić podczas negocjacji i wymagać tego samego od innych - mówi Mueller.
      Niektórzy prawnicy sądzą, że część firm nie podpisze proponowanej deklaracji. Może ona bowiem uniemożliwić im obronę przed pozwami patentowymi wytaczanymi przez Apple czy Microsoft w sytuacji, gdy firmy te będą dysponowały tylko kluczowymi patentami wykorzystywanymi w standardach. Koncerny posiadają zaś olbrzymią liczbę mniej istotnych patentów, których umowa nie będzie obejmowała.
    • przez KopalniaWiedzy.pl
      Japoński koncern NTT zademonstrował nowy standard Wi-Fi. Roboczo nazwany 802.11ac może przesyłać dane z prędkością 120 Mb/s do trzech odbiorników jednocześnie.
      Łącze wykorzystuje pasmo 5 GHz, a sygnał jest multipleksowany i demultipleksowany za pomocą technologii MIMO (Multiple Input Multiple Output). Celem NTT jest opracowanie technologii pozwalającej na przesłanie 1 gigabajta danych na sekundę. Takie przepustowości będą wkrótce potrzebne do streamingu wideo HD czy przesyłania obrazów 3D.
      Podczas prezentacji sygnał wysłano za pomocą sześciu anten, a odebrano za pomocą trzech. Technologia wykorzystana przez NTT wykorzystuje układy FPGA, które za pomocą odpowiednich algorytmów rozdzielają dane i przydzielają im miejsce w paśmie. Japońska firma twierdzi, że zamiast FPGA można użyć dedykowanego układu scalonego. Koncern ma zamiar zgłosić swoją technologię w celu standaryzacji przez Instytut Inżynierów Elektryków i Elektroników (IEEE). Nawet, jeśli 802.11ac zostanie uznana za standard to nie stanie się to przed rokiem 2013. Jednak urządzenia ją wykorzystujące mogą trafić na rynek wcześniej, podobnie jak to miało miejsce w przypadku innych standardów.
    • przez KopalniaWiedzy.pl
      Jon Larimer z IBM-owskiego zespołu X-Force udowodnił, że Linux system nie jest odporny na technikę, którą dotychczas wykorzystywano przeciwko platformie Windows.
      Larimer wykorzystał fakt, że wiele dystrybucji automatycznie wykrywa i pokazuje zawartość takich plików przechowywanych na klipsach USB. Dzięki temu udało się przeglądarkę plików Nautilus zmusić do uruchomienia zawartego na klipsie szkodliwego kodu. Larimer był też w stanie wyłączyć mechanizmy ASLR oraz AppArmor.
      Ataki za pomocą klipsów USB, a technikę taką wykorzystali twórcy Confickera i Stuxneta, nie są zatem ograniczone tylko do platformy Windows.
    • przez KopalniaWiedzy.pl
      W listopadzie powinna być gotowa podstawowa specyfikacja standardu PCI 3.0. Jej wersja 0.9 została zaprezentowana w połowie sierpnia i była w nim mowa o łączu o maksymalnej przepustowości 8 GT/s (gigatransferów na sekundę). Specyfikacja PCI 2.0 zakłada przepustowość do 5 GT/s, a zatem mamy do czynienia ze znacznym wzrostem prędkości. Nowa specyfikacja będzie poddawana ocenie przez dwa miesiące. Proces ten zakończy się zatem około połowy października, dzięki czemu ostatecznej wersji możemy spodziewać się w listopadzie.
      Jako, że większość z nas przyzwyczajona jest do określania prędkości w bitach na sekundę, należy wyjaśnić, czym są transfery na sekundę. To liczba transferów danych, przeprowadzonych w ciągu sekundy. Zgodnie ze specyfikacją PCI Express dane kodowane są w schemacie "8b/10b", co oznacza, że każde 8 bitów jest kodowanych w 10-bitowych symbolach. A więc przesłanie 8 bitów wymaga przejścia przez szynę 10 bitów. Jeśli zatem pojedyncza linia PCI Express 1.1 może przesłać w każdym kierunku maksymalnie 2,5 gigabita, to otrzymujemy całkowity transfer rzędu 5 Gb/s. Jako, że do przesłania każdych 8 bitów musimy wykorzystać 10 bitów, efektywny transfer wynosi 4 Gb/s (5 x 8/10). Stąd łącze x16 zgodne ze standardem PCI Express 1.1 ma maksymalną przepustowość rzędu 80 Gb/s danych zakodowanych, co przekłada się na 64 Gb/s danych niekodowanych.
      Jednostka gigatransfer na sekundę (GT/s) odnosi się do całkowitej przepustowości łącza, co oznacza, że transfer potrzebnych danych jest o 20% mniejszy. Całkowitą maksymalną przepustowość urządzenia korzystającego z PCI można wyliczyć znając liczbę linii transmisyjnych i maksymalny transfer dla danej specyfikacji.
      Na pierwsze urządzenia korzystające z PCI Express 3.0 będziemy musieli poczekać do przyszłego roku. Jak mówi Al Yanes, szef PCI Special Interest Group, która pracuje nad najnowszym standardem, od czasu pojawienia się standardu do rozpoczęcia sprzedaży urządzeń mija około roku. Niewykluczone jednak, że na rynku korporacyjnym pojawią się one wcześniej.
      Z nieoficjalnych doniesień wynika, że Mellanox Technologies chce jeszcze przed czerwcem zaoferować 40-gigabitowe adaptery Infiniband, które będą korzystały z PCI Express 3.0. W drugiej połowie przyszłego roku nowy standard ma być ponoć obsługiwany również przez intelowską platformę Sandy Bridge.
      Jesteśmy skazani na kilkunastomiesięczne oczekiwanie chociażby dlatego, że dopiero w połowie przyszłego roku PCI SIG udostępni narzędzia do testowania projektów pod kątem ich zgodności z PCI Express 3.0.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...