-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Microsoft zadeklarował, że nie będzie blokował sprzedaży urządzeń konkurencji, które naruszają należące doń patenty będące podstawą standardów przemysłowych. Chodzi tutaj np. o własność intelektualną zawartą w szeroko używanych formatach, jak JPEG czy MP3.
Deklaracja koncernu z Redmond to reakcja na list Apple’a kierowany do urzędników Unii Europejskiej. W napisanym w listopadzie, a ujawnionym dopiero teraz liście, Apple proponuje ustalenie wspólnych zasad licencjonowania patentów wykorzystywanych w standardach.
Microsoft zgadza się z takim stanowiskiem. Prawnik firmy, David Heiner, zauważa, że internet działa tylko dlatego, iż różne przedsiębiorstwa zgodziły się na wzajemne licencjonowanie patentów.
Stanowisko Apple’a i Microsoftu poparło już Cisco.
To z kolei oznacza, że coraz większa presja wywierana jest na Google’a. Koncern nie ma co prawda tak silnego portfolio patentów jak Microsoft, ale jest właśnie w trakcie przejmowania Motorola Mobility, co znacząco wzbogaci jego patenty. Motoroli już udało się przejściowo zablokować sprzedaż iPadów oraz iPhone’ów w Niemczech. Co prawda prawnik Google’a Allen Lo zadeklarował, że po przejęciu Motorola będzie licencjonowała swoje patenty, jednak zaznaczył, iż opłata licencyjna będzie wynosiła 2,25% od wartości sprzedaży netto urządzenia korzystającego z patentu. Zdaniem Floriana Muellera, specjalisty ds. prawa patentowego, który prowadzi blog Foss Patents, propozycja Google’a będzie nie do przyjęcia. Oznacza bowiem nie tylko znacznie wyższe opłaty od tych, proponowanych przez Apple’a, ale również wyższe od tych, jakie są obecnie stosowane na rynku. Mueller zauważa, że gdyby np. BMW licencjonował na takich zasadach któryś z patentów Motoroli to musiałby wnosić wielotysięczne opłaty od każdego sprzedanego samochodu. Sądzę, że Google celowo przyjmuje skrajną pozycję, by móc łatwo ustąpić podczas negocjacji i wymagać tego samego od innych - mówi Mueller.
Niektórzy prawnicy sądzą, że część firm nie podpisze proponowanej deklaracji. Może ona bowiem uniemożliwić im obronę przed pozwami patentowymi wytaczanymi przez Apple czy Microsoft w sytuacji, gdy firmy te będą dysponowały tylko kluczowymi patentami wykorzystywanymi w standardach. Koncerny posiadają zaś olbrzymią liczbę mniej istotnych patentów, których umowa nie będzie obejmowała.
-
przez KopalniaWiedzy.pl
Japoński koncern NTT zademonstrował nowy standard Wi-Fi. Roboczo nazwany 802.11ac może przesyłać dane z prędkością 120 Mb/s do trzech odbiorników jednocześnie.
Łącze wykorzystuje pasmo 5 GHz, a sygnał jest multipleksowany i demultipleksowany za pomocą technologii MIMO (Multiple Input Multiple Output). Celem NTT jest opracowanie technologii pozwalającej na przesłanie 1 gigabajta danych na sekundę. Takie przepustowości będą wkrótce potrzebne do streamingu wideo HD czy przesyłania obrazów 3D.
Podczas prezentacji sygnał wysłano za pomocą sześciu anten, a odebrano za pomocą trzech. Technologia wykorzystana przez NTT wykorzystuje układy FPGA, które za pomocą odpowiednich algorytmów rozdzielają dane i przydzielają im miejsce w paśmie. Japońska firma twierdzi, że zamiast FPGA można użyć dedykowanego układu scalonego. Koncern ma zamiar zgłosić swoją technologię w celu standaryzacji przez Instytut Inżynierów Elektryków i Elektroników (IEEE). Nawet, jeśli 802.11ac zostanie uznana za standard to nie stanie się to przed rokiem 2013. Jednak urządzenia ją wykorzystujące mogą trafić na rynek wcześniej, podobnie jak to miało miejsce w przypadku innych standardów.
-
przez KopalniaWiedzy.pl
W listopadzie powinna być gotowa podstawowa specyfikacja standardu PCI 3.0. Jej wersja 0.9 została zaprezentowana w połowie sierpnia i była w nim mowa o łączu o maksymalnej przepustowości 8 GT/s (gigatransferów na sekundę). Specyfikacja PCI 2.0 zakłada przepustowość do 5 GT/s, a zatem mamy do czynienia ze znacznym wzrostem prędkości. Nowa specyfikacja będzie poddawana ocenie przez dwa miesiące. Proces ten zakończy się zatem około połowy października, dzięki czemu ostatecznej wersji możemy spodziewać się w listopadzie.
Jako, że większość z nas przyzwyczajona jest do określania prędkości w bitach na sekundę, należy wyjaśnić, czym są transfery na sekundę. To liczba transferów danych, przeprowadzonych w ciągu sekundy. Zgodnie ze specyfikacją PCI Express dane kodowane są w schemacie "8b/10b", co oznacza, że każde 8 bitów jest kodowanych w 10-bitowych symbolach. A więc przesłanie 8 bitów wymaga przejścia przez szynę 10 bitów. Jeśli zatem pojedyncza linia PCI Express 1.1 może przesłać w każdym kierunku maksymalnie 2,5 gigabita, to otrzymujemy całkowity transfer rzędu 5 Gb/s. Jako, że do przesłania każdych 8 bitów musimy wykorzystać 10 bitów, efektywny transfer wynosi 4 Gb/s (5 x 8/10). Stąd łącze x16 zgodne ze standardem PCI Express 1.1 ma maksymalną przepustowość rzędu 80 Gb/s danych zakodowanych, co przekłada się na 64 Gb/s danych niekodowanych.
Jednostka gigatransfer na sekundę (GT/s) odnosi się do całkowitej przepustowości łącza, co oznacza, że transfer potrzebnych danych jest o 20% mniejszy. Całkowitą maksymalną przepustowość urządzenia korzystającego z PCI można wyliczyć znając liczbę linii transmisyjnych i maksymalny transfer dla danej specyfikacji.
Na pierwsze urządzenia korzystające z PCI Express 3.0 będziemy musieli poczekać do przyszłego roku. Jak mówi Al Yanes, szef PCI Special Interest Group, która pracuje nad najnowszym standardem, od czasu pojawienia się standardu do rozpoczęcia sprzedaży urządzeń mija około roku. Niewykluczone jednak, że na rynku korporacyjnym pojawią się one wcześniej.
Z nieoficjalnych doniesień wynika, że Mellanox Technologies chce jeszcze przed czerwcem zaoferować 40-gigabitowe adaptery Infiniband, które będą korzystały z PCI Express 3.0. W drugiej połowie przyszłego roku nowy standard ma być ponoć obsługiwany również przez intelowską platformę Sandy Bridge.
Jesteśmy skazani na kilkunastomiesięczne oczekiwanie chociażby dlatego, że dopiero w połowie przyszłego roku PCI SIG udostępni narzędzia do testowania projektów pod kątem ich zgodności z PCI Express 3.0.
-
przez KopalniaWiedzy.pl
Podczas najbliższych Consumer Electronic Show odbędzie się "spotkanie na szczycie", podczas którego przedstawiciele studiów filmowych i producentów elektroniki przedyskutują kroki, które należy przedsięwziąć w celu opracowania wspólnego standardu dla plików wideo. Wspomniane firmy chcą, by w przyszłości klient mógł kupić plik, który odtworzy na każdym urządzeniu. Obecnie np. wideo pobrane z iTunes działa tylko na urządzeniach z oprogramowaniem Apple'a, a filmy kupione z Blockbuster.com nie współpracują z HDTV firmy Sony.
W przyszłości ma się to zmienić. Dzięki temu, jak wierzy Hollywood, ludzie chętniej będą kupowali pliki, jeśli będą mogli przenosić je tak swobodnie, jak obecnie dzieje się to z płytami DVD.
Od półtora roku nad stworzeniem odpowiedniego standardu pracuje organizacja DECE (Digital Entertainment Content Ecosystem), którą tworzą studia Warner Brothers, Universal, Sony, Paramount, Fox oraz Microsoft, Cisco, Comcast, Intel i Best Buy. Jego opracowanie byłoby wszystkim na rękę. Hollywood mogłoby liczyć na sprzedaż większej liczby filmów, a producenci elektroniki - na zwiększenie popytu na ich urządzenia, gdyż klienci mieliby gwarancję, że odtworzą na nich każdy plik.
Propozycja standardu DECE zakłada, że cyfrowe prawa do pliku będą przechowywane online, a kupiony czy wypożyczony plik będzie można odtworzyć na dowolnym urządzeniu zgodnym z DECE. Dzięki temu przebywając np. w hotelu będziemy mieli dostęp do wszystkich swoich filmów, a gdy kupimy płytę z filmem, jego cyfrową kopię odtworzymy nawet na telefonie komórkowym.
-
przez KopalniaWiedzy.pl
Pod koniec stycznia opublikowaliśmy wyniki badań przestrzegania standardów przez najpopularniejsze polskie i światowe witryny WWW. Teraz postanowiliśmy sprawdzić, czy coś się w tej kwestii zmieniło.
Jak poprzednio zbadaliśmy za pomocą oficjalnego walidatora strony główne 100 najczęściej odwiedzanych witryn w polskim i ogólnoświatowym Internecie.
W witrynach popularnych wśród internautów z całego świata walidator znalazł w sumie 13 351 błędów. To nieco mniej niż sześć miesięcy temu, gdy było ich 13 589. Musimy pamiętać przy tym, że podawana przez serwis Alexa.com lista najpopularniejszych witryn ulega codziennym zmianom, więc mniejsza liczba błędów nie musi świadczyć o zastosowaniu lepszej jakości kodu. Może być efektem zmian na liście.
Przeprowadzenie walidacji nie było możliwe w przypadku 4 witryn. Pół roku temu takich witryn było 6.
Walidator znalazł 7 bezbłędnie napisanych witryn. Bez żadnego niedociągnięcia stworzone zostały: MSN.com, Wikipedia.org, WordPress.com, Craigslist.org, yandex.ru, BBC.co.uk, Skyrock.com. Z kolei autorzy 8 stron popełnili nie więcej niż 10 błędów. Tutaj należy wymienić MySpace.com (10), Orkut.com.br (10), Apple.com (3), Odnoklassniki.ru (2), RedTube.com (10), LinkedIn.com (5), 4shared.com (7), Mininova.org (10).
Z kolei od 100 do 500 błędów znajduje się na witrynach: YouTube.com (205), Microsoft.com (291), eBay.com (232), Mail.ru (215), Hi5.com (377), Taobao.com (299), Imdb.com (207), Go.com (168), youku.com (352), MediaFire.com (200), eBay.de (278), Megavideo.com (285), AdultFriendFinder.com (201), Livedoor.com (275), Rediff.com (119), Tagged.com (103), deviantART.com (233) i Goo.ne.jp (126).
Także i tym razem w zestawieniu znalazła się spora liczba witryn, na których mamy do czynienia z ponad 500 błędami. W światowej pierwszej setce jest ich siedem. To następujące witryny: AOL.com (885), 163.com (736), Rakuten.co.jp (642), ESPN.com (559). Rekordzistom udało się popełnić ponad 1000 błędów na stronie głównej. Niechlubny rekord należy do Amazona z 1590 błędami. Niedaleko w tyle pozostali Uol.com.br (1203) i Cnet.com (1108).
Przejdźmy teraz do witryn, które cieszą się największą popularnością w Polsce. Tym razem walidator mógł zweryfikować wszystkie strony i znalazł na nich w sumie 8431 błędów. To niewiele mniej niż przed sześcioma miesiącami (9087).
Spadła też, o jedną, liczba bezbłędnie napisanych witryn. Są to: WP.pl, Allegro.pl, Wikipedia.org, O2.pl, MSN.com, Gratka.pl, Kurnik.pl, Nazwa.pl, WordPress.com. Autorzy 13 witryn starali się nie popełnić więcej niż 10 błędów: Interia.pl (1), RedTube.com (10), FilmWeb.pl (1), Chomikuj.pl (4), Orange.pl (4), MySpace.com (10), PoSzkole.pl (5), Misie.pl (4), Krakow.pl (8), WyspaGier.pl (5), ZieloneImperium.pl (8), Ankieta-online.pl (1), Pomponik.pl (4).
Od 100 do 500 błędów znajdziemy na: YouTube.com (205), Gazeta.pl (442), Wrzuta.pl (126), Fotka.pl (194), Torrenty.org (122), OdSiebie.com (110), Microsoft.com (291), Blox.pl (135), Rozklad-PKP.pl (204), JoeMonster.org (343), Gumtree.pl (122), PF.pl (100), Republika.pl (331), Megavideo.com (285), Kafeteria.pl (212), Dziennik.pl (305), deviantART.com (233) i Elektroda.pl (123).
Autorzy witryny Pudelek.pl popełnili 641 błędów. Polskim rekordzistą jest jednak witryna DobreProgramy.pl, na której walidator znalazł 1162 błędy.
Liczba błędów oraz lista najpopularniejszych witryn bez przerwy się zmieniają. Jednak nawet pobieżne porównanie wystarczy, by stwierdzić, że najpopularniejszy nie znaczy bezbłędnie napisany. Chociaż przykład WP, Wikipedii, MSN czy Allegro pokazuje, że możliwe jest stworzenie strony głównej spełniającej wszelkie standardy.
Trzeba jednak pamiętać, że istnienie bezbłędnej strony głównej nie gwarantuje, że podstrony serwisu napisane zostały całkowicie zgodnie ze sztuką.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.