Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Polska za OOXML

Rekomendowane odpowiedzi

Serwis VaGla.pl donosi, że Komitet Techniczny nr 182 przy Polskim Komitecie Normalizacyjnym opowiedział się za uznaniem microsoftowego OOXML za standard ISO. Stanowisko KT 182 brzmi „Tak, z komentarzami”.

Co prawda wcześniej KT 171 był przeciwko OOXML, jednak, jak wynika z wpisu w VaGla, to właśnie stanowisko KT 182 jest oficjalnym polskim głosem, który zostanie przedstawiony ISO.
Siedemnastu spośród członków KT 182 było za OOXML, a trzech wstrzymało się od głosu. Nikt nie był przeciwny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Idiotyczna decyzja. Całkowicie sprzeczna z założeniami ISO jako organizacji tworzącej POWSZECHNE i OGÓLNODOSTĘPNE standardy. Idiotyczne po trzykroć stanowisko.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie można było się spodziewać innej decyzji patrząc jak wyglądają przetargi w większości polskich urzędów. Bardzo smutne ... po Iraku kolejne wchodzenie na siłę w cztery litery amerykanów. Jak tu być dumnym z tego że się jest polakiem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Microsoft zadeklarował, że nie będzie blokował sprzedaży urządzeń konkurencji, które naruszają należące doń patenty będące podstawą standardów przemysłowych. Chodzi tutaj np. o własność intelektualną zawartą w szeroko używanych formatach, jak JPEG czy MP3.
      Deklaracja koncernu z Redmond to reakcja na list Apple’a kierowany do urzędników Unii Europejskiej. W napisanym w listopadzie, a ujawnionym dopiero teraz liście, Apple proponuje ustalenie wspólnych zasad licencjonowania patentów wykorzystywanych w standardach.
      Microsoft zgadza się z takim stanowiskiem. Prawnik firmy, David Heiner, zauważa, że internet działa tylko dlatego, iż różne przedsiębiorstwa zgodziły się na wzajemne licencjonowanie patentów.
      Stanowisko Apple’a i Microsoftu poparło już Cisco.
      To z kolei oznacza, że coraz większa presja wywierana jest na Google’a. Koncern nie ma co prawda tak silnego portfolio patentów jak Microsoft, ale jest właśnie w trakcie przejmowania Motorola Mobility, co znacząco wzbogaci jego patenty. Motoroli już udało się przejściowo zablokować sprzedaż iPadów oraz iPhone’ów w Niemczech. Co prawda prawnik Google’a Allen Lo zadeklarował, że po przejęciu Motorola będzie licencjonowała swoje patenty, jednak zaznaczył, iż opłata licencyjna będzie wynosiła 2,25% od wartości sprzedaży netto urządzenia korzystającego z patentu. Zdaniem Floriana Muellera, specjalisty ds. prawa patentowego, który prowadzi blog Foss Patents, propozycja Google’a będzie nie do przyjęcia. Oznacza bowiem nie tylko znacznie wyższe opłaty od tych, proponowanych przez Apple’a, ale również wyższe od tych, jakie są obecnie stosowane na rynku. Mueller zauważa, że gdyby np. BMW licencjonował na takich zasadach któryś z patentów Motoroli to musiałby wnosić wielotysięczne opłaty od każdego sprzedanego samochodu. Sądzę, że Google celowo przyjmuje skrajną pozycję, by móc łatwo ustąpić podczas negocjacji i wymagać tego samego od innych - mówi Mueller.
      Niektórzy prawnicy sądzą, że część firm nie podpisze proponowanej deklaracji. Może ona bowiem uniemożliwić im obronę przed pozwami patentowymi wytaczanymi przez Apple czy Microsoft w sytuacji, gdy firmy te będą dysponowały tylko kluczowymi patentami wykorzystywanymi w standardach. Koncerny posiadają zaś olbrzymią liczbę mniej istotnych patentów, których umowa nie będzie obejmowała.
    • przez KopalniaWiedzy.pl
      Microsoft poinformował, że Windows 8 zostanie wyposażony w obsługę formatów ISO i VHD. W praktyce będzie to oznaczało, że użytkownik nowego systemu operacyjnego, chcąc uzyskać dostęp do danych przechowywanych w pliku ISO nie będzie musiał wypalać go na płycie czy korzystać z zewnętrznego programu do podmontowywania pliku jako wirtualnego napędu.
      Podobnie będzie w przypadku formatu Virtual Hard Disk. Z pliku wirtualnego dysku będzie można korzystać bezpośrednio z poziomu Exploratora, bez pośrednictwa innych programów. Zasadniczą różnicą w porównaniu z ISO będzie fakt, iż plik VHD będzie widoczny jako nowy dysk twardy, a nie jako usuwalny nośnik danych.
    • przez KopalniaWiedzy.pl
      Japoński koncern NTT zademonstrował nowy standard Wi-Fi. Roboczo nazwany 802.11ac może przesyłać dane z prędkością 120 Mb/s do trzech odbiorników jednocześnie.
      Łącze wykorzystuje pasmo 5 GHz, a sygnał jest multipleksowany i demultipleksowany za pomocą technologii MIMO (Multiple Input Multiple Output). Celem NTT jest opracowanie technologii pozwalającej na przesłanie 1 gigabajta danych na sekundę. Takie przepustowości będą wkrótce potrzebne do streamingu wideo HD czy przesyłania obrazów 3D.
      Podczas prezentacji sygnał wysłano za pomocą sześciu anten, a odebrano za pomocą trzech. Technologia wykorzystana przez NTT wykorzystuje układy FPGA, które za pomocą odpowiednich algorytmów rozdzielają dane i przydzielają im miejsce w paśmie. Japońska firma twierdzi, że zamiast FPGA można użyć dedykowanego układu scalonego. Koncern ma zamiar zgłosić swoją technologię w celu standaryzacji przez Instytut Inżynierów Elektryków i Elektroników (IEEE). Nawet, jeśli 802.11ac zostanie uznana za standard to nie stanie się to przed rokiem 2013. Jednak urządzenia ją wykorzystujące mogą trafić na rynek wcześniej, podobnie jak to miało miejsce w przypadku innych standardów.
    • przez KopalniaWiedzy.pl
      W listopadzie powinna być gotowa podstawowa specyfikacja standardu PCI 3.0. Jej wersja 0.9 została zaprezentowana w połowie sierpnia i była w nim mowa o łączu o maksymalnej przepustowości 8 GT/s (gigatransferów na sekundę). Specyfikacja PCI 2.0 zakłada przepustowość do 5 GT/s, a zatem mamy do czynienia ze znacznym wzrostem prędkości. Nowa specyfikacja będzie poddawana ocenie przez dwa miesiące. Proces ten zakończy się zatem około połowy października, dzięki czemu ostatecznej wersji możemy spodziewać się w listopadzie.
      Jako, że większość z nas przyzwyczajona jest do określania prędkości w bitach na sekundę, należy wyjaśnić, czym są transfery na sekundę. To liczba transferów danych, przeprowadzonych w ciągu sekundy. Zgodnie ze specyfikacją PCI Express dane kodowane są w schemacie "8b/10b", co oznacza, że każde 8 bitów jest kodowanych w 10-bitowych symbolach. A więc przesłanie 8 bitów wymaga przejścia przez szynę 10 bitów. Jeśli zatem pojedyncza linia PCI Express 1.1 może przesłać w każdym kierunku maksymalnie 2,5 gigabita, to otrzymujemy całkowity transfer rzędu 5 Gb/s. Jako, że do przesłania każdych 8 bitów musimy wykorzystać 10 bitów, efektywny transfer wynosi 4 Gb/s (5 x 8/10). Stąd łącze x16 zgodne ze standardem PCI Express 1.1 ma maksymalną przepustowość rzędu 80 Gb/s danych zakodowanych, co przekłada się na 64 Gb/s danych niekodowanych.
      Jednostka gigatransfer na sekundę (GT/s) odnosi się do całkowitej przepustowości łącza, co oznacza, że transfer potrzebnych danych jest o 20% mniejszy. Całkowitą maksymalną przepustowość urządzenia korzystającego z PCI można wyliczyć znając liczbę linii transmisyjnych i maksymalny transfer dla danej specyfikacji.
      Na pierwsze urządzenia korzystające z PCI Express 3.0 będziemy musieli poczekać do przyszłego roku. Jak mówi Al Yanes, szef PCI Special Interest Group, która pracuje nad najnowszym standardem, od czasu pojawienia się standardu do rozpoczęcia sprzedaży urządzeń mija około roku. Niewykluczone jednak, że na rynku korporacyjnym pojawią się one wcześniej.
      Z nieoficjalnych doniesień wynika, że Mellanox Technologies chce jeszcze przed czerwcem zaoferować 40-gigabitowe adaptery Infiniband, które będą korzystały z PCI Express 3.0. W drugiej połowie przyszłego roku nowy standard ma być ponoć obsługiwany również przez intelowską platformę Sandy Bridge.
      Jesteśmy skazani na kilkunastomiesięczne oczekiwanie chociażby dlatego, że dopiero w połowie przyszłego roku PCI SIG udostępni narzędzia do testowania projektów pod kątem ich zgodności z PCI Express 3.0.
    • przez KopalniaWiedzy.pl
      Podczas najbliższych Consumer Electronic Show odbędzie się "spotkanie na szczycie", podczas którego przedstawiciele studiów filmowych i producentów elektroniki przedyskutują kroki, które należy przedsięwziąć w celu opracowania wspólnego standardu dla plików wideo. Wspomniane firmy chcą, by w przyszłości klient mógł kupić plik, który odtworzy na każdym urządzeniu. Obecnie np. wideo pobrane z iTunes działa tylko na urządzeniach z oprogramowaniem Apple'a, a filmy kupione z Blockbuster.com nie współpracują z HDTV firmy Sony.
      W przyszłości ma się to zmienić. Dzięki temu, jak wierzy Hollywood, ludzie chętniej będą kupowali pliki, jeśli będą mogli przenosić je tak swobodnie, jak obecnie dzieje się to z płytami DVD.
      Od półtora roku nad stworzeniem odpowiedniego standardu pracuje organizacja DECE (Digital Entertainment Content Ecosystem), którą tworzą studia Warner Brothers, Universal, Sony, Paramount, Fox oraz Microsoft, Cisco, Comcast, Intel i Best Buy. Jego opracowanie byłoby wszystkim na rękę. Hollywood mogłoby liczyć na sprzedaż większej liczby filmów, a producenci elektroniki - na zwiększenie popytu na ich urządzenia, gdyż klienci mieliby gwarancję, że odtworzą na nich każdy plik.
      Propozycja standardu DECE zakłada, że cyfrowe prawa do pliku będą przechowywane online, a kupiony czy wypożyczony plik będzie można odtworzyć na dowolnym urządzeniu zgodnym z DECE. Dzięki temu przebywając np. w hotelu będziemy mieli dostęp do wszystkich swoich filmów, a gdy kupimy płytę z filmem, jego cyfrową kopię odtworzymy nawet na telefonie komórkowym.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...