Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'standard' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 20 wyników

  1. Microsoft zadeklarował, że nie będzie blokował sprzedaży urządzeń konkurencji, które naruszają należące doń patenty będące podstawą standardów przemysłowych. Chodzi tutaj np. o własność intelektualną zawartą w szeroko używanych formatach, jak JPEG czy MP3. Deklaracja koncernu z Redmond to reakcja na list Apple’a kierowany do urzędników Unii Europejskiej. W napisanym w listopadzie, a ujawnionym dopiero teraz liście, Apple proponuje ustalenie wspólnych zasad licencjonowania patentów wykorzystywanych w standardach. Microsoft zgadza się z takim stanowiskiem. Prawnik firmy, David Heiner, zauważa, że internet działa tylko dlatego, iż różne przedsiębiorstwa zgodziły się na wzajemne licencjonowanie patentów. Stanowisko Apple’a i Microsoftu poparło już Cisco. To z kolei oznacza, że coraz większa presja wywierana jest na Google’a. Koncern nie ma co prawda tak silnego portfolio patentów jak Microsoft, ale jest właśnie w trakcie przejmowania Motorola Mobility, co znacząco wzbogaci jego patenty. Motoroli już udało się przejściowo zablokować sprzedaż iPadów oraz iPhone’ów w Niemczech. Co prawda prawnik Google’a Allen Lo zadeklarował, że po przejęciu Motorola będzie licencjonowała swoje patenty, jednak zaznaczył, iż opłata licencyjna będzie wynosiła 2,25% od wartości sprzedaży netto urządzenia korzystającego z patentu. Zdaniem Floriana Muellera, specjalisty ds. prawa patentowego, który prowadzi blog Foss Patents, propozycja Google’a będzie nie do przyjęcia. Oznacza bowiem nie tylko znacznie wyższe opłaty od tych, proponowanych przez Apple’a, ale również wyższe od tych, jakie są obecnie stosowane na rynku. Mueller zauważa, że gdyby np. BMW licencjonował na takich zasadach któryś z patentów Motoroli to musiałby wnosić wielotysięczne opłaty od każdego sprzedanego samochodu. Sądzę, że Google celowo przyjmuje skrajną pozycję, by móc łatwo ustąpić podczas negocjacji i wymagać tego samego od innych - mówi Mueller. Niektórzy prawnicy sądzą, że część firm nie podpisze proponowanej deklaracji. Może ona bowiem uniemożliwić im obronę przed pozwami patentowymi wytaczanymi przez Apple czy Microsoft w sytuacji, gdy firmy te będą dysponowały tylko kluczowymi patentami wykorzystywanymi w standardach. Koncerny posiadają zaś olbrzymią liczbę mniej istotnych patentów, których umowa nie będzie obejmowała.
  2. Japoński koncern NTT zademonstrował nowy standard Wi-Fi. Roboczo nazwany 802.11ac może przesyłać dane z prędkością 120 Mb/s do trzech odbiorników jednocześnie. Łącze wykorzystuje pasmo 5 GHz, a sygnał jest multipleksowany i demultipleksowany za pomocą technologii MIMO (Multiple Input Multiple Output). Celem NTT jest opracowanie technologii pozwalającej na przesłanie 1 gigabajta danych na sekundę. Takie przepustowości będą wkrótce potrzebne do streamingu wideo HD czy przesyłania obrazów 3D. Podczas prezentacji sygnał wysłano za pomocą sześciu anten, a odebrano za pomocą trzech. Technologia wykorzystana przez NTT wykorzystuje układy FPGA, które za pomocą odpowiednich algorytmów rozdzielają dane i przydzielają im miejsce w paśmie. Japońska firma twierdzi, że zamiast FPGA można użyć dedykowanego układu scalonego. Koncern ma zamiar zgłosić swoją technologię w celu standaryzacji przez Instytut Inżynierów Elektryków i Elektroników (IEEE). Nawet, jeśli 802.11ac zostanie uznana za standard to nie stanie się to przed rokiem 2013. Jednak urządzenia ją wykorzystujące mogą trafić na rynek wcześniej, podobnie jak to miało miejsce w przypadku innych standardów.
  3. W listopadzie powinna być gotowa podstawowa specyfikacja standardu PCI 3.0. Jej wersja 0.9 została zaprezentowana w połowie sierpnia i była w nim mowa o łączu o maksymalnej przepustowości 8 GT/s (gigatransferów na sekundę). Specyfikacja PCI 2.0 zakłada przepustowość do 5 GT/s, a zatem mamy do czynienia ze znacznym wzrostem prędkości. Nowa specyfikacja będzie poddawana ocenie przez dwa miesiące. Proces ten zakończy się zatem około połowy października, dzięki czemu ostatecznej wersji możemy spodziewać się w listopadzie. Jako, że większość z nas przyzwyczajona jest do określania prędkości w bitach na sekundę, należy wyjaśnić, czym są transfery na sekundę. To liczba transferów danych, przeprowadzonych w ciągu sekundy. Zgodnie ze specyfikacją PCI Express dane kodowane są w schemacie "8b/10b", co oznacza, że każde 8 bitów jest kodowanych w 10-bitowych symbolach. A więc przesłanie 8 bitów wymaga przejścia przez szynę 10 bitów. Jeśli zatem pojedyncza linia PCI Express 1.1 może przesłać w każdym kierunku maksymalnie 2,5 gigabita, to otrzymujemy całkowity transfer rzędu 5 Gb/s. Jako, że do przesłania każdych 8 bitów musimy wykorzystać 10 bitów, efektywny transfer wynosi 4 Gb/s (5 x 8/10). Stąd łącze x16 zgodne ze standardem PCI Express 1.1 ma maksymalną przepustowość rzędu 80 Gb/s danych zakodowanych, co przekłada się na 64 Gb/s danych niekodowanych. Jednostka gigatransfer na sekundę (GT/s) odnosi się do całkowitej przepustowości łącza, co oznacza, że transfer potrzebnych danych jest o 20% mniejszy. Całkowitą maksymalną przepustowość urządzenia korzystającego z PCI można wyliczyć znając liczbę linii transmisyjnych i maksymalny transfer dla danej specyfikacji. Na pierwsze urządzenia korzystające z PCI Express 3.0 będziemy musieli poczekać do przyszłego roku. Jak mówi Al Yanes, szef PCI Special Interest Group, która pracuje nad najnowszym standardem, od czasu pojawienia się standardu do rozpoczęcia sprzedaży urządzeń mija około roku. Niewykluczone jednak, że na rynku korporacyjnym pojawią się one wcześniej. Z nieoficjalnych doniesień wynika, że Mellanox Technologies chce jeszcze przed czerwcem zaoferować 40-gigabitowe adaptery Infiniband, które będą korzystały z PCI Express 3.0. W drugiej połowie przyszłego roku nowy standard ma być ponoć obsługiwany również przez intelowską platformę Sandy Bridge. Jesteśmy skazani na kilkunastomiesięczne oczekiwanie chociażby dlatego, że dopiero w połowie przyszłego roku PCI SIG udostępni narzędzia do testowania projektów pod kątem ich zgodności z PCI Express 3.0.
  4. Podczas najbliższych Consumer Electronic Show odbędzie się "spotkanie na szczycie", podczas którego przedstawiciele studiów filmowych i producentów elektroniki przedyskutują kroki, które należy przedsięwziąć w celu opracowania wspólnego standardu dla plików wideo. Wspomniane firmy chcą, by w przyszłości klient mógł kupić plik, który odtworzy na każdym urządzeniu. Obecnie np. wideo pobrane z iTunes działa tylko na urządzeniach z oprogramowaniem Apple'a, a filmy kupione z Blockbuster.com nie współpracują z HDTV firmy Sony. W przyszłości ma się to zmienić. Dzięki temu, jak wierzy Hollywood, ludzie chętniej będą kupowali pliki, jeśli będą mogli przenosić je tak swobodnie, jak obecnie dzieje się to z płytami DVD. Od półtora roku nad stworzeniem odpowiedniego standardu pracuje organizacja DECE (Digital Entertainment Content Ecosystem), którą tworzą studia Warner Brothers, Universal, Sony, Paramount, Fox oraz Microsoft, Cisco, Comcast, Intel i Best Buy. Jego opracowanie byłoby wszystkim na rękę. Hollywood mogłoby liczyć na sprzedaż większej liczby filmów, a producenci elektroniki - na zwiększenie popytu na ich urządzenia, gdyż klienci mieliby gwarancję, że odtworzą na nich każdy plik. Propozycja standardu DECE zakłada, że cyfrowe prawa do pliku będą przechowywane online, a kupiony czy wypożyczony plik będzie można odtworzyć na dowolnym urządzeniu zgodnym z DECE. Dzięki temu przebywając np. w hotelu będziemy mieli dostęp do wszystkich swoich filmów, a gdy kupimy płytę z filmem, jego cyfrową kopię odtworzymy nawet na telefonie komórkowym.
  5. Pod koniec stycznia opublikowaliśmy wyniki badań przestrzegania standardów przez najpopularniejsze polskie i światowe witryny WWW. Teraz postanowiliśmy sprawdzić, czy coś się w tej kwestii zmieniło. Jak poprzednio zbadaliśmy za pomocą oficjalnego walidatora strony główne 100 najczęściej odwiedzanych witryn w polskim i ogólnoświatowym Internecie. W witrynach popularnych wśród internautów z całego świata walidator znalazł w sumie 13 351 błędów. To nieco mniej niż sześć miesięcy temu, gdy było ich 13 589. Musimy pamiętać przy tym, że podawana przez serwis Alexa.com lista najpopularniejszych witryn ulega codziennym zmianom, więc mniejsza liczba błędów nie musi świadczyć o zastosowaniu lepszej jakości kodu. Może być efektem zmian na liście. Przeprowadzenie walidacji nie było możliwe w przypadku 4 witryn. Pół roku temu takich witryn było 6. Walidator znalazł 7 bezbłędnie napisanych witryn. Bez żadnego niedociągnięcia stworzone zostały: MSN.com, Wikipedia.org, WordPress.com, Craigslist.org, yandex.ru, BBC.co.uk, Skyrock.com. Z kolei autorzy 8 stron popełnili nie więcej niż 10 błędów. Tutaj należy wymienić MySpace.com (10), Orkut.com.br (10), Apple.com (3), Odnoklassniki.ru (2), RedTube.com (10), LinkedIn.com (5), 4shared.com (7), Mininova.org (10). Z kolei od 100 do 500 błędów znajduje się na witrynach: YouTube.com (205), Microsoft.com (291), eBay.com (232), Mail.ru (215), Hi5.com (377), Taobao.com (299), Imdb.com (207), Go.com (168), youku.com (352), MediaFire.com (200), eBay.de (278), Megavideo.com (285), AdultFriendFinder.com (201), Livedoor.com (275), Rediff.com (119), Tagged.com (103), deviantART.com (233) i Goo.ne.jp (126). Także i tym razem w zestawieniu znalazła się spora liczba witryn, na których mamy do czynienia z ponad 500 błędami. W światowej pierwszej setce jest ich siedem. To następujące witryny: AOL.com (885), 163.com (736), Rakuten.co.jp (642), ESPN.com (559). Rekordzistom udało się popełnić ponad 1000 błędów na stronie głównej. Niechlubny rekord należy do Amazona z 1590 błędami. Niedaleko w tyle pozostali Uol.com.br (1203) i Cnet.com (1108). Przejdźmy teraz do witryn, które cieszą się największą popularnością w Polsce. Tym razem walidator mógł zweryfikować wszystkie strony i znalazł na nich w sumie 8431 błędów. To niewiele mniej niż przed sześcioma miesiącami (9087). Spadła też, o jedną, liczba bezbłędnie napisanych witryn. Są to: WP.pl, Allegro.pl, Wikipedia.org, O2.pl, MSN.com, Gratka.pl, Kurnik.pl, Nazwa.pl, WordPress.com. Autorzy 13 witryn starali się nie popełnić więcej niż 10 błędów: Interia.pl (1), RedTube.com (10), FilmWeb.pl (1), Chomikuj.pl (4), Orange.pl (4), MySpace.com (10), PoSzkole.pl (5), Misie.pl (4), Krakow.pl (8), WyspaGier.pl (5), ZieloneImperium.pl (8), Ankieta-online.pl (1), Pomponik.pl (4). Od 100 do 500 błędów znajdziemy na: YouTube.com (205), Gazeta.pl (442), Wrzuta.pl (126), Fotka.pl (194), Torrenty.org (122), OdSiebie.com (110), Microsoft.com (291), Blox.pl (135), Rozklad-PKP.pl (204), JoeMonster.org (343), Gumtree.pl (122), PF.pl (100), Republika.pl (331), Megavideo.com (285), Kafeteria.pl (212), Dziennik.pl (305), deviantART.com (233) i Elektroda.pl (123). Autorzy witryny Pudelek.pl popełnili 641 błędów. Polskim rekordzistą jest jednak witryna DobreProgramy.pl, na której walidator znalazł 1162 błędy. Liczba błędów oraz lista najpopularniejszych witryn bez przerwy się zmieniają. Jednak nawet pobieżne porównanie wystarczy, by stwierdzić, że najpopularniejszy nie znaczy bezbłędnie napisany. Chociaż przykład WP, Wikipedii, MSN czy Allegro pokazuje, że możliwe jest stworzenie strony głównej spełniającej wszelkie standardy. Trzeba jednak pamiętać, że istnienie bezbłędnej strony głównej nie gwarantuje, że podstrony serwisu napisane zostały całkowicie zgodnie ze sztuką.
  6. Serial ATA International Organization oficjalnie ogłosiła powstanie standardu dla interfejsu SATA 3.0. Przewiduje on transfer rzędu 6 gigabitów na sekundę i opisuje wiele usprawnień interfejsu. Wśród nich warto wymienić nowy mechanizm wbudowanego kolejkowania zadań (NCQ) dla izochronicznej wymiany danych pomiędzy aplikacjami audio i wideo czy też specyfikację dla złącza Low Insertion Force, które będzie stosowane w 1,8-calowych urządzeniach pamięci masowych. W standardzie opisano też złącze dla 7-milimetrowych optycznych napędów pamięci masowych dla notebooków.
  7. MS Office po raz pierwszy oficjalnie wspiera otwarty format .odf. Obsługę tego formatu zaimplementowano w udostępnionym właśnie Service Packu 2 dla MS Office'a 2007. Dotychczas pakiet biurowy Microsoftu obsługiwał .odf dzięki osobnej specjalnej wtyczce. Teraz posiadacze Office'a 2007 SP2 będą mogli otwierać i zachowywać pliki w formacie .odf oraz ustawić go jako format domyślny. W 2006 roku, gdy .odf został uznany za międzynarodowy standard, Microsoft opracował własne rozwiązanie, OOXML, które również zyskało akceptację ISO. Jednak jego stworzenie bardzo rozgniewało zwolenników .odf. Teraz Microsoft postanowił oficjalnie stosować konkurencyjne rozwiązanie. Wraz z SP2 pojawiła się też możliwość otwierania i zachowywania plików .pdf. Początkowo Adobe nie zgadzało się, by Microsoft włączył obsługę .pdf do pakietu Office, jednak w międzyczasie otworzyło format, więc koncern z Redmond mógł go wykorzystać. Co ciekawe, zatwierdzony przez ISO microsoftowy standard OOXML nie jest wspierany przez Office'a. Obsługiwał go będzie dopiero Office 14, który pojawi się jeszcze w bieżącym roku.
  8. Apple poinformowało, że prace nad opracowaniem standardów dla internetowych widgetów - drobnych narzędzi, które w Sieci zdobywają coraz większą popularność - naruszają należący do firmy patent. Prace takie prowadzi W3C Web Applications Working Group. Próbuje ona opracować standard, dzięki któremu widgety będą działały w różnych środowiskach i nie będą doprowadzały np. do zawieszania się komputera. Zgodnie z regulaminem prac W3C Web Applications Working Group, każda z firm, która bierze udział w pracach organizacji, ma obowiązek ujawnić swoje patenty dotyczące zakresu właśnie prowadzonych prac. Powinna też za darmo udostępnić licencję na wykorzystanie swojego patentu. Członkowie grupy mogą również, w terminie do 150 dni od dnia opublikowania wstępnej wersji standardu, zgłosić swoje zastrzeżenie i poinformować, że z ważnych przyczyn nie chcą udostępniać licencji za darmo. W takiej sytuacji zostaje powołana Patent Advisory Group, która analizuje patent oraz proponowany standard i albo proponuje takie zmiany w standardzie, by nie naruszał on patentu, albo negocjuje z właścicielem patentu sposób jego licencjonowania. Apple stało się jedynym członkiem W3C Web Applications Working Group, który nie zgodził się na udostępnienie licencji za darmo. Nie wiadomo, w których punktach należący do firmy Jobsa patent nr 5,764,992 może zostać naruszony przez proponowany standard. Wiadomo natomiast, że widgety cieszą się dużym zainteresowaniem firm działających na rynku urządzeń przenośnych.
  9. Podczas odbywającej się właśnie konferencji MIX09 (Web Design and Development Conference) przedstawiciel Microsoftu zapewniał, że jego firma stara się, by najnowszy Internet Explorer przestrzegał standardów. Dean Hachamovitch, odpowiedzialny za rozwój Explorera obiecywał, że jego firma słucha twórców stron WWW. Faktem jest, że IE8 to pierwsza przeglądarka Microsoftu, która jest zgodna z HTML-em i CSS. Hachamovitch podkreślał, że przeszła ona ponad 7000 różnych testów dotyczących zgodności ze stylami kaskadowymi. Zauważył też, że "rozpoczyna ona epokę wspierania HTML 5". Piąta wersja specyfikacji HTML-a nie została jeszcze zatwierdzona jako standard. Nie wszyscy uczestnicy MIX09 dali się przekonać. Niektórzy podawali w wątpliwość liczbę testów, inni zastanawiali się, czy zostały one dobrze dobrane. Warto też zauważyć, że IE8 nie obsługuje grafik .svg. Pytany o to Hachamovitch mówił o konieczności przeprowadzenia dodatkowych testów i doszlifowaniu obsługi tych plików. Można przypuszczać, że Microsoftowi szczególnie zależy tutaj na tym, by obsługa tego typu grafik przebiegała bezbłędnie. Koncern chce bowiem wypromować własną wtyczkę Silverlight, która ma być konkurencją dla technologii Flash. Środowisko Silverlight właśnie zostało w pełni udostępnione developerom. Jakiekolwiek wpadki w tym momencie mogłyby przekreślić szanse wtyczki Microsoftu na pokonanie potężnego konkurenta. Menedżera Microsoftu zapytano też, dlaczego firma chce obecnie przestrzegać standardów, skoro jej pozycja jest na tyle silna, by wymusić na developerach przestrzeganie jej własnych rozwiązań. Hachamtovitch stwierdził, że czasy się zmieniły i obecnie developerzy znacznie bardziej przestrzegają standardów niż wcześniej. Przyznał jednocześnie, że Microsoft nie miał wyjścia. Musiał dostosować się do wymagań rynku.
  10. Dlaczego ktoś, kto nigdy nie kupiłby w sklepie przeterminowanego serka, smaruje sobie nim kanapkę, jeśli twarożek zdążył wcześniej trafić do jego lodówki? Sankar Sen i Lauren G. Block z College'u Barucha postanowili sprawdzić, co właściwie wpływa na zmianę jednostkowych standardów świeżości (Journal of Consumer Research). Wg psychologów, w grę wchodzi efekt posiadania (ang. endowment effect), który polega na tym, że bycie właścicielem czegoś podwyższa ocenę produktu czy obiektu. Zjawiska nigdy nie badano w odniesieniu do towarów łatwo psujących się. Autorzy badań zaznaczają, że widok klientów krążących po markecie w poszukiwaniu np. mleka z najdłuższym okresem przydatności do spożycia wcale nie należy do rzadkości. Można wymienić wiele przyczyn i motywów, dla których zjada się/wypija przeterminowane produkty, np. poszanowanie pieniądza, zwłaszcza własnego. Po uwzględnieniu ich wszystkich skłonność do postępowania w ten właśnie sposób będzie jednak nadal zauważalna. Wystarczy, że coś się stanie czyjąś własnością, a już jest cenione wyżej od identycznego (przeterminowanego) towaru z półki sklepowej. Co ważne, większej chęci skonsumowania przeterminowanego produktu towarzyszy zaniżanie postrzeganego ryzyka zatrucia. Dzieje się tak, ponieważ konsumenci z większym prawdopodobieństwem angażują się w działania mogące potwierdzić nieszkodliwość nie do końca świeżego soku niż w działania potwierdzające obiegowe opinie. Jeśli dostrzegłbyś, że na przyjęciu, w którym bierzesz udział, serwuje się spleśniały ser, nie zjadłbyś go, sądząc, że może ci zaszkodzić. Gdyby jednak identyczny ser leżał w twojej lodówce, zbagatelizowałbyś odkrycie, stwierdzając: i co z tego, że jest odrobinę zepsuty. Amerykanie przeprowadzili serię trzech eksperymentów z musami jogurtowymi, które straciły bądź jeszcze zachowały swoją ważność.
  11. Międzynarodowa Organizacja Normalizacyjna (ISO) wstrzymała proces standaryzacji microsoftowego formatu OOXML. Decyzja pozostaje w zawieszeniu na kilkanaście miesięcy. W kwietniu bieżącego roku ISO ogłosiło, że uznaje OOXML za międzynarodowy standard i dała krajom członkowskim 2 miesiące na złożenie protestu przeciwko tej decyzji. Sprzeciwiły się jej cztery kraje: Indie, Brazylia, RPA i Wenezuela. Skarżyły się one na to, iż OOXML uznano za standard dzięki tzw. szybkiej ścieżce, przez co nie było wystarczająco dużo czasu na jego dogłębne przedyskutowanie. Ponadto protestujący stwierdzili, że nie jest on w pełni kompatybilny z innymi formatami. Teraz protest czterech krajów będzie rozpatrywany przez sekretarza generalnego ISO oraz sekretarza generalnego Międzynarodowej Komisji Elektrotechnicznej (IEC). Obaj mają 30 dni na przeprowadzenie konsultacji i wydanie opinii. Po tym terminie muszą przekazać swoją opinię do Rady Technicznej ISO i Rady Standaryzacyjnej IEC. Ciała te podejmują decyzję, czy sprawie należy nadać dalszy bieg. Jeśli uznają, że protesty należy rozważyć, przewodniczący obu rad powołają specjalne komisje, które będą zastanawiały się, jak dalej postąpić. Cały proces może potrwać kilkanaście miesięcy.
  12. Komisja Europejska postanowiła przyjrzeć się procesowi głosowania, który doprowadził do uznania formatu OOXML za międzynarodowy standard przez ISO. Pojawiły się bowiem pogłoski, jakoby Microsoft wykorzystał swoją pozycję do wywarcia wpływu na głosowanie. Mówi się również, że w niektórych krajowych komitetach standaryzacyjnych doszło do nieprawidłowości. Komisja pod przewodnictwem Neelie Kroes, która wcześniej wymierzała Microsoftowi rekordowo wysokie grzywny, domaga się od krajowych komitetów dostarczenia szczegółowych informacji na temat możliwych nieprawidłowości. Dotyczy to zwłaszcza Norwegii, gdzie głosowanie miało zostać przeprowadzone w sposób niezgodny z przepisami. Zresztą sam przewodniczący norweskiego komitetu normalizacyjnego złożył w tej sprawie protest do ISO. Obecnie Norwegia opowiedziała się za OOXML-em, podczas gdy we wrześniu, w czasie pierwszego głosowania, była przeciw. Komisja Europejska zapewnia, że domagając się wyjaśnień, nie ma zamiaru wpływać na decyzje ISO. Chce tylko upewnić się, że europejskie prawo antymonopolowe nie zostało naruszone w procesie głosowania. Komisja prowadzi zresztą od stycznia śledztwo w sprawie, która pośrednio dotyczy także formatu OOXML. Tymczasem zwolennicy konkurencyjnego formatu ODF, który w 2006 roku został uznany za standard ISO, krytykują decyzję o uznaniu OOXML-a. Twierdzą, że procedury standaryzacyjne są nieprawidłowe.
  13. Media zdobyły wyniki głosowania nad uznaniem OOXML-a za międzynarodowy standard. Potwierdzają one nasze wcześniejsze doniesienia, iż Microsoft osiągnął zamierzony cel i jego format został uznany przez ISO. Za OOXML głosowało 86% krajów. Przepisy ISO mówią, że standard do uznania potrzebuje 75% głosów za oraz 66% głosów krajów biorących udział w pracach standaryzacyjnych (tzw. P-members). Za OOXML głosowały następujące kraje: Armenia, Austria, Azerbejdżan (P-member), Bangladesz, Barbados, Białoruś, Bośnia i Hercegowina, Bułgaria, Kolumbia, DRK, Kostaryka, Wybrzeże Kości Słoniowej (P-member), Chorwacja, Cypr (P-member), Czechy (P-member), Dania (P-member), Egipt, Fidżi, Finlandia (P-member), Niemcy (P-member), Ghana, Grecja, Irlandia (P-member), Izrael, Jamajka (P-member), Japonia (P-member), Jordania, Kazachstan (P-member), Korea Południowa (P-member), Kuwejt, Liban (P-member), Malta (P-member), Mauritius, Meksyk, Maroko, Nigeria, Norwegia (P-member), Pakistan (P-member), Panama, Peru, Filipiny, Polska, Portugalia, Katar, Rumunia, Arabia Saudyjska (P-member), Serbia, Singapur (P-member), Słowenia (P-member), Szwajcaria (P-member), Syria (P-member), Tanzania, Tajlandia, Trynidad i Tobago (P-member), Tunezja, Ukraina, ZEA, Wielka Brytania (P-member), Urugwaj (P-member), USA (P-member), Uzbekistan. Głosy przeciwko oddały: Brazylia, Kanada (P-member), Chiny (P-member), Kuba, Ekwador (P-member), Indie (P-member), Iran (P-member), Nowa Zelandia (P-member), RPA (P-member) oraz Wenezuela (P-member). ISO w swoim oświadczeniu potwierdziło wyniki głosowania.
  14. Jak coraz szerzej donoszą media, microsoftowy OOXML prawdopodobnie został uznany za międzynarodowy standard. Z wyliczeń wynika, że w głosowaniu wzięło udział 41 krajów. Z tego 22 była za OOXML, 10 głosowało przeciw, a 9 wstrzymało się od głosu. Wyliczenia te zostały oparte na relacjach prasowych mediów z danych krajów, nie wiadomo więc, na ile odpowiadają prawdzie. Oficjalnie swoją decyzję ISO ogłosi dzisiaj lub jutro. Media donoszą jednocześnie o nieprawidłowościach przy głosowaniu. Miało do nich dojść przede wszystkim w Norwegii i Niemczech. W pierwszym z krajów, pomimo miażdżącej przewagi głosów przeciwko formatowi OOXML, uznano, że Norwegia oddała głos "za". W Niemczech z kolei głosy rozłożyły się po równo i wówczas organizacja, która miała służyć tylko głosem doradczym, wsparła format i w efekcie niemiecki głos był również "za". Powyższe doniesienie, podobnie jak wyniki głosowania, nie zostały jednak potwierdzone.
  15. Amerykański NIST (National Institute of Standards and Technology – Narodowy Instytut Standardów i Technologii) we współpracy z Narodowym Instytutem Raka opracował pierwszą w historii propozycję standardu dotyczącego nanocząsteczek. Nowemu standardowi mają podlegać nanocząsteczki złota. Perspektywy wykorzystania miniaturowych cząsteczek są niezwykle kuszące. Przeprowadzono już badania, które dają nadzieję, że w przyszłości nanocząsteczki będą w stanie niszczyć guzy nowotworowe bez szkody dla pacjenta. Naukowcy ostrzegają jednak, że brak standardów, dotyczących chociażby metod pomiaru toksyczności, może spowodować, iż nanocząsteczki przyniosą więcej szkody niż pożytku. Stąd konieczność wypracowania standardów, które np. upewnią nas, że badania prowadzone w różnych laboratoriach można ze sobą porównywać chociażby dlatego, iż używają one podobnych narzędzi i procedur. Opracowanie standardów jest też o tyle pilną sprawą, że badania nad nanocząsteczkami jest coraz łatwiej prowadzić. Laboratoria, które chcą się tym zajmować, nie muszą samodzielnie ich pozyskiwać. Ampułkę o pojemności 5 mililitrów zawierającą nanocząsteczki w roztworze koloidalnym można kupić już za 225 dolarów. Zgodnie ze standardem NIST do badań używane byłyby nanocząsteczki złota wielkości 10, 30 i 60 nanometrów. Ich wielkość miałaby być mierzona za pomocą jednej z sześciu metod, wśród których znajdziemy m.in. mikroskopię sił atomowych, transmisyjną mikroskopię elektronową czy skaningową mikroskopię elektronową. Zostaną też opracowane standardy dla metod pomiaru toksyczności. Badacze nanocząsteczek będą musieli zwracać uwagę m.in. na koncentrację złota, jonów chlorku, sodu i cytrynianów oraz na pH, przewodnictwo elektryczne i stabilność roztworu koloidalnego. Każda z próbek musi być też testowana pod kątem sterylności i występowania ednotoksyn. Do handlu będą mogły trafić tylko te nanocząsteczki, którym towarzyszy dokument zawierający opis wszystkich wymienionych elementów.
  16. Organizacja 1394 Trade Association ogłosiła powstanie nowej specyfikacji dla FireWire, która czterokrotnie zwiększy przepustowość tego interfejsu. Będzie on w stanie przesyłać dane z prędkością 3,2 gigabita na sekundę. Specyfikacja S3200 bazuje na standardzie IEEE 1394b. Przewiduje ona użycie tych samych kabli i wtyczek, jakie używane są przez FireWire 800. Nowe kable będą potrzebne jedynie do przesyłania danych na duże odległości, 100 metrów i dalej. FireWire może stać się alternatywą dla standardów USB 2.0 i eSATA. Pozwoli bowiem na podłączenie zewnętrznego dysku twardego bez konieczności dostarczania mu energii dodatkowym kablem, a to wszystko przy zapewnieniu szybkiego transferu. Grupy rozwijające technologię FireWire chcą, by szerzej trafiła ona na rynek elektroniki konsumenckiej. Interfejs ten nadaje się bowiem do nagrywania obrazu w wysokiej rozdzielczości, a jednocześnie spełnia założenia stawiane przed urządzeniami obsługującymi standardy ochrony praw autorskich. Ma też i tę przewagę nad HDMI, że przesyłanie sygnału na duże odległości za pomocą FireWire jest znacznie tańsze, niż za pomocą HDMI.
  17. Wszystko wskazuje na to, że microsoftowy format OOXML zostanie uznany przez ISO za standard. Takiego zdania jest nawet przedstawiciel Foundation for a Free Information Structure (FFII). Pieter Hintjens, prezes FFII, organizacji która stała na czele przeciwników OOXML, stwierdził: Myślę, że standard Microsoftu, wsparty intensywnymi działaniami lobbystycznymi, zyska wystarczającą liczbę głosów. Microsoftowi zależy na uznaniu OOXML przez ISO, gdyż wzmocni to rynkową pozycję jego produktów. Coraz częściej rządy zarówno na szczeblu lokalnym jak i ogólnokrajowym wymagają, by urzędowe dokumenty były tworzone z wykorzystaniem otwartego standardu. Otwartego, czyli takiego, który pozwala developerom na tworzenie oprogramowania wykorzystującego ten standard i jednocześnie zwalnia ich z obowiązku wnoszenia opłat na rzecz firmy czy osoby, do której format należy. Pierwszym otwartym formatem uznanym za międzynarodowy standard jest ODF. Opracowany przez grupę, na której czele stał IBM, zyskał akceptację ISO w maju ubiegłego roku. O podobny status dla OOXML stara się obecnie Microsoft. Od kwietnia trwa głosowanie wśród członków ISO i IEC (International Electrotechnical Commision). Przeciwnicy OOXML twierdzą, że głosowania w ogóle nie powinno być, gdyż nie można uznać za standard produktu jednej firmy. Inni z kolei argumentują, że standardy powinny odzwierciedlać rzeczywistość. Obecnie ponad 90% dokumentów tworzonych jest w formatach Microsoftu. Głosowanie w ISO zakończyło się 2 września. Rzecznik prasowy ISO, Roger Frost, poinformował, że oficjalne wyniki poznamy we wtorek (4 września) lub w środę (5 września). Już wcześniej, bo w grudniu ubiegłego roku, OOXML zostało uznane za standard przez ECMA (European Computer Manufacturers Association). OOXML by zostać uznanym za międzynarodowy standard musi zyskać poparcie co najmniej 66% spośród 41 członków grupy technologicznej Joint Technical Committee 1 (utworzonej wspólnie przez ISO i IEC) i nie może mieć więcej przeciwników niż 25% spośród krajów, które od kwietnia przekazywały swoje głosy. Liczba członków JTC 1 gwałtownie rośnie. Jeszcze w kwietniu w pracach komitetu brało udział 30 krajów. Teraz, przed decydującym o losach OOXML głosowaniem, uaktywniają się kolejne kraje. Przeciwnicy wspomnianego formatu twierdzą, że wzrost ich aktywności to efekt lobbingu prowadzonego przez Microsoft.
  18. Serwis VaGla.pl donosi, że Komitet Techniczny nr 182 przy Polskim Komitecie Normalizacyjnym opowiedział się za uznaniem microsoftowego OOXML za standard ISO. Stanowisko KT 182 brzmi „Tak, z komentarzami”. Co prawda wcześniej KT 171 był przeciwko OOXML, jednak, jak wynika z wpisu w VaGla, to właśnie stanowisko KT 182 jest oficjalnym polskim głosem, który zostanie przedstawiony ISO. Siedemnastu spośród członków KT 182 było za OOXML, a trzech wstrzymało się od głosu. Nikt nie był przeciwny.
  19. Działająca w ramach Instytutu Inżynierów Elektryków i Elektroników (IEEE) grupa 802.3 Higher Speed Study Group (HSSG) podjęła decyzję o rozpoczęciu prac nad standardem Ethernet, którego przepustowość miałby wynosić 100 gigabitów na sekundę. O 100-gigabitowej sieci mówi się od niemal roku, jednak dopiero oficjalna decyzja HSSG otwiera możliwość prac nad nowym standardem. Brad Booth, prezes organizacji Ethernet Alliance, powiedział: HSSG poczyniło ważny krok w kierunku powstania 100-gigabitowego Ethernetu. To bardzo ważny krok i Ethernet Alliance w pełni popiera decyzję HSSG. Żadne ze stron nie poinformowała, niestety, kiedy nowy standard mógłby wejść w życie.
  20. Instytut Inżynierów Elektryków i Elektroników (IEEE) ma zamiar opracować nowy standard dla baterii stosowanych w notebookach. Decyzja taka została podjęta po całej serii ostatnich problemów z bateriami. Wadliwie wykonane urządzenia Sony spowodowały, że wielu producentów notebooków (wśród nich Dell, Toshiba, Apple, Lenovo czy HP) musiało wymienić niemal 10 milionów baterii. Prace nad nowym standardem rozpoczną się w przyszłym tygodniu i potrwają około 18 miesięcy. Specjaliści zapowiadają, że wezmą pod uwagę doświadczenia, jakie zdobyli w czasie opracowywania standardu IEEE 1725, który opisuje baterie wykorzystywane w telefonach komórkowych.
×
×
  • Dodaj nową pozycję...