Od seksskandalu po zerwanie współpracy
By
KopalniaWiedzy.pl, in Technologia
-
Similar Content
-
By KopalniaWiedzy.pl
Amerykańscy giganci IT zwierają szyki przed marcowym posiedzeniem Sądu Najwyższego USA, który rozstrzygnie spór dotyczący kwestii patentowania oprogramowania i zasady fair use. Wyrok może mieć olbrzymie znaczenie dla światowego przemysłu nowoczesnych technologii.
Sprawa sięga roku 2010 i dotyczy sporu pomiędzy Google'em a Oracle'em. W ciągu zaledwie tygodnia po tym, jak Google przesłało swoje stanowisko w tej sprawie, do Sądu Najwyższego zgłosiło się 21 podmiotów, chcących wystąpić jako amicus curiae. Termin ten określa osobę lub inny podmiot, który nie jest stroną w postępowaniu sądowym, ale dobrowolnie z własnej inicjatywy oferuje sądowi własną opinię prawną. Sąd nie ma ani obowiązku dopuszczenia takiej opinii, ani – jeśli nawet ją dopuści – jej uwzględnienia.
We wspomnianej sprawie większość amici curiae wspiera stanowisko Google'a. Wyszukiwarkowy gigant może liczyć m.in. na wsparcie IBM-a, Microsoftu, Mozilli, organizacji biznesowych czy środowisk naukowych.
Już w pierwszym zdaniu opinii wysłanej przez IBM-a czytamy, że interfejsy komputerowe nie podlegają prawom autorskim. Z kolei Microsoft argumentuje, że Sąd Najwyższy powinien przywrócić obalony w apelacji wyrok sądu niższej instancji, który uznał, że Google miał prawo na zasadach fair use, wykorzystać chronione prawem autorskim API Javy. W innych opiniach stwierdzono, że jeśli sąd uzna stanowisko Oracle'a, będzie miało to niekorzystny wpływ nie tylko na przemysł IT, ale również na odniesienia w dziełach artystycznych do innych dzieł czy nawet na kwestie naprawy samochodów.
Spór toczy się o wykorzystanie API języka JAVA. Język Java został stworzony w latach 90. ubiegłego wieku przez Sun Microsystems. Firma udostępniła go bezpłatnie developerom, jednak pobierała opłaty tam, gdzie Java była komercyjnie wykorzystywana. W 2010 roku Oracle kupił Suna, a Google stało się pierwszą firmą, którą koncern Ellisona wziął na celownik, domagają się respektowania swoich praw.
W 2012 roku po odrzuceniu zarzutów dotyczących kwestii patentowych i po tym, jak ława przysięgłych nie mogła zdecydować, czy użycie API Javy przez Google'a podlega zasadzie fair use, sąd okręgowy orzekł, że API Javy nie są chronione prawem autorskim. Oracle się odwołał i w 2014 roku federalny sąd apelacyjny stwierdził, że interfejsy mogą być chronione prawem autorskim, jednak nie rozstrzygnął, czy wykorzystanie przez Google'a API Javy było zgodne z zasadami fair use.
W tej sytuacji Google odwołał się do Sądu Najwyższego, jednak ten odmówił zajęcia się sprawą. Proces wrócił do sądu okręgowego, a ten w 2016 roku stwierdził, że Google postąpiło zgodnie z zasadami fair-use. Ten wyrok nie spodobał się Oracle'owi, który złożył apelację do sądu federalnego. Ten zaś stwierdził, że wykorzystanie przez Google'a API nie było zgodne z zasadmi fair-use. Google poprosił o powtórzenie procesu w pełnym składzie sądu, ale wniosek odrzucono. Wobec tego w 2019 roku Google ponownie zwrócił się do Sądu Najwyższego o rozpatrzenie sprawy, a ten wyraził zgodę.
Prawnicy Google'a argumentują, że zwycięstwo Oracle'a będzie zagrożeniem dla całego przemysłu i po raz pierwszy da właścicielowi praw autorskim monopol, który negatywnie wpłynie na tworzenie i implementację oprogramowania. Prawnicy Oracle'a odpierają zarzuty stwierdzając, że od czasu, gdy po raz pierwszy federalny sąd apelacyjny stanął po stronie Oracle'a i uznał, że Google naruszył prawa tej firmy tempo innowacyjności tylko wzrosło, zwiększając liczbę miejsc pracy i dając kolejne możliwości rozwoju. Oracle twierdzi, że Google próbuje po prostu uniknąć konieczności zapłacenia za naruszenie własności intelektualnej.
Już dwa lata temu wyrok sądu federalnego został skrytykowany przez profesora prawa Jonathana Banda na łamach Harvard Journal of Law and Technology. W sporze tym pojawił się nawet argument odwołujący się do... sporu o prawa autorskie z XIX wieku.
Otóż w 1874 roku William Perris pozwał Ernesta Hexamera o naruszenie praw autorskich. Hexamer był autorem mapy, w której znalazła się legenda, symbole i kolorystykę taka sama, jak na mapie stworzonej przez ojca Perrisa. W 1878 roku Sąd Najwyższy wydał w tej sprawie wyrok, w którym stwierdził, że nie doszło do naruszenia praw autorskich, gdyż Perris i Hexamer stworzyli różne mapy, które nie były wystarczająco do siebie podobne, a zduplikowaniem symboli to zbyt mało, by stwierdzić, że doszło do naruszenia praw autorskich. W obu sprawach mamy klasę zdefiniowanych funkcji, które są używane jako część dzieła chronionego prawem autorskim, jednak nie doszło tutaj do naruszenia samych praw autorskich, napisał profesor prawa Zvi Rosen.
Ostateczny wyrok w tej sprawie ma zapaść w czerwcu.
« powrót do artykułu -
By KopalniaWiedzy.pl
HP ma zamiar stworzyć do 2017 roku 256-rdzeniowy procesor Corona, którego rdzenie będą komunikowały się ze sobą za pomocą łączy optycznych. Taka kość miałaby wykonywać 10 biliardów operacji zmiennoprzecinkowych na sekundę, zatem wydajność pięciu układów dorównywałaby wydajności współczesnych superkomputerów. Poszczególne rdzenie wymieniałyby dane z prędkością 20 terabitów na sekundę, a komunikacja między procesorem a pamięcią odbywałaby się z prędkością 10 Tb/s. Co więcej Corona zużywałaby znacznie mniej energii niż współczesne układy, dzięki czemu superkomputerom łatwiej będzie pokonać barierę eksaflopsa (1018 operacji zmiennoprzecinkowych na sekundę).
Obecnie istnieją dwa główne problemy, które znacznie utrudniają zwiększanie wydajności układów scalonych w dotychczasowym tempie. Im więcej rdzeni w procesorze, tym trudniej jest koordynować ich pracę i komunikować je ze sobą. Bardzo trudno jest uzyskać układ posiadający więcej niż 16 rdzeni, który pracowałby jak procesor równoległy. Drugi poważny problem to olbrzymi pobór mocy, który ma miejsce podczas przesyłania danych od i do układów pamięci.
Obie te przeszkody można rozwiązać za pomocą zintegrowanej fotoniki, czyli laserów i łączy optycznych wbudowanych w układ scalony. Przykładem takiej kości może być zaprezentowany właśnie przez IBM-a Holey Optochip. Nad podobnymi rozwiązaniami pracują też Intel (projekt Runnemede), Nvidia (Echelon), Sandia National Laboratory (X-calibur) czy MIT (Angstrom).
Najważniejszą jednak rolę odgrywa zintegrowana fotonika w projekcie Corona. Problem w tym, że część potrzebnej technologii wciąż jeszcze nie została opracowana. Jednak co się powoli zmienia. Od dłuższego już czasu informujemy o postępach na tym polu. Przez ostatnie lata wiele firm pracowało nad poszczególnymi podzespołami, teraz zaczęto łączyć je w układy. To jak przejście od tranzystora do układu scalonego - stwierdził Marco Fiorentino z HP Labs.
HP ma zamiar w każdy rdzeń Corony wbudować laser, który będzie wysyłał informacje do wszystkich innych rdzeni. Jak obliczają specjaliści wykorzystanie elektroniki do stworzenia 10-terabitowego kanału przesyłu danych pomiędzy CPU a pamięcią wymagałoby 160 watów mocy. Zdaniem HP, jeśli zastąpimy elektronikę zintegrowaną fotoniką, pobór mocy spadnie do 6,4 wata.
Zmniejszenie poboru mocy to dla superkomputerów niezwykle istotna sprawa. Najpotężniejsza maszyna na świecie, japoński K Computer, potrzebuje obecnie do pracy 12,6 MW. Jego wydajność wynosi 10,5 PFlops, trzeba by ją zatem zwiększyć niemal 100-krotnie by osiągnąć barierę eksaflopsa.
Zintegrowana fotonika przyczyni się również do obniżenia poboru mocy przez serwery i urządzenia telekomunikacyjne, co odgrywa olbrzymią rolę w internecie, którym przesyłamy coraz większą ilość danych. Z czasem lasery i łącza optyczne mogą trafić też do urządzeń przenośnych, pozwalający na ich dłuższą pracę bez potrzeby ładowania baterii. Również, co niezwykle istotne, w fotonice nie występuje problem interferencji elektromagnetycznej, zatem jej stosowanie np. w samochodach czy samolotach będzie bezpieczniejsze niż stosowanie urządzeń elektronicznych.
Problemem jest też stworzenie miniaturowych laserów, które można będzie budować za pomocą dostępnych technologii. Jako, że z krzemu nie można generować światła, specjaliści badają inne materiały, przede wszystkim arsenek galu i fosforek indu. Ostatnio MIT zainteresował się też germanem.
Trwają również intensywne prace nad rozwojem technologii TSV (through silicon vias). Pozwoli się ona pozbyć szyn, za pomocą których łączą się ze sobą poszczególne układy. Szyny stanowią dla danych wąskie gardło i zużywają sporo energii. TSV pozwala układać na sobie układy scalone (powstają w ten sposób układy 3D) i łączyć je kablami poprowadzonymi wewnątrz takiego stosu układów, co zwiększa przepustowość, a jednocześnie zmniejsza zużycie prądu i pozwala na zaoszczędzenie miejsca na płycie głównej.
W projekcie Corona HP chce połączyć obie technologie - 3D i zintegrowaną fotonikę. Dzięki temu ma powstać 256-rdzeniowy procesor zbudowany z 64-rdzeniowych klastrów. Całość zostanie wykonana w procesie 16 nanometrów i będzie połączona łączami optycznymi.
-
By KopalniaWiedzy.pl
Hewlett-Packard jest twórcą pierwszej na rynku stacji roboczej typu all-in-one. W 27-calowym wyświetlaczu zamknięto całą maszynę, w tym serwerowy procesor, kartę graficzną i zasilacz. Jin Zafarana, dyrektor HP ds. stacji roboczych powiedział, że klienci chcieli mieć więcej miejsca na biurkach, stąd pomysł na stację robocza all-in-one.
Zdaniem Zafarany Z1 można porównać do Z800, najbardziej wydajnej stacji roboczej HP. „Dostarczamy moc stacji roboczej, ale bez obudowy typu tower“ - mówi Zafarana.
W Z1 zastosowano procesor Xeon, kartę graficzną Nvidia Quadro oraz 400-watowy zasilacz. Urządzenie wyposażono w kamerę i porty USB 3.0. Jest tam też miejsce na dwa dyski twarde i czytnik Blu-ray. Użytkownik łatwo może zdemontować wyświetlacz i wymieniać poszczególne elementy.
-
By KopalniaWiedzy.pl
Ze złożonych w sądzie dokumentów dowiadujemy się, że HP zapłacił Intelowi 690 milionów dolarów, by półprzewodnikowy koncern utrzymał produkcję i rozwój procesorów Itanium do roku 2017. Najpierw na podstawie umowy z 2008 roku HP zapłacił 440 milionów za przedłużenie życia Itanium do roku 2014. W 2010 roku obowiązywanie umowy przedłużono do 2017, a HP dopłacił 250 milionów USD.
Producenci oprogramowania, tacy jak Microsoft czy Red Hat, zaprzestali rozwijania aplikacji dla architektury Itanium, gdyż wiedzą, że jej czas dobiega końca. Wielcy producenci sprzętu, jak Dell czy IBM już od lat nie oferują serwerów z Itanium. Nawet sam Intel przestał w ubiegłym roku wspierać Itanium w kompilatorach C/C++ i Fortrana. Co więcej, część swojego zespołu pracującego nad Itanium Intel skierował już do prac nad projektami związanymi z układami Xeon.
HP potrzebuje utrzymania Itanium, gdyż jego najważniejsze produkty - HP-UX, OpenVMS czy NonStop - korzystają właśnie z niej i miną całe lata, zanim uda się stworzyć ich odpowiedniki dla Xeona. Koncern jednak musi się spieszyć. Sprzedaż platformy Itanium spada od wielu lat, a sztuczne utrzymywanie Itanium nie tylko kosztuje go setki milionów dolarów, które musi płacić Intelowi, ale naraża na szwank jego relacje z innymi firmami. O wysokości opłat wnoszonych na rzecz Intela dowiedzieliśmy się bowiem przy okazji sporu sądowego pomiędzy HP a Oracle’em. HP twierdzi, że Oracle złamał umowę zaprzestając produkcji oprogramowania dla Itanium, a zrobił to, by promować własne serwery z architekturą Sun SPARC. Oracle zaś twierdzi, że HP postępowało niewłaściwie, nie informując klientów o przyszłości Itanium. Przed trzema dniami sąd orzekł, że obie firmy postępowały niewłaściwie. HP, gdyż nie informował swoich partnerów, klientów i pracowników o planach dotyczących Itanium, a Oracle, gdyż wykorzystało fałszywy pretekst do zaprzestania produkcji programów dla Itanium w celu promowania platformy SPARC.
-
-
Recently Browsing 0 members
No registered users viewing this page.