Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Sąd Najwyższy USA zajmie się kwestią patentów na oprogramowanie

Recommended Posts

Amerykańscy giganci IT zwierają szyki przed marcowym posiedzeniem Sądu Najwyższego USA, który rozstrzygnie spór dotyczący kwestii patentowania oprogramowania i zasady fair use. Wyrok może mieć olbrzymie znaczenie dla światowego przemysłu nowoczesnych technologii.

Sprawa sięga roku 2010 i dotyczy sporu pomiędzy Google'em a Oracle'em. W ciągu zaledwie tygodnia po tym, jak Google przesłało swoje stanowisko w tej sprawie, do Sądu Najwyższego zgłosiło się 21 podmiotów, chcących wystąpić jako amicus curiae. Termin ten określa osobę lub inny podmiot, który nie jest stroną w postępowaniu sądowym, ale dobrowolnie z własnej inicjatywy oferuje sądowi własną opinię prawną. Sąd nie ma ani obowiązku dopuszczenia takiej opinii, ani – jeśli nawet ją dopuści – jej uwzględnienia.

We wspomnianej sprawie większość amici curiae wspiera stanowisko Google'a. Wyszukiwarkowy gigant może liczyć m.in. na wsparcie IBM-a, Microsoftu, Mozilli, organizacji biznesowych czy środowisk naukowych.

Już w pierwszym zdaniu opinii wysłanej przez IBM-a czytamy, że interfejsy komputerowe nie podlegają prawom autorskim. Z kolei Microsoft argumentuje, że Sąd Najwyższy powinien przywrócić obalony w apelacji wyrok sądu niższej instancji, który uznał, że Google miał prawo na zasadach fair use, wykorzystać chronione prawem autorskim API Javy. W innych opiniach stwierdzono, że jeśli sąd uzna stanowisko Oracle'a, będzie miało to niekorzystny wpływ nie tylko na przemysł IT, ale również na odniesienia w dziełach artystycznych do innych dzieł czy nawet na kwestie naprawy samochodów.

Spór toczy się o wykorzystanie API języka JAVA. Język Java został stworzony w latach 90. ubiegłego wieku przez Sun Microsystems. Firma udostępniła go bezpłatnie developerom, jednak pobierała opłaty tam, gdzie Java była komercyjnie wykorzystywana. W 2010 roku Oracle kupił Suna, a Google stało się pierwszą firmą, którą koncern Ellisona wziął na celownik, domagają się respektowania swoich praw.

W 2012 roku po odrzuceniu zarzutów dotyczących kwestii patentowych i po tym, jak ława przysięgłych nie mogła zdecydować, czy użycie API Javy przez Google'a podlega zasadzie fair use, sąd okręgowy orzekł, że API Javy nie są chronione prawem autorskim. Oracle się odwołał i w 2014 roku federalny sąd apelacyjny stwierdził, że interfejsy mogą być chronione prawem autorskim, jednak nie rozstrzygnął, czy wykorzystanie przez Google'a API Javy było zgodne z zasadami fair use.

W tej sytuacji Google odwołał się do Sądu Najwyższego, jednak ten odmówił zajęcia się sprawą. Proces wrócił do sądu okręgowego, a ten w 2016 roku stwierdził, że Google postąpiło zgodnie z zasadami fair-use. Ten wyrok nie spodobał się Oracle'owi, który złożył apelację do sądu federalnego. Ten zaś stwierdził, że wykorzystanie przez Google'a API nie było zgodne z zasadmi fair-use. Google poprosił o powtórzenie procesu w pełnym składzie sądu, ale wniosek odrzucono. Wobec tego w 2019 roku Google ponownie zwrócił się do Sądu Najwyższego o rozpatrzenie sprawy, a ten wyraził zgodę.

Prawnicy Google'a argumentują, że zwycięstwo Oracle'a będzie zagrożeniem dla całego przemysłu i po raz pierwszy da właścicielowi praw autorskim monopol, który negatywnie wpłynie na tworzenie i implementację oprogramowania. Prawnicy Oracle'a odpierają zarzuty stwierdzając, że od czasu, gdy po raz pierwszy federalny sąd apelacyjny stanął po stronie Oracle'a i uznał, że Google naruszył prawa tej firmy tempo innowacyjności tylko wzrosło, zwiększając liczbę miejsc pracy i dając kolejne możliwości rozwoju. Oracle twierdzi, że Google próbuje po prostu uniknąć konieczności zapłacenia za naruszenie własności intelektualnej.

Już dwa lata temu wyrok sądu federalnego został skrytykowany przez profesora prawa Jonathana Banda na łamach Harvard Journal of Law and Technology. W sporze tym pojawił się nawet argument odwołujący się do... sporu o prawa autorskie z XIX wieku.

Otóż w 1874 roku William Perris pozwał Ernesta Hexamera o naruszenie praw autorskich. Hexamer był autorem mapy, w której znalazła się legenda, symbole i kolorystykę taka sama, jak na mapie stworzonej przez ojca Perrisa. W 1878 roku Sąd Najwyższy wydał w tej sprawie wyrok, w którym stwierdził, że nie doszło do naruszenia praw autorskich, gdyż Perris i Hexamer stworzyli różne mapy, które nie były wystarczająco do siebie podobne, a zduplikowaniem symboli to zbyt mało, by stwierdzić, że doszło do naruszenia praw autorskich. W obu sprawach mamy klasę zdefiniowanych funkcji, które są używane jako część dzieła chronionego prawem autorskim, jednak nie doszło tutaj do naruszenia samych praw autorskich, napisał profesor prawa Zvi Rosen.

Ostateczny wyrok w tej sprawie ma zapaść w czerwcu.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Sprawa jest o tyle śliska, że pojęcie "interfejsy" jest źle zdefiniowane i znaczy co innego w różnych kontekstach, wolałbym bardziej precyzyjną definicję niż gramatyczno-językowa z miksem prawnym. Byłoby dziwne gdyby domyślna implementacja zawarta w interfejsie nie podlegała ochronie.

W dobrych aplikacjach obiektowych 90% informacji o strukturze kodu zawarte jest w interfejsach i komentarzach, wypełnienie reszty to prawie mechaniczna praca. Możliwość skopiowania API często rozwiązuje większość pracy intelektualnej. 

Trzeba by to ująć mniej więcej tak, że są to specyfikacje publicznych (udostępnianych niezależnym podmiotom) kontraktów umożliwiające współpracę.

Oczywiście realnie prawo jest tymi rozstrzygnięciami dopiero tworzone i podejście Google jest dobre dla ogółu zwiększając możliwości konkurencji.

 

Share this post


Link to post
Share on other sites

Prawo autorskie w ogóle jest fatalnie zdefiniowane. Jest skonstruowane tak, że w wielu przypadkach dopuszcza do monopolizacji i blokowania rozwoju - co powinno być niemożliwe. Nie można w ten sposób ograniczać praw innych. Patenty powinny mieć swoją wartość i żywotność po których stają się domeną publiczną i za które można je po prostu dla dobra ludzkości odkupić (i nie powinno być wobec tego odwołania)

Share this post


Link to post
Share on other sites

Większość patentów to samo ZUO, bo polega właśnie na blokowaniu czegokolwiek dalej, ale warto nadmienić, że siedliskiem tego zła są USA. "Trzeci świat" skrzętnie korzysta ze "światłej" myśli. Warto przypomnieć może przy okazji dlaczego nie unixa, a linuxa używam. :) Nie chcę się rozwodzić nad "kochanym" Sun'em itd.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Przeglądarka Chrome dołączyła do elitarnego klubu browserów, które zdobyły ponad 70% rynku. Z danych firmy analitycznej Net Application wynika, że w czerwcu do Chrome'a należało 70,2% światowego rynku przeglądarek. Program od pół roku ciągle zwiększał swoje udziały rynkowe, zyskując od stycznia 3,6 punktu procentowego.
      Chrome stał się tym samym trzecią przeglądarką w historii, która uzyskała tak silną pozycję na rynku. Pierwszą był Netscape Navigator, który zdominował lata 90. ubiegłego wieku, a druga to Internet Explorer, którego czasy dominacji rynkowej przypadły na pierwszą dekadę wieku obecnego.
      Wszystko wskazuje na to, że udziały Chrome'a nadal będą rosły. Analitycy przypuszczają, że do końca bieżącego roku do przeglądarki Google'a może należeć ponad 72% rynku.
      Patrząc na obecny rynek przeglądarek można stwierdzić, że jedynym potencjalnym zagrożeniem dla pozycji Chrome'a może stać się Edge Microsoftu. A i to po warunkiem, że zostanie on szeroko zaakceptowany przez biznes i uczelnie.
      Pozycja Microsoftu na rynku przeglądarek pozostaje jednak tajemnicą. Z danych Net Applications wynika, że udziały Edge'a wzrosły w ciągu miesiąca o rekordowe 0,2 punktu procentowego i obecnie do przeglądarki tej należy 8,1% rynku. Jednocześnie spadły udziały weterana, Internet Explorera, który obecnie ma rekordowo mało rynku, bo 4,5%. Trzeba jednak pamiętać, że IE jest wykorzystywany w wielu firmach, a dane Net Applications mogą go nie doszacowywać, gdyż przedsiębiorstwa często wykorzystują jeden lub kilka adresów IP wychodzących na zewnątrz. Pozycja przeglądarek Microsoftu może być więc być silniejsza, niż widać to w danych. Z drugiej jednak strony, Microsoft raczej nie stara się o wzmacnianie pozycji IE. Co prawda pozycja Edge'a powoli rośnie, ale jest to prawdopodobnie związane wyłącznie z rozpowszechnianiem się systemu Windows 10, a nie z przechodzeniem na Edge'a użytkowników innych przeglądarek. Przy obecnym tempie wzrostu udziały tej przeglądarki powinny wynieść 10,1% w lipcu przyszłego roku.
      Na trzecim miejscu znalazł się niezwykle niegdyś popularny Firefox. Również jego udziały powoli rosną i wynoszą obecnie 7,6%. Jednak, jak przewidują analitycy, przewaga Edge'a nad Firefoksem będzie rosła i w przyszłym roku wyniesie niemal 4 punkty procentowe.
      Niezaprzeczalnym liderem rynku jest zatem Chrome, który właśnie został trzecią przeglądarką w historii z ponad 70-procentowym udziałem w rynku. W tej chwili na horyzoncie nie widać nikogo, kto byłby mu w stanie w najbliższym czasie zagrozić.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Potwierdziły się plotki mówiące o zamiarach porzucenia przez Apple'a architektury x86 i całkowitym przejściu na architekturę ARM. Wczoraj, podczas WWDC 2020, firma oficjalnie ogłosiła rozpoczęcie dwuletniego okresu przechodzenia na ARM. Koncern z Cupertino zaoferuje odpowiednie SDK producentom oprogramowania, a pierwszy komputer z procesorem ARM ma trafić do sprzedaży jeszcze przed końcem bieżącego roku.
      Dyrektor wykonawczy Apple'a, Tim Cook, poinformował, że firma wciąż będzie oferowała nowe modele komputerów z procesorami Intela, jednak w ciągu dwóch lat każdy nowy model będzie też sprzedawany w wersji z procesorem ARM. Ponadto wszystkie przyszłe systemy operacyjne, od edycji MacOS 11 Big Sur będą wspierały architekturę ARM i x86.
      Koncern poinformował też, że już całe jego oprogramowanie, włącznie z takimi programami jak Final Cut czy Logic Pro, ma swoje wersje dla ARM. Firma współpracuje też z Microsoftem i Adobe nad przygotowaniem odpowiednich wersji programów tych firm na komputery Mac z układami ARM. Trwają też prace nad emulatorem Rosetta 2, który pozwoli na uruchamianie programów dla x86 na komputerach z ARM. Pierwsze wersje demonstracyjne takiego oprogramowania jak Maya czy Shadow of the Tomb Raider, wyglądają bardzo obiecująco.
      Apple będzie samodzielnie przygotowywało swoje procesory ARM. Koncern informuje, że powodem podjęcia takiej decyzji była chęć zwiększenia wydajności w przeliczeniu na wat energii. Warto tutaj zauważyć, że samodzielny rozwój i produkcja procesorów pozwolą Apple'owi jeszcze bardziej zmniejszyć zależność od zewnętrznych dostawców i w jeszcze większym stopniu kontrolować sprzedawane przez siebie sprzęt i oprogramowanie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska domaga się, by platformy społecznościowe przedstawiały comiesięczne raporty, w których poinformują, jak walczą z dezinformacją związaną z epidemią COVID-19. Nowe zasady będą dotyczyły m.in. Google'a, Facebooka, Twittera oraz innych firm, które są zobowiązane do przestrzegania europejskiego kodeksu dot. postępowania z dezinformacją.
      Jesteśmy świadkami fali fałszywej i mylącej informacji, kłamstw, teorii spiskowych oraz celowych działań zagranicznych ośrodków. Celem niektórych z tych działań jest zaszkodzenie Unii Europejskiej i krajów członkowskich, próba podważenia demokracji, zaufania do UE i autorytetów narodowych. Co gorsza, rozsiewanie takich informacji w czasach koronawirusa może zabijać, mówi wiceprezydent Komisji Josep Borrell.
      W związku z tym Komisja Europejska chce, by platformy, które w 2018 roku zobowiązały się do przestrzegania wspomnianego kodeksu postępowania, składały comiesięczne relacje ze swoich działań na rzecz promowania wiarygodnych treści, zwiększania świadomości użytkowników oraz ograniczania dezinformacji dotyczącej koronawirusa i powiązanej z nią reklamy. Ponadto chce, by serwisy społecznościowe prowadziły przejrzystą politykę informowania użytkowników o tym że mają do czynienia z dezinformacją.
      Komisja wskazała jednocześnie Rosję i Chiny jako kraje, które celowo rozsiewają nieprawdziwe informacje na temat epidemii. Podobnego zresztą zdania są Amerykanie. Również i oni stwierdzają, że oba te państwa prowadzą kampanię dezinformacji zarówno za pośrednictwem mediów państwowych oraz nieoficjalnie na platformach społecznościowych. Celem tej kampanii jest poprawienie wizerunku tych państw i ich władz oraz zaszkodzenie wizerunkowi państw Zachodu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Pandemia COVID-19 zmienia działanie gospodarki nawet tam, gdzie byśmy się tego nie spodziewali. Microsoft poinformował właśnie, że od maja przestaje dostarczać opcjonalne poprawki niezwiązane z bezpieczeństwem systemu Windows. To oznacza, że właściciele obecnie wspieranych OS-ów Microsoftu będą mogli liczyć jedynie na poprawki związane z bezpieczeństwem.
      Nowe zasady mają obowiązywać od maja, co oznacza, że kwietniowe poprawki już są ukończone lub zostaną ukończone lada chwila.
      Poprawki niezwiązane z bezpieczeństwem są dostarczane przez Microsoft zwykle w 3. i 4. tygodniu każdego miesiąca. Poprawki bezpieczeństwa są zaś publikowane w każdy drugi wtorek miesiąca, tzw. Patch Tuesday.
      Tymczasowa rezygnacja z poprawek opcjonalnych ma ułatwić firme pracę w czasie pandemii. Dodatkowe poprawki wymagają nie tylko dodatkowego zaangażowania osób je przygotowujących, ale i pracy olbrzymiej rzeszy testerów. Jeśli ponadto już po ich udostępnieniu okaże się, że pojawiły się błędy, oznacza to dla koncernu dodatkową pracę.
      Microsoft nie jest jedyną firmą, która w związku z koronawirusem zmienia sposób działania. Także Google ogłosił, że użytkownicy przeglądarki Chrome mogą liczyć jedynie na poprawki bezpieczeństwa.
      Microsoft zdecydował też, że odracza termin zakończenia wsparcia wersji Windows 10 Enterprise, Education i IoT Enterprise. Miało się ono zakończyć 14 kwietnia. Obecnie przedłużono je do 13 października bieżącego roku.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.
      Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze.
      Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI.
      Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM.
      Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna.
      Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe.
      Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci.
      Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie.
      Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman.
      Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman.
      Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów.
      Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE.
      Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund.
      Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery.

      « powrót do artykułu
×
×
  • Create New...