Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Sąd Najwyższy USA zajmie się kwestią patentów na oprogramowanie

Recommended Posts

Amerykańscy giganci IT zwierają szyki przed marcowym posiedzeniem Sądu Najwyższego USA, który rozstrzygnie spór dotyczący kwestii patentowania oprogramowania i zasady fair use. Wyrok może mieć olbrzymie znaczenie dla światowego przemysłu nowoczesnych technologii.

Sprawa sięga roku 2010 i dotyczy sporu pomiędzy Google'em a Oracle'em. W ciągu zaledwie tygodnia po tym, jak Google przesłało swoje stanowisko w tej sprawie, do Sądu Najwyższego zgłosiło się 21 podmiotów, chcących wystąpić jako amicus curiae. Termin ten określa osobę lub inny podmiot, który nie jest stroną w postępowaniu sądowym, ale dobrowolnie z własnej inicjatywy oferuje sądowi własną opinię prawną. Sąd nie ma ani obowiązku dopuszczenia takiej opinii, ani – jeśli nawet ją dopuści – jej uwzględnienia.

We wspomnianej sprawie większość amici curiae wspiera stanowisko Google'a. Wyszukiwarkowy gigant może liczyć m.in. na wsparcie IBM-a, Microsoftu, Mozilli, organizacji biznesowych czy środowisk naukowych.

Już w pierwszym zdaniu opinii wysłanej przez IBM-a czytamy, że interfejsy komputerowe nie podlegają prawom autorskim. Z kolei Microsoft argumentuje, że Sąd Najwyższy powinien przywrócić obalony w apelacji wyrok sądu niższej instancji, który uznał, że Google miał prawo na zasadach fair use, wykorzystać chronione prawem autorskim API Javy. W innych opiniach stwierdzono, że jeśli sąd uzna stanowisko Oracle'a, będzie miało to niekorzystny wpływ nie tylko na przemysł IT, ale również na odniesienia w dziełach artystycznych do innych dzieł czy nawet na kwestie naprawy samochodów.

Spór toczy się o wykorzystanie API języka JAVA. Język Java został stworzony w latach 90. ubiegłego wieku przez Sun Microsystems. Firma udostępniła go bezpłatnie developerom, jednak pobierała opłaty tam, gdzie Java była komercyjnie wykorzystywana. W 2010 roku Oracle kupił Suna, a Google stało się pierwszą firmą, którą koncern Ellisona wziął na celownik, domagają się respektowania swoich praw.

W 2012 roku po odrzuceniu zarzutów dotyczących kwestii patentowych i po tym, jak ława przysięgłych nie mogła zdecydować, czy użycie API Javy przez Google'a podlega zasadzie fair use, sąd okręgowy orzekł, że API Javy nie są chronione prawem autorskim. Oracle się odwołał i w 2014 roku federalny sąd apelacyjny stwierdził, że interfejsy mogą być chronione prawem autorskim, jednak nie rozstrzygnął, czy wykorzystanie przez Google'a API Javy było zgodne z zasadami fair use.

W tej sytuacji Google odwołał się do Sądu Najwyższego, jednak ten odmówił zajęcia się sprawą. Proces wrócił do sądu okręgowego, a ten w 2016 roku stwierdził, że Google postąpiło zgodnie z zasadami fair-use. Ten wyrok nie spodobał się Oracle'owi, który złożył apelację do sądu federalnego. Ten zaś stwierdził, że wykorzystanie przez Google'a API nie było zgodne z zasadmi fair-use. Google poprosił o powtórzenie procesu w pełnym składzie sądu, ale wniosek odrzucono. Wobec tego w 2019 roku Google ponownie zwrócił się do Sądu Najwyższego o rozpatrzenie sprawy, a ten wyraził zgodę.

Prawnicy Google'a argumentują, że zwycięstwo Oracle'a będzie zagrożeniem dla całego przemysłu i po raz pierwszy da właścicielowi praw autorskim monopol, który negatywnie wpłynie na tworzenie i implementację oprogramowania. Prawnicy Oracle'a odpierają zarzuty stwierdzając, że od czasu, gdy po raz pierwszy federalny sąd apelacyjny stanął po stronie Oracle'a i uznał, że Google naruszył prawa tej firmy tempo innowacyjności tylko wzrosło, zwiększając liczbę miejsc pracy i dając kolejne możliwości rozwoju. Oracle twierdzi, że Google próbuje po prostu uniknąć konieczności zapłacenia za naruszenie własności intelektualnej.

Już dwa lata temu wyrok sądu federalnego został skrytykowany przez profesora prawa Jonathana Banda na łamach Harvard Journal of Law and Technology. W sporze tym pojawił się nawet argument odwołujący się do... sporu o prawa autorskie z XIX wieku.

Otóż w 1874 roku William Perris pozwał Ernesta Hexamera o naruszenie praw autorskich. Hexamer był autorem mapy, w której znalazła się legenda, symbole i kolorystykę taka sama, jak na mapie stworzonej przez ojca Perrisa. W 1878 roku Sąd Najwyższy wydał w tej sprawie wyrok, w którym stwierdził, że nie doszło do naruszenia praw autorskich, gdyż Perris i Hexamer stworzyli różne mapy, które nie były wystarczająco do siebie podobne, a zduplikowaniem symboli to zbyt mało, by stwierdzić, że doszło do naruszenia praw autorskich. W obu sprawach mamy klasę zdefiniowanych funkcji, które są używane jako część dzieła chronionego prawem autorskim, jednak nie doszło tutaj do naruszenia samych praw autorskich, napisał profesor prawa Zvi Rosen.

Ostateczny wyrok w tej sprawie ma zapaść w czerwcu.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Sprawa jest o tyle śliska, że pojęcie "interfejsy" jest źle zdefiniowane i znaczy co innego w różnych kontekstach, wolałbym bardziej precyzyjną definicję niż gramatyczno-językowa z miksem prawnym. Byłoby dziwne gdyby domyślna implementacja zawarta w interfejsie nie podlegała ochronie.

W dobrych aplikacjach obiektowych 90% informacji o strukturze kodu zawarte jest w interfejsach i komentarzach, wypełnienie reszty to prawie mechaniczna praca. Możliwość skopiowania API często rozwiązuje większość pracy intelektualnej. 

Trzeba by to ująć mniej więcej tak, że są to specyfikacje publicznych (udostępnianych niezależnym podmiotom) kontraktów umożliwiające współpracę.

Oczywiście realnie prawo jest tymi rozstrzygnięciami dopiero tworzone i podejście Google jest dobre dla ogółu zwiększając możliwości konkurencji.

 

Share this post


Link to post
Share on other sites

Prawo autorskie w ogóle jest fatalnie zdefiniowane. Jest skonstruowane tak, że w wielu przypadkach dopuszcza do monopolizacji i blokowania rozwoju - co powinno być niemożliwe. Nie można w ten sposób ograniczać praw innych. Patenty powinny mieć swoją wartość i żywotność po których stają się domeną publiczną i za które można je po prostu dla dobra ludzkości odkupić (i nie powinno być wobec tego odwołania)

Share this post


Link to post
Share on other sites

Większość patentów to samo ZUO, bo polega właśnie na blokowaniu czegokolwiek dalej, ale warto nadmienić, że siedliskiem tego zła są USA. "Trzeci świat" skrzętnie korzysta ze "światłej" myśli. Warto przypomnieć może przy okazji dlaczego nie unixa, a linuxa używam. :) Nie chcę się rozwodzić nad "kochanym" Sun'em itd.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Trenowanie systemów sztucznej inteligencji trwa obecnie wiele tygodni. Firma Cerebras Systems twierdzi, że potrafi skrócić ten czas do kilku godzin. Pomysł polega na tym, by móc testować więcej pomysłów, niż obecnie. Jeśli moglibyśmy wytrenować sieć neuronową w ciągu 2-3 godzin, to rocznie możemy przetestować tysiące rozwiązań, mówi Andrew Feldman, dyrektor i współzałożyciel Cerebras.
      Jeśli chcemy wytrenować sieć sztucznej inteligencji, która np. ma zarządzać autonomicznym samochodem, potrzebujemy wielu tygodni i olbrzymiej mocy obliczeniowej. Sieć musi przeanalizować olbrzymią liczbę zdjęć czy materiałów wideo, by nauczyć się rozpoznawania istotnych obiektów na drodze.
      Klienci Cerebras skarżą się, że obecnie trenowanie dużej sieci neuronowej może trwać nawet 6 tygodni. W tym tempie firma może wytrenować około 6 sieci rocznie. To zdecydowanie zbyt mało dla przedsiębiorstw, które chcą sprawdzić wiele nowych pomysłów za pomocą SI.
      Rozwiązaniem problemu ma być komputer CS-1, a właściwie jego niezwykły procesor. Maszyny CS-1 mają wysokość 64 centymetrów, a każda z nich potrzebuje do pracy 20 kW. Jednak 3/4 obudowy każdego z komputerów zajmuje układ chłodzenia, a tym, co najbardziej rzuca się w oczy jest olbrzymi układ scalony. Zajmuje on powierzchnię 46 255 milimetrów kwadratowych, czyli około 50-krotnie więcej niż tradycyjny procesor. Zawiera 1,2 biliona tranzystorów, 400 000 rdzeni obliczeniowych i 18 gigabajtów pamięci SRAM.
      Procesor o nazwie Wafer Scale Engine (WSE) wypada znacznie lepiej niż podobne systemy. Jak zapewniają przedstawiciele Cerebras, ich maszyna, w porównaniu z klastrem TPU2 wykorzystywanym przez Google'a do trenowania SI, zużywa 5-krotnie mniej energii i zajmuje 30-krotnie mniej miejsca, a jest przy tym 3-krotnie bardziej wydajna. Takie zestawienie brzmi imponująco, a na ile rzeczywiście WSE jest lepszy od dotychczasowych rozwiązań powinno ostatecznie okazać się w bieżącym roku. Jak zauważa analityk Mike Demler, sieci neuronowe stają się coraz bardziej złożone, więc możliwość szybkiego ich trenowania jest niezwykle ważna.
      Trzeba jednak przyznać, że w twierdzeniach Cerebras musi być ziarno prawdy. Wśród klientów firmy jest m.in. Argonne National Laboratory, które ma już maszyny CS-1 u siebie. Zapewne już wkrótce dowiemy się, czy rzeczywiście zapewniają one tak wielką wydajność i pozwalają tak szybko trenować sieci neuronowe.
      Twórcami Cerebras są specjaliści, którzy pracowali w firmie Sea Micro, przejętej przez AMD. Pomysł stworzenia komputera wyspecjalizowanego w sztucznej inteligencji zaczął kiełkować w ich głowach w 2015 roku. Stwierdzili, że odpowiedni procesor musi być w stanie szybko przesyłać duże ilości danych, układy pamięci muszą znajdować się blisko rdzenia, a same rdzenie nie powinny zajmować się danymi, którymi już zajmują się inne rdzenie. To zś oznaczało, że tego typu układ musi składać się z olbrzymiej liczby niewielkich rdzeni wyspecjalizowanych w obliczeniach z zakresu sieci neuronowych, połączenia między rdzeniami muszą być szybkie i zużywać niewiele energii, a wszystkie dane muszą być dostępne na procesorze, a nie w osobnych układach pamięci.
      Twórcy Cerebras uznali, że tym, czego potrzebują, jest chip niemalże wielkości całego plastra krzemowego. Udało im się taki układ skonstruować, chociaż nie było to łatwe zadanie i wciąż muszą poradzić sobie z licznymi problemami. Jednym z nich było poradzenie sobie z filozofią tworzenia współczesnych plastrów krzemowych. Obecnie z pojedynczego plastra tworzy się wiele procesorów. Po ich przygotowaniu, plaster, zawierający wiele identycznych układów, jest cięty. W procesie przygotowywania plastra do produkcji tworzy się na nim specjalne linie, wzdłuż których przebiegają cięcia. Tymczasem Cerebras potrzebowało takiego plastra w całości, z połączeniami pomiędzy poszczególnymi rdzeniami. To zaś wymagało nawiązania współpracy z TSMC i opracowania metody przeprowadzenia połączeń przez linie.
      Wysiłek się opłacił. Poszczególne rdzenie komunikują się między sobą z prędkością 1000 Pb/s, a komunikacja pomiędzy pamięcią a rdzeniami przebiega w tempie do 9 PB/s. To nie jest trochę więcej. To o cztery rzędy wielkości więcej, gdyż wszystko odbywa się w ramach tego samego plastra, cieszy się Feldman.
      Jednak przeprowadzenie połączeń przez linie nie był jedynym problemem. Trzeba było zmodyfikować cały proces projektowania i produkcji układów. Nawet oprogramowanie do projektowania procesorów jest przygotowane pod niewielkie układy. Każda zasada, każde narzędzie i każde urządzenie jest obecnie dostosowana do produkcji układów scalonych o zwyczajowych rozmiarach. My zaś potrzebujemy czegoś znacznie większego, dlatego też musieliśmy na nowo opracować każdy element, dodaje Feldman.
      Jeszcze innym problemem okazało się zasilanie takiego układu. Każdy z 1,2 biliona tranzystorów potrzebuje 0,8 wolta. To standardowe napięcie, ale tranzystorów jest tak dużo, że do układu należy doprowadzić prąd o natężeniu 20 000 amperów.
      Uzyskanie w całym plastrze 20 000 amperów bez znacznego spadku napięcia było kolejnym wyzwaniem inżynieryjnym, mówią przedstawiciele Cerebras. Doprowadzenie prądu do krawędzi WSE nie wchodziło w rachubę, gdyż opory spowodowałyby spadek napięcia do zera zanim prąd osiągnąłby środek układu. Rozwiązaniem okazało się prostopadłe podłączenie od góry. Inżynierowie Cerebras zaprojektowali specjalny zestaw składający się z setek układów wyspecjalizowanych w kontrolowaniu przepływu prądu. Za pomocą miliona miedzianych połączeń dostarcza on zasilanie do WSE.
      Cerebras nie podaje żadnych danych odnośnie testów wydajności swojego rozwiązania w porównaniu z innymi systemami. Zamiast tego firma zachęca swoich klientów, by po prostu sprawdzili, czy  CS-1 i WSE sprawują się lepiej w zadaniach, których ci klienci potrzebują. Nie ma w tym jednak nic dziwnego. Każdy korzysta z własnych modeli dostosowanych do własnych potrzeb. To jedyne co się liczy dla klienta, mówi analityk Karl Freund.
      Jednym z takich klientów jest właśnie Argonne National Laboratory. Ma ono dość specyficzne potrzeby. Wykorzystuje sieci neuronowe do rozpoznawania różnych rodzajów fal grawitacyjnych w czasie rzeczywistym. Pracujący tam specjaliści wolą więc samodzielnie przekonać się, czy nowe urządzenie lepiej sprawdzi się w tych zastosowaniach niż dotychczas stosowane superkomputery.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft udostępnił właśnie gotową najnowszą wersję swojej przeglądarki Edge. Co interesujące, wzmacnia ona pozycję Google'a i wizję internetu propagowaną przez wyszukiwarkowego giganta. W nowym Edge'u zastosowano bowiem silnik Blink, wykorzystywany w przeglądarce Chrome.
      Internet Explorer, który w przeszłości dominował na rynku przeglądarek internetowych, z czasem stał się dla Microsoftu poważnym obciążeniem. Z jednej bowiem strony coraz bardziej odstawał od standardów nowoczesnej sieci, z drugiej zaś, koncern nie mógł go nagle porzucić lub radykalnie zmodernizować, gdyż zbyt wiele witryn i programów firm trzecich działało prawidłowo wyłącznie na starszych wersjach IE. Rozwój tego programu stał się więc bardzo uciążliwy, konieczne było zachowywanie wieloletniej kompatybilności wstecznej przy jednoczesnej próbie dostosowywanie IE do wymogów współczesności. Przeglądarka stawała się przez to coraz bardziej ociężała i pełna błędów, a jednocześnie coraz bardziej odstawała od konkurencji.
      Microsoft postanowił więc jednocześnie rozwijać kolejny projekt. Przeglądarka Edge zadebiutowała w 2015 roku, a jej silnikiem był Edge HTML. Przeglądarka była wyraźnie lepsza od IE, dorównywała produktom konkurencji, a w niektórych aspektach je przewyższała, jednak było już za późno. Klienci masowo odwrócili się od produktu Microsoftu i wybrali Firefoksa oraz Chrome'a.
      W końcu po trzech kolejnych latach koncern z Redmond doszedł do wniosku, że rozwijanie przeglądarki na własnym silniku mija się z celem i w grudniu 2018 roku ogłosił rozpoczęcie prac nad Edge'em z silnikiem Blink. Wczoraj koncern udostępnił gotową przeglądarkę. Nowy Microsoft Edge jest dostępny dla wszystkich wspieranych wersji Microsoft Windows oraz MacOS w ponad 90 wersjach językowych, oznajmił wiceprezes Microsoftu ds. korporacyjnych, Joe Belfiore. Najnowsza wersja przeglądarki nie jest obecnie włączona do systemu automatycznych aktualizacji, więc pobrać można ją jedynie ręcznie.
      Obecnie sytuacja wygląda zatem tak, że Microsoft wspiera pięć wersji Edge'a. Edycje oznaczone numerami wersji 41.16299 (z września 2017), 42.17124 (z kwietnia 2018), 44.17763 (z października 2018) oraz 44.18362 (z maja 2019) to Edge z silnikiem EdgeHTML. Z kolei najnowsza wersja przeglądarki Microsoftu, Edge 79.0.309 zadebiutowała wczoraj i korzysta z silnika Blink.
      Microsoft zapowiada, że rozwój EdgeHTML będzie podtrzymany na potrzeby Universal Windows Platform oraz że silnik ten będzie w pełni kompatybilny z silnikiem Blink.
      Obecnie na rynku przeglądarek internetowych dla komputerów stacjonarnych zdecydowanie dominuje Chrome, którego udziały sięgają 67,28%. Na drugim miejscu znajdziemy Firefoksa (9%), na trzecim Internet Explorera (7,42%), a Edge znajduje się na czwartej pozycji z udziałami 5,56%. Na rynku mobilnym przeglądarki Microsoftu mają łącznie 0,05% udziałów i zajmują 13. oraz 15. pozycję.
      Już wcześniej ambicję rozwijania własnego silnika porzuciły Opera, Samsung, Brave, Vivaldi i inni. Dołączenie do tego grona Microsoftu tylko wzmacnia pozycję Google'a względem wciąż jeszcze niezależnych silników wykorzystywanych przez Firefoksa i Safari.
      Zdecydowana większość internautów używa już Chrome'a lub silnika Chrome'a i nie zauważa większych problemów z kompatybilnością. Czym więc Microsoft chce zachęcić ich do korzystania z Edge'a? Koncern podkreśla dwie cechy: produktywność i prywatność.
      W zakresie produktywności użytkowników mają przyciągnąć narzędzia takie jak Collections, które pozwalają na zebranie z wielu witryn informacji na konkretny temat. Jeśli zaś chodzi o prywatność to koncern z Redmond próbuje blokować śledzenie użytkowników przez witryny. To podejście podobne do stosowanego przez Mozillę w Firefoksie. Google pozostaje tutaj nieco z tyłu, uważając, że zbyt restrykcyjne blokowanie zagraża rozwojowi sieci, gdyż pozbawia dochodów przede wszystkim małe witryny, służąc wielkim firmom, które są w stanie samodzielnie rozwijać technologie omijające blokady stosowane w przeglądarkach. Chociaż i w tym zakresie wyszukiwarkowy koncern zmienia stanowisko i zapowiada, że w ciągu dwóch lat do Chrome'a trafią bardziej restrykcyjne mechanizmy kontroli prywatności.
      Na razie Microsoft kieruje nowego Edge'a przede wszystkim do użytkowników biznesowych, gdzie potrzebna jest dobra integracja przeglądarki z narzędziami do zarządzania oraz kompatybilność z IE. Edge zawiera też ułatwienia dla użytkowników MS Office'a czy Binga. Jednak w ciągu najbliższych 2-3 tygodni koncern zacznie coraz szerzej propagować Edge'a wśród użytkowników indywitualnych, powoli też przeglądarka z nowym silnikiem będzie trafiała do Windows Update. Ma temu towarzyszyć rozpisana na wiele miesięcy kampania informacyjna, gdyż większość internautów nie wie o przebudowie Edge'a i nie rozpozna nowej ikon przeglądarki.
      Historia Internet Explorera, Edge'a i Edge'a z silnikiem Chrome'a dobrze obrazują ewolucję rynku i samego Microsoftu, który w przeszłości dominował na rynku przeglądarek i w dużej mierze decydował, jak wygląda internet, a teraz pogodzony z wieloplatformową rzeczywistością współczesnego świata IT stosuje rozwiązania konkurencji i dba o interoperacyjność.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Apple oskarża Google'a o próbę wywołania strachu u wszystkich użytkowników iPhone'ów poprzez rozpowszechnianie fałszywej informacji jakoby doszło do wielkiego ataku na iPhone'y.
      Przypomnijmy, że na przełomie sierpnia i września google'owski Project Zero poinformował o odkryciu licznych witryn, które prowadzą szeroko zakrojone ataki na iPhone'y. Tymczasem, jak informuje rzecznik prasowy Apple'a Fred Sainz, atak był prowadzony na niewielką skalę, a badacze Google'a znaleźli zaledwie kilka witryn skierowanych do zamieszkującej Chiny mniejszości ujgurskiej, które atakowały swoich użytkowników.
      Wystarczy odwiedzić witrynę, by zostać zaatakowanym, napisał na blogu Project Zero jeden z pracowników Google'a Ian Beer. Udany atak pozwalał na ustalenie lokalizacji telefonu oraz kradzież zdjęć i haseł. Beer dodał, że ataki są prowadzone od co najmniej dwóch lat.
      Apple nie zaprzecza tym informacjom, jednak zauważa, że przedstawiciele Google'a pominęli ważne informacje. Po pierwsze ataki trafały dwa miesiące, nie dwa lata. Po drugie, były prowadzone przeciwko mniejszości ujgurskiej w Chinach, co wskazuje na działania chińskiego rządu, i nie można ich nazwać szeroko zakrojonymi. Ponadto, jak twierdzi Apple, te same witryny atakowały też użytkowników Windows i Androida, ale Google o tym nie wspomniał. Przedstawiciele Google'a tłumaczą, że nic nie wiedzieli o atakach na Androida.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dwóch amerykańskich senatorów, demokrata Josh Hawley i republikanin Mark Warner, przygotowało projekt ustawy, której celem jest lepszy nadzór nad danymi osobowymi przechowywanymi przez wielkie koncerny. Ustawa ma zmusić Facebooka, Google'a, czy Amazona do ujawnienia ile danych osobowych przechowują oraz w jaki sposób – pośredni i bezpośredni – na nich zarabiają.
      DASHBOARD (Designing Accounting Safeguards to Help Broaden Oversight And Regulations on Data Act) dotyczyłaby przedsiębiorstw, które mają miesięcznie ponad 100 milionów unikatowych użytkowników i zobowiązybałaby je do ujawnienia szczegółów dotyczących zarabiania na danych użytkowników.
      Projekt ustawy zakłada, że raz na 90 dni wspomniane firmy miałyby obowiązek poinformowania każdego z użytkowników o szacowanej wartości danych tego użytkownika przechowywanych przez operatora.
      Gdy wielkie koncerny twierdzą, że ich produkt jest darmowy, tak naprawdę sprzedają konsumentów. Co więcej, firmy IT robią wszystko, by ukryć informacje o tym, ile warte są dane użytkownika i komu zostały sprzedane, oświadczył senator Hawley. Przez lata serwisy społecznościowe twierdziły, że ich usługi są darmowe. Jednak to nie jest prawda, użytkownik płaci za te usługi swoimi danymi, dodał senator Warner.
      Zdaniem twórców ustawy, nowe przepisy pozwolą konsumentom zrozumieć, jaka jest prawdziwa wartość ich danych, dadzą im nad nimi kontrolę i pokażą, że to co rzekomo darmowe, tak naprawdę słono kosztuje.
      Warto w tym miejscu przypomnieć, że od wielu lat pojawiają się próby powołania do życia czegoś, co można by nazwać „ekonomią danych osobowych”. To próby przekazania użytkownikom zarówno kontroli nad własnymi danymi oraz możliwości pobierania opłat za korzystanie z nich. Nad tego typu pomysłem, projektem o nazwie „Bali”, pracuje m.in. Microsoft.
      Gdyby ustawa DASHBOARD została przyjęta przez Kongres, z pewnością ułatwiłoby to powstanie „ekonomii danych osobowych”.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Część udziałowców konglomeratu Alphabet – do którego należy m.in. Google – przedstawi dzisiaj propozycję podziału firmy. Zostanie ona zaprezentowana na dorocznym zgromadzeniu akcjonariuszy przez organizację SumOfUs. To amerykańska grupa, której celem jest ograniczenie rosnącej potęgi korporacji.
      Urzędnicy w USA i Unii Europejskiej są coraz bardziej zaniepokojeni rosnącą potęgą Alphabetu w kontekście działań antymonopolowych. Uważamy, że udziałowcy odniosą więcej korzyści z dobrowolnego strategicznego ograniczenia rozmiarów firmy, niż z jej przymusowego podziału przez urzędy antymonopolowe, czytamy w propozycji.
      Z góry jednak wiadomo, że inicjatywa nie ma żadnych szans powodzenia, gdyż dwóch najważniejszych menedżerów Alphabetu, Larry Page i Sergey Brin, posiada łącznie 51,3% udziałów.
      Działania udziałowców pokazują jednak, że biorą pod uwagę rosnący nacisk na podjęcie działań antymonopolowych wobec internetowych gigantów. Opinia publiczna, a za nią i politycy, coraz bardziej martwi się kolejnymi skandalami trapiącymi internetowych gigantów, jak wycieki danych, naruszenia prywatności, praktyki monopolistyczne czy stosowana przez nich cenzura. Na początku bieżącego miesiąca media doniosły, że amerykański Departament Sprawiedliwości i Federalna Komisja Handlu mają zamiar wszcząć śledztwo, którego celem będzie sprawdzenie, czy Google, Amazon, Apple i Facebook nie nadużywają swojej pozycji rynkowej.
      Podczas dzisiejszego spotkania zostanie przedstawionych 13 propozycji, nad którymi odbędzie się głosowanie. Grupa pracowników Google'a wspiera 5 z nich, które sama pomagała przygotować, ale jest przeciwna podziałowi koncernu.
      Przed zgromadzeniem akcjonariuszy wystąpią liderzy Ujgurów i Tybetańczyków, których martwi współpraca Google'a z rządem Chin.

      « powrót do artykułu
×
×
  • Create New...