Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Równi i równiejsi. Miliony VIP-ów nie muszą przestrzegać zasad Facebooka

Rekomendowane odpowiedzi

Dziennikarskie śledztwo przeprowadzone przez The Wall Street Journal wykazało, że Facebook podzielił użytkowników na kategorie i jednym pozwala na więcej niż innym. Wbrew temu, co twierdzą przedstawiciele serwisu, koncern nie stosuje tych samych zasad dla wszystkich. Znani użytkownicy platformy społecznościowej zostali zwolnieni z przestrzegania niektórych lub wszystkich jej zasad.

Mowa tutaj o używanym przez Facebooka programie XCheck. Początkowo jego celem było zwiększenie jakości kontroli nad przestrzeganiem zasad Facebooka przez znanych posiadaczy kont w serwisie. XCheck zajmował się celebrytami, politykami czy dziennikarzami. Jednak z czasem przerodził się on w parasol ochronny nad kilkoma milionami wybranych kont. Niektóre z tych kont są wyłączone spod jakiejkolwiek kontroli zasad przestrzegania standardów Facebooka inne zaś mogą publikować materiały, za które zwykli użytkownicy są upominani czy blokowani.

Z dokumentów, do których dostęp uzyskali dziennikarze, wynika, że w 2019 roku wykonany przez Facebooka poufny wewnętrzny audyt wykazał istnienie problemu. Nie robimy tego, o czym publicznie zapewniamy. Ci ludzie, w przeciwieństwie do całej reszty, mogą naruszać nasze standardy nie ponosząc żadnych konsekwencji, czytamy w poufnym raporcie. Skutek takich działań Facebooka jest taki, że słynny piłkarz Neymar mógł opublikować nagie zdjęcia kobiety, która oskarżyła go o gwałt, a z uprzywilejowanych kont rozsiewano nieprawdziwe informacje o rzekomym ukrywaniu przez Hillary Clinton istnienia pedofilskiego kręgu czy o tym, jakoby prezydent Trump miał nazwać wszystkich uchodźców „zwierzętami”.

Od tamtej pory jest tylko gorzej. W 2020 roku parasolem ochronnym Facebooka objętych było 5,8 miliona kont.

Facebook dokładnie wie, że XCheck stanowi poważny problem, że pozwala na naruszanie standardów. Jednak nic z tym nie robi. Teraz serwis może mieć poważny problem, gdyż ktoś wyniósł poufne dokumenty i co najmniej część z nich przekazał Komisji Giełd i Papierów Wartościowych oraz Kongresowi.

Zawartość umieszczona na Facebooku przez przeciętnego użytkownika podlega sprawdzeniu przez algorytmy, które pilnują, by użytkownicy nie naruszali zasad. Jeśli algorytmy uznają, że zasady zostały naruszone, treści są ukrywane lub usuwane. Czasami materiał oznaczony przez algorytmy trafia do przeglądu dokonywanego przez moderatorów zatrudnianych przez firmy zewnętrzne, współpracujące z Facebookiem.

Jednak inaczej jest w przypadku kont, którymi zajmuje się XCheck. System ten został przygotowany tak, by – jak opisano w poufnych dokumentach Facebooka – zminimalizować szkody PR-owe, do jakich mogłoby dojść, gdyby niesłusznie ocenzurowano treści opublikowane przez wpływowe osoby. Jeśli XCheck stwierdzi, że treści takie mogą naruszać standardy, nie są one usuwane. Trafiają do osobnego systemu przeglądu, dokonywanego przez lepiej przeszkolonych etatowych pracowników.

Wiadomo, że wielu pracowników Facebooka mogło dodawać użytkowników do XCheck, a ze wspomnianego audytu wynika, że w 2019 roku robiło tak co najmniej 45 zespołów znajdujących się w  firmie. Wewnętrzny podręcznik obsługi XCheck mówi, że należy tam dodawać konta „warte rozpowszechniania”, „wpływowe lub popularne” czy „ryzykowne pod względem PR”.

Widocznym skutkiem takich działań było np. postępowanie Neymara, brazylijskiej gwiazdy piłki nożnej, który w 2019 roku został oskarżony o gwałt. W odpowiedzi Neymar opublikował na Facebooku i Instagramie m.in. korespondencje pomiędzy sobą a oskarżycielką, w tym nazwisko oskarżycielki i jej nagie zdjęcia. Standardowe procedury Facebooka przewidują skasowanie takich zdjęć. Jednak konto Neymara znajduje się pod parasolem ochronnym XCheck. Z tego też system na ponad dobę uniemożliwił moderatorom usunięcie wideo opublikowanego przez Neymara. Audyt wykazał również, że 56 milionów użytkowników mogło zobaczyć zdjęcia, które Facebook określił jako „porno z zemsty”, a wideo zostało udostępnione ponad 6000 razy wraz z komentarzami nieprzychylnymi kobiecie.

Zasady Facebooka mówią, że publikacja nagich zdjęć powinna kończyć się nie tylko ich usunięciem, ale również usunięciem konta osoby, która je umieściła. Po tym, jak sprawie Neymara przyjrzało się kierownictwo, zdecydowaliśmy się na pozostawienie jego konta. To wyraźne odejście od naszych zasad, czytamy w audycie Facebooka.

Wydaje się, że Facebook nie panuje nad XCheck. Parasol ochronny otwarto nad tak duża liczbą kont, że nikt nie jest w stanie ręcznie sprawdzać zastrzeżeń zgłaszanych przez algorytmy, a pracownicy wciąż dodają nowe konta. Z dokumentów wynika, że na razie Facebook planuje opracowanie zasad postępowania w przypadku poważnych naruszeń dokonywanych przez ludzi chronionych przez XCheck. Jednak będzie to robione z założeniem, że właściciele takich kont mieli „dobre intencje” i przyjęta zostanie zasada „niewinny, póki nie udowodni mu się winy”. To nadal całkowicie inne zasady postępowania, niż te dotyczące wszystkich innych użytkowników.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Najwyraźniej jest też mechanizm odwrotny  - blokowania wszystkiego na kontach, które nie podobają się miliardowemu chłoptasiowi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Algorytm sztucznej inteligencji stworzony na University of Cambridge uzyskał 97-procentową dokładność w diagnozowaniu celiakii na podstawie biopsji. System maszynowego uczenia się, który został wytrenowany na zestawie niemal 3400 biopsji pochodzących z czterech szpitali, może znakomicie przyspieszyć pracę lekarzy. Będzie też nieocenioną pomocą w krajach rozwijających się, gdzie bardzo brakuje patologów.
      Celiakia, autoimmunologiczna nadwrażliwość na gluten, daje różne objawy u różnych pacjentów. Jej zdiagnozowanie nie jest więc proste. Najdoskonalszą metodą rozpoznania celiakii jest biopsja dwunastnicy. Pobrany materiał jest następnie analizowany przez patologów. Analizują oni stan kosmków jelitowych. Nie jest to łatwe zadanie, gdyż mogą w nich występować bardzo drobne zmiany. Patolodzy używają pięciostopniowej skali Marsha-Oberhubera, w której 0 oznacza prawidłowe kosmki, a 4 - ich całkowity zanik.
      Celiakia może dotykać nawet 1% osób i powodować bardzo poważne objawy, ale uzyskanie diagnozy nie jest proste. Może to trwać wiele lat. Sztuczna inteligencja może przyspieszyć ten proces, mówi profesor Elizabeth Soilleux z Wydziału Patologii Uniwersytetu w Cambridge, która współtworzyła nowy algorytm.
      Oprogramowanie zostało zweryfikowane na podstawie niemal 650 biopsji, z którymi system nie miał wcześniej do czynienia. Okazało się, że w ponad 97% przypadków postawił on prawidłową diagnozę. Jego czułość diagnostyczna wynosiła ponad 95%. Oznacza to, że jest on w stanie prawidłowo zidentyfikować chorobę u 95% osób rzeczywiście na nią cierpiących. Natomiast swoistość oprogramowania – czyli zdolność do zidentyfikowania przypadków, w których choroba nie występuje – wynosiła niemal 98%.
      System osiągnął więc bardzo dobre wyniki. Wcześniejsze badania, przeprowadzone przez ten sam zespół, wykazały, że nawet sami patolodzy nie zgadzają się między sobą odnośnie diagnozy. Gdy bowiem specjalistom pokazano 100 slajdów w biopsjami i poproszono o stwierdzenie, czy pacjent choruje, nie choruje czy też nie można tego stwierdzić na podstawie biopsji, patolodzy nie zgadzali się ze sobą w ponad 20% przypadków.
      W weryfikacji diagnoz postawionych przez sztuczną inteligencję udział wzięło 4 patologów. Pokazano im 30 slajdów i okazało się, że patolodzy z równie dużym prawdopodobieństwem zgadzali się z diagnozą postawioną przez algorytm, co z diagnozą postawioną przez drugiego patologa. To dowodzi, że po raz pierwszy sztuczna inteligencja potrafi równie dobrze co doświadczony patolog stwierdzić, czy pacjent cierpi na celiakię, czy tez nie. Trenowaliśmy nasz system na zestawach danych uzyskanych w różnych warunkach, dzięki temu wiemy, że sprawdzi się on w praktyce, w sytuacjach gdy materiał z biopsji jest w różny sposób przetwarzany i obrazowany, dodaje doktor Florian Jaeckle.
      Twórcy algorytmu planują teraz przetestowanie go na znacznie większej liczbie osób. Wyniki takich testów, o ile wypadną równie pomyślnie, będą podstawą do starania się o uznanie algorytmu za narzędzie dopuszczone w diagnostyce medycznej.
      Artykuł opisujący algorytm został opublikowany na łamach The New England Journal of Medicine.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pomimo trwającej od 2 tygodni rosyjskiej agresji, internet na Ukrainie ciągle działa. Zaskakiwać może, że Kreml, bardzo chętnie korzystający z cyberataków, dotychczas go nie wyłączył. Okazuje się, że na kilka miesięcy przed rosyjską napaścią Stany Zjednoczone zorganizowały tajną misję, w ramach której amerykańscy eksperci pomogli zabezpieczyć ukraińską cyberprzestrzeń.
      Od kilku lat USA pomagają Ukrainie zabezpieczyć sieci komputerowe. Na Ukrainie pracują żołnierze US Army's Cyber Command, niezależni specjaliści opłacani przez Waszyngton oraz eksperci z firm IT. Jednak pod koniec ubiegłego roku wysiłki te zostały wyraźnie zintensyfikowane i skupione na konkretnym zagrożeniu. Media donoszą, że w październiku i listopadzie liczba amerykańskich ekspertów pracujących na Ukrainie uległa nagłemu zwiększeniu. Mieli oni przygotować ukraińskie sieci na spodziewane ataki w obliczu coraz bardziej prawdopodobnej wojny. Misja najwyraźniej się powiodła, gdyż Ukraina ciągle ma łączność ze światem.
      Okazuje się na przykład, że agresor chciał sparaliżować ukraińskie koleje. Amerykanie znaleźli w sieci komputerowej ukraińskich kolei państwowych malware, które pozwalało napastnikom na jej wyłączenie poprzez skasowanie kluczowych plików.
      Niestety, podobne oprogramowanie zostało też zainstalowane – czego Amerykanie nie zauważyli – na komputerach straży granicznej i przeprowadzony cyberatak zwiększył chaos na granicy ukraińsko-rumuńskiej.
      Amerykanie nie ograniczyli się do działań informatycznych. Wiadomo, że we współpracy z ukraińskimi firmami odpowiadającymi za ukraińską sieć szkieletową, budowali dodatkową infrastrukturę, która miała zabezpieczyć najważniejsze potencjalne cele rosyjskich cyberataków.
      W ostatnim tygodniu lutego na sieć ukraińskiej policji i innych agend rządowych przeprowadzono silny atak DDoS. Wiadomo, że w ciągu kilku godzin Amerykanie skontaktowali się z Fortinetem, kalifornijską firmą sprzedającą wirtualne maszyny przeznaczone do przeciwdziałania takim atakom, zdobyli fundusze, w zaledwie 15 minut uzyskali zgodę Departamentu Handlu na transfer technologii i zainstalowali oprogramowanie Fortinetu na komputerach policji. Atak został odparty w ciągu ośmiu godzin od rozpoczęcia.
      Ataki hakerskie są często kierowane przeciwko komercyjnemu oprogramowaniu, a znaczną jego część produkują amerykańskie i europejskie firmy, które teraz poświęcają część swoich zasobów na pomoc Ukrainie. Wiadomo na przykład, że microsoftowe Threat Intelligence Center od wielu miesięcy chroni ukraińskie sieci przed rosyjskimi atakami. Jeszcze 24 lutego, na kilka godzin przez rosyjską napaścią, inżynierowie Microsoftu wykryli nowe szkodliwe oprogramowanie i dokonali jego inżynierii wstecznej. W ciągu trzech godzin udało im się stworzyć łatę i ostrzec ukraińskie władze przed licznymi atakami na wojskowe sieci. O sytuacji powiadomiono Biały Dom, który poprosił Microsoft, by ten podzielił się szczegółami z Polską innymi krajami europejskimi w obawie, że i ich sieci mogły zostać zarażone tym samym kodem. Menedżerowie Microsoftu przyznają, że jeszcze kilka lat temu takie działania zajęłyby całe tygodnie lub miesiące. Teraz wystarczają godziny.
      Amerykańska prasa donosi, że niektórzy z wysokich rangą menedżerów Microsoftu uzyskali szybko certyfikaty bezpieczeństwa i biorą teraz udział w spotkaniach National Security Agency (NSA) i Cyber Command.
      Eksperci obserwujący rozwój wydarzeń w ukraińskiej cyberprzestrzeni, są zdumieni tym, co widzą. Rosja zdobyła sobie reputację kraju, który potrafi skutecznie przeprowadzić silne niszczące cyberataki. Tymczasem od czasu napaści na Ukrainę nie obserwuje się wzmożenia tego typu aktywności. Nie wiadomo, co się stało. Być może Rosjanie próbowali, ale dzięki wzmocnieniu ukraińskiej infrastruktury napotkali na trudności. Na pewno próbowali przejąć facebookowe konta wysokich rangą ukraińskich oficerów i znanych osobistości, by rozpowszechniać fałszywe informacje. Na kontach tych pojawiły się filmy z rzekomo poddającymi się ukraińskimi oddziałami. Facebook zablokował zaatakowane konta i poinformował ich właścicieli.
      Nie można wykluczyć, że Kreml zlekceważył siłę ukraińskiej cyberprzestrzeni podobnie, jak zlekceważył ukraińską armię.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na University of Oxford powstaje oprogramowanie, które na podstawie wyglądu twarrzy ma rozpoznawać rzadkie choroby genetyczne. Choroby takie dotykają około 6% populacji, ale w większości przypadków pozostają nierozpoznane. Istnieją testy genetyczne pozwalające zdiagnozować częściej występujące schorzenia, takie jak np. zespół Downa. Jednak dla wielu chorób testy nie zostały opracowane, gdyż nie zidentyfikowano genów, które je powodują.
      W przypadku 30-40 procent osób cierpiących na schorzenia genetyczne pewne charakterystyczne cechy są widoczne na twarzach. I właśnie na tej podstawie lekarz może postawić diagnozę. Problem w tym, że niewielu medyków ma odpowiednie przygotowanie pozwalające na rozpoznanie chorób genetycznych na podstawie wyglądu twarzy. Z tego też powodu wiele osób nie ma przez całe lata postawionej prawidłowej diagnozy.
      Dlatego też Christoffer Nellaker i Andrew Zisserman z Oxfordu postanowili stworzyć oprogramowanie, które na podstawie zdjęcia będzie pomagało we wstępnej diagnostyce.
      Obaj naukowcy wykorzystali w swojej pracy 1363 publicznie dostępne zdjęcia osób cierpiących na osiem schorzeń genetycznych. Znalazły się wśród nich fotografie chorych na zespół Downa, zespół łamliwego chromosomu X czy progerię. Komputer uczył się identyfikować każdą z chorób na podstawie zestawu 36 cech twarzy, takich jak kształt oczu, ust, nosa czy brwi. „Automatycznie analizuje zdjęcie i skupia się na głównych cechach, z których tworzy opis twarzy podkreślając cechy odróżniające” - mówi Nellaker. Później opis taki jest przez komputer porównywany ze zdjęciami osób ze zdiagnozowanymi schorzeniami. Na tej podstawie maszyna wydaje swoją opinię i określa prawdopodobieństwo, z jaki dana osoba może cierpieć na któreś ze schorzeń.
      Skuteczność algorytmu zwiększa się wraz z wielkością bazy danych fotografii referencyjnych. W przypadku ośmiu schorzeń genetycznych, którymi obecnie się zajęto, baza danych dla każdej z nich wynosiła od 100 do 283 zdjęć osób ze zdiagnozowanymi chorobami. Testy wykazały, że maszyna rozpoznaje choroby z 93-procentową trafnością.
      Tak obiecujące wyniki skłoniły naukowców do rozszerzenia zestawu diagnozowanych chorób do 91. W bazie danych znajdują się obecnie 2754 zdjęcia osób, u których rozpoznano jedną z tych chorób. Na razie system nie podaje dokładnej diagnozy, jednak naukowcy szacują, że już w tej chwili ich algorytm potrafi właściwie rozpoznać chorobę z 30-krotnie większym prawdopodobieństwem niż przy losowym zgadywaniu. Na przykład na podstawie zdjęcia Abrahama Lincolna system uznał, że cierpiał on na zespół Marfana. Niektórzy historycy twierdzą, że prezydent rzeczywiście na to chorował. Zespół Marfana jest siódmą najczęściej występujących schorzeniem spośród 91, którymi zajmuje się algorytm.
      Nellaker przyznaje, że algorytm nie podaje 100-procentowo pewnych odpowiedzi, ale pozwala na znaczne zawężenie możliwości wyboru. Teoretycznie może być on używany do diagnozowania noworodków, jednak jego twórcy uważają, że będzie używany głównie do diagnozowania rodziców, którzy martwią się, iż mogliby swoim dzieciom przekazać jakieś schorzenia. Główną zaletą systemu będzie jego łatwa dostępność. Szczególnie przyda się on tam, gdzie testy genetyczne są niedostępne.
      Ma on też olbrzymią przewagę nad stworzonymi wcześniej systemami korzystającymi z obrazów 3D. Tworzenie takich obrazów jest trudne i kosztowne, a pacjent musi odwiedzić szpital, w którym obraz zostanie wykonany. System Nellakera i Zissermana potrzebuje jedynie cyfrowego zdjęcia twarzy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy denerwujemy się, że nasz domowy pecet uruchamia się za długo, pewnym pocieszeniem może być informacja, iż w porównaniu z eksperymentalnymi komputerami kwantowymi jest on demonem prędkości. Uczeni pracujący nad tego typu maszynami spędzają każdego dnia wiele godzin na ich odpowiedniej kalibracji.
      Komputery kwantowe, a raczej maszyny, które w przyszłości mają się nimi stać, są niezwykle czułe na wszelkie zewnętrzne zmiany. Wystarczy, że temperatura otoczenia nieco spadnie lub wzrośnie, że minimalnie zmieni się ciśnienie, a maszyna taka nie będzie prawidłowo pracowała. Obecnie fizycy kwantowi muszą każdego dnia sprawdzać, jak w porównaniu z dniem poprzednim zmieniły się warunki. Później dokonują pomiarów i ostrożnie kalibrują układ kwantowy - mówi profesor Frank Wilhelm-Mauch z Uniwersytetu Kraju Saary. Dopuszczalny margines błędu wynosi 0,1%, a do ustawienia jest około 50 różnych parametrów. Kalibracja takiej maszyny jest zatem niezwykle pracochłonnym przedsięwzięciem.
      Wilhelm-Mauch i jeden z jego doktorantów zaczęli zastanawiać się na uproszczeniem tego procesu. Stwierdzili, że niepotrzebnie skupiają się na badaniu zmian w środowisku. Istotny jest jedynie fakt, że proces kalibracji prowadzi do pożądanych wyników. Nie jest ważne, dlaczego tak się dzieje. Uczeni wykorzystali algorytm używany przez inżynierów zajmujących się mechaniką konstrukcji. Dzięki niemu możliwe było zmniejszenie odsetka błędów poniżej dopuszczalnego limitu 0,1% przy jednoczesnym skróceniu czasu kalibracji z 6 godzin do 5 minut. Niemieccy naukowcy nazwali swoją metodologię Ad-HOC (Adaptive Hybrid Optimal Control) i poprosili kolegów z Uniwersytetu Kalifornijskiego w Santa Barbara o jej sprawdzenie. Testy wypadły pomyślnie.
      W przeciwieństwie do metod ręcznej kalibracji nasza metoda jest całkowicie zautomatyzowana. Naukowiec musi tylko wcisnąć przycisk jak w zwykłym komputerze. Później może pójść zrobić sobie kawę, a maszyna kwantowa sama się wystartuje - mówi Wilhelm-Mauch.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Posłowie obu największych partii z amerykańskiej Izby Reprezentantów przygotowali pakiet ustaw antymonopolowych, które biorą na cel gigantów rynku IT. Jeśli ustawy zostaną przegłosowane, będą największą zmianą amerykańskiego prawa antymonopolowego od dziesięcioleci.
      Pięć ustaw to wynik trwającego ponad rok śledztwa i analiz nad konkurencyjnością rynku cyfrowego. Na cel biorą one "nieuregulowane wpływy Big Tech", stwierdzili ich autorzy.
      Amazon, Apple, Facebook i Google to cztery potężne koncerny, które mają wpływ na niemal każdy aspekt tego, co dzieje się w internecie. Ich wartość rynkowa przekracza 6 bilionów dolarów, a potęga i wpływy, jakie mają, pokazują, że tradycyjne prawo antymonopolowe nie działa w ich przypadku. Facebook to największy serwis społecznościowy na świecie, z którego korzysta tyle osób ile łącznie mieszka w Chinach i Indiach. Amazon kontroluje 38% amerykańskiego rynku sprzedaży online, a jego największy konkurent – Walmart – ma zaledwie 6% rynku. Ponadto Amazon, za pośrednictwem swojej platformy, zbiera olbrzymią ilość informacji o innych sprzedawcach. Od Apple App Store zależy los wielu deweloperów, dla których platforma ta jest jedynym sposobem dotarcia do olbrzymiej liczby klientów. Z kolei Google przetwarza około 90% wszystkich zapytań w internecie.
      Demokrata David N. Ciciline, przewodniczący Podkomitetu Antymonoplowego Izby Reprezentantów, w którym ostatnio szefowie gigantów zostali poddani wielogodzinnym publicznym przesłuchaniom, stwierdził: Obecnie nieuregulowane monopole technologiczne mają zbyt duży wpływ na naszą gospodarkę. Ich pozycja pozwala im decydować, kto wygra a kto przegra w grze rynkowej, mogą niszczyć małe firmy, podnosić ceny i pozbawiać ludzi pracy.
      Stronnicy wielkich korporacji mówią, że dzięki skali jaką osiągnęły Apple, Amazon, Facebook i Google firmy te mogły dokonać niespotykanych wcześniej innowacji i dostarczyć konsumentom tanich produktów technologicznych. Krytycy zaś twierdzą, że wpływy wielkich korporacji są szkodliwe dla pracowników, niszczą małe firmy i obciążają konsumentów innymi kosztami niż tyko finansowe.
      W proponowanych ustawach znalazły się przepisy, które zakazują dominującym platformom – jak App Store Apple'a czy Play Store Google'a – dyskryminowania sprzedawców, wybierania tych, którzy mogą z nich korzystać czy zapewniania im lepszych miejsc na platformach. Koncerny nie będą mogły decydować, kto wygra a kto przegra. Zakazane mają być akwizycje mające na celu zduszenie rodzącej się konkurencji lub takie, których celem będzie rozszerzenie lub wzmocnienie rynkowej pozycji online'owych platform. W ustawach przewidziano też ograniczenie dominującym platformom możliwości kontrolowania firm z różnych rynków. Znalazły się w nich również zapisy dotyczące obniżenia barier wejścia na rynek oraz zmniejszenia kosztów dla firm i konsumentów chcących zrezygnować z jednej platformy na rzecz innej. Ustawodawcy proponują też pierwszą od 2 dekad podwyżkę opłat za łączenie firm. Z opłat takich finansowane są działania antymonopolowe Departamentu Sprawiedliwości i Federalnej Komisji Handlu.
      Proponowane nowe przepisy to jednak nie wszystko. Wszystkie wymienione firmy mają na głowie procesy antymonopolowe wytoczone im zarówno przez Departament Sprawiedliwości, Federalną Komisją Handlu jak i prywatną konkurencję.
      Wspomniane 6-godzinne przesłuchania przed Izbą Reprezentantów, których owocem jest omawiany tutaj pakiet ustaw, miały miejsce w lipcu ubiegłego roku. Były one kulminacją trwającego kilkanaście miesięcy śledztwa, w czasie którego zgromadzono ponad 1,3 miliona dokumentów zarówno od wymienionych gigantów IT, ich konkurencji, jak i agencji antymonopolowych. Po przesłuchaniu powstał 449-stronicowy raport, w którym Apple'a, Amazona, Google'a i Facebooka oskarżono o naruszenie pozycji rynkowej.
      Inicjatywa ustawodawcza spotkała się już z krytyką. Proponowane ustawy spowodują, że rząd będzie zarządzał organizacjami przemysłowymi. Lekceważą one podstawy amerykańskiej gospodarki rynkowej i spowodują, że działające z powodzeniem firmy technologiczne nie będą mogły dostarczać konsumentom produktów i usług poprawiających ich życie, mówi Matthew Schruers, prezes organizacji Computer & Communications Industry Association.
      Głosy takie nie znajdują jednak zrozumienia u członków komitetu antymonpolowego. Republikanin Ken Buck stwierdził: Firmy Big Tech wykorzystują swoją dominującą pozycję do niszczenia konkurencji, cenzurowania swobody wypowiedzi i kontrolowania tego, w jaki sposób postrzegamy i rozumiemy świat. Nic nierobienie nie jest rozwiązaniem. Musimy działać teraz.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...