Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Google i Facebook oskarżone o „plądrowanie treści”

Recommended Posts

Dwadzieścia największych europejskich agencji informacyjnych we wspólnym oświadczeniu oskarżyło Google'a i Facebooka o „plądrowanie” zawartości należących doń mediów i domaga się, by obie firmy w większym stopniu dzieliły się swoimi przychodami z mediami. Apel podpisali m.in. szefowie Agence France-Presse, Press Association i Deutsche Presse-Agentur. Wezwali oni też Parlament Europejski do uchwalenia przepisów, które zakończą tę „groteskową nierównowagę”.

Plądrowanie zawartości mediów i ich wpływów reklamowych, jakiego dopuszczają się giganci internetu, zagraża zarówno konsumentom jak i demokracji, czytamy w oświadczeniu. Jeszcze w bieżącym miesiącu Parlament Europejski ma debatować nad prawem autorskim, które zmusi internetowych gigantów do dzielenia się większą części wpływów ze źródłami, z których pochodzą treści umieszczane na witrynach.

Pierwsza wersja nowego prawa została w lipcu odrzucona. Zwalczały ją zarówno wielkie koncerny z USA, jak i obrońcy wolności internetu, którzy obawiają się, że nowe prawo zwiększy koszty dostępu.

Szefowie europejskich agencji informacyjnych twierdzą w wydanym oświadczeniu, że Google czy Facebook mogą pozwolić sobie na płacenie mediom za ich treści bez przerzucania kosztów na klientów. Zauważają, że w ubiegłym roku przychody Facebooka wyniosły 40 miliardów USD, a zyski to 16 miliardów. W przypadku Google'a było to – odpowiednio – 110 miliardów i 12,7 miliarda. Czy w takiej sytuacji ktoś może argumentować, że firmy te nie są w stanie uczciwie płacić za treści, na których zarabiają? Mówimy tutaj o wprowadzeniu uczciwej opłaty dla tych, którzy na tych treściach zarabiają. Ze względu na wolność prasy i wartości demokratyczne prawodawcy w UE powinni dokonać reformy prawa autorskiego, stwierdzają autorzy apelu.

Walka toczy się o dwa zapisy w nowym prawie autorskim. Artykuł 13 przewiduje, że takie serwisy jak YouTube byłyby odpowiedzialne prawnie za chronione prawem autorskim materiały, które są umieszczane na ich stronach bez wnoszenia opłat na rzecz właścicieli autorskich praw majątkowych. Zaś Artykuł 11 przewiduje, że Google i inne serwisy musiałyby wnosić opłaty za umieszczanie odnośników do treści w gazetach czy witrynach informacyjnych. Bez tego internetowi giganci, jak Google czy Facebook, bezpłatnie wykorzystują olbrzymią liczbę treści, które są tworzone przez innych wielkim nakładem środków, czytamy w oświadczeniu.

Krytycy takiego pomysłu argumentują, że uchwalenie nowych przepisów prowadziłoby do automatycznej autocenzury i ograniczenia kreatywności, szczególnie w takich serwisach jak YouTube. Ponadto szybko zniknęłyby memy, gdyż ich twórcy nie sprawdzają, kto ma prawa do wykorzystywanej przez nich grafiki.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Tak jest. Zupełnie wyłączyć Google. Co za debile…

Share this post


Link to post
Share on other sites

Ostatnie podrygi, ich model biznesowy najwyraźniej się skończył.

W dniu 4.09.2018 o 14:01, KopalniaWiedzy.pl napisał:

Google i inne serwisy musiałyby wnosić opłaty za umieszczanie odnośników do treści w gazetach czy witrynach informacyjnych.

Ależ proszę bardzo. Podobne prawo chyba już funkcjonuje w Niemczech i nagle okazało się, że Google nie ma żadnego obowiązku umieszczać takich odnośników na swoich stronach. Wszyscy wydawcy ustalili się kolejce do Googla podpisując umowy o współpracy. I Google dalej nie płaci.
Ci ludzie chyba nie rozumieją na czym polega symbioza: jeśli spróbują ją zniszczyć to staną się pasożytami i Google znajdzie mechanizmy obronne.

Share this post


Link to post
Share on other sites
19 minut temu, peceed napisał:

jeśli spróbują ją zniszczyć to staną się pasożytami

Może zwyczajnie nazbyt dopiekł (imponuje im?) największy pasożyt tego świata? Money for nothing? Ktoś był w tym pierwszy... (nie chodzi o Dire Straits ;))

Share this post


Link to post
Share on other sites
18 minut temu, Astro napisał:

Może zwyczajnie nazbyt dopiekł (imponuje im?) największy pasożyt tego świata? Money for nothing? Ktoś był w tym pierwszy...

Google nikogo nie okradł, zaproponował najlepszą usługę wyszukiwania dla ludzi i najlepszą usługę reklamowania dla przedsiębiorstw, w ramach obecnego systemu prawnego.
Nie mam zamiaru godzić się na zmiany w prawie bo komuś się wydaje że powinien zarabiać więcej. Niech poupadają.

Share this post


Link to post
Share on other sites
4 minuty temu, peceed napisał:

zaproponował najlepszą usługę wyszukiwania dla ludzi

??

4 minuty temu, peceed napisał:

i najlepszą usługę reklamowania dla przedsiębiorstw

???

Nie chce mi się wchodzić w to bagno, ale chętnie posłałbym Ci w firmę samochodzik z kamerą szerokokątną i opublikował to wszystko w sieci (pod płaszczykiem sam wiesz czego).

Na marginesie: nie stosuję ich wyszukiwarki, a otwarte mapy są dziś całkiem niezłe.

Share this post


Link to post
Share on other sites

Nie wiem dokładnie o co chodzi, bo nie znam szczegółów, ale plądrowanie polega między innymi na tym, ze wyświetlają cudze treści w swoich wynikach wyszukiwania.

Wpisz w Google "top programming languages" i pierwszy artykuł sprzed 3 dni "Top Programming Languages to Learn in 2020" się ładnie rozwija w wynikach wyszukiwania z listą 7 języków programowania, które są wyciągnięte z artykułu. Do tego są obrazki na górze, które po kliknięciu prowadzą do sekcji images. Generalnie nie trzeba nic klikać i czytać żadnych artykułów. Może ich model biznesowy się skończył, a zmiany których żądają są nierealistyczne, ale to jest trochę nieporządku, bo dostarczają kontent, a Google tylko pasożytuje.

Share this post


Link to post
Share on other sites
2 godziny temu, Astro napisał:

??

Numer drugi, Altavista, to była straszna kobyła w porównaniu do Google. Parafrazując, dopiero google to www.

55 minut temu, cyjanobakteria napisał:

Wpisz w Google "top programming languages" i pierwszy artykuł sprzed 3 dni "Top Programming Languages to Learn in 2020" się ładnie rozwija w wynikach wyszukiwania z listą 7 języków programowania, które są wyciągnięte z artykułu.

W czym problem? Jeśli wartość merytoryczna artykułu sprowadza się do kilku linijek to nie mają prawa narzekać. Chyba nikomu się nie wydaje, że wynik wyszukiwania ma się ograniczyć na tytule i odnośniku (ach, no przecież za to też by trzeba płacić).
Chyba nie zrozumieli że informacja jest obecnie prawie darmowa, a w cenie jest metainformacja.
Jeśli coś takiego wejdzie w życie, to google nie będzie prezentował fragmentów treści albo i wyników za wyjątkiem tych objętą odpowiednią licencją, i szybko skończy się kozaczenie.
Ciekawe, jaki znajdą sobie kanał dotarcia do klienta. Ci ludzie nie rozumieją, że ich pozycja jest słaba: google nie tylko ma internet ale i telefony. Historia uczy, że takie rozpaczliwe ratowanie się legislacją poprzedza upadek. Nie da się wygrać w pokera z osobą, która wie że ma więcej pieniędzy i lepsze karty.
Mieli masę czasu na wypracowanie lepszych metod biznesowych, jedyne co wymyślili to "kupimy sobie ustawę".

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Facebook zbudował prototypowego robota, który porusza się po... liniach energetycznych. Bombyx – Jedwabnik – rozwija za sobą światłowód. Gdy dociera do słupa, przechodzi nad nim i kontynuuje swoją podróż. Robot służy do układania światłowodów wzdłuż istniejących napowietrznych linii średniego napięcia, a jego celem jest obniżenie kosztów budowy infrastruktury komunikacyjnej na całym świecie.
      Obecnie koszty budowy takiej infrastruktury są bardzo wysokie. Szczególnie, gdy pojawia się konieczność wykonania prac ziemnych. Stąd też pomysł, by wykorzystać istniejące linie energetyczne. Te bowiem dotarły już do wielu miejsc na świecie, więc dostawcy internetu mogliby z nich skorzystać i znacząco obniżyć koszty budowy infrastruktury. To zaś oznaczałoby obniżenie kosztów dla ich klientów.
      Facebook od dawna chce zwiększyć dostępność do internetu na całym świecie. Dlatego właśnie serwis społecznościowy zabrał się za opracowanie Bombyksa. Firma nie ma jednak zamiaru samodzielnie budować i sprzedawać takich robotów. Od przyszłego roku będzie udzielała licencji wszystkim chętnym przedsiębiorstwom, które będą chciały produkować takie urządzenia.
      Połowa ludzkości nie ma dostępu do internetu, mówi inżynier Karthik Yogeeswaran z Facebooka, członek grupy, która opracowała robota. Z tych 50% ludzi, którzy nie korzystają z internetu aż 80% mieszka na terenach, gdzie jest dostęp do telefonii komórkowej, jednak nie stać ich na smartfon i opłacenie abonamentu. Światłowód ma o wiele rzędów wielkości wyższą przepustowość niż jakakolwiek ina technologia. Pozwala na przesłanie większej ilości danych do większej liczby ludzi, dodaje Yogeeswaran.
      Brak dostępu do szybkich łączy internetowych nie jest wyłącznie problemem krajów ubogich. W USA agendy federalne i stanowe wydają miliardy dolarów na zwiększenie zasięgu i przepustowości sieci, a mimo to ciągle jest z tym kłopot. Budowa infrastruktury idzie powoli i jest bardzo kosztowna. Koszty wykonania prac ziemnych i ułożenia kabli mogą sięgnąć dziesiątków tysięcy dolarów za każdy kilometr. A jeśli nawet na jakimś odległym terenie już sieć powstanie, to koszty jej budowy, które trzeba uwzględnić w cenie oferowanych usług, mogą być tak duże, że wielu osób nie stać na korzystanie z nowo wybudowanej infrastruktury. Z oficjalnych danych wynika, że 18 milionów Amerykanów (5,6%) nie ma obecnie dostępu do szerokopasmowego internetu definiowanego jako łącze o przepustowości co najmniej 25/3 Mbit. Największy problem jest na wsiach, gdzie dostępu do takich łączy nie ma około 30% obywateli oraz 40% szkół i 60% instytucji opieki zdrowotnej znajdujących się poza dużymi miastami.
      Przed trzema laty specjaliści z Facebooka zaczęli zastanawiać się nad obniżeniem kosztów budowy infrastruktury światłowodowej. Yogeeswaran mówi, że pomysł wykorzystania linii średniego napięcia wpadł mu do głowy, gdy podróżował po afrykańskiej prowincji. Zauważył, że wiejskie tereny Ugandy są usiane liniami średniego napęcia. Inżynier wpadł więc na pomysł, by układać światłowody wzdłuż istniejących linii.
      Poszukując sposobów na zrealizowanie swojego pomysłu Yogeeswaran dowiedział się, że już w latach 80. ubiegłego wieku pojawiła się maszyna, która miała pomagać w układać światłowodów na liniach energetycznych. Nigdy nie odniosła  komercyjnego sukcesu. Częściowo dlatego, że była wybudowana za pomocą ówczesnej technologii. Korzystała z silników spalinowych i nie potrafiła omijać słupów. Musieli jej w tym pomagać ludzie. A to oznaczało konieczność wyłączenia prądu w całych liniach, mówi inżynier.
      Pomysł Facebooka polega na umieszczeniu na linii średniego napięcia lekkiego robota który owija światłowód wokół istniejącego kabla, samodzielnie się porusza i samodzielnie omija słupy. Zwykle przeciąganie kabli pomiędzy słupami wymaga pracy ciężkiego sprzętu i wielu osób. Dzięki Bombyxowi wystarczy 2-3 techników, pickup, kilka kilometrów światłowodu na szpuli i nieco innych narzędzi.
      Jako, że kable w liniach średniego napięcia są lżejsze i słabsze niż te w liniach wysokiego napięcia, robot musi być odpowiednio lekki, a w jego wnętrzu musi zmieścić się kabel, który jest cienki, ale na tyle wytrzymały, by przetrwał wiatry i duże wahania temperatur. Obecnie do napowietrznego układania stosuje się światłowody o średnicy 10–13 milimetrów, a te używane do owijania wokół istniejących kabli mają około 7 milimetrów średnicy. Tymczasem Facebook i jego partnerzy stworzyli napowietrzny światłowód o średnicy 4 milimetrów.
      Gdy już kabel powstał Facebook rozpoczął współpracę z firmą ULC Robotics. Jej wynikiem jest robot, który porusza się po liniach średniego napięcia i potrafi omijać izolatory oraz inne przeszkody na słupach bez pomocy człowieka. Bombyx pracuje na działającej linii, nie ma więc potrzeby wyłączania prądu. Jest również bardzo szybki. Ułożenie kilometra światłowodu zajmuje mu około 1,5 godziny.
      Zanim Facebook i jego partnerzy rozpoczną program pilotażowy, chcą jeszcze udoskonalić swojego robota. Chcą, by operowanie Bombyxem było na tyle łatwe, by robota nie musiał doglądać inżynier. Mają też zamiar opracować bezpieczne procedury korzystania z robota.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska domaga się, by platformy społecznościowe przedstawiały comiesięczne raporty, w których poinformują, jak walczą z dezinformacją związaną z epidemią COVID-19. Nowe zasady będą dotyczyły m.in. Google'a, Facebooka, Twittera oraz innych firm, które są zobowiązane do przestrzegania europejskiego kodeksu dot. postępowania z dezinformacją.
      Jesteśmy świadkami fali fałszywej i mylącej informacji, kłamstw, teorii spiskowych oraz celowych działań zagranicznych ośrodków. Celem niektórych z tych działań jest zaszkodzenie Unii Europejskiej i krajów członkowskich, próba podważenia demokracji, zaufania do UE i autorytetów narodowych. Co gorsza, rozsiewanie takich informacji w czasach koronawirusa może zabijać, mówi wiceprezydent Komisji Josep Borrell.
      W związku z tym Komisja Europejska chce, by platformy, które w 2018 roku zobowiązały się do przestrzegania wspomnianego kodeksu postępowania, składały comiesięczne relacje ze swoich działań na rzecz promowania wiarygodnych treści, zwiększania świadomości użytkowników oraz ograniczania dezinformacji dotyczącej koronawirusa i powiązanej z nią reklamy. Ponadto chce, by serwisy społecznościowe prowadziły przejrzystą politykę informowania użytkowników o tym że mają do czynienia z dezinformacją.
      Komisja wskazała jednocześnie Rosję i Chiny jako kraje, które celowo rozsiewają nieprawdziwe informacje na temat epidemii. Podobnego zresztą zdania są Amerykanie. Również i oni stwierdzają, że oba te państwa prowadzą kampanię dezinformacji zarówno za pośrednictwem mediów państwowych oraz nieoficjalnie na platformach społecznościowych. Celem tej kampanii jest poprawienie wizerunku tych państw i ich władz oraz zaszkodzenie wizerunkowi państw Zachodu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Przed sądem federalnym w San Jose złożono pozew zbiorowy przeciwko Google'owi. Autorzy pozwu oskarżają wyszukiwarkowego giganta o to, że zbiera informacje o internautach mimo iż używają oni trybu prywatnego przeglądarki. Uważają, że Google powinien zapłacić co najmniej 5 miliardów dolarów grzywny.
      Zdaniem autorów pozwu problem dotyczy milionów osób, a za każde naruszenie odpowiednich ustaw federalnych oraz stanowych koncern powinien zapłacić co najmniej 5000 USD użytkownikowi, którego prawa zostały naruszone.
      W pozwie czytamy, że Google zbiera dane za pomocą Google Analytics, Google Ad Managera i innych aplikacji oraz dodatków, niezależnie od tego, czy użytkownik klikał na reklamy Google'a. Google nie może w sposóby skryty i nieautoryzowany gromadzić danych na temat każdego Amerykanina, który posiada komputer lub telefon, piszą autorzy pozwu.
      Do zarzutów odniósł się Jose Castaneda, rzecznik prasowy koncernu. Za każdym razem, gdy użytkownik uruchamia przeglądarkę w trybie prywatnym, jest jasno informowany, że przeglądane witryny mogą śledzić jego poczynania, stwierdził.
      Specjaliści ds. bezpieczeństwa od dawna zwracają uwagę, że użytkownicy uznają tryb prywatny za całkowicie zabezpieczony przez śledzeniem, jednak w rzeczywistości takie firmy jak Google są w stanie nadal zbierać dane o użytkowniku i, łącząc je z danymi z publicznego trybu surfowania, doprecyzowywać informacje na temat internautów.

      « powrót do artykułu
×
×
  • Create New...