Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Dowiemy się komu i za ile są sprzedawane nasze dane? Początek ekonomii danych osobowych?

Rekomendowane odpowiedzi

Dwóch amerykańskich senatorów, demokrata Josh Hawley i republikanin Mark Warner, przygotowało projekt ustawy, której celem jest lepszy nadzór nad danymi osobowymi przechowywanymi przez wielkie koncerny. Ustawa ma zmusić Facebooka, Google'a, czy Amazona do ujawnienia ile danych osobowych przechowują oraz w jaki sposób – pośredni i bezpośredni – na nich zarabiają.

DASHBOARD (Designing Accounting Safeguards to Help Broaden Oversight And Regulations on Data Act) dotyczyłaby przedsiębiorstw, które mają miesięcznie ponad 100 milionów unikatowych użytkowników i zobowiązybałaby je do ujawnienia szczegółów dotyczących zarabiania na danych użytkowników.

Projekt ustawy zakłada, że raz na 90 dni wspomniane firmy miałyby obowiązek poinformowania każdego z użytkowników o szacowanej wartości danych tego użytkownika przechowywanych przez operatora.

Gdy wielkie koncerny twierdzą, że ich produkt jest darmowy, tak naprawdę sprzedają konsumentów. Co więcej, firmy IT robią wszystko, by ukryć informacje o tym, ile warte są dane użytkownika i komu zostały sprzedane, oświadczył senator Hawley. Przez lata serwisy społecznościowe twierdziły, że ich usługi są darmowe. Jednak to nie jest prawda, użytkownik płaci za te usługi swoimi danymi, dodał senator Warner.

Zdaniem twórców ustawy, nowe przepisy pozwolą konsumentom zrozumieć, jaka jest prawdziwa wartość ich danych, dadzą im nad nimi kontrolę i pokażą, że to co rzekomo darmowe, tak naprawdę słono kosztuje.

Warto w tym miejscu przypomnieć, że od wielu lat pojawiają się próby powołania do życia czegoś, co można by nazwać „ekonomią danych osobowych”. To próby przekazania użytkownikom zarówno kontroli nad własnymi danymi oraz możliwości pobierania opłat za korzystanie z nich. Nad tego typu pomysłem, projektem o nazwie „Bali”, pracuje m.in. Microsoft.

Gdyby ustawa DASHBOARD została przyjęta przez Kongres, z pewnością ułatwiłoby to powstanie „ekonomii danych osobowych”.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, KopalniaWiedzy.pl napisał:

o próby przekazania użytkownikom zarówno kontroli nad własnymi danymi oraz możliwości pobierania opłat za korzystanie z nich.

Bardzo to ciekawe i wydaje się sprawiedliwe. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chodzi o duże firmy, to tak, ale parę lat temu były też naciągackie firmy, które proponowały na zarabianiu na tym, że dobrowolnie przekazujemy im nasze dane, oni sobie to sprzedają komu chcą i odpalają naiwniakom procencik.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 28.06.2019 o 23:14, wilk napisał:

Jeśli chodzi o duże firmy, to tak, ale parę lat temu były też naciągackie firmy, które proponowały na zarabianiu na tym, że dobrowolnie przekazujemy im nasze dane, oni sobie to sprzedają komu chcą i odpalają naiwniakom procencik.

nie do końca rozumiem na czym polegało to naciąganie.. może procent był za mały w stosunku do ich zysków lub ew. strat/ryzyka związanego z tym dobrowolnym przekazaniem danych? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak to na czym? Nakłaniały do dobrowolnego przekazania im swoich danych i w zamian dostawałeś grosika. Zwykli dilerzy danymi osobowymi, tylko nie działający jako pośrednicy dla innych firm, a zbierający u źródła. Powyższy pomysł mógłby być ok, ale skończy się tym, że bez dowodu fejsika nie założysz.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, wilk napisał:

Jak to na czym? Nakłaniały do dobrowolnego przekazania im swoich danych i w zamian dostawałeś grosika. Zwykli dilerzy danymi osobowymi, tylko nie działający jako pośrednicy dla innych firm, a zbierający u źródła. Powyższy pomysł mógłby być ok, ale skończy się tym, że bez dowodu fejsika nie założysz.

ok, czyli zbyt niskie wynagrodzenie ;P 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jestem pewien, że znalazły się osoby tak naiwne, że skorzystały z tamtych ofert… Zresztą o ile pamiętam nawet tutaj coś takiego się reklamowało. Według mnie ta sama szufladka co scamy typu zakładanie konta bankowego na własne dane, udostępnianie go osobie trzeciej, która poprzez nie przeprowadza jakieś szemrane transakcje, a z obrotu odpala procent właścicielowi, bo takie też były.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Sprawa Rosenbergów to jedna z najgłośniejszych afer szpiegowskich w dziejach. Julius i Ethel Rosenberg zostali w 1951 roku uznani winnymi szpiegostwa na rzecz ZSRR. Wykradli USA tajemnice dotyczące m.in. radarów, sonarów, silników rakietowych, a przede wszystkim – broni atomowej. Dostarczone przez nich informacje znacząco przyspieszyły prace ZSRR nad taką bronią. Małżonków skazano na śmierć i stracono. Obecnie wiemy, że Julius rzeczywiście był szpiegiem, chociaż istnieją wątpliwości, czy wykradł tajemnice atomowe, a Ethel mogła jedynie wiedzieć o działalności męża, ale nie brać w tym udziału.
      Bez wątpienia wiemy jednak, co najmniej trzech szpiegów działało w Los Alamos National Laboratory, gdzie w ramach supertajnego Manhattan Project pracowano nad bronią atomową. Byli to David Greenglass (brat Ethel Rosenberg), Klaus Fuchs i Theodore Hall.
      Okazuje się jednak, że był jeszcze jeden „atomowy” szpieg, o którym opinia publiczna nie miała pojęcia. Na jego ślad wpadli dwaj historycy, emerytowany profesor Emory University John Earl Haynes oraz były pracownik Biblioteki Kongresu USA Harvey Klehr.
      Panowie współpracują ze sobą od dłuższego czasu. Wspólnie piszą książki o szpiegostwie epoki Zimnej Wojny. Wydali m.in. Venona: Decoding Soviet Espionage in America czy Spies: the Rise and Fall of the KGB in America. Gdy w 2011 roku FBI odtajniło dziesiątki tysięcy stron dokumentów, Klehr i Haynes zabrali się za ich analizę. Teraz, na łamach wydawanego przez CIA pisma Studies in Intelligence obaj naukowcy informują, że zidentyfikowanym przez nich szpiegiem o pseudonimie „Godsend” był Oscar Seborer, pracownik Los Alamos National Laboratory.
      Już na początku lat 90. ubiegłego wieku, bazując na wspomnieniach byłych oficerów radzieckiego wywiadu, pojawiły się przesłanki, kto mógł być czwartym szpiegiem. Jednak w 1995 roku okazało się, że była to część kampanii dezinformacji prowadzonej przez Rosjan w celu ochrony aktywnego agenta.
      Klehr i Haynes wskazali na Seborera zarówno na podstawie wspomnianych odtajnionych dokumentów, jak i częściowo odtajnionych dokumentów dotyczących Operation SOLO. Była to prowadzona przez FBI w latach 1952–1980 operacja wokół dwóch braci, członków Partii Komunistycznej USA, którzy byli informatorami FBI. Dotychczas odtajniono dokumenty Operacji SOLO jedynie do roku 1956. Jak więc piszą Klehr i Haynes, bez odpowiedzi pozostaje wiele pytań dotyczących zarówno działalności Seborera oraz jego losów po tym, jak uciekł do ZSRR.
      Jak się okazuje, Seborera bardzo łatwo było przeoczyć, gdyż jego nazwisko pojawia się zaledwie na kilkudziesięciu stronach wśród dziesiątków tysięcy dokumentów. Klehrowi i Haynesowi udało się jednak ustalić, że pochodził on z żydowskiej rodziny emigrantów, którzy do USA przybyli z Polski, że był częścią siatki osób powiązanych z radzieckim wywiadem, a niektórzy z tych ludzi byli członkami Partii Komunistycznej.
      Wiemy tez, że Seborer był z wykształcenia inżynierem, w 1942 roku zaciągnął się do US Army, a w 1944 roku został przeniesiony do Los Alamos National Laboratory w Nowym Meksyku i przez dwa lata pracował przy Projekcie Manhattan. Po wojnie pracował jako inżynier-elektryk w US Navy. W tym czasie jego przełożeni informowali, że Seborer stwarza zagrożenie dla bezpieczeństwa, ale wydaje się, że ich opinia była raczej związana z tym, iż był on powiązany ze znanymi komunistami niż z podejrzeniami o szpiegostwo. Wiemy też, że w 1952 roku Seborer wraz z bratem, szwagierką i teściową uciekł z USA. Z czasem zamieszkał w Moskwie, gdzie zmarł w 2015 roku.
      Z dokumentów związanych z Operacją SOLO wynika, że Seborer był szpiegiem. Oskar był w Nowym Meksyku – wiesz, co mam na myśli. [...] Nie narysuję ci schematu, takie słowa, według odtajnionych dokumentów, skierował członek Partii Komunistycznej prawnik Isidore Needleman do jednego z informatorów. Needleman był na tyle nieostrożny, że napisał do informatora notatkę, w której czytamy: On [Seborer] przekazał im [Rosjanom] formułę bomby „A”.
      Dokumenty KGB ujawnione w 2009 roku poszerzają naszą wiedzę o działalności szpiega. Dowiadujemy się z nich, że KGB miało w Los Alamos szpiega o pseudonimie „Godsend”, który przekazał tajemnice atomowe, a później zmienił pracę. Zgadza się to z tym, co wiemy o Seborerze. Z dokumentów wynika też, że „Godsend” nie działa sam. Wspomagali go „Godfather”, „Relative” i „Nata”. To pseudonimy dwóch braci i siostry Seborera, którzy byli aktywnymi komunistami i mieli powiązania z radzieckim wywiadem.
      Naukowcy wciąż nie wiedzą, jakie konkretnie sekrety przekazał Seborer i czy członkowie jego rodziny byli bezpośrednio zaangażowani w działalność szpiegowską. Wiemy bardzo dużo o tym, do jakich informacji mieli dostęp Fuchs, Hall i Greenglass i częściowo wiemy też, co przekazali Rosjanom. Na temat Seborera wiemy tylko, że coś przekazał, napisali Klehr i Haynes.
      Nie wiadomo zatem, jakie znaczenie dla radzieckiego wywiadu miały informacje od „Godsenda”. Warto jednak zauważyć, jak stwierdzają badacze, że w jego pogrzebie – 60 lat po ucieczce Seborera z USA – uczestniczył przedstawiciel rosyjskiej Federalnej Służby Bezpieczeństwa.
      Z całym artykułem na temat Seborera można zapoznać się na stronach CIA [PDF].

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W miejscu dawnej faktorii handlowej Michilimackinac w cieśninie Mackinac, która łączy jeziora Michigan i Huron, archeolodzy znaleźli wykonany z białej gliny fragment główki fajki. Zabytek odkryto podczas wykopalisk w piwnicy jednego z domów. To nie pierwsze znalezisko archeologiczne w XVIII-wiecznym forcie, ale jedno z najbardziej wyjątkowych. Na fajce widać bowiem odcisk pieczęci przedstawiającej skaczącego jelenia. Takimi znakami posługiwali się w latach 1660–1776 fajkarze z Goudy w Republice Zjednoczonych Prowincji (Holandii).
      To kolejny przykład międzynarodowych sieci handlowych, których częścią był Michilimackinac, mówią archeolodzy pracujący przy wykopaliskach.
      Badania w Michilimackinac rozpoczęto w 1959 roku. To jeden z najdłużej trwających projektów archeologicznych w Ameryce Północnej. Pierwszym właścicielem domu E, w którym znaleziono fajkę, był handlarz futrami Charles Henri Desjardins de Rupallay de Gonneville. Mieszkał tam do połowy XVIII wieku. Później w domu zamieszkał niezidentyfikowany angielski kupiec.
      W 2015 roku pod domem E znaleziono świetnie zachowany różaniec z kości słoniowej. W forcie znaleziono też m.in. kostkę do gry, mosiężny guzik z intaglio, ozdobę z broni, którą sprzedawano rdzennym mieszkańcom, ceramikę i wiele innych zabytków.
      Pierwszym Europejczykiem, o którym wiemy, że zawitał w okolice późniejszego Michilimackinac był Jean Nicolet, który w 1634 roku przebył cieśninę Mackinac w poszukiwaniu Przejścia Północnego. W roku 1671 jezuita ojciec Jacques Marquette przybył nad cieśninę wraz z Huronami i w pobliżu istniejącej tam wioski Odawów założył Misję św. Ignacego. W kolejnych latach wokół misji zaczął kwitnąć handel futrami. Misja przetrwała do 1705 roku wówczas, dwa lata po tym, jak większość Huronów i Odawów odeszła na południe, jezuici opuścili i spalili misję. Jednak ojciec Joseph Marest wracał tam co roku, by nauczać Odawów. W 1712 roku przybyli tam Francuzi, którzy założyli obóz wojskowy, przygotowując się do walki z plemieniem Foxów, a trzy lata później Francuzi zbudowali Fort Michilimackinac. Przez kilka dziesięcioleci odgrywał on znaczącą rolę w lokalnej polityce oraz działaniach wojennych na większa i mniejszą skalę. W roku 1781 został przeniesiony na wyspę Mackinac, a porzucone budynki fortu spalono. Budynki cywilne z czasem przykrył piach. Prace archeologiczne rozpoczęły się tam 170 lat później.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dwie kalifornijskie firmy, Upside Foods oraz Eat Just, dostały od Departamentu Rolnictwa zgodę na sprzedaż kurzego mięsa pochodzącego z hodowli tkankowych. Tym samym mogą rozpocząć komercyjną produkcję i sprzedaż takiego mięsa na terenie USA. To niezwykle istotne wydarzenie dla całego przemysłu zainteresowanego produkcją mięsa z tkanek, gdyż Stany Zjednoczone to jeden z najważniejszych, o ile nie najważniejszy, rynek na świecie. Pierwszym krajem, który dopuścił sprzedaż takiego mięsa był Singapur. W 2020 roku odpowiednie zezwolenie otrzymała tam firma Good Meat, która jest wydziałem Eat Just.
      O dopuszczeniu produktu żywnościowego na rynek USA decydują dwie agendy rządowe – Administracja ds. Żywności i Leków (FDA) oraz Departament Rolnictwa (DoA). FDA odpowiada za zbadanie bezpieczeństwa samego produktu, rolą DoA jest sprawdzenie całego ciągu produkcyjnego pod kątem bezpieczeństwa i spełniania odpowiednich wymagań. Zgody od FDA obie firmy otrzymały w ciągu ostatnich miesięcy.
      Upside Foods i Eat Just – oraz inne podobne im firmy – produkują swoje mięso używając komórek zwierzęcych, które namnażają w bioreaktorach. Teraz takie mięso można będzie sprzedawać w USA jako „kurczaka z hodowli komórkowych”.
      Oba wspomniane przedsiębiorstwa planują najpierw sprzedaż swojego mięsa do restauracji. Na sprzedaż detaliczną klientom indywidualnym przyjdzie pora w następnej kolejności. Na razie wiadomo, że mięso Eat Just w pierwszej kolejności trafi do nieujawnionej jeszcze restauracji w Waszyngtonie, natomiast kurczaka z Upside Foods można będzie spróbować już pod koniec lata w lokalu Bar Crenn w San Francisco.
      Uzyskane przez nas zezwolenie zupełnie zmieni sposób, w jaki mięso trafia na nasze stoły. To wielki krok w kierunku bardziej zrównoważonej przyszłości, takiej, która szanuje wybór i życie. Nie możemy się doczekać, aż konsumenci skosztują przyszłości, mówi doktor Uma Valeti, dyrektor Upside Foods.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Prezydent Biden zatwierdził przeznaczenie 900 milionów dolarów na budowę stacji ładowania samochodów elektrycznych. Podczas North American International Auto Show w Detroit prezydent stwierdził, że niezależnie od tego czy będziecie jechali wybrzeżem autostradą I-10 [prowadzi z Kalifornii na Florydę - red.] czy I-75 [wiedzie z Michigan na Florydę] stacje do ładowania będą wszędzie i można je będzie znaleźć równie łatwo jak stacje benzynowe.
      Wspomniane 900 milionów USD będą pochodziły z zatwierdzonego w ubiegłym roku planu infrastrukturalnego na który przewidziano bilion dolarów, z czego 550 miliardów na transport czy internet szerokopasmowy i infrastrukturę taką jak np. sieci wodociągowe.
      W 2020 roku amerykański transport odpowiadał za 27% amerykańskiej emisji gazów cieplarnianych. To najwięcej ze wszystkich działów gospodarki. Władze Stanów Zjednoczonych chcą, by do roku 2030 samochody elektryczne stanowiły połowę całej sprzedaży pojazdów w USA. Poszczególne stany podejmują własne, bardziej ambitne inicjatywy. Na przykład Kalifornia przyjęła przepisy zgodnie z którymi od 2035 roku zakaże sprzedaży samochodów z silnikami benzynowymi.
      Obecnie pojazdy elektryczne stanowią jedynie 6% sprzedaży samochodów w USA. Jedną z najważniejszych przyczyn, dla których Amerykanie nie chcą kupować pojazdów z silnikiem elektrycznym jest obawa o łatwy dostęp do punktów ładowania. Obecnie w całym kraju takich punktów jest poniżej 47 000. Biden chce, by do roku 2030 ich liczba wzrosła do 500 000.
      W dokumencie zatwierdzającym wspomniane 900 milionów USD znalazła się też propozycja, by narzucić stanom obowiązek zakładania stacji ładowania pojazdów elektrycznych do 50 mil na głównych drogach stanowych i autostradach. Stany o dużym odsetku społeczności wiejskich już wyraziły obawę, że z takim obowiązkiem sobie nie poradzą. Dlatego też dla takich stanów oraz na potrzeby centrów miejskich i ubogich społeczności przygotowano program grantowy o łącznej wartości 2,5 miliarda USD.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Teleskop Webba (JWST) od kilku tygodni przysyła wspaniałe zdjęcia przestrzeni kosmicznej. JWST może pracować nawet przez 20 lat i w tym czasie będzie badał też egzoplanety. Dzięki olbrzymiej czułości, dostarczy niedostępnych dotychczas informacji o świetle docierającym z ich atmosfer, co pozwoli określenie ich składu, historii i poszukiwanie śladów życia. Jednak, jak się okazuje, teleskop jest tak doskonały, że obecnie stosowane narzędzia mogą niewłaściwe interpretować przesyłane dane.
      Grupa naukowców z MIT opublikowała na łamach Nature Astronomy artykuł, w którym informuje, że obecnie używane przez astronomów narzędzia do interpretacji danych ze światła mogą dawać niewłaściwe wyniki w przypadku JWST. Chodzi konkretnie o modele nieprzezroczystości, narzędzia opisujące, jak światło wchodzi w interakcje z materią w zależności od jej właściwości. Mogą one wymagać znacznych zmian, by dorównać precyzji danym z JWST. Jeśli nie zostaną odpowiednio dostosowane to – jak ostrzegają autorzy badań – informacje dotyczące takich właściwości atmosfer egzoplanet jak temperatura, ciśnienie i skład mogą różnić się od rzeczywistych o cały rząd wielkości.
      Z punktu widzenia nauki istnieje olbrzymia różnica, czy np. woda stanowi 5% czy 25% składu. Obecne modele nie są w stanie tego odróżnić, stwierdza profesor Julien de Wit. Obecnie używany przez nas model interpretujące dane ze spektrum światła nie przystaje precyzją i jakością do danych, jakie napływają z Teleskopu Webba. Musimy rozwiązać ten problem, wtóruje mu student Prajwal Niraula.
      Nieprzezroczystość określa, na ile łatwo foton przechodzi przez badany ośrodek, jak jest absorbowany czy odbijany. Interakcje te zależą też od temperatury i ciśnienia ośrodka. De Wit mówi, że obecnie używany najdoskonalszy model badania nieprzezroczystości bardzo dobrze się sprawdził w przypadku takich instrumentów jak Teleskop Hubble'a. Teraz jednak weszliśmy na kolejny poziom precyzji danych. Wykorzystywany przez nas sposób ich interpretacji nie pozwoli nam wyłapać drobnych subtelności, które mogą decydować np. o tym, czy planeta nadaje się dla życia czy nie.
      Uczeni z MIT po analizie najpowszechniej używanego obecnie modelu nieprzezroczystości stwierdzili, że jego wykorzystanie do danych z Webba spowoduje, iż trafimy na „barierę precyzji”. Model ten nie będzie na tyle dokładny, by stwierdzić, czy temperatura na planecie wynosi 27 czy 327 stopni Celsjusza, a stężenie jakiegoś gazu w atmosferze to 5 czy 25 procent.
      Wit i jego zespół uważają, że aby poprawić obecnie używane modele konieczne będzie przeprowadzenie więcej badań laboratoryjnych, obliczeń teoretycznych oraz poszerzenie współpracy pomiędzy specjalistami z różnych dziedzin, szczególnie astronomami i ekspertami od spektroskopii.
      Możemy wiele zrobić, jeśli będziemy dobrze rozumieli, jak światło wchodzi w interakcje z materią. Dobrze rozumiemy warunki panujące wokół Ziemi. Jednak tam, gdzie mamy do czynienia z innymi typami atmosfery, wszystko się zmienia. A teraz dysponujemy olbrzymią ilością danych o coraz lepszej jakości, więc istnieje ryzyko błędnej interpretacji, wyjaśnia Niraula.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...