Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' dane'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 8 results

  1. Ludzkość wytwarza coraz więcej informacji. I część z nich warto jest dla przyszłych pokoleń. Jednak książki mogą spłonąć, do komputera można się włamać, płyty DVD ulegają z czasem degradacji. I mimo że technologie przechowywania danych są wciąż udoskonalane, to woda czy cyberatak mogą doprowadzić do utraty danych. Szacuje się, że do roku 2020 globalna ilość danych cyfrowych wyniesie 44 biliony gigabajtów. To 10-krotnie więcej niż było ich w 2013 roku. Z czasem nawet chmury obliczeniowe nie będą w stanie przechowywać coraz większej ilości informacji. Rozwiązaniem problemu może okazać się chemia i nieco tanich molekuł. Wyobraźmy sobie, że możemy całą Nowojorską Bibliotekę Publiczną zapisać w łyżeczce molekuł, mówi Brian Cafferty. To naukowiec z Uniwersytetu Harvarda, który wraz z kolegami z laboratorium profesora George'a Whitesidesa ze swojej uczelni oraz grupą profesora Milana Mrksicha z Northwestern University opracowali technikę zapisywania informacji w oligopeptydach. Tak zapisane dane można by przechowywać przez miliony lat, dostęp do danych można by uzyskać tylko przy fizycznym dostępie do nośnika, a po zapisaniu danych ich utrzymanie nie wymagałoby używania energii. Obecnie, przynajmniej na tym etapie, nie postrzegamy naszej metody jako konkurencyjnej wobec istniejących metod zapisu danych. Ona je uzupełnia i powstaje przede wszystkim z myślą o długotrwałej archiwizacji informacji, mówi Cafferty. Od niedawna słyszymy, że naukowcy potrafią zapisywać dane w DNA. O ile jednak DNA jest małe w porównaniu z układami scalonymi, to w świecie molekuł jest duże. Ponadto synteza DNA wymaga sporych umiejętności i dużo pracy. Jeśli mielibyśmy w ten sposób zapisywać dużą ilość danych, to musimy liczyć się z długotrwałym procesem i dużymi kosztami. Cafferty mówi, że opracowana przezeń technika korzysta nie tyle z biologii co z chemii organicznej i analitycznej. Wykorzystano przy tym mniejsze i lżejsze molekuły. Za pomocą pojedynczego procesu syntezy można zapisać taniej i wkładając w to mniej wysiłku niż przy wykorzystaniu DNA. Naukowcy użyli oligopeptydów, które występują powszechnie, są stabilne i mniejsze niż DNA, RNA czy białka. Oligopeptydy mają różną masę, a gdy się je wymierza można z łatwością je od siebie odróżnić, podobnie jak litery w alfabecie. Użyto przy tym, oczywiście, kodu binarnego. Na przykład litera „M” wykorzystuje 4 z 8 możliwych oligopeptydów, każdy o innej masie. Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bajtowi, w 32 można przechować cztery bajty. Dotychczas Cafferty i jego zespół zapisali, przechowali i odczytali w oligopeptydach wykład Richarda Feynmana There is plenty of room at the bottom, zdjęcie Calude'a Shannona ojca teorii informacji oraz słynny drzeworyt Wielka fala w Kanagawie. W tej chwili zespół jest w stanie odczytywać zapisane informacje z dokładnością 99,9%. Zapis odbywa się z prędkością 8 bitów na sekundę, a odczyt z prędkością 20 bitów na sekundę. Oba czasy bez wątpienia da się znacząco poprawić. Naukowcy są też w stanie udoskonalić stabilność, pojemność oraz obniżyć cenę swoich molekuł. Na potrzeby badań wykorzystywali bowiem specjalnie tworzone molekuły. Jednak, jak zapewniają, w przyszłości właściciele archiwów będą mogli kupować standardowe molekuły, a ich cena może wynosić 1 cent za molekuły pozwalające na przechowanie ponad 10 MB danych. W odpowiednich warunkach oligopeptydy są stabilne przez setki lub tysiące lat, stwierdzają autorzy badań. Mogą przetrwać bez światła i powietrza, w wysokiej temperaturze i niskiej wilgotności. Dostęp do tak zarchiwizowanych informacji byłby możliwy tylko przy fizycznym dostępie do nośnika, a informacje, w razie prób ich zaburzenia czy zniszczenia, łatwo odzyskać metodami chemicznymi. Cafferty przewiduje, że w przyszłości, dzięki olbrzymiej pojemności oligopeptydów mogą powstać archiwa, które na niewielkiej przestrzeni będą przechowywały gigantyczne ilości informacji, całość zaś będzie tania, stabilna i nie będzie zużywała prądu. « powrót do artykułu
  2. Dwóch amerykańskich senatorów, demokrata Josh Hawley i republikanin Mark Warner, przygotowało projekt ustawy, której celem jest lepszy nadzór nad danymi osobowymi przechowywanymi przez wielkie koncerny. Ustawa ma zmusić Facebooka, Google'a, czy Amazona do ujawnienia ile danych osobowych przechowują oraz w jaki sposób – pośredni i bezpośredni – na nich zarabiają. DASHBOARD (Designing Accounting Safeguards to Help Broaden Oversight And Regulations on Data Act) dotyczyłaby przedsiębiorstw, które mają miesięcznie ponad 100 milionów unikatowych użytkowników i zobowiązybałaby je do ujawnienia szczegółów dotyczących zarabiania na danych użytkowników. Projekt ustawy zakłada, że raz na 90 dni wspomniane firmy miałyby obowiązek poinformowania każdego z użytkowników o szacowanej wartości danych tego użytkownika przechowywanych przez operatora. Gdy wielkie koncerny twierdzą, że ich produkt jest darmowy, tak naprawdę sprzedają konsumentów. Co więcej, firmy IT robią wszystko, by ukryć informacje o tym, ile warte są dane użytkownika i komu zostały sprzedane, oświadczył senator Hawley. Przez lata serwisy społecznościowe twierdziły, że ich usługi są darmowe. Jednak to nie jest prawda, użytkownik płaci za te usługi swoimi danymi, dodał senator Warner. Zdaniem twórców ustawy, nowe przepisy pozwolą konsumentom zrozumieć, jaka jest prawdziwa wartość ich danych, dadzą im nad nimi kontrolę i pokażą, że to co rzekomo darmowe, tak naprawdę słono kosztuje. Warto w tym miejscu przypomnieć, że od wielu lat pojawiają się próby powołania do życia czegoś, co można by nazwać „ekonomią danych osobowych”. To próby przekazania użytkownikom zarówno kontroli nad własnymi danymi oraz możliwości pobierania opłat za korzystanie z nich. Nad tego typu pomysłem, projektem o nazwie „Bali”, pracuje m.in. Microsoft. Gdyby ustawa DASHBOARD została przyjęta przez Kongres, z pewnością ułatwiłoby to powstanie „ekonomii danych osobowych”. « powrót do artykułu
  3. Polska onkologia i medycyna opiera się na zbyt malej ilości twardych danych; nie wiemy tak naprawdę, jakie są dokładnie wyniki leczenia nowotworów – powiedział PAP prof. Piotr Rutkowski, przewodniczący powołanego niedawno zespołu ds. tzw. cancer planu. Do 30 listopada 2019 r. zespół ds. tzw. cancer planu ma opracować Narodową Strategię Onkologiczną, której głównym celem jest poprawa wykrywalności oraz skuteczności leczenia nowotworów. Zdaniem prof. Piotra Rutkowskiego, chirurga Centrum Onkologii w Warszawie, zespół specjalistów ds. Narodowej Strategii Onkologicznej (wśród których są onkolodzy z centrów onkologii, jak i przedstawiciele ministerstwa zdrowia, Narodowego Funduszu Zdrowia oraz uczelni medycznych), potrzebuje przede wszystkim wiarygodnych danych. Polska onkologia i polska medycyna opiera się na zbyt malej ilości twardych danych i tak naprawdę nie wiemy, jakie są dokładnie wyniki leczenia, za co płaci płatnik, ale przede wszystkim jakie korzyści odnosi z tego chory. To jest niezbędne – powiedział w rozmowie z dziennikarzem PAP. Skutkiem braku danych o wynikach leczenia jest to – podkreślił specjalista - że pacjent nie wie, jaka jest jakość danego zabiegu, ale też płatnik tego w ogóle nie kontrolował. Wykazał to niedawno opublikowany raport Narodowego Funduszu Zdrowia "Nowotwory złośliwe. Koncentracja leczenia zabiegowego" (opracowany na podstawie danych dotyczących realizacji świadczeń medycznych w 2017 r.). NFZ postanowił, że powyżej pewnej liczby wykonywanych procedur za zabieg będzie płacić więcej. Okazuje się jednak, że mało ośrodków spełnia przyjęte warunki, przykładowo w jednym z nowotworów [jelita grubego – PAP] 30 ośrodków spełnia określone kryteria, a 300 innych - nie spełnia. Opublikowane w raporcie dane ujawniły zatem olbrzymie rozproszenie ośrodków zajmujących się leczeniem nowotworów – podkreślił szef zespołu ds. cancer planu. Chirurgią w wielu nowotworach jest podstawą leczenia. W skomplikowanych zabiegach, do jakich często zaliczane są operacje nowotworów, bardzo ważne jest zatem, żeby w danej placówce wykonywano ich jak najwięcej. Chirurdzy, którzy często je przeprowadzają, uzyskują lepsze efekty, z korzyścią dla chorego. W chirurgii onkologicznej często jest tak, że ilość faktycznie przechodzi w jakość, ale musi być również odpowiednia jakość sprawozdawania tych wyników, zarówno o liczbie wykonywanych procedur, jak też osiąganych wynikach leczenia – wyjaśnił prof. Rutkowski. Podkreślił, że w krajach zachodnich istnieje dobrze pojęta konkurencja między placówkami specjalizującymi się w danym typie nowotworów. Zdarza się, że znikają kliniki, które w kolejnych audytach odstawały jakościowo od innych pod względem uzyskiwanych wyników i dlatego je zamknięto. Byłem w szoku, kiedy po raz pierwszy się zetknąłem się z tym, że pewnego ośrodka po jakimś czasie już nie było. Czy można sobie wyobrazić, żeby w Polsce zamknięto jakakolwiek klinikę, bo nie spełniała kryteriów – zapytał. Zdaniem przewodniczącego zespołu, który ma opracować Narodową Strategię Onkologiczną, wyspecjalizowane ośrodki powinny przez dłuższy czas opiekować się pacjentem. Przykładem tego, o co nam chodzi, są tzw. Breast Cancer Units [ośrodki specjalizujące się leczeniu raka piersi – PAP]. Opieka w takich placówkach powinna być skoordynowana i kompleksowa, czyli od diagnozy poprzez leczenie skojarzone, ale również po jego zakończeniu chory musi mieć zapewnioną dalszą rehabilitację. Teraz często jest tak, że pacjent, który zachorował na nowotwór, kończy leczenie i nie ma dalszej opieki, pozostawiony jest samu sobie. Tak jest niestety w wielu ośrodkach – przyznał prof. Rutkowski. Dodał, że w Polsce chorych nie poddaje się rehabilitacji z tego tylko powodu, że mają oni nowotwory i koło się zamyka. Jest u nas wiele przesądów po wyleczeniu i w trakcie leczeniu nowotworów. Chodzi w tym przypadku o całościową rehabilitację, nie tylko o fizykoterapię, ale także o wsparcie psychoonkologiczne i możliwość powrotu do pracy - ale w taki sposób, żeby pacjent mógł korzystać z dalszego leczenia – wyjaśnił specjalista. Specjalista zwrócił uwagę, że chirurgia onkologiczna jest dynamicznie rozwijającą się specjalnością, która dotyczy również leczenia okołooperacyjnego, za pomocą napromieniania, chemioterapii i nowych terapii. Nie zawsze trzeba od razu zoperować pacjenta. Na zjazdach naukowych coraz więcej jest o leczeniu okołooperacyjnym – dodał. Chodzi nie tylko o leczenie, ale i nowoczesne diagnozowanie, które jest bardzo trudne. To jest kosztowne, ale przynosi też oszczędności zarówno dla pacjenta, jak i płatnika, bo gdy rozpoznanie zostanie właściwie postawione to oszczędzamy pieniądze i leczymy właściwie, bardziej skutecznie - powiedział prof. Rutkowski. Jako przykład podał Francję, gdzie 95 proc. mięsaków jest diagnozowanych histopatologicznie jedynie w trzech ośrodkach. Po takich specjalistycznych badaniach zmieniono rozpoznania w 40 proc. przypadków, a w 10 proc. okazało się, że wcale nie było nowotworu, czyli w co drugim przypadku chorzy powinni być leczeniu całkowicie inaczej lub w ogóle niepotrzebnie poddano ich terapii. Chodzi o przeprowadzenie pełnej diagnostyki jeszcze przed operacją, żeby wypracować właściwą strategię leczenia, chemioterapię czy radioterapię. Przecież to są wszystko koszty – podkreślił specjalista. W ocenie szefa zespołu ds. cancer planu, chirurgią onkologiczną nie muszą się zajmować tylko wielospecjalistyczne ośrodki: To może być mały ośrodek specjalistyczny, a także placówki uniwersyteckie, np. w Krakowie czy Warszawie. Wykonują one dobrą robotę także w zakresie chirurgii onkologicznej. Prof. Rutkowski uważa, że system [opieki onkologicznej – PAP] trzeba w Polsce dopiero zbudować, bo był on postawiony na głowie. Skoncentrowana była chemioterapia, a zdekoncentrowana chirurgia. Tymczasem powinno być odwrotnie, bo wtedy uzyskuje się największy odsetek wyleczeń. Z kolei leczenie uzupełniające i paliatywne powinno być bliżej miejsca zamieszkania pacjenta. Bez sensu jest to, żeby na standardową chemioterapię pacjent jeździł 200 km. To jest to co mam nadzieję, że się zmieni - mówił. Według niego świadczenia medyczne powinny być jednak rozsądnie wycenione. Duża część procedur w chirurgii generalnie wykonywana jest poniżej kosztów. To jest totalna fikcja. Dlatego szpitale nie są zainteresowane wysokojakościową chirurgią, bo ona tylko przynosi straty - podkreślił. Zrobiliśmy ostatnio wyliczenie – dodał - bo po raz pierwszy wzięła się za to Agencja Oceny Technologii Medycznych i Taryfikacji, która wreszcie ocenia realne koszty w chirurgii. Okazało się, że u nas - w Centrum Onkologii - koszty realne są trzy razy wyższe od tego, co płaci NFZ. Bo tak niskie są te wyceny. Oczekuję, że wzrosną nakłady na służbę zdrowia, ale wiele zależy od organizacji opieki. Dotąd jak nie było pieniędzy, to wszyscy markowali, jak ten system ma działać. Jeżeli pieniędzy będzie więcej, to będzie on działał sprawnie – powiedział prof. Rutkowski. Specjalista poinformował PAP, że pierwsze posiedzenie zespołu ds. cancer planu planowane jest na 18 czerwca 2019 r. Przewiduje się, że omawiane będą wstępne priorytety Narodowej Strategii Onkologicznej. « powrót do artykułu
  4. Międzynarodowy zespół naukowy opracował metodę przechowywania danych, która niemal nie zużywa energii. Cyfrowe dane są zapisane na nośniku magnetycznym, który nie potrzebuje zasilania. Cała metoda jest niezwykle szybka i rozwiązuje problem zwiększenia wydajności przetwarzania danych bez zwiększania poboru energii. Obecnie centra bazodanowe odpowiadają za 2–5 procent światowego zużycia energii. W czasie ich pracy generowane są olbrzymie ilości ciepła, które wymagają dużych ilości energii przeznaczonej na chłodzenie. Problem jest na tyle poważny, że np. Microsoft zatopił centra bazodanowe w oceanie, by je lepiej chłodzić i obniżyć koszty. Większość danych przechowywanych jest w formie cyfrowej, gdzie 0 i 1 są reprezentowane za orientacji domen magnetycznych. Nad materiałem magnetycznym przesuwa się głowica odczytująco/zapisująca. Teraz na łamach Nature dowiadujemy się o nowej metodzie zapisu, która wykorzystuje niezwykle krótkie, trwające bilionowe części sekundy, impulsy światła, które wysyłane są do anten umieszczonych na magnesach. Całość pracuje niezwykle szybko i niemal nie zużywa przy tym energii, gdyż temperatura magnesów nie rośnie. Autorzy nowej metody wykorzystali impulsy światła w zakresie dalekiej podczerwieni, w paśmie teraherców. Jednak nawet najpotężniejsze terahercowe źródła światła nie są na tyle mocne, by zmienić orientację pola magnetycznego. Przełom nadszedł, gdy uczeni opracowali wydajny mechanizm sprzęgania pomiędzy spinem pola magnetycznego i terahercowym polem elektrycznym. Następnie stworzyli miniaturowe anteny, które pozwalają skoncentrować, a zatem i wzmocnić pole elektryczne światła. Okazało się ono na tyle silne, że można za jego pomocą zmieniać spin w ciągu bilionowych części sekundy. Temperatura magnesu nie rośnie podczas pracy, gdyż cały proces zapisu wymaga jednego kwanta energii na spin. Rekordowo niski pobór energii czyni tę metodę skalowalną. Przyszłe systemy do składowania danych będą mogły wykorzystać również świetne zdefiniowanie przestrzenne anten, co pozwoli na stworzenie praktycznych układów pamięci magnetycznej o maksymalnej prędkości i efektywności energetycznej, mówi jeden z autorów badań, doktor Rościsław Michajłowskij z Lancaster University. Uczony planuje przeprowadzenie kolejnych badań, podczas których chce wykorzystać nowy ultraszybki laser z Lancaster University oraz akceleratory z Cockroft Institute zdolne do generowania intensywnych impulsów światła. Chce w ten sposób określić praktyczne i fundamentalne limity prędkości i energii dla zapisu magnetycznego. « powrót do artykułu
  5. Pięćdziesięciojednoletni Benoît Lecomte musiał zrezygnować z próby pokonania wpław Pacyfiku. Niestety, burza uszkodziła grot łodzi zapewniającej mu wsparcie. Stało się tak po pokonaniu przez Francuza 2700 km; cała trasa do San Francisco ma 9100 km. Pływak, który wcześniej jako pierwszy pokonał wpław Atlantyk, wyruszył 5 czerwca z Chōshi w Japonii. Średnio płynął 8 godzin dziennie. Jego celem było i nadal jest zwiększenie świadomości zmiany klimatu i zanieczyszczenia plastikiem. Po dotarciu do Wielkiej Pacyficznej Plamy Śmieci Benoît musiał się zmierzyć z niespodziewanie dużą ilością odpadów, tajfunami i silnymi burzami. Natrafiliśmy na zdradliwe wiatry, deszcz i martwe fale, które zmusiły nas do zmiany kursu. Ostatecznym ciosem było [jednak] nienaprawialne uszkodzenie żagla. Ponieważ bezpieczeństwo to priorytet, jedynym wyjściem było wycofanie z próby pobicia rekordu. Ben i zespół nadal jednak zamierzają zebrać naukowe dane z niezbadanego korytarza oceanicznego. Warto przypomnieć, że The Swim to jedyna w swoim rodzaju ekspedycja z zakresu nauki obywatelskiej. We współpracy z 27 instytucjami naukowymi, w tym z NASA i Woods Hole Oceanographic Institution, Ben i jego załoga pobrali wzdłuż pokonanej trasy niemal 1100 próbek. Dzięki temu może się powiększyć nasza wiedza z zakresu skażenia plastikiem, migracji ssaków, ekstremalnej wytrzymałości, a nawet długoterminowych lotów kosmicznych. « powrót do artykułu
  6. Z 747-stronicowej dokumentacji przesłanej przez Facebooka do Kongresu USA dowiadujemy się, że dostęp do danych zbieranych przez serwis społecznościowy miały w przeszłości 52 firmy. Facebook udostępniał dane na temat użytkowników na podstawie specjalnych umów, których celem było upewnienie się, że urządzenia i aplikacji zewnętrznych firm będą współpracowały z serwisem. Wśród firm, którym Facebook udostępniał dane są Apple, Blackberry, Amazon czy Microsoft. Są wśród nich też chińskie firmy, jak Huawei i Alibaba. Co do niektórych z nich amerykańscy politycy i służby specjalne wyrażają obawy, związane z ich działaniami przeciwko amerykańskiemu bezpieczeństwu narodowemu. Facebook poinformował, że dotychczas zaprzestał współpracy z 38 z 52 wymienionych w raporcie firm. Do końca lutego zakończy kolejnych siedem kontraktów, a do końca października wygaśnie jeszcze jeden. Już teraz wiadomo, że Facebook nadal będzie współpracował z Amazonem, Apple'em i Alibabą. Koncern Zuckerberga zapewnił, że większość ze wspomnianych umów o partnerstwie zostało zawartych jeszcze przed rozpowszechnieniem się zaawansowanych smartfonów, które znakomicie ułatwiły dostęp do internetu. Gdy je podpisywano większość użytkowników korzystała z urządzeń mobilnych, które w bardzo ograniczony sposób pozwalały na używanie sieci. Wiadomo też, że przynajmniej niektórym partnerom, takim jak AOL, Audi, Panasonic czy aplikacja randkowa Hinge, udostępniono nie tylko dane użytkowników, ale również znajomych z ich listy kontaktów. Producenci aplikacji mieli więc np. dostęp do numerów telefonów ludzi, którzy z ich aplikacji nie korzystali. « powrót do artykułu
  7. Facebook przyznał, że od co najmniej 2010 roku udostępnia dane użytkowników co najmniej 4 chińskim przedsiębiorstwom. Część prywatnych danych użytkowników Facebooka trafia do Lenovo, Oppo i TCL. Dostęp do danych ma też firma Huawei, która według amerykańskich służb wywiadowczych stanowi potencjalne zagrożenie dla bezpieczeństwa narodowego USA. Przedstawiciele Facebooka zapowiedzieli, że do końca bieżącego tygodnia wypowiedzą umowę z Huawei. Inne umowy pozostaną w mocy. Koncern Zuckerberga udostępnia prywatne dane użytkowników wielu przedsiębiorstwom, w tym Amazonowi, Apple'owi, BlackBerry i Samsungowi. Umowy, na podstawie których udostępniane są dane to część strategii, której celem jest przekonanie większej liczby użytkowników urządzeń mobilnych do korzystania z Facebooka. Dzięki nim producenci urządzeń mogli zaoferować takie funkcje Facebooka jak książki adresowe, przycisk „Lubię to” czy aktualizacje statusu. Chińskie przedsiębiorstwa uzyskały w ramach umów podobne uprawnienia co kanadyjskie BalckBerry. Mogą pobierać dokładne informacje o samych użytkownikach urządzeń mobilnych jak i o wszystkich ich znajomych. Senator John Thune, który stoi na czele Komitetu Handlu domaga się, by Facebook dostarczył Kongresowi szczegółowych danych na temat podpisanych umów. Kierowany przez Thune'a komitet nadzoruje Federalną Komisję Handlu (FTC), która bada, czy polityka prywatności Facebooka nie naruszyła zasad FTC. Amerykańskich prawodawców martwi przede wszystkim umowa z Huawei. Związki pomiędzy tą firmą a chińską Partią Komunistyczną są znane od lat. Facebook zapewnia jednak, że wszelkie informacje przekazywane Huawei były przechowywane na urządzeniach użytkowników, a nie na serwerach chińskiej firmy. Huawei to firma założona przez byłego inżyniera armii chińskiej. Firma otrzymała od państwowych banków miliardy dolarów kredytów na zagraniczną ekspansję. Amerykańskie władze od lat traktują to przedsiębiorstwo podejrzliwie i radzą swoim firmom telekomunikacyjnym, by unikały kupowania sprzętu Huawei. Facebook, który od 2009 roku jest zakazany w Chinach, od wielu lat próbuje powrócić na rynek Państwa Środka. « powrót do artykułu
  8. Po skandalu wokół firmy Cambridge Analytica, która pozyskała z Facebooka informacje o dziesiątkach milionów użytkowników i wykorzystała je do profilowania wyborców, serwis społecznościowy znacznie ostrożniej podchodzi do projektów związanych z przetwarzaniem danych. Przedstawiciele firmy oświadczyli, że wstrzymuje ona projekt pozyskania danych pacjentów z dużych amerykańskich szpitali. Informacje takie, po połączeniu ich z informacjami tych osób z ich kont na Facebooku, miały być wykorzystane w projekcie badawczym. Prace nigdy nie wyszły poza fazę planowania. Nie otrzymaliśmy ani nie analizowaliśmy żadnych danych, zdradził anonimowy przedstawiciel Facebooka. Środowiska medyczne od dawna wiedzą, że informacje dotyczące rodziny i przyjaciół pacjenta mogą być pomocne. Jednak, aby opracować odpowiednie terapie, konieczne jest głębsze zrozumienie tych zależności. Facebook, w porozumieniu ze szpitalami, chciał połączyć dane o zdrowiu pacjentów z danymi na temat ich rodziny, znajomych, aktywności czy zainteresowań, co w wielu przypadkach pozwoliłoby na stworzenie lepszego planu leczenia. Obecnie jednak, po tym, jak najwyżsi rangą menedżerowie Facebooka przyznali, że popełnili błąd dając Cambridge Analytica dostęp do użytkowników serwisu, opinia publiczna z uwagą przygląda się temu, co Facebook robi z danymi. Prowadzenie tego typu projektów będzie więc przez jakiś czas utrudnione. « powrót do artykułu
×
×
  • Create New...