Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' dane'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 19 results

  1. Teleskop Webba (JWST) od kilku tygodni przysyła wspaniałe zdjęcia przestrzeni kosmicznej. JWST może pracować nawet przez 20 lat i w tym czasie będzie badał też egzoplanety. Dzięki olbrzymiej czułości, dostarczy niedostępnych dotychczas informacji o świetle docierającym z ich atmosfer, co pozwoli określenie ich składu, historii i poszukiwanie śladów życia. Jednak, jak się okazuje, teleskop jest tak doskonały, że obecnie stosowane narzędzia mogą niewłaściwe interpretować przesyłane dane. Grupa naukowców z MIT opublikowała na łamach Nature Astronomy artykuł, w którym informuje, że obecnie używane przez astronomów narzędzia do interpretacji danych ze światła mogą dawać niewłaściwe wyniki w przypadku JWST. Chodzi konkretnie o modele nieprzezroczystości, narzędzia opisujące, jak światło wchodzi w interakcje z materią w zależności od jej właściwości. Mogą one wymagać znacznych zmian, by dorównać precyzji danym z JWST. Jeśli nie zostaną odpowiednio dostosowane to – jak ostrzegają autorzy badań – informacje dotyczące takich właściwości atmosfer egzoplanet jak temperatura, ciśnienie i skład mogą różnić się od rzeczywistych o cały rząd wielkości. Z punktu widzenia nauki istnieje olbrzymia różnica, czy np. woda stanowi 5% czy 25% składu. Obecne modele nie są w stanie tego odróżnić, stwierdza profesor Julien de Wit. Obecnie używany przez nas model interpretujące dane ze spektrum światła nie przystaje precyzją i jakością do danych, jakie napływają z Teleskopu Webba. Musimy rozwiązać ten problem, wtóruje mu student Prajwal Niraula. Nieprzezroczystość określa, na ile łatwo foton przechodzi przez badany ośrodek, jak jest absorbowany czy odbijany. Interakcje te zależą też od temperatury i ciśnienia ośrodka. De Wit mówi, że obecnie używany najdoskonalszy model badania nieprzezroczystości bardzo dobrze się sprawdził w przypadku takich instrumentów jak Teleskop Hubble'a. Teraz jednak weszliśmy na kolejny poziom precyzji danych. Wykorzystywany przez nas sposób ich interpretacji nie pozwoli nam wyłapać drobnych subtelności, które mogą decydować np. o tym, czy planeta nadaje się dla życia czy nie. Uczeni z MIT po analizie najpowszechniej używanego obecnie modelu nieprzezroczystości stwierdzili, że jego wykorzystanie do danych z Webba spowoduje, iż trafimy na „barierę precyzji”. Model ten nie będzie na tyle dokładny, by stwierdzić, czy temperatura na planecie wynosi 27 czy 327 stopni Celsjusza, a stężenie jakiegoś gazu w atmosferze to 5 czy 25 procent. Wit i jego zespół uważają, że aby poprawić obecnie używane modele konieczne będzie przeprowadzenie więcej badań laboratoryjnych, obliczeń teoretycznych oraz poszerzenie współpracy pomiędzy specjalistami z różnych dziedzin, szczególnie astronomami i ekspertami od spektroskopii. Możemy wiele zrobić, jeśli będziemy dobrze rozumieli, jak światło wchodzi w interakcje z materią. Dobrze rozumiemy warunki panujące wokół Ziemi. Jednak tam, gdzie mamy do czynienia z innymi typami atmosfery, wszystko się zmienia. A teraz dysponujemy olbrzymią ilością danych o coraz lepszej jakości, więc istnieje ryzyko błędnej interpretacji, wyjaśnia Niraula. « powrót do artykułu
  2. Z Teleskopu Webba na Ziemię zaczęły trafiać pierwsze zdjęcia przestrzeni kosmicznej oraz dane spektroskopowe. Gdy będziemy oglądać fascynujące obrazy warto pamiętać, że pochodzą one z urządzenia, które znajduje się niemal 3000 razy dalej od Ziemi niż Teleskop Hubble'a. Warto więc dowiedzieć się, jak do nas trafiły. Znaczna odległość Webba od Ziemi oznacza, że sygnał musi przebyć długą drogę, zanim do nas trafi, a cały system komunikacyjny musi działać naprawdę dobrze, gdyż nie przewiduje się misji serwisowych do Webba. Jeśli więc komunikacja zawiedzie, będziemy mieli w przestrzeni kosmicznej całkowicie bezużyteczny najdoskonalszy teleskop w idealnym stanie. Teleskop Kosmiczny Jamesa Webba (JWST) jest pierwszą misją kosmiczną, która wykorzystuje pasmo Ka do przesyłania tak dużej ilości danych. Już na etapie projektowania zdecydowano o wykorzystaniu Ka, części większego pasma K. Webb wysyła na Ziemię dane w paśmie o częstotliwości 25,9 Ghz, a prędkość transmisji może dochodzić do 28 Mb/s. Tak duża prędkość jest niezbędna, gdyż JWST może zebrać do 57 GB danych na dobę, chociaż rzeczywista ilość danych będzie zależała od zaplanowanych obserwacji. Dla porównania, Teleskop Hubble'a (HST) zbiera każdej doby nie więcej niż 2 GB danych. Pasmo Ka wybrano, gdyż kanałem tym można przesłać więcej danych niż powszechnie wykorzystywanymi w komunikacji kosmicznej pasmami X (7–11 GHz) czy S (2–4 GHz). Dodatkowo przeciwko wykorzystaniu pasma X przemawiał fakt, że antena pracująca w tym zakresie musiałaby być na tyle duża, że teleskop miałby problemy z utrzymaniem wysokiej stabilności, niezbędnej do prowadzenia obserwacji. Szybki transfer danych jest niezbędny na potrzeby przesyłania informacji naukowych. Webb korzysta też z dwóch kanałów pasma S. Jeden z nich, o częstotliwości 2.09 GHz to kanał odbiorczy, pracujący z prędkością 16 kb/s. Służy on do wysyłania do teleskopu poleceń dotyczących zaplanowanych obserwacji oraz przyszłych transmisji danych. Za pomocą zaś drugiego kanału, 2.27 GHz, pracującego w tempie 40 kb/s, Webb przysyła na Ziemię informacje dane inżynieryjne, w tym informacje o kondycji poszczególnych podzespołów. Łączność pomiędzy Ziemią a teleskopem nie jest utrzymywana przez 24 godziny na dobę. Dlatego też JWST musi przechowywać dane na pokładzie, zanim je nam przyśle. Magazynem danych jest 68-gigabajtowy dysk SSD, którego 3% pojemności zarezerwowano na dane inżynieryjne. Gdy już Webb prześle dane na Ziemię, oczekuje na potwierdzenie, że dotarły i wszystko z nimi w porządku. Dopiero po potwierdzeniu może wykasować dane z dysku, by zrobić miejsce na kolejne informacje. Specjaliści z NASA spodziewają się, że za 10 lat pojemność dysku, z powodu oddziaływania promieniowania kosmicznego, zmniejszy się do około 60 GB. Dane z Teleskopu Webba są odbierane na Ziemi przez Deep Space Network. DSN korzysta z trzech kompleksów anten znajdujących się w pobliżu Canberry, Madrytu i Barstow w Kalifornii. Z DNS korzysta wiele innych misji, w tym Parker Solar Probe, TESS czy Voyagery. Dlatego też JWST musi dzielić się z nimi ograniczonym czasem korzystania z anten. Wszystko to wymaga starannego planowania. Czas, w którym dana misja będzie mogła korzystać z anten DSN jest planowany z wyprzedzeniem sięgającym 12-20 tygodni. Wyjątkiem była sytuacja, gdy Teleskop Webba przygotowywał się do pracy, rozkładał poszczególne podzespoły, uruchamiał instrumenty, gdy były one sprawdzane i kalibrowane. Większość z tych czynności wymagała komunikacji w czasie rzeczywistym, wówczas więc Webb miał pierwszeństwo przed innymi misjami. Inżynierowie pracujący przy systemie komunikacji przykładali szczególną uwagę do jego niezawodności. Wiedzieli, że jeśli oni popełnią błąd, cała praca kolegów z innych zespołów pójdzie na marne. System komunikacji musi działać idealnie. Dlatego też wybrali znane rozwiązanie i odrzucili co najmniej dwie propozycje wykorzystania eksperymentalnej komunikacji laserowej.   « powrót do artykułu
  3. Podczas zakończonego właśnie sezonu 2021/22 ogólnopolskiej Akcji Karmnik studenci z Koła Naukowego Biologów Uniwersytetu w Białymstoku (UwB) zaobrączkowali najwięcej ptaków. Jak podkreślono w komunikacie uczelni, jeszcze jeden osobnik - i byłby okrągły tysiąc. W ich sieci ornitologiczne schwytały się też rekordowe liczby czyżów, dzwońców i grubodziobów. XVI edycja akcji rozpoczęła się 4 grudnia, a zakończyła wraz z lutym. Zgłosiły się liczne drużyny karmnikowe, które co 2 tygodnie prowadziły odłowy. Zaplanowano je na 4-5 oraz 18-19 grudnia, 1-2, 15-16 i 29-30 stycznia, a także na 12-13 i 26-27 lutego. W sieci ornitologiczne studentów z UwB wpadło 1318 ptaków, z czego 999 nie miało jeszcze obrączek. Oprócz tego odnotowano 319 kolejnych odłowów. Były to tzw. retrapy i kontrole, a więc osobniki, którym kiedyś założono obrączki przy studenckich karmnikach albo w innych miejscach. Ptakom sprzyjają ogródki, łagodna zima i miejska wyspa ciepła Wg dr. Krzysztofa Deoniziaka, opiekuna sekcji ornitologicznej Koła Naukowego Biologów, istnieje parę przyczyn, dla których w pobliżu kampusu UwB odławia się tyle ptaków. Po pierwsze, nieopodal znajdują się zarówno pozostałości, jak i nadal użytkowane duże ogrody działkowe. Ptaki mogą tu znaleźć sporo pokarmu i odpocząć podczas migracji. Po drugie, z powodu łagodnej zimy dochodzi do pewnych zaburzeń w migracjach ptaków. Brak stałej i grubej pokrywy śnieżnej nie zmusza ich do dalekiej wędrówki na zimowiska. A obszary miejskie (chociażby z powodu wspomnianych wcześniej działek i przydomowych ogrodów) są atrakcyjnym żerowiskami. Nie bez znaczenia jest też wpływ miejskiej wyspy ciepła. Skoro ptaki mogą przetrwać tutaj, niektórym gatunkom zwyczajnie nie kalkuluje się wędrówka na południe lub zachód kontynentu. Statystyki żaków z Białegostoku Gdy przyjrzymy się statystykom, okaże się, że Koło Naukowe Biologów UwB (Koło Naukowe Biologów UwB i przyjaciele) złapało w sieci 14 gatunków. Niekwestionowane 1. miejsce przypadło bogatkom (387). Na drugim miejscu uplasowały się czyże (273), a na trzecim dzwońce (136). Tuż za podium znalazły się zaś grubodzioby (116). Spośród liczniej reprezentowanych gatunków warto wymienić jeszcze modraszkę (64). Jak wspominaliśmy na początku, odłowy czyżów, dzwońców i grubodziobów okazały się rekordowe w skali kraju. Stali bywalcy i rzadko odławiane gatunki Co ciekawe, niektóre osobniki regularnie pojawiają się przy studenckich karmnikach. Pewną bogatkę zaobrączkowano, na przykład, w 2017 r., a później odłowiono ponownie aż 5-krotnie. Innym powracającym przypadkiem jest dzięcioł duży, który został zaobrączkowany w 2016 r. i wpadł w sieci ornitologiczne jeszcze 2-krotnie (rok później i w 2021 r.). W nasze sieci w tym sezonie wpadały również ciekawe, rzadko odławiane gatunki. Np. dwie czeczotki, które nie złapały się nigdzie indziej w Polsce, dzięcioł średni, krogulec. Były też cztery zięby - ptaki, które jeszcze kilka lat temu raczej odlatywały na południe. Teraz obserwujemy je u nas zimą i odławiamy coraz częściej, co pokazuje zachodzące zmiany klimatyczne – opowiada Anna Winiewicz, prezeska Koła Naukowego Biologów UwB. Podsumowanie sezonu 2021/22 Na witrynie Akcji Karmnik można się zapoznać zarówno z wynikami zbiorczymi, jak i ze statystykami poszczególnych odłowów. W tym sezonie złapaliśmy ponad 11.000 [11.620] ptaków z 37 gatunków! Samych bogatek trafiło się ponad 4 tysiące, modraszek ponad tysiąc. Dzwoniec wylądował na czwartym miejscu, zaraz za czyżami - ponad 400 osobników obu gatunków. Piątym najchętniej przylatującym do karmnika ptakiem był grubodziób. Zabrakło dwóch grubków, aby było 400. Mieliśmy tylko dwa ptaki z zagranicy. Trafiło się parę ciekawych ptaków, jak srokosz i sroka, ale w przyszłym sezonie będą już wliczone w listę ptaków karmnikowych - podsumowano. W ramach Akcji Karmnik ptaki obrączkuje się pod okiem licencjonowanych obrączkarzy. Poza tym są one mierzone i opisywane. Dzięki temu można zbierać dane ujawniające skład gatunkowy i liczebność ptaków przylatujących do karmników w różnych regionach kraju. Dane ornitologiczne trafią do Stacji Ornitologicznej Muzeum i Instytutu Zoologii PAN w Gdańsku. « powrót do artykułu
  4. Na University of Central Florida powstał pierwszy w historii oscyloskop optyczny. Urządzenie może zrewolucjonizować technologie komunikacyjne, od smartfonów po internet. Skonstruowane na UCF urządzenie mierzy pole elektryczne światła zamieniając oscylacje światła w sygnał elektryczny. Dotychczas pomiary pola elektrycznego światła były poważnym problemem ze względu na olbrzymie tempo jego oscylacji. Najbardziej zaawansowane techniki pomiarowi, wykorzystywane w urządzeniach elektronicznych i telekomunikacyjnych, pozwalają na pomiar częstotliwości rzędu gigaherców. Pokrywa to spektrum radiowe i mikrofalowe promieniowania elektromagnetycznego. Jednak światło oscyluje ze znacznie większa częstotliwością. Możliwe jest więc upakowanie w nim znacznie większej ilości informacji niż robimy to obecnie. Jednak nie dysponujemy narzędziami, które by to umożliwiały. Obecne oscyloskopy dokonują uśrednionych pomiarów w ramach impulsu światła. Nie potrafią odróżnić poszczególnych dolin i grzbietów fali. Gdybyśmy zaś byli w stanie mierzyć pojedyncze doliny i grzbiety, moglibyśmy kodować w nich informacje Dzięki włóknom optycznym możemy korzystać ze światła do przesyłania informacji, ale wciąż jesteśmy ograniczeni prędkością oscyloskopów, mówi profesor Michael Chini. Nasz oscyloskop optyczny może zwiększyć prędkość przekazywania informacji nawet o około 10 000 razy. Uczeni z Florydy zbudowali swoje urządzenie i zaprezentowali jego możliwości dokonując w czasie rzeczywistym pomiarów pól elektrycznych indywidualnych impulsów światła laserowego. W kolejnym etapie badań będą chcieli sprawdzić, gdzie leży nieprzekraczalna granica prędkości pomiaru przy wykorzystaniu ich techniki. Swoje badania naukowcy opisali na łamach Nature Photonics. « powrót do artykułu
  5. Prawnikom Google'a nie udało się doprowadzić do odrzucenia przez sąd pozwu związanego z nielegalnym gromadzeniem danych użytkowników przez koncern. Sędzia Lucy Koh uznała, że Google nie poinformował użytkowników, iż zbiera ich dane również wtedy, gdy wykorzystują w przeglądarce tryb anonimowy. Powodzi domagają się od Google'a i konglomeratu Alphabet co najmniej 5 miliardów dolarów odszkodowania. Twierdzą, że Google potajemnie zbierał dane za pośrednictwem Google Analytics, Google Ad Managera, pluginów oraz innych programów, w tym aplikacji mobilnych. Przedstawiciele Google'a nie skomentowali jeszcze postanowienia sądu. Jednak już wcześniej mówili, że pozew jest bezpodstawny, gdyż za każdym razem, gdy użytkownik uruchamia okno incognito w przeglądarce, jest informowany, że witryny mogą zbierać informacje na temat jego działań. Sędzia Koh już wielokrotnie rozstrzygała spory, w które były zaangażowane wielkie koncerny IT. Znana jest ze swojego krytycznego podejścia do tego, w jaki sposób koncerny traktują prywatność użytkowników. Tym razem na decyzję sędzi o zezwoleniu na dalsze prowadzenie procesu przeciwko Google'owi mogła wpłynąć odpowiedź prawników firmy. Gdy sędzia Koh zapytała przedstawicieli Google'a, co koncern robi np. z danymi, które użytkownicy odwiedzający witrynę jej sądu wprowadzają w okienku wyszukiwarki witryny, ci odpowiedzieli, że dane te są przetwarzane zgodnie z zasadami, na jakie zgodzili się administratorzy sądowej witryny. Na odpowiedź tę natychmiast zwrócili uwagę prawnicy strony pozywającej. Ich zdaniem podważa ona twierdzenia Google'a, że użytkownicy świadomie zgadzają się na zbieranie i przetwarzanie danych. Wygląda na to, że Google spodziewa się, iż użytkownicy będą w stanie zidentyfikować oraz zrozumieć skrypty i technologie stosowane przez Google'a, gdy nawet prawnicy Google'a, wyposażeni w zaawansowane narzędzia i olbrzymie zasoby, nie są w stanie tego zrobić, stwierdzili. « powrót do artykułu
  6. W laboratorium IBM-a w Zurichu zaprezentowano rekordowo pojemny napęd taśmowy. Pojedynczy kartridż pozwala na przechowanie aż... 580 terabajtów danych. To aż 29-krotnie więcej niż oferowany obecnie przez IBM-a kartridż o pojemności 20 TB. Błękitny Gigant jest tutaj rynkowym liderem. Najnowszy standard przemysłowy LTO-Ultrium (Linear Tape-Open, version 9) mówi o kartridżach o pojemności 18 TB. Mark Lantz, menedżer CloudFPGA odpowiedzialny w IBM Zurich za technologie taśmowe mówi, że w ostatnich latach taśmy magnetyczne przeżywają swój renesans. Ma to związek z jednej strony z wykładniczym wzrostem ilości wytwarzanych danych, które trzeba gdzieś archiwizować oraz z jednoczesnym spowolnieniem przyrostu gęstości zapisu na dyskach twardych. Jak zauważa Lantz, w ciągu ostatnich kilkunastu lat składane roczne tempo wzrostu gęstości zapisu na HDD spadło do poniżej 8%. Jednocześnie świat produkuje coraz więcej danych. Roczny wzrost wytwarzania informacji wynosi aż 61%. Eksperci mówią, że do roku 2025 wytworzymy 175 zetabajtów danych. Jako, że gęstość zapisu HDD niemal stanęła w miejscu, dramatycznie wzrosła cena każdego gigabajta dysnku twardego. Już w tej chwili 1 bit HDD jest czterokrotnie droższy niż 1 bit taśmy magnetycznej. Ta wielka nierównowaga pojawiła się w bardzo niekorzystnym momencie, gdy ilość wytwarzanych danych zaczęła gwałtownie rosnąć. Centra bazodanowe mają coraz większy problem. Na szczęście zdecydowana większość danych to informacje, które są rzadko potrzebne. To zaś oznacza, że w ich przypadku szybkość odczytu danych nie jest rzeczą zbyt istotną. Mogą być więc przechowywane na taśmach magnetycznych. Taśmy mają wiele zalet w porównaniu z dyskami twardymi. Są bardziej odporne na ataki cyberprzestępców, do działania potrzebują mniej energii, są trwałe i znacznie tańsze w przeliczeniu na gigabajt. Zalety te spowodowały, że – jak ocenia IBM – już 345 000 eksabajtów danych przechowywanych jest właśnie na taśmach. Najnowszy napęd taśmowy to wynik 15-letniej współpracy IBM-a i Fujifilm. Od roku 2006 firmy pobiły sześć kolejnych rekordów dotyczących napędów taśmowych. Ostatnie osiągnięcie było możliwe dzięki udoskonaleniu samej taśmy, głowicy odczytującej oraz serwomechanizmu odpowiadającego za precyzję pozycjonowania głowicy. Firma Fujifilm odeszła tutaj od przemysłowego standardu jakim jest ferryt baru i pokryła taśmę mniejszymi cząstkami ferrytu strontu. Inżynierowie IBM-a, mając do dyspozycji nową taśmę, opracowali nową technologię głowicy odczytująco-zapisującej, która współpracuje z tak gładką taśmą. O tym jak wielkie postępy zostały dokonane w ciągu kilkunastoletniej współpracy Fujifilm i IBM-a najlepiej świadczą liczby. W roku 2006 obie firmy zaprezentowały taśmę pozwalającą na zapisanie 6,67 miliarda bitów na calu kwadratowym. Najnowsza taśma pozwala na zapis 317 miliardów bitów na cal. Kartridż z roku 2006 miał pojemność 8 TB, obecnie jest to 580 TB. Szerokość ścieżki zapisu wynosiła przed 14 laty 1,5 mikrometra (1500 nanometrów), teraz to zaledwie 56,2 nanometra. Liniowa gęstość zapisu w roku 2006 sięgała 400 000 bitów na cal taśmy. Na najnowszej taśmie na każdym calu można zapisać 702 000 bitów. Zmniejszyła się też – z 6,1 mikrometra do 4,3 mikrometra – grubość taśmy, wzrosła za to jej długość. W pojedynczym kartridżu mieści się obecnie 1255 metrów taśmy, a przed 14 laty było to 890 metrów. « powrót do artykułu
  7. Podczas niedawnej konferencji Ignite 2020 Microsoft ogłosił rozpoczęciu Project HSD (Holographic Storage Device). Biorą nim udział specjaliści z laboratorium sztucznej inteligencji w Cambridge oraz inżynierowie z chmury Azure. Celem projektu jest stworzenie holograficznego systemu przechowywania informacji na potrzeby chmur. Zapotrzebowanie na długoterminowe przechowywanie danych w chmurach sięgnęło niespotykanego poziomu i rośnie w zetabajtach. Istniejące obecnie technologie nie pozwalają na ekonomiczne długotrwałe przechowywanie danych. Operowanie danymi w skali chmur obliczeniowych wymaga przemyślenia samych podstaw budowy wielkoskalowych systemów przechowywania informacji oraz technologii, z których są one tworzone, stwierdzili przedstawiciele Microsoftu. Firmowi eksperci zauważają, że obecnie używane technologie nie rozwijają się w dostatecznie szybkim tempie, by zaspokoić zapotrzebowanie. Ponadto mają problemy z wiarygodnością i stabilnością spowodowane albo obecnością mechanicznych podzespołów albo degradującymi się z czasem komórkami pamięci. Dlatego też w 2017 roku Microsoft rozpoczął Project Silica, w ramach którego pracuje nad holograficznym zapisem danych w szkle. Holograficzny zapis danych nie jest ograniczony do dwuwymiarowej powierzchni, pozwala wykorzystać całość nośnika. Hologram zajmuje niewielką część kryształu. W jednym krysztale można zaś zapisać wiele hologramów, wyjaśniają przedstawiciele koncernu z Redmond. Najnowsze osiągnięcia z dziedziny sztucznej inteligencji czy optyki pozwalają na znaczne udoskonalenie tego, co robiono dotychczas w ramach Project Silica, na którym bazuje Project HDS. Na razie, jak informuje dział Microsoft Research, udało się niemal dwukrotnie zwiększyć gęstość zapisu w hologramach. W najbliższych miesiącach powinniśmy zaś zobaczyć poprawioną kompresję i szybsze czasy dostępu. Przed niemal rokiem informowaliśmy, że w ramach Project Silica Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Pisaliśmy wówczas, że firma wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane. Przy Project HSD pracują fizycy, optycy, specjaliści od maszynowego uczenia się i systemów przechowywania danych. Jest on prowadzony przez grupę Optics for the Cloud w Microsoft Resarch Cambridge.   « powrót do artykułu
  8. Naukowcy z Uniwersytetu Technologicznego w Delft wykazali, że możliwe jest niezależne manipulowanie dwoma rodzajami magnetyzmu w atomach. Magnetyzm w atomach powstaje w wyniku orbitalnego oraz obrotowego ruchu elektronów. W tym pierwszym przypadku mowa jest o ruchu elektronu wokół jądra. Ruch obrotowy zaś to ruch elektronu wokół własnej osi. Jako, że każdy z tych rodzajów ruchu może odbywać się zgodnie z ruchem wskazówek zegara lub w stronę przeciwną, zatem może reprezentować 0 lub 1. Teoretycznie więc w atomie możemy zapisać 2 bity danych. "W praktyce jednak jest to niezwykle trudne, gdyż jeśli zmienimy kierunek ruchu orbitalnego, niemal zawsze zmieni się kierunek ruchu obrotowego i vice versa", mówi główny autor najnowszych badań, Sander Otte. Holendrzy, we współpracy z Hiszpanami i Chilijczykami dowiedli, że można odwrócić kierunek ruchu orbitalnego elektronu bez zmiany jego ruchu obrotowego. Osiągnęli to dzięki wykorzystaniu efektu Einsteina-de Haasa. Zgodnie z nim odwrócenie kierunku ruchu orbitalnego można skompensować przez niemierzalnie mały obrót środowiska. W tym przypadku był to kawałek metalu, którego część stanowi atom. Naukowcy wykorzystali skaningowy mikroskop tunelowy, którego próbnik może manipulować pojedynczymi atomami. Zwykle atom ma kontakt z wieloma sąsiadującymi atomami, co zaburza jego magnetyzm. Otte i jego zespół odseparowali spin od ruchu orbitalnego atomu żelaza umieszczając go na pojedynczym niemagnetycznym atomie azotu. Dzięki temu mogli manipulować ruchem orbitalnym bez wpływania na spin elektronu. Możliwość przechowywania bitów w pojedynczym atomie zwiększyłaby tysiące razy pojemność obecnych układów pamięci. Do tego jeszcze bardzo długa droga. Otte mówi, że w tej chwili głównym osiągnięciem, z którego naukowcy się bardzo cieszą, jest możliwość kontrolowania pojedynczych atomów oraz elektronów krążących wokół nich. « powrót do artykułu
  9. Fujifilm informuje o dokonaniu technologicznego przełomu, który pozwala na stworzenie pamięci taśmowej o pojemności 400 terabajtów. Obecnie na rynku dostępne są pamięci taśmowe o pojemnościach kilkunastu do około 20 TB. Z tej formy przechowywania danych korzystają zarówno firmy jak o osoby indywidualne, które muszą archiwizować olbrzymie ilości informacji. Fujifilm chce osiągnąć większe pojemności dzięki zmianie używanego obecnie ferrytu baru (BaFe) na ferryt strontu (SrFe). Używane w taśmach powłoki z ferrytu baru zostały już tak bardzo zminiaturyzowane, że odczyt informacji staje się coraz mniej wiarygodny. Najpopularniejszym formatem napędów taśmowych jest LTO (Linear Tape-Open) opracowany przez IBM-a w latach 90. LTO-1 było pierwszą generacją taśm, w których wykorzystano powłoki z cząstek metalu. Pojemność tych taśm sięgała 100 GB. Ferryt baru został po raz pierwszy użyty w LTO-6, a taśmy te miały pojemność 2,5 TB. Fujifilm zapowiada, że ferryt strontu trafi do generacji LTO-10, która ma się ukazać na rynku za 2 lata. Taśmy będą miały pojemność 48 TB. W roku 2025 pojawią się taśmy o pojemności 96 TB, na model o pojemności 192 terabajtów będziemy musieli poczekać do 2027 roku, a w roku 2030 do sprzedaży trafią 384-terabajtowe taśmy. Jako, że atomy strontu są mniejsze niż atomy baru, ferryt strontu pozwoli na zapisanie większej ilości informacji na takiej samej powierzchni taśmy. Napędy taśmowe nie są popularne wśród użytkowników indywidualnych. Są jednak poszukiwane przez duże firmy, które muszą przechowywać olbrzymie ilości danych. Co prawda odczyt informacji z taśmy jest wolniejszy niż z dysku twardego, jednak kartridże z taśmami są tańsze i mają znacznie większą pojemność. Dlatego też czasami korzystają z nich też i osoby indywidualne, jak fotografowie czy filmowcy, którzy chcą tworzyć archiwa swojej pracy. Obecnie tylko 2 firmy produkują taśmy magnetyczne do przechowywania danych: Fujifilm i Sony. W 2017 roku Sony we współpracy z IBM-em stworzyło prototypową taśmę, na której można zapisać 201 gigabitów danych na cal kwadratowy. Pozwala to na wyprodukowanie taśmy po pojemności 330 TB. Produkt taki ma trafić na rynek w 2026 roku. Teraz Fujifilm informuje o osiągnięciu gęstości zapisu rzędu 224 gigabitów na cal kwadratowy. « powrót do artykułu
  10. Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Prace nad zapisywaniem danych w szkle są prowadzone przez Microsoft Research i stanowią one część projektu, w ramach którego Microsoft opracowuje nowe technologie archiwizacji danych na potrzeby platformy Azure. Budujemy całkiem nowy system, poinformował dyrektor wykonawczy Microsoftu Satya Nadella podczas konferencji Ignite. W ramach Project Silica wykorzystywane jest standardowe szkło kwarcowe. Obecnie Warner Bros archiwizuje filmy przenosząc ich wersje cyfrowe na taśmę i dzieląc je na trzy kolory składowe. Monochromatyczne negatywy są bowiem bardziej odporne na upływ czasu niż filmy kolorowe. To kosztowny i długotrwały proces. Microsoft chce go uprościć i obniżyć jego koszty. Jeśli Project Silica okaże się skalowalny i efektywny ekonomicznie, to będzie czymś, co z chęcią zastosujemy. Jeśli dobrze sprawdzi się w naszym przypadku, sądzimy, że będzie też przydatny dla każdego, kto chce archiwizować dane, mówi Vicky Colf, dyrektor ds. technologicznych w Warner Bros. Microsoft wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane. Wybór szkła jako nośnika danych może dziwić, jednak to bardzo obiecujący materiał. Szkło może przetrwać tysiące lat. Na płytce o wymiarach 75x75x2 milimetry można zapisać ponad 75 gigabajtów danych i zostanie sporo miejsca na zapisanie informacji do korekcji błędów. Podczas testów szkło było zalewane wodą, poddawane działaniu pola magnetycznego, mikrofal, gotowane w wodzie, pieczone w temperaturze 260 stopni Celsjusza i rysowane za pomocą stalowych drapaków. Za każdym razem dane można było odczytać. Duża wytrzymałość szkła oznacza, że archiwa z cyfrowymi danymi będą mniej podatne na powodzie, pożary, trzęsienia ziemi, zaburzenia powodowane polem magnetycznym czy na wyłączenia prądu. Ponadto szkło zajmuje niewiele miejsca. Jego największą zaletą jest wytrzymałość. Prawdopodobnie zapisane w nim dane można będzie przechowywać przez ponad 1000 lat. Stosowane obecnie metody magnetycznego zapisu ulegają szybkiej degradacji w ciągu kilku lat, dlatego też archiwalne dane zapisane na dyskach są co jakiś czas przegrywane na kolejne urządzenia. Celem Project Silica nie jest stworzenie produktu dla konsumentów indywidualnych. Szklane systemy przechowywania danych mają być skierowane do firm chcących archiwizować duże ilości informacji. Nie próbujemy stworzyć czegoś, co będzie używane w domu. Pracujemy nad metodą archiwizacji w skali chmur obliczeniowych. Chcemy wyeliminować kosztowny cykl ciągłego przenoszenia i zapisywania danych. Chcemy mieć coś, co można będzie odłożyć na półkę na 50, 100 czy 1000 lat i zapomnieć o tym do czasu, aż będzie potrzebne, mówi Ant Rowstron, zastępca dyrektora laboratorium w Microsoft Research Cambridge.   « powrót do artykułu
  11. Nowym sposobem na poznanie przyczyn spadku liczebności pszczół jest podłączenie ula do Internetu i stworzenie czegoś w rodzaju scyfryzowanej jego wersji. Tieto, szwedzka firma zajmująca się konsultacjami z zakresu oprogramowania komputerowego, umieściła czujniki w 2 ulach (w każdym z uli mieszka ok. 80 tys. pszczół). Pierwszego października jeden scyfryzowany ul trafił do HSB Living Lab w Göteborgu. Drugi, prototyp, znajduje się w Kalmarze, przy siedzibie firmy. Zamontowano w nim czujniki do pomiaru liczebności owadów, wilgotności, ciśnienia czy temperatury w ulu. Ule są podłączone do Internetu i wysyłają dane na serwer. Jak tłumaczą twórcy, oznacza to zdalny dostęp do nich w czasie rzeczywistym. Analizą zajmą się algorytmy sztucznej inteligencji. Projekt ma pomoc w zarządzaniu ulem, tworzeniu zdrowych kolonii czy zachowaniu bioróżnorodności w bezpośrednim otoczeniu. Mikael Ekström, który po godzinach sam zajmuje się pszczelarstwem, wyjaśnia, że dzięki technologii można lepiej monitorować liczebność pszczół, żywotność kolonii, a także ilość wytwarzanego miodu. To również świetny sposób na zilustrowanie korzyści związanych ze scyfryzowanym społeczeństwem oraz na pokazanie, jak cyfrowe rozwiązania mogą stworzyć lepsze warunki zarówno dla ludzi, jak i dla pszczół. Ekström ma nadzieję, że w przyszłości technologia pomoże w wykrywaniu wybuchów epidemii różnych pszczelich chorób. Na razie skala projektu jest niewielka, ale Tieto prowadzi już rozmowy ze Szwedzkim Krajowym Stowarzyszeniem Pszczelarzy. Wspólnie być może uda się ustalić, jak go rozszerzyć na cały kraj. Szybki rozwój technologii działa na naszą korzyść. « powrót do artykułu
  12. Ludzkość wytwarza coraz więcej informacji. I część z nich warto jest dla przyszłych pokoleń. Jednak książki mogą spłonąć, do komputera można się włamać, płyty DVD ulegają z czasem degradacji. I mimo że technologie przechowywania danych są wciąż udoskonalane, to woda czy cyberatak mogą doprowadzić do utraty danych. Szacuje się, że do roku 2020 globalna ilość danych cyfrowych wyniesie 44 biliony gigabajtów. To 10-krotnie więcej niż było ich w 2013 roku. Z czasem nawet chmury obliczeniowe nie będą w stanie przechowywać coraz większej ilości informacji. Rozwiązaniem problemu może okazać się chemia i nieco tanich molekuł. Wyobraźmy sobie, że możemy całą Nowojorską Bibliotekę Publiczną zapisać w łyżeczce molekuł, mówi Brian Cafferty. To naukowiec z Uniwersytetu Harvarda, który wraz z kolegami z laboratorium profesora George'a Whitesidesa ze swojej uczelni oraz grupą profesora Milana Mrksicha z Northwestern University opracowali technikę zapisywania informacji w oligopeptydach. Tak zapisane dane można by przechowywać przez miliony lat, dostęp do danych można by uzyskać tylko przy fizycznym dostępie do nośnika, a po zapisaniu danych ich utrzymanie nie wymagałoby używania energii. Obecnie, przynajmniej na tym etapie, nie postrzegamy naszej metody jako konkurencyjnej wobec istniejących metod zapisu danych. Ona je uzupełnia i powstaje przede wszystkim z myślą o długotrwałej archiwizacji informacji, mówi Cafferty. Od niedawna słyszymy, że naukowcy potrafią zapisywać dane w DNA. O ile jednak DNA jest małe w porównaniu z układami scalonymi, to w świecie molekuł jest duże. Ponadto synteza DNA wymaga sporych umiejętności i dużo pracy. Jeśli mielibyśmy w ten sposób zapisywać dużą ilość danych, to musimy liczyć się z długotrwałym procesem i dużymi kosztami. Cafferty mówi, że opracowana przezeń technika korzysta nie tyle z biologii co z chemii organicznej i analitycznej. Wykorzystano przy tym mniejsze i lżejsze molekuły. Za pomocą pojedynczego procesu syntezy można zapisać taniej i wkładając w to mniej wysiłku niż przy wykorzystaniu DNA. Naukowcy użyli oligopeptydów, które występują powszechnie, są stabilne i mniejsze niż DNA, RNA czy białka. Oligopeptydy mają różną masę, a gdy się je wymierza można z łatwością je od siebie odróżnić, podobnie jak litery w alfabecie. Użyto przy tym, oczywiście, kodu binarnego. Na przykład litera „M” wykorzystuje 4 z 8 możliwych oligopeptydów, każdy o innej masie. Za pomocą spektrometru mas możemy badać masę oligopeptydów i przypisywać „1” tam, gdzie oligopeptyd jest obecny i „0” by oznaczyć jego brak. Zatem mieszanina 8 oligopeptydów odpowiada 1 bajtowi, w 32 można przechować cztery bajty. Dotychczas Cafferty i jego zespół zapisali, przechowali i odczytali w oligopeptydach wykład Richarda Feynmana There is plenty of room at the bottom, zdjęcie Calude'a Shannona ojca teorii informacji oraz słynny drzeworyt Wielka fala w Kanagawie. W tej chwili zespół jest w stanie odczytywać zapisane informacje z dokładnością 99,9%. Zapis odbywa się z prędkością 8 bitów na sekundę, a odczyt z prędkością 20 bitów na sekundę. Oba czasy bez wątpienia da się znacząco poprawić. Naukowcy są też w stanie udoskonalić stabilność, pojemność oraz obniżyć cenę swoich molekuł. Na potrzeby badań wykorzystywali bowiem specjalnie tworzone molekuły. Jednak, jak zapewniają, w przyszłości właściciele archiwów będą mogli kupować standardowe molekuły, a ich cena może wynosić 1 cent za molekuły pozwalające na przechowanie ponad 10 MB danych. W odpowiednich warunkach oligopeptydy są stabilne przez setki lub tysiące lat, stwierdzają autorzy badań. Mogą przetrwać bez światła i powietrza, w wysokiej temperaturze i niskiej wilgotności. Dostęp do tak zarchiwizowanych informacji byłby możliwy tylko przy fizycznym dostępie do nośnika, a informacje, w razie prób ich zaburzenia czy zniszczenia, łatwo odzyskać metodami chemicznymi. Cafferty przewiduje, że w przyszłości, dzięki olbrzymiej pojemności oligopeptydów mogą powstać archiwa, które na niewielkiej przestrzeni będą przechowywały gigantyczne ilości informacji, całość zaś będzie tania, stabilna i nie będzie zużywała prądu. « powrót do artykułu
  13. Dwóch amerykańskich senatorów, demokrata Josh Hawley i republikanin Mark Warner, przygotowało projekt ustawy, której celem jest lepszy nadzór nad danymi osobowymi przechowywanymi przez wielkie koncerny. Ustawa ma zmusić Facebooka, Google'a, czy Amazona do ujawnienia ile danych osobowych przechowują oraz w jaki sposób – pośredni i bezpośredni – na nich zarabiają. DASHBOARD (Designing Accounting Safeguards to Help Broaden Oversight And Regulations on Data Act) dotyczyłaby przedsiębiorstw, które mają miesięcznie ponad 100 milionów unikatowych użytkowników i zobowiązybałaby je do ujawnienia szczegółów dotyczących zarabiania na danych użytkowników. Projekt ustawy zakłada, że raz na 90 dni wspomniane firmy miałyby obowiązek poinformowania każdego z użytkowników o szacowanej wartości danych tego użytkownika przechowywanych przez operatora. Gdy wielkie koncerny twierdzą, że ich produkt jest darmowy, tak naprawdę sprzedają konsumentów. Co więcej, firmy IT robią wszystko, by ukryć informacje o tym, ile warte są dane użytkownika i komu zostały sprzedane, oświadczył senator Hawley. Przez lata serwisy społecznościowe twierdziły, że ich usługi są darmowe. Jednak to nie jest prawda, użytkownik płaci za te usługi swoimi danymi, dodał senator Warner. Zdaniem twórców ustawy, nowe przepisy pozwolą konsumentom zrozumieć, jaka jest prawdziwa wartość ich danych, dadzą im nad nimi kontrolę i pokażą, że to co rzekomo darmowe, tak naprawdę słono kosztuje. Warto w tym miejscu przypomnieć, że od wielu lat pojawiają się próby powołania do życia czegoś, co można by nazwać „ekonomią danych osobowych”. To próby przekazania użytkownikom zarówno kontroli nad własnymi danymi oraz możliwości pobierania opłat za korzystanie z nich. Nad tego typu pomysłem, projektem o nazwie „Bali”, pracuje m.in. Microsoft. Gdyby ustawa DASHBOARD została przyjęta przez Kongres, z pewnością ułatwiłoby to powstanie „ekonomii danych osobowych”. « powrót do artykułu
  14. Polska onkologia i medycyna opiera się na zbyt malej ilości twardych danych; nie wiemy tak naprawdę, jakie są dokładnie wyniki leczenia nowotworów – powiedział PAP prof. Piotr Rutkowski, przewodniczący powołanego niedawno zespołu ds. tzw. cancer planu. Do 30 listopada 2019 r. zespół ds. tzw. cancer planu ma opracować Narodową Strategię Onkologiczną, której głównym celem jest poprawa wykrywalności oraz skuteczności leczenia nowotworów. Zdaniem prof. Piotra Rutkowskiego, chirurga Centrum Onkologii w Warszawie, zespół specjalistów ds. Narodowej Strategii Onkologicznej (wśród których są onkolodzy z centrów onkologii, jak i przedstawiciele ministerstwa zdrowia, Narodowego Funduszu Zdrowia oraz uczelni medycznych), potrzebuje przede wszystkim wiarygodnych danych. Polska onkologia i polska medycyna opiera się na zbyt malej ilości twardych danych i tak naprawdę nie wiemy, jakie są dokładnie wyniki leczenia, za co płaci płatnik, ale przede wszystkim jakie korzyści odnosi z tego chory. To jest niezbędne – powiedział w rozmowie z dziennikarzem PAP. Skutkiem braku danych o wynikach leczenia jest to – podkreślił specjalista - że pacjent nie wie, jaka jest jakość danego zabiegu, ale też płatnik tego w ogóle nie kontrolował. Wykazał to niedawno opublikowany raport Narodowego Funduszu Zdrowia "Nowotwory złośliwe. Koncentracja leczenia zabiegowego" (opracowany na podstawie danych dotyczących realizacji świadczeń medycznych w 2017 r.). NFZ postanowił, że powyżej pewnej liczby wykonywanych procedur za zabieg będzie płacić więcej. Okazuje się jednak, że mało ośrodków spełnia przyjęte warunki, przykładowo w jednym z nowotworów [jelita grubego – PAP] 30 ośrodków spełnia określone kryteria, a 300 innych - nie spełnia. Opublikowane w raporcie dane ujawniły zatem olbrzymie rozproszenie ośrodków zajmujących się leczeniem nowotworów – podkreślił szef zespołu ds. cancer planu. Chirurgią w wielu nowotworach jest podstawą leczenia. W skomplikowanych zabiegach, do jakich często zaliczane są operacje nowotworów, bardzo ważne jest zatem, żeby w danej placówce wykonywano ich jak najwięcej. Chirurdzy, którzy często je przeprowadzają, uzyskują lepsze efekty, z korzyścią dla chorego. W chirurgii onkologicznej często jest tak, że ilość faktycznie przechodzi w jakość, ale musi być również odpowiednia jakość sprawozdawania tych wyników, zarówno o liczbie wykonywanych procedur, jak też osiąganych wynikach leczenia – wyjaśnił prof. Rutkowski. Podkreślił, że w krajach zachodnich istnieje dobrze pojęta konkurencja między placówkami specjalizującymi się w danym typie nowotworów. Zdarza się, że znikają kliniki, które w kolejnych audytach odstawały jakościowo od innych pod względem uzyskiwanych wyników i dlatego je zamknięto. Byłem w szoku, kiedy po raz pierwszy się zetknąłem się z tym, że pewnego ośrodka po jakimś czasie już nie było. Czy można sobie wyobrazić, żeby w Polsce zamknięto jakakolwiek klinikę, bo nie spełniała kryteriów – zapytał. Zdaniem przewodniczącego zespołu, który ma opracować Narodową Strategię Onkologiczną, wyspecjalizowane ośrodki powinny przez dłuższy czas opiekować się pacjentem. Przykładem tego, o co nam chodzi, są tzw. Breast Cancer Units [ośrodki specjalizujące się leczeniu raka piersi – PAP]. Opieka w takich placówkach powinna być skoordynowana i kompleksowa, czyli od diagnozy poprzez leczenie skojarzone, ale również po jego zakończeniu chory musi mieć zapewnioną dalszą rehabilitację. Teraz często jest tak, że pacjent, który zachorował na nowotwór, kończy leczenie i nie ma dalszej opieki, pozostawiony jest samu sobie. Tak jest niestety w wielu ośrodkach – przyznał prof. Rutkowski. Dodał, że w Polsce chorych nie poddaje się rehabilitacji z tego tylko powodu, że mają oni nowotwory i koło się zamyka. Jest u nas wiele przesądów po wyleczeniu i w trakcie leczeniu nowotworów. Chodzi w tym przypadku o całościową rehabilitację, nie tylko o fizykoterapię, ale także o wsparcie psychoonkologiczne i możliwość powrotu do pracy - ale w taki sposób, żeby pacjent mógł korzystać z dalszego leczenia – wyjaśnił specjalista. Specjalista zwrócił uwagę, że chirurgia onkologiczna jest dynamicznie rozwijającą się specjalnością, która dotyczy również leczenia okołooperacyjnego, za pomocą napromieniania, chemioterapii i nowych terapii. Nie zawsze trzeba od razu zoperować pacjenta. Na zjazdach naukowych coraz więcej jest o leczeniu okołooperacyjnym – dodał. Chodzi nie tylko o leczenie, ale i nowoczesne diagnozowanie, które jest bardzo trudne. To jest kosztowne, ale przynosi też oszczędności zarówno dla pacjenta, jak i płatnika, bo gdy rozpoznanie zostanie właściwie postawione to oszczędzamy pieniądze i leczymy właściwie, bardziej skutecznie - powiedział prof. Rutkowski. Jako przykład podał Francję, gdzie 95 proc. mięsaków jest diagnozowanych histopatologicznie jedynie w trzech ośrodkach. Po takich specjalistycznych badaniach zmieniono rozpoznania w 40 proc. przypadków, a w 10 proc. okazało się, że wcale nie było nowotworu, czyli w co drugim przypadku chorzy powinni być leczeniu całkowicie inaczej lub w ogóle niepotrzebnie poddano ich terapii. Chodzi o przeprowadzenie pełnej diagnostyki jeszcze przed operacją, żeby wypracować właściwą strategię leczenia, chemioterapię czy radioterapię. Przecież to są wszystko koszty – podkreślił specjalista. W ocenie szefa zespołu ds. cancer planu, chirurgią onkologiczną nie muszą się zajmować tylko wielospecjalistyczne ośrodki: To może być mały ośrodek specjalistyczny, a także placówki uniwersyteckie, np. w Krakowie czy Warszawie. Wykonują one dobrą robotę także w zakresie chirurgii onkologicznej. Prof. Rutkowski uważa, że system [opieki onkologicznej – PAP] trzeba w Polsce dopiero zbudować, bo był on postawiony na głowie. Skoncentrowana była chemioterapia, a zdekoncentrowana chirurgia. Tymczasem powinno być odwrotnie, bo wtedy uzyskuje się największy odsetek wyleczeń. Z kolei leczenie uzupełniające i paliatywne powinno być bliżej miejsca zamieszkania pacjenta. Bez sensu jest to, żeby na standardową chemioterapię pacjent jeździł 200 km. To jest to co mam nadzieję, że się zmieni - mówił. Według niego świadczenia medyczne powinny być jednak rozsądnie wycenione. Duża część procedur w chirurgii generalnie wykonywana jest poniżej kosztów. To jest totalna fikcja. Dlatego szpitale nie są zainteresowane wysokojakościową chirurgią, bo ona tylko przynosi straty - podkreślił. Zrobiliśmy ostatnio wyliczenie – dodał - bo po raz pierwszy wzięła się za to Agencja Oceny Technologii Medycznych i Taryfikacji, która wreszcie ocenia realne koszty w chirurgii. Okazało się, że u nas - w Centrum Onkologii - koszty realne są trzy razy wyższe od tego, co płaci NFZ. Bo tak niskie są te wyceny. Oczekuję, że wzrosną nakłady na służbę zdrowia, ale wiele zależy od organizacji opieki. Dotąd jak nie było pieniędzy, to wszyscy markowali, jak ten system ma działać. Jeżeli pieniędzy będzie więcej, to będzie on działał sprawnie – powiedział prof. Rutkowski. Specjalista poinformował PAP, że pierwsze posiedzenie zespołu ds. cancer planu planowane jest na 18 czerwca 2019 r. Przewiduje się, że omawiane będą wstępne priorytety Narodowej Strategii Onkologicznej. « powrót do artykułu
  15. Międzynarodowy zespół naukowy opracował metodę przechowywania danych, która niemal nie zużywa energii. Cyfrowe dane są zapisane na nośniku magnetycznym, który nie potrzebuje zasilania. Cała metoda jest niezwykle szybka i rozwiązuje problem zwiększenia wydajności przetwarzania danych bez zwiększania poboru energii. Obecnie centra bazodanowe odpowiadają za 2–5 procent światowego zużycia energii. W czasie ich pracy generowane są olbrzymie ilości ciepła, które wymagają dużych ilości energii przeznaczonej na chłodzenie. Problem jest na tyle poważny, że np. Microsoft zatopił centra bazodanowe w oceanie, by je lepiej chłodzić i obniżyć koszty. Większość danych przechowywanych jest w formie cyfrowej, gdzie 0 i 1 są reprezentowane za orientacji domen magnetycznych. Nad materiałem magnetycznym przesuwa się głowica odczytująco/zapisująca. Teraz na łamach Nature dowiadujemy się o nowej metodzie zapisu, która wykorzystuje niezwykle krótkie, trwające bilionowe części sekundy, impulsy światła, które wysyłane są do anten umieszczonych na magnesach. Całość pracuje niezwykle szybko i niemal nie zużywa przy tym energii, gdyż temperatura magnesów nie rośnie. Autorzy nowej metody wykorzystali impulsy światła w zakresie dalekiej podczerwieni, w paśmie teraherców. Jednak nawet najpotężniejsze terahercowe źródła światła nie są na tyle mocne, by zmienić orientację pola magnetycznego. Przełom nadszedł, gdy uczeni opracowali wydajny mechanizm sprzęgania pomiędzy spinem pola magnetycznego i terahercowym polem elektrycznym. Następnie stworzyli miniaturowe anteny, które pozwalają skoncentrować, a zatem i wzmocnić pole elektryczne światła. Okazało się ono na tyle silne, że można za jego pomocą zmieniać spin w ciągu bilionowych części sekundy. Temperatura magnesu nie rośnie podczas pracy, gdyż cały proces zapisu wymaga jednego kwanta energii na spin. Rekordowo niski pobór energii czyni tę metodę skalowalną. Przyszłe systemy do składowania danych będą mogły wykorzystać również świetne zdefiniowanie przestrzenne anten, co pozwoli na stworzenie praktycznych układów pamięci magnetycznej o maksymalnej prędkości i efektywności energetycznej, mówi jeden z autorów badań, doktor Rościsław Michajłowskij z Lancaster University. Uczony planuje przeprowadzenie kolejnych badań, podczas których chce wykorzystać nowy ultraszybki laser z Lancaster University oraz akceleratory z Cockroft Institute zdolne do generowania intensywnych impulsów światła. Chce w ten sposób określić praktyczne i fundamentalne limity prędkości i energii dla zapisu magnetycznego. « powrót do artykułu
  16. Pięćdziesięciojednoletni Benoît Lecomte musiał zrezygnować z próby pokonania wpław Pacyfiku. Niestety, burza uszkodziła grot łodzi zapewniającej mu wsparcie. Stało się tak po pokonaniu przez Francuza 2700 km; cała trasa do San Francisco ma 9100 km. Pływak, który wcześniej jako pierwszy pokonał wpław Atlantyk, wyruszył 5 czerwca z Chōshi w Japonii. Średnio płynął 8 godzin dziennie. Jego celem było i nadal jest zwiększenie świadomości zmiany klimatu i zanieczyszczenia plastikiem. Po dotarciu do Wielkiej Pacyficznej Plamy Śmieci Benoît musiał się zmierzyć z niespodziewanie dużą ilością odpadów, tajfunami i silnymi burzami. Natrafiliśmy na zdradliwe wiatry, deszcz i martwe fale, które zmusiły nas do zmiany kursu. Ostatecznym ciosem było [jednak] nienaprawialne uszkodzenie żagla. Ponieważ bezpieczeństwo to priorytet, jedynym wyjściem było wycofanie z próby pobicia rekordu. Ben i zespół nadal jednak zamierzają zebrać naukowe dane z niezbadanego korytarza oceanicznego. Warto przypomnieć, że The Swim to jedyna w swoim rodzaju ekspedycja z zakresu nauki obywatelskiej. We współpracy z 27 instytucjami naukowymi, w tym z NASA i Woods Hole Oceanographic Institution, Ben i jego załoga pobrali wzdłuż pokonanej trasy niemal 1100 próbek. Dzięki temu może się powiększyć nasza wiedza z zakresu skażenia plastikiem, migracji ssaków, ekstremalnej wytrzymałości, a nawet długoterminowych lotów kosmicznych. « powrót do artykułu
  17. Z 747-stronicowej dokumentacji przesłanej przez Facebooka do Kongresu USA dowiadujemy się, że dostęp do danych zbieranych przez serwis społecznościowy miały w przeszłości 52 firmy. Facebook udostępniał dane na temat użytkowników na podstawie specjalnych umów, których celem było upewnienie się, że urządzenia i aplikacji zewnętrznych firm będą współpracowały z serwisem. Wśród firm, którym Facebook udostępniał dane są Apple, Blackberry, Amazon czy Microsoft. Są wśród nich też chińskie firmy, jak Huawei i Alibaba. Co do niektórych z nich amerykańscy politycy i służby specjalne wyrażają obawy, związane z ich działaniami przeciwko amerykańskiemu bezpieczeństwu narodowemu. Facebook poinformował, że dotychczas zaprzestał współpracy z 38 z 52 wymienionych w raporcie firm. Do końca lutego zakończy kolejnych siedem kontraktów, a do końca października wygaśnie jeszcze jeden. Już teraz wiadomo, że Facebook nadal będzie współpracował z Amazonem, Apple'em i Alibabą. Koncern Zuckerberga zapewnił, że większość ze wspomnianych umów o partnerstwie zostało zawartych jeszcze przed rozpowszechnieniem się zaawansowanych smartfonów, które znakomicie ułatwiły dostęp do internetu. Gdy je podpisywano większość użytkowników korzystała z urządzeń mobilnych, które w bardzo ograniczony sposób pozwalały na używanie sieci. Wiadomo też, że przynajmniej niektórym partnerom, takim jak AOL, Audi, Panasonic czy aplikacja randkowa Hinge, udostępniono nie tylko dane użytkowników, ale również znajomych z ich listy kontaktów. Producenci aplikacji mieli więc np. dostęp do numerów telefonów ludzi, którzy z ich aplikacji nie korzystali. « powrót do artykułu
  18. Facebook przyznał, że od co najmniej 2010 roku udostępnia dane użytkowników co najmniej 4 chińskim przedsiębiorstwom. Część prywatnych danych użytkowników Facebooka trafia do Lenovo, Oppo i TCL. Dostęp do danych ma też firma Huawei, która według amerykańskich służb wywiadowczych stanowi potencjalne zagrożenie dla bezpieczeństwa narodowego USA. Przedstawiciele Facebooka zapowiedzieli, że do końca bieżącego tygodnia wypowiedzą umowę z Huawei. Inne umowy pozostaną w mocy. Koncern Zuckerberga udostępnia prywatne dane użytkowników wielu przedsiębiorstwom, w tym Amazonowi, Apple'owi, BlackBerry i Samsungowi. Umowy, na podstawie których udostępniane są dane to część strategii, której celem jest przekonanie większej liczby użytkowników urządzeń mobilnych do korzystania z Facebooka. Dzięki nim producenci urządzeń mogli zaoferować takie funkcje Facebooka jak książki adresowe, przycisk „Lubię to” czy aktualizacje statusu. Chińskie przedsiębiorstwa uzyskały w ramach umów podobne uprawnienia co kanadyjskie BalckBerry. Mogą pobierać dokładne informacje o samych użytkownikach urządzeń mobilnych jak i o wszystkich ich znajomych. Senator John Thune, który stoi na czele Komitetu Handlu domaga się, by Facebook dostarczył Kongresowi szczegółowych danych na temat podpisanych umów. Kierowany przez Thune'a komitet nadzoruje Federalną Komisję Handlu (FTC), która bada, czy polityka prywatności Facebooka nie naruszyła zasad FTC. Amerykańskich prawodawców martwi przede wszystkim umowa z Huawei. Związki pomiędzy tą firmą a chińską Partią Komunistyczną są znane od lat. Facebook zapewnia jednak, że wszelkie informacje przekazywane Huawei były przechowywane na urządzeniach użytkowników, a nie na serwerach chińskiej firmy. Huawei to firma założona przez byłego inżyniera armii chińskiej. Firma otrzymała od państwowych banków miliardy dolarów kredytów na zagraniczną ekspansję. Amerykańskie władze od lat traktują to przedsiębiorstwo podejrzliwie i radzą swoim firmom telekomunikacyjnym, by unikały kupowania sprzętu Huawei. Facebook, który od 2009 roku jest zakazany w Chinach, od wielu lat próbuje powrócić na rynek Państwa Środka. « powrót do artykułu
  19. Po skandalu wokół firmy Cambridge Analytica, która pozyskała z Facebooka informacje o dziesiątkach milionów użytkowników i wykorzystała je do profilowania wyborców, serwis społecznościowy znacznie ostrożniej podchodzi do projektów związanych z przetwarzaniem danych. Przedstawiciele firmy oświadczyli, że wstrzymuje ona projekt pozyskania danych pacjentów z dużych amerykańskich szpitali. Informacje takie, po połączeniu ich z informacjami tych osób z ich kont na Facebooku, miały być wykorzystane w projekcie badawczym. Prace nigdy nie wyszły poza fazę planowania. Nie otrzymaliśmy ani nie analizowaliśmy żadnych danych, zdradził anonimowy przedstawiciel Facebooka. Środowiska medyczne od dawna wiedzą, że informacje dotyczące rodziny i przyjaciół pacjenta mogą być pomocne. Jednak, aby opracować odpowiednie terapie, konieczne jest głębsze zrozumienie tych zależności. Facebook, w porozumieniu ze szpitalami, chciał połączyć dane o zdrowiu pacjentów z danymi na temat ich rodziny, znajomych, aktywności czy zainteresowań, co w wielu przypadkach pozwoliłoby na stworzenie lepszego planu leczenia. Obecnie jednak, po tym, jak najwyżsi rangą menedżerowie Facebooka przyznali, że popełnili błąd dając Cambridge Analytica dostęp do użytkowników serwisu, opinia publiczna z uwagą przygląda się temu, co Facebook robi z danymi. Prowadzenie tego typu projektów będzie więc przez jakiś czas utrudnione. « powrót do artykułu
×
×
  • Create New...