Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Wciąż nie znamy dokładnych wyników leczenia nowotworów w Polsce

Recommended Posts

Polska onkologia i medycyna opiera się na zbyt malej ilości twardych danych; nie wiemy tak naprawdę, jakie są dokładnie wyniki leczenia nowotworów – powiedział PAP prof. Piotr Rutkowski, przewodniczący powołanego niedawno zespołu ds. tzw. cancer planu.

Do 30 listopada 2019 r. zespół ds. tzw. cancer planu ma opracować Narodową Strategię Onkologiczną, której głównym celem jest poprawa wykrywalności oraz skuteczności leczenia nowotworów.

Zdaniem prof. Piotra Rutkowskiego, chirurga Centrum Onkologii w Warszawie, zespół specjalistów ds. Narodowej Strategii Onkologicznej (wśród których są onkolodzy z centrów onkologii, jak i przedstawiciele ministerstwa zdrowia, Narodowego Funduszu Zdrowia oraz uczelni medycznych), potrzebuje przede wszystkim wiarygodnych danych.

Polska onkologia i polska medycyna opiera się na zbyt malej ilości twardych danych i tak naprawdę nie wiemy, jakie są dokładnie wyniki leczenia, za co płaci płatnik, ale przede wszystkim jakie korzyści odnosi z tego chory. To jest niezbędne – powiedział w rozmowie z dziennikarzem PAP.

Skutkiem braku danych o wynikach leczenia jest to – podkreślił specjalista - że pacjent nie wie, jaka jest jakość danego zabiegu, ale też płatnik tego w ogóle nie kontrolował. Wykazał to niedawno opublikowany raport Narodowego Funduszu Zdrowia "Nowotwory złośliwe. Koncentracja leczenia zabiegowego" (opracowany na podstawie danych dotyczących realizacji świadczeń medycznych w 2017 r.).

NFZ postanowił, że powyżej pewnej liczby wykonywanych procedur za zabieg będzie płacić więcej. Okazuje się jednak, że mało ośrodków spełnia przyjęte warunki, przykładowo w jednym z nowotworów [jelita grubego – PAP] 30 ośrodków spełnia określone kryteria, a 300 innych - nie spełnia. Opublikowane w raporcie dane ujawniły zatem olbrzymie rozproszenie ośrodków zajmujących się leczeniem nowotworów – podkreślił szef zespołu ds. cancer planu.

Chirurgią w wielu nowotworach jest podstawą leczenia. W skomplikowanych zabiegach, do jakich często zaliczane są operacje nowotworów, bardzo ważne jest zatem, żeby w danej placówce wykonywano ich jak najwięcej. Chirurdzy, którzy często je przeprowadzają, uzyskują lepsze efekty, z korzyścią dla chorego. W chirurgii onkologicznej często jest tak, że ilość faktycznie przechodzi w jakość, ale musi być również odpowiednia jakość sprawozdawania tych wyników, zarówno o liczbie wykonywanych procedur, jak też osiąganych wynikach leczenia – wyjaśnił prof. Rutkowski.

Podkreślił, że w krajach zachodnich istnieje dobrze pojęta konkurencja między placówkami specjalizującymi się w danym typie nowotworów. Zdarza się, że znikają kliniki, które w kolejnych audytach odstawały jakościowo od innych pod względem uzyskiwanych wyników i dlatego je zamknięto. Byłem w szoku, kiedy po raz pierwszy się zetknąłem się z tym, że pewnego ośrodka po jakimś czasie już nie było. Czy można sobie wyobrazić, żeby w Polsce zamknięto jakakolwiek klinikę, bo nie spełniała kryteriów – zapytał.

Zdaniem przewodniczącego zespołu, który ma opracować Narodową Strategię Onkologiczną, wyspecjalizowane ośrodki powinny przez dłuższy czas opiekować się pacjentem. Przykładem tego, o co nam chodzi, są tzw. Breast Cancer Units [ośrodki specjalizujące się leczeniu raka piersi – PAP]. Opieka w takich placówkach powinna być skoordynowana i kompleksowa, czyli od diagnozy poprzez leczenie skojarzone, ale również po jego zakończeniu chory musi mieć zapewnioną dalszą rehabilitację. Teraz często jest tak, że pacjent, który zachorował na nowotwór, kończy leczenie i nie ma dalszej opieki, pozostawiony jest samu sobie. Tak jest niestety w wielu ośrodkach – przyznał prof. Rutkowski.

Dodał, że w Polsce chorych nie poddaje się rehabilitacji z tego tylko powodu, że mają oni nowotwory i koło się zamyka. Jest u nas wiele przesądów po wyleczeniu i w trakcie leczeniu nowotworów. Chodzi w tym przypadku o całościową rehabilitację, nie tylko o fizykoterapię, ale także o wsparcie psychoonkologiczne i możliwość powrotu do pracy - ale w taki sposób, żeby pacjent mógł korzystać z dalszego leczenia – wyjaśnił specjalista.

Specjalista zwrócił uwagę, że chirurgia onkologiczna jest dynamicznie rozwijającą się specjalnością, która dotyczy również leczenia okołooperacyjnego, za pomocą napromieniania, chemioterapii i nowych terapii. Nie zawsze trzeba od razu zoperować pacjenta. Na zjazdach naukowych coraz więcej jest o leczeniu okołooperacyjnym – dodał.

Chodzi nie tylko o leczenie, ale i nowoczesne diagnozowanie, które jest bardzo trudne. To jest kosztowne, ale przynosi też oszczędności zarówno dla pacjenta, jak i płatnika, bo gdy rozpoznanie zostanie właściwie postawione to oszczędzamy pieniądze i leczymy właściwie, bardziej skutecznie - powiedział prof. Rutkowski.

Jako przykład podał Francję, gdzie 95 proc. mięsaków jest diagnozowanych histopatologicznie jedynie w trzech ośrodkach. Po takich specjalistycznych badaniach zmieniono rozpoznania w 40 proc. przypadków, a w 10 proc. okazało się, że wcale nie było nowotworu, czyli w co drugim przypadku chorzy powinni być leczeniu całkowicie inaczej lub w ogóle niepotrzebnie poddano ich terapii. Chodzi o przeprowadzenie pełnej diagnostyki jeszcze przed operacją, żeby wypracować właściwą strategię leczenia, chemioterapię czy radioterapię. Przecież to są wszystko koszty – podkreślił specjalista.

W ocenie szefa zespołu ds. cancer planu, chirurgią onkologiczną nie muszą się zajmować tylko wielospecjalistyczne ośrodki: To może być mały ośrodek specjalistyczny, a także placówki uniwersyteckie, np. w Krakowie czy Warszawie. Wykonują one dobrą robotę także w zakresie chirurgii onkologicznej.

Prof. Rutkowski uważa, że system [opieki onkologicznej – PAP] trzeba w Polsce dopiero zbudować, bo był on postawiony na głowie.

Skoncentrowana była chemioterapia, a zdekoncentrowana chirurgia. Tymczasem powinno być odwrotnie, bo wtedy uzyskuje się największy odsetek wyleczeń. Z kolei leczenie uzupełniające i paliatywne powinno być bliżej miejsca zamieszkania pacjenta. Bez sensu jest to, żeby na standardową chemioterapię pacjent jeździł 200 km. To jest to co mam nadzieję, że się zmieni - mówił.

Według niego świadczenia medyczne powinny być jednak rozsądnie wycenione. Duża część procedur w chirurgii generalnie wykonywana jest poniżej kosztów. To jest totalna fikcja. Dlatego szpitale nie są zainteresowane wysokojakościową chirurgią, bo ona tylko przynosi straty - podkreślił.

Zrobiliśmy ostatnio wyliczenie – dodał - bo po raz pierwszy wzięła się za to Agencja Oceny Technologii Medycznych i Taryfikacji, która wreszcie ocenia realne koszty w chirurgii. Okazało się, że u nas - w Centrum Onkologii - koszty realne są trzy razy wyższe od tego, co płaci NFZ. Bo tak niskie są te wyceny.

Oczekuję, że wzrosną nakłady na służbę zdrowia, ale wiele zależy od organizacji opieki. Dotąd jak nie było pieniędzy, to wszyscy markowali, jak ten system ma działać. Jeżeli pieniędzy będzie więcej, to będzie on działał sprawnie – powiedział prof. Rutkowski.

Specjalista poinformował PAP, że pierwsze posiedzenie zespołu ds. cancer planu planowane jest na 18 czerwca 2019 r. Przewiduje się, że omawiane będą wstępne priorytety Narodowej Strategii Onkologicznej.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Ogłoszono, kto wygrał polską edycję konkursu na najlepsze zdjęcia naukowe Wiki Science Competition 2019. Sześcioosobowe jury zapoznało się z 1360 utworami, nadesłanymi przez 188 użytkowników. Na pierwszym miejscu znalazła się fotografia "Rodząca dafnia" Marka Misia (user: MarekMiś).
      Sędziowie uzasadnili swój wybór, podkreślając, że praca ogniskuje w sobie wszystkie aspekty dobrej fotografii naukowej: jest poprawna technicznie i jednoznacznie przedstawia rejestrowany przedmiot. Jest przy tym utrzymana w przepięknej palecie barw i, co zdecydowało o wygranej, prezentuje dodatkowo wyjątkową chwilę: narodziny młodych osobników – co świetnie wpisuje się w koncepcję "decydującego momentu" fotografii.
      Drugie miejsce zajęła praca Adrianny Rafalskiej (user: Slovianka94) "Tryk klonowiec (Chlorophorus varius)". Tryk klonowiec to chrząszcz z rodziny kózkowatych, który na zdjęciu wyjątkowo pięknie prezentuje swoje wdzięki. Fotografia charakteryzuje się wyśmienitym położeniem płaszczyzny ostrości, co skupia wzrok na główce owada, a dzięki rozdzielczości zdjęcia pozwala analizować jej poszczególne elementy. Pozostaje przy tym poetyckie, zaś antropomorfizujący "gest zasłaniania się płatkami" i pastelowa gama kolorów zachęca odbiorcę do zgłębiania mikrokosmosu przyrody.
      Na trzecim miejscu uplasowało się zdjęcie "Hydroksyapatyt zarastający biomateriał" Jana Ozimka (user: Najeżony). W uzasadnieniu jury napisało, że praca pokazuje nie tylko efekt prac nad najnowszymi technologiami w skali nano, ale również uzmysławia kwestię widzialności: obraz utworzony jest w wyniku rejestracji elektronów, a nie fotonów (światła widzialnego) – a jednak dzięki przetworzeniom algorytmicznym został zaprezentowany nam jako widzialny, barwny obraz świata spoza zasięgu naszych zmysłów.
      Oprócz tego sędziowie przyznali nagrodę specjalną. Trafiła ona do Wojciecha Kocota (user: PanWoyteczek) za szczególnie dużą liczbę (334) dobrych pod względem treści i jakości zdjęć, zgłoszonych do konkursu przez nowego użytkownika.
      Nie mogło również zabraknąć wyróżnień (6), tutaj ponownie można zobaczyć nazwiska Marka Misia i Wojciecha Kocota, oraz rekomendacji do międzynarodowego etapu konkursu Wiki Science Competition.
      Przewodniczącą jury była dr hab. Aleksandra Sulikowska-Bełczowska, historyczka sztuki i bizantynolożka, która znajduje się również w składzie międzynarodowego jury konkursu. Trudne decyzje podejmowali z nią dr Aleksandra Janusz-Kamińska, biolożka molekularna i pisarka, lek. Paulina Łopatniuk, patomorfolożka, autorka bloga Patolodzy na klatce, Sebastian Soberski, astronom i radioobserwator, dr Wojciech Sternak, fotograf i kulturoznawca, a także bioartystka Karolina Sulich.
      Wszystkie nagrodzone zdjęcia można zobaczyć na stronie Wikimedia Commons.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Im politykowi bliżej do myślistwa, tym gorsze jego nastawienie do wilków. Wskazują na to analizy wypowiedzi parlamentarzystów zawarte w sejmowych stenogramach.
      Niewiele jest gatunków dzikich zwierząt, które by tak rozpalałyby dyskutantów, jak wilk. Polskie organizacje pozarządowe już od początku lat 90. XX wieku prowadziły kampanie na rzecz jego ochrony. Dzięki temu, po wiekach eksterminacji, a następnie dekadach intensywnej eksploatacji łowieckiej, wilk jest ściśle chroniony w całym kraju od 1998 r. Jednak nieustannie trwa ożywiona debata na temat jego statusu prawnego.
      Nastawienie polityków do ochrony wilka nie jest zależne od ich politycznych barw, lecz od związku z łowiectwem. Im polityk był bliższy myślistwu, tym bardziej negatywnie wypowiadał się na temat samego drapieżnika
      Literatura politologiczna wskazywała, że zagadnienia ochrony przyrody są bliższe partiom lewicowym, podczas gdy partie prawicowe mają do przyrody bardziej utylitarne podejście. Naukowców intrygowało więc, czy podobnie jest w kwestii ochrony wilka. Aby to sprawdzić, przeanalizowali wypowiedzi polityków od 1989 r., zawarte m.in. w stenogramach sejmowych. Wyniki badań ukazały się w najnowszym numerze czasopisma Zoophilologica. Polish Journal of Animal Studies.
      Rezultaty naszych analiz nie potwierdziły przewidywań wynikających z wcześniejszych badań na temat nastawienia polityków do ochrony przyrody – wyjaśnia główny autor badań, Michał Figura, absolwent politologii na Akademii Humanistyczno-Ekonomicznej w Łodzi, cytowany w materiale przesłanym PAP. Okazało się, że nastawienie polityków do ochrony wilka nie jest zależne od ich politycznych barw, lecz od związku z łowiectwem. Im polityk był bliższy myślistwu, tym bardziej negatywnie wypowiadał się na temat samego drapieżnika.
      Eksperci w swoim artykule podkreślili także rolę, jaką w ochronie dzikich zwierząt pełnią organizacje społeczne. Zaraz po przemianach demokratycznych w 1989 r. w Polsce zaczęły powstawać oddolne ruchy społeczne, skupiające się na zachowaniu resztek dzikiej przyrody – podkreśla współautor badań dr hab. Robert Mysłajek z Instytutu Genetyki i Biotechnologii Wydziału Biologii Uniwersytetu Warszawskiego. I to właśnie im zawdzięczamy ochronę wielu cennych gatunków, w tym wilka i rysia.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Polski Narodowy Instytut Leków (NIL) informuje, że aż 25% przebadanych przezeń suplementów diety ma skład inny niż deklarują producenci. Dobra wiadomość jest taka, że w żadnym z 50 popularnych suplementów nie odkryto zanieczyszczeń ani szkodliwych związków.
      Jak powiedziała „Gazecie Prawnej” Anna Kowalczyk, dyrektor NIL, standardy wymagają, by zawartość składników aktywnych w produkcie była nie mniejsza niż 90%. Tymczasem okazało się, że w jednym z preparatów zawierających ostryż długi, który ma pomagać na problemy z wątrobą, środka tego jest zaledwie 3%. Niektóre suplementy z witaminami B2 i B6 zawierały ich 30% ilości zadeklarowanych na ulotce, preparaty reklamowane jako pomagające w walce z objawami menopauzy miały w sobie 18% deklarowanej ilości izoflawonów soi i 38% obiecywanych izoflawonów koniczyny czerwonej. W preparatach stwierdzono też mniej niż deklarowana ilość witaminy D. Ulotki suplementów podawały natomiast prawdziwe dane odnośnie zawartości składników mineralnych jak żelazo czy wapń.
      Rynek suplementów rozwija się w Polsce bardzo dynamicznie. Do końca listopada ubiegłego roku klienci wydali na te preparaty 3,4 miliarda PLN. To o 200 milionów więcej, niż w analogicznym okresie roku poprzedniego. Szacuje się, że suplementy przyjmuje 20% Polaków. Większość z nich nie dostrzega różnicy pomiędzy lekami bez recepty a suplementami, uznaje je za środki całkowicie bezpieczne. Znaczna część sądzi też, że suplementy można przyjmować bez ograniczeń.
      Suplementy od dawna budzą liczne kontrowersje. Niejednokrotnie informowaliśmy, że – w przeciwieństwie do prawidłowej diety – nie przyczyniają się one na zmniejszenie ryzyka zgonu, o pojawiających się coraz częściej ostrzeżeniach przed suplementami czy o szkodliwych skutkach ich nadmiernego spożywania. Mogą jednak pomagać osobom chorym, a być może również przynosić korzyści zdrowym.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      NASA zaprezentowała właśnie pierwsze wyniki badań przeprowadzonych przez Parker Solar Probe, najszybszy pojazd skonstruowany przez człowieka, który leci „dotknąć” Słońca. Zebrane przez sondę informacje na temat działania Słońca pozwolą naukowcom udoskonalić modele dotyczące pogody kosmicznej oraz powstawania i ewolucji gwiazd. Będą one kluczowym elementem dla stworzenia systemów ochrony astronautów przed szkodliwym wpływem Słońca podczas długotrwałych misji, takich jak wyprawa załogowa na Marsa.
      Dzięi danym z PSP naukowcy mogli na łamach Nature opublikować cztery artykuły dotyczące naszej gwiazdy. Zdobyliśmy nowe informacje na temat procesu napędzającego wiatr słoneczny oraz interakcji wiatru z obrotem Słońca. Mamy pierwsze analizy pyłu z korony słonecznej, a sonda zarejestrowała tak niewielkie epizody przyspieszania cząstek, że są one niewykrywalne z Ziemi.
      Przypomnijmy, że już 78 dni po starcie, który nastąpił 12 sierpnia 2018 roku, PSP stała się najbliższym Słońcu obiektem wysłanym przez człowieka. Niedługo potem zyskała też miano najszybszego obiektu. Parker Solar Probe ciągle przyspiesza i wciąż zbliża się do Słońca. W końcu osiągnie prędkość niemal 700 000 km/h, a jej najmniejsza odległość od gwiazdy wyniesie około 6,5 miliona kilometrów.
      Dotychczas sonda dwukrotnie obiegła Słońce. Ostatni raz w peryhelium, czyli najbliższym Słońcu punkcie swojej orbity, była 1 września, gdy zbliżyła się do gwiazdy na odległość około 24 milionów kilometrów, pędząc z prędkością około 350 000 km/h. Za trzy tygodnie, 26 grudnia, PSP dokona drugiego przelotu w pobliżu Wenus, a 4. peryhelium osiągnie 29 stycznia przyszłego roku. Później w lutym nastąpi 5. peryhelium, po czym po raz trzeci PSP będzie korzystała z asysty grawitacyjnej Wenus. We wrześniu znowu znajdzie się w peryhelium.
      Wśród nowych informacji, jakie już dostarczyła sonda, są dane dotyczące zachowania wiatru słonecznego. W pobliżu Ziemi mamy do czynienia z jego niemal równomiernym przepływem. Jak się jednak okazuje, w pobliżu Słońca jest to przepływ bardzo dynamiczny o wysoce określonej strukturze. Przypomina to nieco przepływ rzeki w miejscu, w którym wpada do morza. Naukowcy co po raz pierwszy mają okazję badać wiatr słoneczny z perspektywy korony gwiazdy.
      Uwagę naukowców szczególnie przykuły zmiany kierunku pola magnetycznego. Są one powszechne wewnątrz orbity Merkurego i trwają od kilku sekund do kilkunastu minut. Zmiany takie nie występują jednak w większej odległości od gwiazdy, zatem zauważyła je dopiero PSP. Mogą być one wskazówką, co podgrzewa i napędza wiatr słoneczny.
      W osobny artykule opisano pomiary wykonane przez instrument Solar Wind Electrons Alphas and Protons (SWEAP). Naukowcy byli zaskoczeni tym, w jaki sposób ruch obrotowy gwiazdy wpływa na wiatr słoneczny. W pobliżu Ziemi przepływa on po liniach prostych, wydobywając się ze Słońca we wszystkich kierunkach. Jednak, jako że Słońce obraca się, naukowcy spodziewali się, że wiatr jest dodatkowo napędzany w kierunku ruchu obrotowego gwiazdy.
      Po raz pierwszy zjawisko to zanotowano, gdy Parker Solar Probe znalazła się w odległości około 32 milionów kilometrów od Słońca. Jednak zakres tego bocznego ruchu wiatru był znacznie większy, niż się spodziewano. Co interesujące, również szybciej niż się spodziewano trajektoria wiatru prostowała się, przez co na większych odległościach opisywany efekt staje się niewidoczny. Zrozumienie tego zjawiska będzie kluczowym dla zrozumienia spowalniającego ruchu obrotowego Słońca, a ma to znaczenie dla cyklu życiowego naszej i innych gwiazd oraz tworzenia się dysków protoplanetarnych.
      PSP zaobserwowała też pierwsze oznaki wskazujące na to, że w odległości około 11 milionów kilometrów od gwiazdy otaczający ją pył staje się coraz rzadszy. Przewidywano to od niemal wieku, jednak dopiero teraz jesteśmy w stanie zweryfikować tę teorię. Teraz dzięki instrumentowi Wide-field Imager for Solar Probe (WISPR) wiemy, że zjawisko takie ma miejsce na dystansie około 6,5 miliona kilometrów. Pył jest podgrzewany przez gwiazdę i zamieniany w gaz. Naukowcy spodziewają się zatem, że w odległości obszar w odległości do 3,2 miliona, a może nawet do 4,8 miliona kilometrów od gwiazdy jest wolny od pyłu. Jeśli to prawda, to PSP powinna go zaobserwować podczas 6. peryhelium we wrześniu 2020 roku. Pył, który został odparowany w tej strefi stanowi część wiatru słonecznego.
      Kolejny z instrumentów badawczych, Integrated Science Investigation of the Sun (ISOIS) zmierzył zjawiska tak niewielkie, że zanikają one, gdy cząstki docierają do naszej planety. Zaobserwowano też rzadki rodzaj rozpadu cząstek, gdzie mamy szczególnie duży odsetek ciężkich pierwiastków. To ważne spostrzeżenie, gdyż wskazuje, że zjawiska takie są częstsze niż sądzono, ponadto mogą one pojawiać się nagle, wpływać na pogodę kosmiczną i stanowić zagrożenie dla astronautów.
      Słońce to jedyna gwiazda, którą może badać z tak niewielkiej odległości. Już te dane, którymi obecnie dysponujemy, rewolucjonizują rozumienie naszej gwiazdy i gwiazd we wszechświecie, mówi Nicola Fox, dyrektor Wydziału Fizyki Słońca w NASA.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Microsoft stworzył prototypowy system do przechowywania informacji w szkle. We współpracy z firmą Warner Bros. koncern zapisał oryginalny firm Superman z 1978 roku na kawałku szkła o wymiarach 75x75x2 milimetry. Prace nad zapisywaniem danych w szkle są prowadzone przez Microsoft Research i stanowią one część projektu, w ramach którego Microsoft opracowuje nowe technologie archiwizacji danych na potrzeby platformy Azure.
      Budujemy całkiem nowy system, poinformował dyrektor wykonawczy Microsoftu Satya Nadella podczas konferencji Ignite. W ramach Project Silica wykorzystywane jest standardowe szkło kwarcowe.
      Obecnie Warner Bros archiwizuje filmy przenosząc ich wersje cyfrowe na taśmę i dzieląc je na trzy kolory składowe. Monochromatyczne negatywy są bowiem bardziej odporne na upływ czasu niż filmy kolorowe. To kosztowny i długotrwały proces. Microsoft chce go uprościć i obniżyć jego koszty. Jeśli Project Silica okaże się skalowalny i efektywny ekonomicznie, to będzie czymś, co z chęcią zastosujemy. Jeśli dobrze sprawdzi się w naszym przypadku, sądzimy, że będzie też przydatny dla każdego, kto chce archiwizować dane, mówi Vicky Colf, dyrektor ds. technologicznych w Warner Bros.
      Microsoft wykorzystuje femtosekundowe lasery pracujące w podczerwieni do zapisu danych na „wokselach”, trójwymiarowych pikselach. Każdy z wokseli ma kształt odwróconej kropli, a zapis dokonywany jest poprzez nadawanie mi różnych wielkości i różnej orientacji. Na szkle o grubości 2 milimetrów można zapisać ponad 100 warstw wokseli. Odczyt odbywa się za pomocą kontrolowanego przez komputer mikroskopu, który wykorzystuje różne długości światła laserowego. Światło zostaje odbite od wokseli i jest przechwytywane przez kamerę. W zależności od orientacji wokseli, ich wielkości oraz warstwy do której należą, odczytywane są dane.
      Wybór szkła jako nośnika danych może dziwić, jednak to bardzo obiecujący materiał. Szkło może przetrwać tysiące lat. Na płytce o wymiarach 75x75x2 milimetry można zapisać ponad 75 gigabajtów danych i zostanie sporo miejsca na zapisanie informacji do korekcji błędów. Podczas testów szkło było zalewane wodą, poddawane działaniu pola magnetycznego, mikrofal, gotowane w wodzie, pieczone w temperaturze 260 stopni Celsjusza i rysowane za pomocą stalowych drapaków. Za każdym razem dane można było odczytać.
      Duża wytrzymałość szkła oznacza, że archiwa z cyfrowymi danymi będą mniej podatne na powodzie, pożary, trzęsienia ziemi, zaburzenia powodowane polem magnetycznym czy na wyłączenia prądu. Ponadto szkło zajmuje niewiele miejsca. Jego największą zaletą jest wytrzymałość. Prawdopodobnie zapisane w nim dane można będzie przechowywać przez ponad 1000 lat. Stosowane obecnie metody magnetycznego zapisu ulegają szybkiej degradacji w ciągu kilku lat, dlatego też archiwalne dane zapisane na dyskach są co jakiś czas przegrywane na kolejne urządzenia.
      Celem Project Silica nie jest stworzenie produktu dla konsumentów indywidualnych. Szklane systemy przechowywania danych mają być skierowane do firm chcących archiwizować duże ilości informacji. Nie próbujemy stworzyć czegoś, co będzie używane w domu. Pracujemy nad metodą archiwizacji w skali chmur obliczeniowych. Chcemy wyeliminować kosztowny cykl ciągłego przenoszenia i zapisywania danych. Chcemy mieć coś, co można będzie odłożyć na półkę na 50, 100 czy 1000 lat i zapomnieć o tym do czasu, aż będzie potrzebne, mówi Ant Rowstron, zastępca dyrektora laboratorium w Microsoft Research Cambridge.
       


      « powrót do artykułu
×
×
  • Create New...