Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'diagnostyka' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 26 wyników

  1. Jednym z najczęstszych nowotworów złośliwych u kobiet jest rak piersi. Alarmujący jest wzrost zachorowalności na ten nowotwór, jednak z roku na rok umieralność z jego powodu się obniża. Należy zwrócić uwagę na poprawę wyników leczenia raka piersi w Polsce, jak również na świecie. Najprawdopodobniej jest to spowodowane coraz częstszym wykrywaniem tego nowotworu we wczesnym stadium oraz wprowadzania bardziej efektywnych metod leczenia. Dlatego tak ważne jest regularne badanie się kobiet w tym kierunku - samobadanie, usg piersi, mammografia. Ustanowienie października “Miesiącem Świadomości Raka Piersi” ma na celu szerzenie wiedzy o raku piersi. W tym czasie zaplanowano wiele akcji oraz programów profilaktycznych związanych z profilaktyką i nauczeniem społeczeństwa czujności onkologicznej np. Marsz Różowej Wstążki ulicami Szczecina, VI Konferencja Rak Piersi – Onkologia i Plastyka w Poznaniu. Czynniki ryzyka rozwoju raka piersi są złożone. W ciągu ostatnich kilkudziesięciu lat przeprowadzono liczne badania epidemiologiczne pomogły ustalić główne przyczyny wzrostu lub progresji tego nowotworu. Do czynników ryzyka zwiększających ryzyko rozwoju raka piersi należą m.in.: płeć żeńska, wiek (obserwuje się wzrost zachorowalności u kobiet powyżej 50 r.ż.), mała aktywność fizyczna, wysokie BMI, rodzinne obciążenia (szczególnie występowanie raka piersi w młodym wieku), obecność mutacji niektórych genów (głównie BRCA1 i BRCA2), element hormonalny (wczesna pierwsza miesiączka, menopauza w późnym wieku, wieloletnia hormonalna terapia zastępcza). Rak piersi często nie daje żadnych objawów poza guzem. Jeśli się już pojawiają to są one współistniejące np. zmiana wielkości/kształtu piersi, wyciek z brodawki, zaczerwienienie piersi (tzw. “objaw skórki pomarańczy”), powiększenie węzłów chłonnych w dole pachowym. Zaobserwowanie jakiegokolwiek objawu sugerującego raka jest wskazaniem do wykonania dalszej diagnostyki, która obejmuje USG (u kobiet poniżej 40 r.ż.), mammografię (pozwala ocenić całą pierś wraz z brodawką, tkanką podsutkową i mięśniem piersiowym większym), MRI piersi (wykonywana u osób wymagających testów wysokiej czułości np. u osób z mutacją genu BRCA1 i BRCA2, służy również do oceny skuteczności leczenia chemioterapią przedoperacyjną oraz w poszukiwaniu pierwotnego ogniska przy obecnych przerzutach). Należy jednak pamiętać, że “złotym standardem” w rozpoznawaniu raka piersi jest badanie patomorfologiczne/histopatologiczne materiału pobranego podczas biopsji. Następnym krokiem po postawieniu diagnozy jest ustalenie stopnia zaawansowania raka za pomocą klasyfikacji TNM (T-guz, N-węzły chłonne, M-przerzuty odległe). Pomaga to w doborze odpowiedniej strategii leczenia, która jest również zależna od wielu czynników rokowniczych i predykcyjnych. Najważniejsze z nich to: stopień zaawansowania klinicznego, typ histologiczny, podtyp biologiczny, wyniki badań molekularnych i obecność przerzutów. Jednak nadal podstawowym sposobem leczenia pozostaje postępowanie chirurgiczne, a dopiero po jego zakończeniu możliwe jest zastosowanie leczenia uzupełniającego np. radioterapii. Rak piersi należy do nowotworów hormonozależnych, dlatego ważne w diagnostyce tego nowotworu jest oznaczanie zawartości receptorów estrogenowych (ER) i receptorów progesteronowych (PR) w komórkach nowotworowych. Estrogeny pobudzają rozrastanie się guza, natomiast zablokowanie lub obniżenie ilości receptorów ER powoduje obniżenie proliferacji rakowo zmienionych komórek. Chorzy, którzy wykazują duże stężenie i/lub ekspresję obu receptorów, cechują się największym prawdopodobieństwem skuteczności terapii hormonalnej, a więc dużym poziomem remisji. W diagnostyce laboratoryjnej chorych na raka piersi wykorzystuje się oznaczenia: antygenu karcynoembrionalnego (CEA). Podwyższone stężenie tego markera występuje głównie w zaawansowanych stadiach choroby, jest również niekorzystnym czynnikiem prognostycznym. Po prawidłowo przeprowadzonym leczeniu operacyjnym stężenie CEA ulega obniżeniu, aż do zaniku w krążeniu chorego. antygenu 15-3. Ten marker jest silnie skorelowany z stadium raka piersi oraz z odpowiedzią na przeprowadzane leczenie. TPA,TPS, CYFRA 21-1. Są to pochodne cytokreatyn. Mają zastosowanie w monitorowaniu leczenia oraz kontroli po jego ukończeniu. receptorów typu 2 dla naskórkowego czynnika wzrostu (HER2). Uważa się, że wzrost ich ekspresji jest skorelowany z zwiększonym ryzykiem rozwoju przerzutów. Aby zmniejszyć to ryzyko podaje się chorym na raka piersi trastuzumab (herceptyna). białka p105, które jest zewnątrzkomórkową domeną receptora HER2. Wykorzystuje się go do monitorowania leczenia trastuzumabem, oraz do rokowania odpowiedzi na leczenie hormonalne. Rak piersi nie jest jednolitą chorobą, jest za to jednym z najczęstszych nowotworów złośliwych kobiet. Wywiera on bardzo silny wpływ na psychikę i życię ludzi. Dlatego bardzo duże znaczenie ma uświadamianie ludzi o raku piersi, regularne wykonywanie samobadania i badań przesiewowych, aby zmniejszyć  umieralność, aby “droga przez chorobę była drogą do zdrowienia”. Bibliografia: 1. Solnica B. (red.) Diagnostyka Laboratoryjna. PZWL Wydawnictwo Lekarskie, Warszawa 2019 2. Jassem J, Krzakowski M, Bobek-Billewicz B et al. Breast cancer. Oncol Clin Pract 2018. 3. Wild CP, Weiderpass E, Stewart BW, redaktorzy (2020). World Cancer Report: Cancer Research for Cancer Prevention. Lyon, Francja: Międzynarodowa Agencja Badań nad Rakiem. 4. Kashyap D, Pal D, Sharma R, Garg VK, Goel N, Koundal D, Zaguia A, Koundal S, Belay A.. Global Increase in Breast Cancer Incidence: Risk Factors and Preventive Measures. Biomed Res Int. 2022 Apr 18;2022:9605439. 5. Ginsburg O, Yip CH, Brooks A, Cabanes A, Caleffi M, Dunstan Yataco JA, et al. Wczesne wykrywanie raka piersi: podejście etapowe do wdrożenia. Rak 2020 5. Ulotki informacyjne: Rak piersi - od diagnozy do leczenia. Federacja Stowarzyszeń “Amazonki” « powrót do artykułu
  2. Podczas International Solid-State Circuits Conference uczeni z Uniwersytetu Stanforda zaprezentowali niewielki implant, zdolny do kontrolowania swej trasy w układzie krwionośnym człowieka. Ada Poon i jej koledzy stworzyli urządzenie zasilane za pomocą fal radiowych. Implant można więc wprowadzić do organizmu człowieka, kontrolować jego trasę i nie obawiać się, że np. wyczerpią się baterie. Takie urządzenia mogą zrewolucjonizować technologię medyczną. Ich zastosowanie będzie bardzo szerokie - od diagnostyki do minimalnie inwazyjnej chirurgii - mówi Poon. Jej implant będzie mógł wędrować przez układ krwionośny, dostarczać leki do wyznaczonych miejsc, przeprowadzać analizy, a być może nawet rozbijać zakrzepy czy usuwać płytki miażdżycowe. Naukowcy od kilkudziesięciu lat starają się skonstruować podobne urządzenie. Wraz z postępem technologicznym coraz większym problemem było zasilanie takich urządzeń. Sam implant można było zmniejszać, jednak zasilające go baterie pozostawały dość duże - stanowiąc często połowę implantu - i nie pozwalały mu na zbyt długą pracę. Potrafiliśmy znacząco zminiaturyzować części elektroniczne i mechaniczne, jednak miniaturyzacja źródła energii za tym nie nadążała. To z kolei ograniczało zastosowanie implantów i narażało chorego na ryzyko korozji baterii, ich awarii, nie mówiąc już o ryzyku związanym z ich wymianą - mówi profesor Teresa Meng, która również brała udział w tworzeniu implantu. Urządzenie Poon wykorzystuje zewnętrzny nadajnik oraz odbiornik znajdujący się w implancie. Wysyłane przez nadajnik fale radiowe indukują w cewce odbiornika prąd. W ten sposób urządzenie jest bezprzewodowo zasilane. Opis brzmi bardzo prosto, jednak naukowcy musieli pokonać poważne przeszkody. Uczeni od 50 lat myśleli o zasilaniu w ten sposób implantów, jednak przegrywali z... matematyką. Wszelkie wyliczenia pokazywały, że fale radiowe o wysokiej częstotliwości natychmiast rozpraszają się w tkankach, zanikając wykładniczo w miarę wnikania do organizmu. Fale o niskiej częstotliwości dobrze przenikają do tkanek, jednak wymagałyby zastosowania anteny o średnicy kilku centymetrów, a tak dużego urządzenia nie można by wprowadzić do układu krwionośnego. Skoro matematyka stwierdzała, że jest to niemożliwe, nikt nie próbował sprzeciwić się jej regułom. Poon postanowiła jednak przyjrzeć się wykorzystywanym modelom matematycznym i odkryła, że większość uczonych podchodziła do problemu niewłaściwie. Zakładali bowiem, że ludzkie mięśnie, tłuszcz i kości są dobrymi przewodnikami, a zatem należy w modelach wykorzystać równania Maxwella. Uczona ze Stanforda inaczej potraktowała ludzką tkankę. Uznała ją za dielektryk, czyli niejako rodzaj izolatora. To oznacza, że nasze ciała słabo przewodzą prąd. Jednak nie przeszkadza to zbytnio falom radiowym. Poon odkryła też, że tkanka jest dielektrykiem, który charakteryzują niewielkie straty, co oznacza, że dochodzi do małych strat sygnału w miarę zagłębiania się w tkankę. Uczona wykorzystała różne modele matematyczne do zweryfikowania swoich spostrzeżeń i odkryła, że fale radiowe wnikają w organizm znacznie głębiej niż sądzono. Gdy użyliśmy prostego modelu tkanki do przeliczenia tych wartości dla wysokich częstotliwości odkryliśmy, że optymalna częstotliwość potrzebna do bezprzewodowego zasilania wynosi około 1 GHz. Jest więc około 100-krotnie wyższa niż wcześniej sądzono - mówi Poon. To oznacza też, że antena odbiorcza w implancie może być 100-krotnie mniejsza. Okazało się, że jej powierzchnia może wynosić zaledwie 2 milimetry kwadratowe. Uczona stworzyła implanty o dwóch różnych rodzajach napędu. Jeden przepuszcza prąd elektryczny przez płyn, w którym implant się porusza, tworząc siły popychające implant naprzód. Ten typ implantu może przemieszczać się z prędkością ponad pół centymetra na sekundę. Drugi typ napędu polega na ciągłym przełączaniu kierunku ruchu prądu, przez co implant przesuwa się podobnie do napędzanej wiosłami łódki. Jest jeszcze sporo do udoskonalenia i czeka nas wiele pracy zanim takie urządzenia będzie można stosować w medycynie - mówi Poon.
  3. Podczas International Solid-State Circuits Conference uczeni z Uniwersytetu Stanforda zaprezentowali niewielki implant, zdolny do kontrolowania swej trasy w układzie krwionośnym człowieka. Ada Poon i jej koledzy stworzyli urządzenie zasilane za pomocą fal radiowych. Implant można więc wprowadzić do organizmu człowieka, kontrolować jego trasę i nie obawiać się, że np. wyczerpią się baterie. Takie urządzenia mogą zrewolucjonizować technologię medyczną. Ich zastosowanie będzie bardzo szerokie - od diagnostyki do minimalnie inwazyjnej chirurgii - mówi Poon. Jej implant będzie mógł wędrować przez układ krwionośny, dostarczać leki do wyznaczonych miejsc, przeprowadzać analizy, a być może nawet rozbijać zakrzepy czy usuwać płytki miażdżycowe. Naukowcy od kilkudziesięciu lat starają się skonstruować podobne urządzenie. Wraz z postępem technologicznym coraz większym problemem było zasilanie takich urządzeń. Sam implant można było zmniejszać, jednak zasilające go baterie pozostawały dość duże - stanowiąc często połowę implantu - i nie pozwalały mu na zbyt długą pracę. Potrafiliśmy znacząco zminiaturyzować części elektroniczne i mechaniczne, jednak miniaturyzacja źródła energii za tym nie nadążała. To z kolei ograniczało zastosowanie implantów i narażało chorego na ryzyko korozji baterii, ich awarii, nie mówiąc już o ryzyku związanym z ich wymianą - mówi profesor Teresa Meng, która również brała udział w tworzeniu implantu. Urządzenie Poon wykorzystuje zewnętrzny nadajnik oraz odbiornik znajdujący się w implancie. Wysyłane przez nadajnik fale radiowe indukują w cewce odbiornika prąd. W ten sposób urządzenie jest bezprzewodowo zasilane. Opis brzmi bardzo prosto, jednak naukowcy musieli pokonać poważne przeszkody. Uczeni od 50 lat myśleli o zasilaniu w ten sposób implantów, jednak przegrywali z... matematyką. Wszelkie wyliczenia pokazywały, że fale radiowe o wysokiej częstotliwości natychmiast rozpraszają się w tkankach, zanikając wykładniczo w miarę wnikania do organizmu. Fale o niskiej częstotliwości dobrze przenikają do tkanek, jednak wymagałyby zastosowania anteny o średnicy kilku centymetrów, a tak dużego urządzenia nie można by wprowadzić do układu krwionośnego. Skoro matematyka stwierdzała, że jest to niemożliwe, nikt nie próbował sprzeciwić się jej regułom. !RCOL Poon postanowiła jednak przyjrzeć się wykorzystywanym modelom matematycznym i odkryła, że większość uczonych podchodziła do problemu niewłaściwie. Zakładali bowiem, że ludzkie mięśnie, tłuszcz i kości są dobrymi przewodnikami, a zatem należy w modelach wykorzystać równania Maxwella. Uczona ze Stanforda inaczej potraktowała ludzką tkankę. Uznała ją za dielektryk, czyli niejako rodzaj izolatora. To oznacza, że nasze ciała słabo przewodzą prąd. Jednak nie przeszkadza to zbytnio falom radiowym. Poon odkryła też, że tkanka jest dielektrykiem, który charakteryzują niewielkie straty, co oznacza, że dochodzi do małych strat sygnału w miarę zagłębiania się w tkankę. Uczona wykorzystała różne modele matematyczne do zweryfikowania swoich spostrzeżeń i odkryła, że fale radiowe wnikają w organizm znacznie głębiej niż sądzono. Gdy użyliśmy prostego modelu tkanki do przeliczenia tych wartości dla wysokich częstotliwości odkryliśmy, że optymalna częstotliwość potrzebna do bezprzewodowego zasilania wynosi około 1 GHz. Jest więc około 100-krotnie wyższa niż wcześniej sądzono - mówi Poon. To oznacza też, że antena odbiorcza w implancie może być 100-krotnie mniejsza. Okazało się, że jej powierzchnia może wynosić zaledwie 2 milimetry kwadratowe. Uczona stworzyła implanty o dwóch różnych rodzajach napędu. Jeden przepuszcza prąd elektryczny przez płyn, w którym implant się porusza, tworząc siły popychające implant naprzód. Ten typ implantu może przemieszczać się z prędkością ponad pół centymetra na sekundę. Drugi typ napędu polega na ciągłym przełączaniu kierunku ruchu prądu, przez co implant przesuwa się podobnie do napędzanej wiosłami łódki. Jest jeszcze sporo do udoskonalenia i czeka nas wiele pracy zanim takie urządzenia będzie można stosować w medycynie - mówi Poon.
  4. Większość badań lekarskich polega na oglądaniu pacjenta z zewnątrz, wszelkie badania „od środka" wymagają dodatkowych, czasochłonnych procedur. Być może już za dwa lata do lamusa zacznie odchodzić przynajmniej część z nich: szwajcarski koncern farmaceutyczny Novartis AG kończy opracowywać czip badawczy umieszczany w pigułce i spodziewa się, że zostanie on zatwierdzony do roku 2012. Ingestible Event Marker (IEM - czyli połykalny znacznik zdarzeń), jak nazywa się wynalazek, to miniaturowy układ scalony z własnym zasilaniem, który można umieścić w połykanej przez pacjenta tabletce. Układ aktywuje się pod wpływem kwasu żołądkowego i przekazuje bezprzewodowo zbierane informacje do „łaty" - odbiornika umieszczonego na brzuchu pacjenta, stąd mogą one być transmitowane do lekarza, na przykład przez internet lub telefon. Układ będzie mógł być umieszczany w normalnie podawanych lekach. W chwili obecnej czip potrafi rejestrować między innymi takie informacje, jak rytm serca, temperatura i ruchy ciała, ale ilość badanych parametrów bez wątpienia będzie rosła w miarę rozwijania wynalazku. Pierwszym zastosowaniem będzie badanie stanu pacjentów po przeszczepach, co pozwoli szybko wykryć przypadki odrzutu immunologicznego. Kolejne zastosowania są planach i opracowaniu. Novartis AG nie jest jedyną firmą pracującą nad takim rozwiązaniem, ale dzięki wykupieniu za 24 miliony dolarów licencji na rozwiązania od kalifornijskiej spółki Proteus Biomedical Szwajcarzy wysunęli się na prowadzenie. Koncern ma nadzieję zakończyć badania i formalności dopuszczające produkt do użytku w ciągu 18 miesięcy dzięki zastosowaniu testów biorównoważności zamiast wykazywania braku wpływu układu na pigułki, z którymi będzie dostarczany.
  5. Microsoft testuje Fix it Center - online'owe narzędzie rozwiązywania problemów, przeznaczone dla użytkowników Windows 7, Vista oraz XP. Obecnie usługa znajduje się w fazie beta. Składa się ona z dwóch części. Pierwsza to oprogramowanie, które trzeba pobrać i zainstalować, a drugie to sam serwis. Fix it Center diagnozuje komputer, wyszukuje problemy i je naprawia. Ponadto sprawdza komputer pod kątem znanych błędów i instaluje brakujące poprawki. W tej chwili usługa potrafi zdiagnozować i naprawić 300 różnych błędów. Jeśli nawet oprogramowanie napotka problem, którego nie jest w stanie naprawić, użytkownik może skontaktować się z pracownikiem pomocy technicznej Microsoftu. Ten, zaglądając na konto użytkownika w Fix it Center będzie mógł sprawdzić szczegóły dotyczące posiadanego sprzętu, diagnozy i operacji przeprowadzonych przez usługę, co powinno pomóc w szybkim odnalezieniu problemu. Użytkownicy Windows XP, chcący skorzystać ze wspomnianej usługi, muszą mieć zainstalowany SP3 (lub SP2 dla wersji 64-bitowej). Fix it Center współpracuje też z Windows Server 2003 SP2 oraz Server 2008.
  6. Uspokajamy osoby niechętne nowinkom: jeszcze nie. Leczenie człowieka przez komputer to nadal odległa przyszłość, ale właśnie postąpiliśmy jeden krok w tym kierunku. Opracowany przez zespół australijskich naukowców komputerowy model diagnostyczny okazał się już lepszy w ocenianiu przyczyn gorączki u dzieci w wieku do pięciu lat. Nagła gorączka, przekraczająca 38°C, to częsty objaw u małych dzieci. Niestety, zwykle trudno określić jej przyczynę, a to podstawa skutecznego i bezpiecznego leczenia. Trudności w odróżnieniu poważnych chorób, jak zapalenie płuc od niegroźnych infekcji bakteryjnych czy wirusowych, które ustąpią same jest przyczyną zbyt późnego rozpoczęcia leczenia z jednej strony, albo niepotrzebnego przepisywania antybiotyków w innych przypadkach. Dotychczasowe procedury i systemy diagnozowania mają swoje ograniczenia, dlatego postanowiono zaprząc do diagnostyki opracowany model komputerowy. Test był zakrojony na szeroką skalę. Przez dwa lata badaniami objęto ponad 15 tysięcy dzieci w wieku do pięciu lat, przyprowadzane do przychodni dużego szpitala dziecięcego. W porównaniu uwzględniano dzieci z gorączką przynajmniej 38°C, nie chorujące na przewlekłe choroby. Wszystkie były badane według typowego postępowania lekarskiego, obecność bakterii potwierdzano standardowymi testami. Wyniki i symptomy były potem łączone z komputerowym modelem diagnostycznym, zaś wyniki obu typów porównywano. Model komputerowy w każdym przypadku okazywał się równie dobry, lub lepszy od standardowej procedury przeprowadzanej tylko przez człowieka. Według zgromadzonych danych, poważne zakażenia bakteryjne to około 7% przypadków dzieci z gorączką, ale jedynie 70-80% z nich miało przepisywane antybiotyki podczas wstępnego badania. Ponieważ trafna diagnoza to aż 95% tych przypadków, początkowy brak odpowiedniego leczenia tłumaczy się tym, że część lekarzy standardowo czeka z przepisaniem antybiotyków do momentu potwierdzenia infekcji przy pomocy testów: w dwóch trzecich przypadków antybiotyki przepisywano później. Z kolei około 20% dzieci bez ostatecznie potwierdzonego rozpoznania poważnej choroby było leczone antybiotykami bez potrzeby. Zbędne używanie antybiotyków jest groźne nie tylko z powodu ich szkodliwości, ale również dlatego, że powoduje powstawanie nowych szczepów bakterii, które na antybiotyki są uodpornione. A bakterie niestety uodparniają się szybciej, niż przemysł farmaceutyczny jest w stanie wymyślać nowe leki. Dlatego trafna diagnoza i odpowiednie leczenie jak najszybciej jest takie ważne. Połączenie standardowych procedur diagnostycznych z modelem statystycznym pokazało - mówią autorzy badań - że komputerowy model pozwoli na polepszenie skuteczności i bezpieczeństwa leczenia dzieci z gorączką i podejrzeniem poważnych infekcji. Jednak przed masowym wprowadzeniem go do użycia potrzeba jeszcze wielu praktycznych badań i ostatecznych wyników, dowodzących jego skuteczności w leczeniu. Tym niemniej jest to może pierwszy zwiastun czasów, kiedy lekarz będzie współpracował z komputerem.
  7. Dwa pospolite leki - zmniejszający nadkwasotę żołądka lansoprazol oraz łagodzący reakcje alergiczne astemizol - mogą już niedługo posłużyć jako skuteczne środki wspomagające diagnostykę... choroby Alzheimera. O potencjalnej możliwości zastosowania tych substancji w nowej roli donosi zespół prof. Ricardo Maccioniego z Uniwersytetu Chilijskiego. Do wytypowania lansoprazolu i astemizolu jako potencjalnych środków diagnostycznych doszło dzięki dokładnemu studiowaniu baz danych o interakcjach zachodzących na poziomie molekularnym w układzie nerwowym. Jak wykazały wstępne analizy dostępnych dotychczas danych, oba leki posiadały dwie ważne cechy: zdolność do przenikania z krążenia ogólnego do mózgu oraz wysokie powinowactwo do splątków neurofibrylarnych - agregatów białka o nazwie tau, charakterystycznych dla choroby Alzheimera. Jak udowodnił prof. Maccioni, wyznakowane radioaktywnym izotopem cząsteczki badanych leków zachowują swoją zdolność do wiązania splątków neurofibrylarnych, a testy in vitro, wykazały, że do stwierdzenia obecności splątków w próbce wystarczy prosty pomiar ich radioaktywności po ekspozycji na którykolwiek z leków. Oznacza to, że substancje te mogłyby najprawdopodobniej posłużyć jako tzw. radioznaczniki podczas wysoce zaawansowanego badania techniką PET, opierającego się na wykrywaniu zmian chorobowych na podstawie detekcji promieniowania wiążących się z nimi radioznaczników.
  8. Pomimo szalonego tempa rozwoju medycyny, podstawową metodą wyszukiwania zmian nowotworowych w płucach jest wykonywanie prześwietleń rentgenowskich. Problem w tym, że wiążą się one z ekspozycją na szkodliwe promienie X, a do tego aż 25% pozornie wykrytych przypadków raka okazuje się być w rzeczywistości łagodnymi zmianami nowotworowymi lub nawet przednowotworowymi. Rozwiązaniem tego problemu może być badanie krwi opracowane przez naukowców z University of California. Zespół dr. Stevena Dubinetta ustalił protokół nowego testu po przebadaniu próbek krwi pobranych od 90 pacjentów ze stwierdzonym rakiem płuc oraz 56 osób zdrowych, lecz należących do grupy ryzyka ze względu na palenie znacznej liczby papierosów. Pozyskany materiał poddano kompleksowej analizie składu jakościowego i ilościowego białek zawartych w próbkach. Dzięki zebranym w ten sposób informacjom udało się ustalić listę 40 markerów, czyli białek, których występowanie lub brak u danej osoby są powiązane z występowaniem choroby bądź wolnością od niej. Zastosowanie nowego testu pozwoliło na poprawne wykrycie raka płuc w 88% przypadków oraz jego wykluczenie u 79% osób wolnych od choroby. Dla porównania, standardowa diagnostyka z wykorzystaniem prześwietlenia rentgenowskiego daje wyniki fałszywie dodatnie w ok. 25% przypadków. Pierwszym testem potwierdzającym niepewną diagnozę raka jest wtedy zwykle tomografia komputerowa, która z kolei naraża pacjenta na... wzrost ryzyka raka. Wszystko przez znaczne dawki promieniowania rentgenowskiego wytwarzane podczas badania tomografem. Diagnozowanie zmiany w płucach o nieokreślonym statusie może być trudne, zaś współczesne metody potwierdzania nieprawidłowego wyniku obrazowania obejmują inwazyjne procedury biopsji, ocenia dr Dubinett, i dodaje: spodziewamy się, że w przyszłości badania krwi staną się użyteczne w warunkach klinicznych i doprowadzą do ograniczenia użycia tych inwazyjnych metod.
  9. Aby przeprowadzić wstępną diagnostykę wielu chorób, wcale nie potrzeba skomplikowanej aparatury - udowadniają australijscy badacze. Aby odciążyć lekarzy i ułatwić życie pacjentom, stworzyli oni aplikację, która po uruchomieniu na zwykłym komputerze jest w stanie stworzyć listę możliwych schorzeń na podstawie analizy dźwięków powstających podczas kaszlu. [Kaszel] jest najbardziej pospolitym objawem u pacjenta zjawiającego się [w gabinecie lekarza], zauważa jeden z autorów nowej metody, Suzanne Smith z firmy STAR Analytical Services. Jednocześnie, jak zauważa badaczka, typowa diagnostyka tego objawu nie zmieniła się od ponad stu lat i wciąż polega na wysłuchiwaniu kaszlu i określaniu kilku jego podstawowych cech. Ponieważ w dzisiejszych czasach automatyczna analiza dźwięku nie stanowi problemu nawet dla pospolitych urządzeń elektronicznych, badacze postanowili wykorzystać w tym celu zwykły komputer. Napisano w tym celu aplikację, której zadaniem jest odróżnianie kaszlu suchego od mokrego oraz produktywnego od nieproduktywnego, tzn. umożliwiającego odkrztuszenie wydzieliny powstającej w drogach oddechowych bądź sprzyjającego jej zaleganiu. Obsługa programu jest dziecinnie prosta: po jego uruchomieniu wystarczy przystawić mikrofon do ust i zakaszlać. Aplikcja wychwytuje wówczas powstające dźwięki, a następnie porównuje je z bazą modelowych próbek dźwięku pobranych wcześniej od kilkudziesięciu ochotnikow. Na tej podstawie ustala się, z jakim typem kaszlu ma do czynienia, i co mogło spowodować jego powstanie. Aktualnie trwają prace rozwojowe nad aplikacją. Przedstawiciele STAR Analytical Services szacują, że zwiększenie wiarygodności testu będzie wymagało zbudowania bazy około tysiąca próbek "wzorcowego" kaszlu. Plany firmy obejmują także stworzenie przenośnej wersji programu, możliwej do uruchomienia na telefonach komórkowych. Z pewnością przedsięwzięcie to będzie prostsze dzięki grantowi w wysokości 100 tysięcy dolarów, którzy przyznała autorom Fundacja Billa i Melindy Gatesów.
  10. Naukowcy z firmy Probe Scientific otrzymali oficjalną zgodę na wprowadzenie do obiegu na terenie Unii Europejskiej swojego najnowszego wynalazku, nazwanego MicroEye. Zadaniem urządzenia jest monitorowanie w czasie rzeczywistym licznych wskaźników diagnostycznych możliwych do odczytania na podstawie badania krwi. Sercem wynalazku jest próbnik umieszczany w żyle pacjenta za pośrednictwem tradycyjnego wenflonu. Jego zadaniem jest przeprowadzenie prostego procesu oczyszczania krwi i wykonanie potrzebnych testów na przygotowanej w ten sposób próbce. Co ważne, procedura ta nie wymaga stosowania strzykawek, choć w razie potrzeby istnieje możliwość przekazania próbek do analiz w innych aparatach. Zdaniem producenta MicroEye, największą zaletą wynalazku jest możliwość wykonywania testów niemal w czasie rzeczywistym. System jest także bezpieczny zarówno dla personelu, jak i dla pacjenta, ponieważ nie wymaga częstego wkłuwania się do żyły. Nie oznacza to co prawda, że urządzenie jest bezobsługowe (próbnik należy wymieniać co najmniej raz na 48 godzin, a do tego należy doliczyć wymianę wenflonów), lecz liczba wykonywanych wkłuć zostaje znacznie zmniejszona. Jak chwalą się na swojej stronie internetowej przedstawiciele Probe Scientific, ich wynalazek umożliwia wykonanie pomiaru praktycznie wszystkich parametrów badanych przez tradycyjne laboratoria szpitalne. Mówiąc prościej, oznacza to możliwość zainstalowania przy łóżku pacjenta miniaturowej (choć pełnowartościowej) pracowni diagnostycznej, dostępnej na jego wyłączny użytek. MicroEye przeszedł w ostatnim czasie testy kliniczne, które potwierdziły jego skuteczność i bezpieczeństwo stosowania. Pozwoliło to na udzielenie firmie Probe Scientific zezwolenia na rozpowszechnianie wynalazku na rynku Unii Europejskiej. Niestety, ceny urządzenia nie podano do publicznej wiadomości.
  11. Firma uruchomiona przez naukowców z holenderskiego Uniwersytetu Twente opublikowała wyniki prac nad przenośnym detektorem pozwalającym na wykrywanie niemal dowolnych cząstek biologicznych zawieszonych w roztworze. Aparat działa w oparciu o analizę światła przechodzącego przez badaną próbkę. Sercem wynalazku jest tzw. laboratorium na szkiełku (ang. lab on a chip), czyli płytka, w której wydrążono rząd równoległych względem siebie kanalików. Wnętrze każdego z nich zostało pokryte warstwą przeciwciał zdolnych do wybiórczego wiązania cząstek biologicznych wchodzących w skład komórek mikroorganizmów lub cząstek wirusowych. Tak przygotowany układ jest następnie "ładowany" próbką krwi, śliny lub dowolnej innej wydzieliny ciała. O tym, czy badany materiał zawiera poszukiwane cząsteczki, można dowiedzieć się już po pięciu minutach od umieszczenia próbki w aparacie. Odczytu dokonuje się za pomocą układu optycznego złożonego z lasera oraz matrycy CCD - urządzenia znanego głównie z zastosowania jako detektor światła w cyfrowych aparatach fotograficznych. O obecności poszukiwanych cząsteczek, związanych przez przeciwciało znajdujące się na ściankach kanalika, świadczy zmiana właściwości fali świetlnej przenikającej przez miniaturowe "laboratorium". Autorzy urządzenia chwalą się, że pozwala ono na wykrycie pojedynczej cząstki wirusowej(!) w badanej próbce. Aparat umożliwia także precyzyjny pomiar stężenia poszukiwanych molekuł. Co więcej, dzięki odpowiedniemu dobraniu przeciwciał lub innych cząsteczek zdolnych do wychwytywania poszukiwanych substancji, możliwe jest szybkie dostosowanie aparatu do wykrywania niemal dowolnych cząsteczek. Aby zoptymalizować prace nad rozwojem wynalazku, Uniwersytet Twente uruchomił tzw. spin-off, czyli wyspecjalizowaną firmę zatrudniającą naukowców pracujących wcześniej w ramach uczelnianego projektu badawczego. Jak szacują założyciele spółki, rynkowy debiut aparatu może nastąpić już pod koniec 2010 roku.
  12. Aby dokładnie scharakteryzować komórki nowotworowe, wystarczą prawdziwie mikroskopijne ilości tkanki - przekonują badacze z Uniwersytetu Stanforda i prezentują aparat do niezwykle czułej analizy protein. Dzięki aparatowi możliwa jest szczegółowa ocena stopnia aktywacji białek biorących udział w rozwoju choroby. Opracowana metoda działa w oparciu o elektroforezę kapilarną, czyli badanie ruchu białek wewnątrz bardzo cienkiej rurki (kapilary). Ich przemieszczanie jest wymuszane przez pole elektryczne, i jest ściśle zależne od ładunku elektrycznego poszczególnych cząsteczek. Oznacza to, że możliwa jest identyfikacja białek na podstawie róznic w szybkości ich przemieszczania wewnątrz kapilary. Jak pokazują liczne badania, odnalezienie białka w tkance nowotworowej nie daje pełnej informacji na temat jego roli. Wiele protein może bowiem zostać poddanych tzw. fosforylacji, czyli przyłączaniu grup fosforanowych -PO43-. Proces ten wywiera istotny wpływ na aktywność białek, co oznacza, że pomiar stopnia fosforylacji może dostarczać istotnych informacji na temat komórek, z których wyizolowano dane białko. Ponieważ grupy fosforanowe posiadają silnie ujemny ładunek elektryczny, ich przyłączenie lub odłączenie prowadzi do zmiany ładunku elektrycznego całej cząsteczki białka. Zmienia się przez to szybkość ich migracji podczas elektroforezy kapilarnej. W swoim doświadczeniu badacze z amerykańskiej uczelni wykorzystali dwa warianty białka: jeden ufosforylowany i drugi pozbawiony reszt -PO43-. Ich mieszankę umieszczono w kapilarze, a następnie poddano działaniu prądu elektrycznego. Zmierzono w ten sposób szybkość przemieszczania się obu wariantów białka. Udowodniono także, że możliwe jest wykonanie odwrotnego testu, tzn. wykrywania białek o różnym stopniu fosforylacji w pobranej próbce. Technika opracowana przez badaczy z Uniwersytetu Stanforda jest jedną z pierwszych, która pozwala na określenie stopnia fosforylacji bez konieczności wykonywania czasochłonnych testów. Równie istotna jest jej czułość, do wykonania testu wystarcza bowiem zaledwie 1 pg (pikogram, czyli 10-12 grama) białka. Przeprowadzone dotychczas testy wykazały, że metoda opracowana na amerykańskiej uczelni charakteryzuje się wysoką skutecznością w diagnostyce białaczek i chłoniaków. Obecnie planowana jest kolejna seria badań, dzięki której możliwe będzie stwierdzenie, czy jest ona równie użyteczna w ustalaniu charakterystyki innych nowotworów.
  13. Miniaturowy zestaw zdolny do automatycznej obróbki materiału biologicznego i wykonania na nim badań genetycznych może w najbliższych miesiącach trafić na rynek. Firma gotowa na udostępnienie produktu podpisała właśnie umowę licencyjną z jego wynalazcą, zlokalizowanym w Singapurze Instytutem Bioinżynierii i Nanotechnologii. Przedsięwzięcia podjęła się firma Dyamed, wywodząca się z tego samego kraju. Na mocy umowy produkt, nazwany MicroKit (można to przetłumaczyć jako "mikrozestaw"), będzie rozwijany, a następnie zostanie udostępniony na rynku. Ma się to stać do roku 2010. Działanie Microkit jest podzielone na dwa etapy. Zaraz po umieszczeniu próbki w aparacie urządzenie izoluje z niego materiał genetyczny. Kolejnym etapem procedury jest przeprowadzenie reakcji zwanej real-time PCR (ang. real-time Polymerase Chain Reaction - reakcja łańcuchowa polimerazy w czasie rzeczywistym), pozwalającej na wykrycie poszukiwanej sekwencji DNA w próbce oraz określenie liczby jej kopii. Wykonywanie pełnej analizy z użyciem MicroKit trwa zaledwie około godziny. To bez porównania krócej, niż w przypadku typowych testów laboratoryjnych, trwających zwykle od kilku godzin aż do doby. Dzięki zastosowaniu zwartej, szczelnej obudowy, stosowanie MicroKit znacznie ogranicza także ryzyko tzw. kontaminacji krzyżowej, czyli zanieczyszczenia próbki pobranej od pacjenta materiałem pochodzącym z otoczenia, np. z ciała diagnosty. Wzrasta także bezpieczeństwo personelu, który jest narażony wyłącznie na minimalny kontakt z materiałem biologicznym. Jest to szczególnie istotne, gdy istnieje ryzyko obecności w próbce czyników zakaźnych. Jak twierdzą wynalazcy urządzenia, jest ono niezwykle proste w obsłudze - ich zdaniem, do wykonania analiz nie jest konieczna specjalistyczna wiedza, zaś z przeprowadzeniem procedury powinny sobie poradzić osoby niepracujące na codzień w warunkach klinicznych. Prostota obsługi oraz kompaktowe rozmiary urządzenia sprawiają, że może ono sprawdzić się w warunkach polowych, np. podczas diagnozowania epidemii chorób zakaźnych. Inne funkcje "mikrozestawu", które chcą rozwijać specjaliście z Dyamed, obejmują przede wszystkim diagnostykę genetyczna nowotworów. Niestety, nie podano nawet orientacyjnych danych na temat ceny pojedynczego testu przeprowadzonego z wykorzystaniem MicroKit. Jeden z założycieli Dyamed, Theodore Tan, oświadczył jedynie enigmatycznie, że opracowana technologia ma potencjał, by uczynić masową diagnostykę całej grupy chorób szybszą, lepszą i tańszą. Czy tak się stanie, przekonamy się po wejściu wynalazku na rynek.
  14. Niezależny programista Ivor Kovic uruchomił inicjatywę, której celem jest opracowanie 12-elektrodowego zestawu do elektrokardiografii (EKG) wraz z oprogramowaniem do jego obsługi. Marzeniem twórcy jest opracowanie otwartoźródłowej technologii, którą będzie można wdrożyć niskim kosztem w krajach nisko rozwiniętych. Oprogramowanie, nad którym chce pracować Ivor, ma być rozwinięciem opracowanych dość dawno temu systemów trójelektrodowych. Zwiększenie liczby odprowadzeń pozwoli na znaczne zwiększenie czułości aparatu i wiarygodności testu, co z oczywistych względów jest cechą wysoce pożądaną. Projekt, nazwany przez jego twórcę openECGproject, ma pozwolić na stworzenie nowoczesnego urządzenia dostępnego po cenach wielokrotnie niższych od tych proponowanych przez gigantów rynku urządzeń diagnostycznych. Wszystko to, oczywiście, w trosce o pacjenta i lepszą diagnostykę chorób serca. Opracowywany sprzęt ma być podłączany do standardowych komputerów osobistych, zaś obsługujący go program powinien współpracować z większością powszechnie stosowanych systemów operacyjnych. Całe jego oprogramowanie ma z kolei powstać w duchu Open Source, a więc z prawem wglądu i modyfikacji kodu źródłowego dla każdego programisty. Dalsze plany wynalazcy obejmują zaadaptowanie całości do współpracy z urządzeniami przenośnymi, a także wzbogacenie go o takie dodatki, jak moduł łączności bezprzewodowej. Kilka słów na temat openECGproject opublikował sam Ivor: nasz projekt jest całkowicie filantropijny i zależy od dobrej woli ochotników, którzy chcą pokazać, że nie są obojętni. Każdy może pomóc, więc zadbajcie o to, by odwiedzić stronę http://www.open-ecg-project.org , a także promować ją i polecać ją innym. Na nas ta szlachetna inicjatywa zrobiła bardzo pozytywne wrażenie, więc przyłączamy się do apelu.
  15. Niewielki sensor zdolny do wykrywania różnorakich substancji w próbce krwi lub śliny został zaprezentowany przez firmę Philips. Jest to jeden z najmniejszych tego typu aparatów, które doczekały się wprowadzenia na rynek. Debiutujące urządzenie (oraz technologię będącą jego sercem) nazwano Magnotech. Zdaniem producenta, jest ono na tyle proste w obsłudze, że może być wykorzystywane w domu przez samego pacjenta. Nie oznacza to jednak, że jest to maszyna prymitywna. Wprost przeciwnie - wykonywane przez nią analizy są dokładne i pozwalają na analizę kilku parametrów jednocześnie, zaś szybkość wykonywania testów pozostawia w tyle nawet złożone "kombajny" stosowane w laboratoriach klinicznych. Magnotech otwiera drzwi do zmian. Oferuje branży związanej z badaniami laboratoryjnymi możliwość wyprowadzenia niektórych testów z laboratorium, tłumaczy sekret technologii Marcel van Kasteel, wiceprezydent Philips Handheld Immunoassays - oddziału firmy zajmującego się jej rozwojem. Dodaje: W dalszej perspektywie, wyobrażamy sobie różne rodzaje stacji diagnostycznych - zarówno tych stacjonarnych, zautomatyzowanych, jak i nowych, mieszczących się w dłoni systemów przenośnych - współpracujące jako części "sieci diagnostycznej" wykorzystującej połączenia przewodowe lub bezprzewodowe oraz złożone rozwiązania informatyczne w celu przechowywania i wspomagania interpretacji danych. Sekretem technologii są wymienne wkłady zawierające magnetyczne nanocząsteczki oraz połączone z nimi molekuły odpowiedzialne za wykrywanie poszukiwanych substancji (choć informacje prasowe nie są w tej kwestii precyzyjne, można przypuszczać, iż chodzi tu o przeciwciała). Po automatycznym załadowaniu krwi lub śliny do wnętrza maszyny dochodzi do związania odczynników z wyszukiwanymi związkami zawartymi w próbce. Następne uruchamiany jest miniaturowy elektromagnes, który ma za zadanie wychwycić utworzone kompleksy i związać je z powierzchnią sensora. Kolejnym etapem analizy jest usunięcie z mieszaniny tych przeciwciał, które nie zostały związane. W tym momencie możliwe jest już wykonanie właściwego pomiaru. Techniką pozwalającą na określenie stężenia poszukiwanych związków jest ocena tzw. całkowitego odbicia wewnętrznego. Jest to metoda optyczna, mierząca koncentrację substancji na podstawie jej zdolności do odbijania światła. Ogromną zaletą Magnotech jest możliwość wykonania testu na bardzo małej próbce - wystarcza do tego nawet kropla krwi lub śliny. Przeprowadzenie kompletnego badania trwa zaledwie 1-5 minut. Dla porównania, tradycyjne zestawy diagnostyczne potrzebują na to od 30 do 60 minut, co w sytuacji zagrożenia zdrowia lub życia bywa niekiedy czasem zbyt długim. Przedstawiciele Philipsa zaprezentowali już pierwsze pilotażowe testy ukazujące możliwości nowej technologii. Pierwszy z nich pozwala na wykrycie tzw. sercowej troponiny I, jednego z białek kluczowych dla diagnostyki zawału serca. Drugi umożliwia ocenę stężenia parathormonu, regulującego gospodarkę wapnia i fosforu w organizmie. Pomimo skrajnie niskich stężeń obu substancji, udaje się je wykryć z precyzją porównywalną z klasycznymi badaniami laboratoryjnymi. Podobne wyniki osiągnięto podczas badań pozwalających na ocenę stężenia morfiny w ślinie osób nadużywających tego leku. Pierwsze egzemplarze Magnotech mają trafić do odbiorców na początku przyszłego roku. Planowana cena urządzenia nie została jeszcze podana.
  16. Nowy model niezwykle zaawansowanego tomografu komputerowego został zaprezentowany przez firmę Siemens. Urządzenie jest szybsze od jakiegokolwiek stosowanego dotychczas modelu, a mimo to pozwala na znaczne zmniejszenie stosowanych dawek promieniowania rentgenowskiego. Urządzenie nazwano Somatom Definition Flash. Jest ono pierwszym w historii tomografem komputerowym wyposażonym w dwie niezależne od siebie lampy rentgenowskie oraz dwa detektory promieni X. Dzięki temu możliwe jest np. wykonanie zdjęcia całego ciała człowieka w ciągu zaledwie kilku sekund. Ogromną zaletą maszyny jest zminimalizowanie dawki promieniowania potrzebnej do wykonania zdjęć. Przykładowo, aby wykonać trójwymiarową fotografię ludzkiego serca wystarcza zaledwie jeden milisiwert (1 mSv). Dla porównania: wykonanie podobnych zdjęć tradycyjnym aparatem wymaga użycia dawki od 8 do 40 mSv, zaś ilość promieniowania pochłanianego rocznie ze źródeł naturalnych to około 5 mSv. Poziom radiacji uznawany za bezpieczny dla człowieka to ok. 50 mSv rocznie. Kolejną cechą, dzięki której Somatom Definition Flash może zostać uznany za urządzenie przełomowe, jest szybkość wykonywania zdjęć. Obie lampy rentgenowskie, umieszczone w tzw. gantrze ("tunelu", w którym pacjent jest umieszczany w celu wykonania zdjęć), wykonują pełny obrót wokół ciała osoby badanej w czasie 0,28 sekundy, co pozwala na przeanalizowanie w ciągu zaledwie sekundy odcinka ciała o długości 43 centymetrów. Oznacza to, że badanie osoby o wzroście 170 cm trwa cztery sekundy. Specjalistom z Siemensa udało się także zminimalizować czas potrzebny na wykonanie pojedynczego "ujęcia" - wynosi on zaledwie 83 milisekundy. Pozwala to np. na wykonywanie zdjęć bijącego serca bez potrzeby podawania jakichkolwiek leków obniżających tętno. Jednocześnie, ze względu na wyjątkowo niską emisję promieniowania X, możliwe jest wykonywanie "zdjęć 4D", czyli serii obrazów trójwymiarowych przesuniętych względem siebie w czasie. Rozdzielczość fotografii, czyli rozmiar najmniejszego wykrywalnego punktu na uzyskanym obrazie, wynosi zaledwie 0,33 milimetra - to kolejny rekord nowego produktu. Najnowszy wynalazek niemieckich specjalistów ma najprawdopodobniej tylko jedną wadę. Będzie nią bez wątpienia cena, która, jak można się spodziewać, będzie odzwierciedlała niezwykłe zdolności aparatu. Choć urządzenie trafi do sprzedaży dopiero w pierwszym kwartale 2009 roku, można się spodziewać, że jego cenę przez najbliższy czas będzie można uznać za zaporową dla zarządców polskiej służby zdrowia.
  17. Zbudowany z nanorurek skaner jest w stanie wykryć raka płuc na podstawie prostej analizy wydychanego powietrza. Autorami tego interesującego wynalazku są specjaliści z Izraelskiego Instytutu Technologii. Prototyp urządzenia, który zaprezentowano na łamach czasopisma Nano Letters, powstał dzięki zespołowi kierowanemu przez dr. Hossama Haicka. Sercem maszyny jest matryca złożona z dziesięciu grup węglowych nanorurek o jednowarstwowych ściankach. W każdej grupie rurki są pokryte innym rodzajem związku organicznego, umożliwiającego wykrywanie określonej puli substancji obecnych w powietrzu wydychanym przez osoby podejrzewane o występowanie u nich raka płuc. Urządzenie pozwala łącznie na wykrywanie ponad dwustu różnych lotnych związków organicznych. Prototyp detektora wyprodukowano dzięki zastosowaniu nowoczesnych technologii stosowanych przy produkcji mikroprocesorów. Został on przetestowany na piętnastu zdrowych, niepalących osobach, a zebrane informacje porównano z wynikami uzyskanymi u tej samej liczby pacjentów cierpiących na raka płuc w czwartym, najcięższym stadium rozwoju. Powietrze wydychane przez poszczególne osoby analizowano równolegle za pomocą wynalazku izraelskich badaczy i z wykorzystaniem połączonych ze sobą superczułych urządzeń: chromatografu gazowego oraz spektrometru mas. Analizy z wykorzystaniem tych ostatnich są co prawda niezwykle czułe i precyzyjne, lecz ich koszt uniemożliwia wprowadzenie ich do rutynowej diagnostyki. Celem testu było więc stwierdzenie, czy detektor oparty na nanorurkach jest w stanie zastąpić te ultranowoczesne metody. Analiza przepływu elektryczności przez rurki należące do każdego z dziesięciu sensorów pozwoliła na określenie ilości wychwyconych związków z poszczególnych grup. Eksperyment pokazał wyraźnie, że istnieją ogromne różnice pomiędzy powietrzem wydychanym przez osoby zdrowe i chore, co pozwala przypuszczać, że możliwe jest diagnozowanie niektórych przypadków raka płuc na podstawie prostego badania wydychanego powietrza. Grupa trzydziestu osób to oczywiście zbyt mało, by wyniki można było uznać za pewne. W związku z tym badacze z Izraela planują przeprowadzenie dalszych badań, tym razem na znacznie liczniejszej grupie osób ochotników. Od ich wyników będzie zależało ewentualne dopuszczenie urządzenia do stosowania w diagnostyce medycznej.
  18. Badanie protein w próbce krwi to jedna z metod, które pozwalają określić ryzyko zachorowania na nowotwory oraz monitorować stan zdrowia osób cierpiących na chroniczne choroby. Obecnie stosowane metody takich badań są drogie, długotrwałe i wymagają sporej ilości krwi. Proteiny osocza dają nam możliwość przyjrzenia się biologii choroby - mówi profesor Paul Mischel, patolog na Uniwersytecie Kalifornijskim w Los Angeles. Problem w tym, że zbadanie jednej tylko proteiny kosztuje około 500 dolarów, wymaga pobrania 10-15 mililitrów krwi i licznych wizyt u lekarza. Stąd też olbrzymia nadzieja pokładana w nowym układzie scalonym, który w ciągu 10 minut z jednej tylko kropli krwi pozwala uzyskać informacje, do otrzymania których potrzebna jest obecnie wielogodzinna praca przeszkolonego technika. Nowy chip został opracowany przez profesora chemii Jamesa Heatha z Caltechu oraz Leroya Hooda, prezesa i założyciela Instytutu Biologii Systemów. Obaj panowie powołali firmę Integrated Diagnostics, która ma zająć się komercjalizacją wspomnianego układu scalonego. Kość działa dzięki umieszczeniu na niej kropli krwi, która, po przyłożeniu zewnętrznego źródła ciśnienia, jest tłoczona do miniaturowego kanału. Ten z kolei rozgałęzia się na jeszcze węższe kanaliki, które nie przepuszczają czerwonych ciałek krwi i oddzielają od nich bogate w białka osocze. Te węższe kanaliki wyłożone są "kodem kreskowym" stworzonym z DNA przyczepionego do przeciwciał. Każda z części "kodu kreskowego" odpowiada za przechwycenie konkretnych protein. Gdy już cała krew zostanie przeciśnięta przez kanaliki, wystarczy odczytać "kod kreskowy" za pomocą mikroskopu fluorescencyjnego lub skanera pozwalającego na analizę sekwencji DNA. Identyfikacja protein jest możliwa dzięki badaniu położenia czerwonych linii "kodu kreskowego" względem zielonych linii referencyjnych. Z kolei zmierzenie światła emitowanego przez poszczególne białka pozwala na określenie ich koncentracji we krwi. Heath i Hood zapewniają, że ich układ jest tak dokładny jak standardowe testy i pozwala na badania koncentracji dowolnych białek. Wystarczy po prostu wyposażyć go w odpowiednie przeciwciała. Co więcej, twórcy chipa skupili się na tym, by był on w stanie identyfikować białka specyficzne dla poszczególnych organów. Obecnie przy użyciu spektrometrii masowej identyfikują białka z wątroby i mózgu. Ponadto prowadzone testy kliniczne wykazały, że nowa technologia umożliwia badanie krwi nawet kilkunastokrotnie w ciągu dnia. Dzięki temu naukowcy dowiadują się, w jaki sposób dieta i różne rodzaje aktywności fizycznej wpływają na koncentrację białek we krwi. Emil Kartalov, patolog z Kack School of Medicine na University of Southern California, uważa, że prace Hooda i Heatha przyniosą olbrzymie korzyści dla pacjentów. Zauważa przy tym, że podobne technologie dopiero wówczas zrewolucjonizują diagnostykę, gdy uda się zrezygnować w badaniach z mikroskopów fluorescencyjnych. To duże i drogi urządzenia, więc nie można ich wykorzystywać w dowolnym miejscu. Zdaniem Kartalova, w przyszłości podobne techniki będą mierzyły nie światło, ale napięcie elektryczne w białkach. Taki pomiar jest bowiem znacznie bardziej prosty.
  19. Niewielkie "plecaki" przytwierdzające się samodzielnie do komórek zostały opracowane przez specjalistów z MIT. Ich zdaniem, tego typu struktury mogą pewnego dnia stać się ważnym narzędziem diagnostycznym i terapeutycznym. Struktury, o których mowa, to w rzeczywistości polimerowe kieszonki zbudowane z trzech warstw o różnych właściwościach. Dolna, syntetyzowana jako pierwsza, służy do przymocowania "plecaka" do podłoża. Środkowa uszczelnia pęcherzyk i pozwala przechowywać w nim różnego rodzaju substancje, zaś warstwa górna, wytwarzana jako ostatnia, pozwala na przyłączenie się naczynia do powierzchni komórki. Gdy produkcja pęcherzyka jest zakończona, do naczynia wpuszcza się komórki (np. limfocyty). Niemal natychmiast wiążą się one z "plecakami" i tym samym przywierają do dna naczynia. W tym momencie wystarczy nieznacznie obniżyć temperaturę otoczenia, by dolna warstwa rozpuściła się i uwolniła komórkę z przyczepionym pęcherzykiem. Aby sprawdzić siłę wiązania naczynka z powierzchnią komórki, przeprowadzono prosty test. Pęcherzyki zostały wypełnione nanocząstkami reagującymi na pole magnetyczne, a następnie, po oderwaniu komórek od dna, przyłożono do naczynia hodowlanego magnes. Efekt eksperymentu przedstawia film: Mauro Ferrari, dyrektor wydziału medycyny Uniwersytetu Teksańskiego niezwiązany z badaniami, zauważa istotną cechę opracowanej technologii: zwykle cząsteczki połączone z powierzchnią komórki są wchłaniane w ciągu kilku sekund. Fakt, że ten wynalazek zostaje tam na dłużej, jest godny uwagi. Zdaniem Michaela Rubnera, jednego z autorów "plecaków", ten proces umożliwia zastosowanie wielu różnych rodzajów ładunku. Badacz twierdzi, że technologia pozwala na zastosowanie wielu związków, nawet tych toksycznych, i szczelne zamknięcie ich wewnątrz pęcherzyka. Stwarza to, przynajmniej teoretyczne, wspaniałe możliwości dostarczania bardzo silnych toksyn do zmienionych chorobowo tkanek. Dotychczas nie przeprowadzono testów oceniających przeżywalność komórek oraz ich zachowanie w żywym organizmie. Istnieje np. ryzyko, że będą one "gubiły" swój ładunek albo przestaną się mieścić w wąskich szczelinach w obrębie układu krwionośnego. Zdaniem Rubnera dotychczasowe testy nie dostarczają niepokojących informacji, a budowa "plecaczków" nie powinna utrudniać naturalnego sposobu poruszania się komórek. Mimo to, jak podkreśla, prawdziwym sprawdzianem technologii będą testy na zwierzętach. Aby ułatwić badania nad zachowaniem "plecaków" w organizmie żywym (i jednocześnie sprawdzić ich przydatność w procedurach diagnostycznych), badacze planują wykorzystanie jednego z dwóch rodzajów ładunku. Mogą to być albo nanocząsteczki reagujące na pole magnetyczne, które mogłyby być wykrywane za pomocą tomografii rezonansu magnetycznego, albo barwniki fluorescencyjne, których świecenie jest bardzo łatwe do wykrycia. Ostatecznym celem, jaki chcieliby osiągnąć badacze z MIT, jest "ulepszenie" komórek odpornościowych i wyposażenie ich w ładunek śmiertelny dla nowotworu. Komórki pacjenta mogłyby być pobrane z jego ciała, a następnie, po serii modyfikacji, podane z powrotem w celu zniszczenia guza. Nierozwiązanym problemem wydaje się być jednak brak kontroli nad uwalnianiem i otwieraniem pęcherzyków w określonych sytuacjach. To nowe podejście, opisuje swój mikroskopijny wynalazek Rubner. Można je wykorzystywać na bardzo wiele sposobów, a my mamy nadzieję, że ta elastyczność będzie mogła być wykorzystana w sposób naprawdę wartościowy dla społeczeństwa. Niestety, badacz zastrzega jednocześnie, że nim stanie się to możliwe, może minąć jeszcze trochę czasu.
  20. Europejscy badacze zaprezentowali nową metodę wykonywania zdjęć ultrasonograficznych (USG). Wykorzystuje ona mikroskopijne pęcherzyki wypełnione gazem, posiadające zdolność swoistego wiązania się z komórkami nowotworowymi. Technologia umożliwia znaczne zwiększenie precyzji i wiarygodności wykrywania guzów. Powszechnie wiadomo, że im szybciej wykryty jest nowotwór, tym większa jest szansa pacjenta na przeżycie i szybki powrót do zdrowia. Jednym z podstawowych problemów onkologii jest jednak brak skutecznych i łatwo dostępnych metod pozwalających na wykrycie zmian na wczesnym etapie rozwoju. Być może opracowana właśnie technologia pozwoli na poprawę sytuację chorych. Zaprezentowana technika wykorzystuje ultradźwięki - fale o częstotliwości wyższej od fal dźwiękowych, posiadające zdolność do penetracji ludzkich tkanek. Analiza sygnału powstającego w wyniku odbicia od wewnętrznych struktur organizmu pozwala na stworzenie mapy ich rozmieszczenia, która wizualizowana jest najczęściej w postaci czarno-białego obrazu podobnego do zdjęcia zamieszczonego na górze tej notki. Aby zwiększyć czułość niektórych badań obrazowych (np. tomografii komputerowej), często stosuje się tzw. kontrast, czyli cząsteczki silnie odróżniające się od otaczających tkanek i pozwalające na precyzyjną ich lokalizację. Przyjmują one kilka form, mogą np. wypełniać całe światło naczynia krwionośnego i pozwalać na zbadanie jego kształtu lub wychwytywać wyłącznie określone struktury w organizmie, umożliwiając tym samym ustalenie ich położenia. Zaproponowana metoda pasuje do drugiego z opisywanych modeli. Prace nad urządzeniem były finansowane przez Unię Europejską w ramach projektu TAMIRUT (ang. targeted micro-bubbles and remote ultrasound transduction - celowane mikropęcherzyki i zdalna transdukcja ultradźwięków). Sercem technologii są mikroskopijne bańki wypełnione gazem, do których przyłączone są przeciwciała - cząsteczki zdolne do wybiórczego wiązania określonych molekuł. Na potrzeby przedsięwzięcia zastosowano przeciwciała wychwytujące białka powierzchniowe występujące na komórkach nowotworowych. Dzięki temu, że przeciwciała wyszukują i selektywnie wiążą komórki guza, możliwe jest uzyskanie dużego ich skupienia w jednym miejscu. Pęcherzyki gazu zamknięte w bańkach także odgrywają istotną rolę w diagnostyce, gdyż doskonale powstrzymują rozchodzenie się fal ultradźwiękowych wewnątrz tkanki. Pozwala to na precyzyjne wykrycie komórek wykazujących produkcję patologicznego białka. Badania wskazują, że techologia działa poprawnie, lecz jej czułość wciąż nie zadowala jej autorów. Celem kolejnych eksperymentów będzie optymalizacja emisji ultradźwięków oraz zbierania i analizy danych, dzięki czemu możliwe będzie uzyskanie bardziej wiarygodnych danych oraz większej czułości analizy. Jak tłumaczy Alessandro Nencioni, badacz zaangażowany w projekt TAMIRUT, naszym ostatecznym celem jest eliminacja lub znaczne ograniczenie problemu wyników fałszywie negatywnych [tzn. niewykrywania guzów tam, gdzie one są - red.]. Umożliwiłoby to stworzenie drugiego poziomu kontroli obok testowania krwi. [Nasza technologia] jest czuła, swoista i umożliwia badanie całego organu, co jest niemożliwe przy zastosowaniu biopsji. Zanim metoda zostanie dopuszczona do rutynowego stosowania w warunkach klinicznych, niezbędna będzie seria żmudnych testów oceniających jej skuteczność i przydatność. Oznacza to, że miną jeszcze co najmniej trzy lata, zanim doczekamy się upowszechnienia dzieła badaczy skupionych wokół TAMIRUT.
  21. Nazwa firmy "Complete Genomics" nie jest obecnie zbyt szeroko rozpoznawalna. Wygląda jednak na to, że możemy o niej usłyszeć jeszcze wiele razy. Przedstawiciele przedsiębiorstwa planują uruchomienie usługi sekwencjonowania genomu człowieka za przełomową cenę 5000 dolarów. Udostępnienie usługi klientom indywidualnym jest planowane na najbliższą wiosnę. Firma, mająca swoją siedzibę w kalifornijskim mieście Mountain View, opracowała technologię sekwencjonowania DNA pozwalającą na drastyczne obniżenie kosztów przeprowadzenia tego procesu. Dzięki jej wdrożeniu cena procedury spadła aż dwudziestokrotnie(!) w porównaniu do cen obowiązujących dotychczas. Ułatwiony dostęp do usługi sekwencjonowania jest najważniejszym krokiem na drodze do tzw. medycyny spersonalizowanej. Zgodnie z jej założeniami, lekarz powinien mieć dostęp do danych o indywidualnych cechach pacjenta, dzięki czemu możliwe jest zoptymalizowanie sposobu leczenia, dawek podawanych leków itp. Dotychczas zbieranie informacji tego typu ograniczało się do pojedynczych genów, które analizowane były głównie w przypadku podejrzenia zwiększonego ryzyka wystąpienia ściśle okreslonej choroby. Teraz, gdy cena badania spadła do tej stosunkowo niedużej kwoty, istnieje ogromna szansa na zebranie znacznie większej ilości danych i wprowadzenie szeroko zakrojonych programów profilaktyki wielu chorób. Przedstawiciele firmy planują, że w roku 2009 będzie ona w stanie przeprowadzić 1000 reakcji sekwencjonowania DNA, zaś w ciągu kolejnego roku zwiększy swoje "moce przerobowe" dwudziestokrotnie. Warto jednak zaznaczyć, że przedstawiciele Complete Genomics nie udostępnili jeszcze swoich danych żadnemu niezależnemu recenzentowi. Jednym z założycieli firmy jest Craig Venter - prawdopodobnie najbardziej znany biotechnolog na świecie. Ponieważ naukowiec pracował już wcześniej nad projektem sekwencjonowania genomu człowieka, zebrane wówczas informacje służą dziś jako próba odniesienia wobec nowej technologii. Co ciekawe, jako materiał do badań wykorzystano wówczas własne DNA Ventera. Aby przeprowadzić sekwencjonowanie DNA zgodnie z założeniami nowej metody, najpierw zostaje ono pocięte na krótkie fragmenty składające się z 80 nukleotydów, czyli jednostek kodujących informację genetyczną (cały genom ma ich aż 3 miliardy). Każdy z tych fragmentów jest następnie łączony z krótkimi syntetycznymi nićmi DNA, a następnie dochodzi do replikacji powstałych kompleksów z wykorzystaniem specjalnego enzymu. Ze względu na charakter fizykochemiczny syntetycznego fragmentu, ma on tendencję do bardzo ścisłego zwijania się do postaci zwanej nanopiłeczkami. Są one tak drobne, że na płytce o wielkości typowego szkiełka mikroskopowego mieści się ich około miliarda. Dzięki tak silnemu "upakowaniu" materiału genetycznego możliwe jest przeprowadzenie całej procedury na pojedynczej płytce, co pozwala na radykalną redukcję zużycia bardzo drogich odczynników. Gdy nanopiłeczki zostaną osadzone na powierzchni szkiełka, przeprowadza się właściwą reakcję sekwencjonowania. W tym celu wykorzystuje się cząsteczki wzbogacone o barwniki fluorescencyjne. Każda z nich przyłącza się do DNA w losowym miejscu, lecz zawsze do ściśle określonego rodzaju nukleotydu. Powstałe kompleksy oświetla się następnie za pomocą lampy ultrafioletowej, by wywołać świecenie barwnych cząsteczek. Specjalna aparatura pozwala nie tylko na określenie, jaki nukleotyd został związany, lecz także na ustalenie jego pozycji w analizowanej sekwencji. W ten sposób, krok po kroku, możliwe jest odkrycie kolejności wszystkich elementów kodujących informację genetyczną danego osobnika. Schemat ilustrujący całą procedurę jest dostępny tutaj. Losowe przyłączanie pojedynczych cząsteczek służących jako "sondy" wykrywające nukleotydy jest pomysłem bardzo nowatorskim. Ma ono co najmniej jedną istotną zaletę: zgodnie z założeniami dotychczasowych metod sekwencjonowania konieczne było poprawne odczytanie sekwencji wszystkich kolejnych nukleotydów. Powodowało to powstawanie licznych błędów w trakcie analizy, przez co wiarygodność testu spadała. W przypadku technologii opracowanej przez Complete Genomics każda "sonda" przyłącza się niezależnie od innych, dzięki czemu maleje ryzyko popełnienia "lawiny" błędów. Co ciekawe, przedstawiciele Complete Genomics nie planują sprzedaży produkowanych przez siebie urządzeń. Zamiast tego uruchomione zostanie ogromne centrum badawcze, w którym realizowana będzie ta usługa. Jak tłumaczy prezes firmy, Cliff Reid, będzie to rozwiązanie bardzo wygodne dla wielu przedsiębiorstw: oni nie chcą kupować własnego instrumentu, chcą kupić dane. Co ciekawe jednak, sekwencja DNA klienta będzie do niego wracała w postaci "surowej", tzn. bez jakiejkolwiek analizy informacji zapisanych w genach. Oznacza to, niestety, że całkowity koszt usługi będzie najprawdopodobniej powiększony o dopłatę związaną z analizą danych przez innego specjalistę. Środowisko naukowe nie kryje podziwu dla tego osiągnięcia. Chad Nusbaum, jeden z dyrektorów zarządzających Programem Sekwencjonowania i Analiz Genomu uruchomionym przez Broad Institute, ocenia: nagle ci goście zaczęli mówić o sekwencjonowaniu setek, a nawet tysięcy genomów w ciągu kilku najbliższych lat. Otwiera to niesamowite perspektywy na taki rodzaj nauki, jakiego naprawdę chcemy. Jest to możliwe właśnie dzięki uzyskiwaniu setek sekwencji ludzkiego genomu. Od tego momentu można zacząć zadawać trudne pytania na temat genetyk człowieka. Podobnego zdania jest Jeffrey Schloss, specjalista pracujący dla amerykańskiego Narodowego Instytutu Badań nad Ludzkim Genomem: Słowo "oszałamiające" wcale nie będzie zbyt wielkie, jeżeli będą mogli to zrobić w naprawdę krótkim czasie. Nie widziałem jednak jakichkolwiek danych i nie znam nikogo, kto by je widział, a jest to, oczywiście, kluczowe. Wyścig trwa. Biotechnologiczny gigant, firma Applied Biosystems, planuje udostępnienie w najbliższej przyszłości platformy, dzięki której możliwe będzie przeprowadzenie kompletnej analizy genomu za około 10 tysięcy dolarów. Która z firm wygra tę rywalizację, dowiemy się prawdopodobnie w ciągu najbliższych kilku lat.
  22. Obowiązujące prawo jest bezlitosne: zanim jakikolwiek lek zostanie dopuszczony do użytku, musi przejść serię skomplikowanych badań potwierdzających jego skuteczność i bezpieczeństwo stosowania. Większość tych analiz wykonuje się na zwierzętach (najczęściej są to myszy), co ułatwia badaczom pracę, lecz nie zmienia to faktu, że proces rejestracji leku trwa zwykle około dziesięciu lat. Dzięki aparatowi opracowanemu przez naukowców z Instytutu Fraunhofera możliwe jest wykonywanie dokładniejszych badań diagnostycznych, co pozwoli na skrócenie czasu niezbędnego dla precyzyjnego zbadania wpływu leków na ciało gryzonia. Ultrasonografia jest metodą intensywnie wykorzystywaną w medycynie. Badania prenatalne, z którymi jest kojarzona w pierwszym rzędzie, to zaledwie niewielka próbka jej możliwości. Technika ta pozwala na wykrywanie wielu zaburzeń, takich jak choćby nowotwory czy liczne choroby wewnętrzne. W przeciwieństwie do wielu innych metod, takich jak rentgenowska tomografia komputerowa czy tradycyjne zdjęcia RTG, jest ona także całkowicie nieszkodliwa dla organizmu. Jej największą wadą jest jednak dość niska rozdzielczość, przez co technologia pozwalająca na skuteczne badanie ludzi jest często, niestety, zupelnie nieprzydatna podczas badania "pacjenta" tak drobnego, jak mysz. Częstotliwość wykonywania zdjęć także jest zbyt mała, biorąc pod uwagę choćby fakt, iż serce myszy bije pięciokrotnie częściej od ludzkiego. Testy na zwierzętach są obowiązkową częścią procesu rozwoju leków. Konieczne jest zapewnienie korzyści dla pacjenta wynikających z aktywnego składnika preparatu oraz udowodnienie, że nie powoduje on zbyt wielu efektów ubocznych. Dowody te są niezbędne dla zatwierdzenia leku. Jeśli chcemy zredukować liczbę testów na zwierzętach, musimy opracować lepsze sposoby przeprowadzania nieinwazyjnych badań na małych zwierzętach - tłumaczy dr Robert Lemor, szef Instytutu Technik Biomedycznych wchodzącego w skład Instytutu Fraunhofera. Dotychczas podczas badań nad niektórymi chorobami, np. nowotworami, konieczne było zabijanie kilku zwierząt na każdym etapie rozwoju choroby. Było to potrzebne do wykonania badań nad skutecznością leku, tempem rozwoju guza itp. Teraz, dzięki nowej technice opracowanej przez niemieckich naukowców, możliwe będzie wykonanie niektórych badań na żywym zwierzęciu, dzięki czemu liczba poświęconych myszy może zostać ograniczona. Zespół prowadzony przez dr. Lemora opracował aparat pracujący przy bardzo dużych częstotliwościach wysyłanych fal, co zwiększa precyzję badania. Pozwala to na nagrywanie obrazów o stukrotnie większej liczbie klatek na sekundę w porównaniu do urządzeń konwencjonalnych, zapewnia też lepszą rozdzielczość i kontrast - tłumaczy naukowiec. Stosowane dotychczas urządzenia składały się z pojedynczej głowicy przesuwanej po powierzchni ciała gryzonia. Nowa maszyna składa się z całej matrycy nieruchomych, miniaturowych czytników. Jak tłumaczy dr Lemor, ogranicza to dyskomfort zwierzęcia i pozwala w ten sposób na wykonywanie badań częściej, niż dotychczas. Prototyp aparatu zostanie zaprezentowany na targach Medica, które odbędą się w Düsseldorfie w dniach 19-22 listopada.
  23. Niezwykle prosty w budowie system liczący komórki został opracowany na Uniwersytecie Kalifornijskim. Zestaw, którego sercem jest układ stosowany powszechnie w aparatach cyfrowych, pozwala na rozróżnienie i policzenie różnych typów komórek obecnych w próbce. Opracowane urządzenie jest konstrukcją nie tylko prostą, lecz także wyjątkowo kompaktową - składa się ono z zaledwie kilku prostych elementów. Co więcej, przeznaczona do analizy próbka nie musi być w żaden sposób przygotowana do testu, co skraca i upraszcza procedurę. Istnieje w związku z tym duża szansa na wykorzystanie systemu np. do oceny czystości mikrobiologicznej wody lub do wykonywania niektórych badań medycznych w warunkach polowych lub w krajach Trzeciego Świata. Wykonanie analizy jest bardzo proste. Badany materiał, czyli np. kroplę wody lub krwi, umieszcza się na szklanej płytce umieszczonej nad detektorem światła stosowanym powszechnie w cyfrowych aparatach fotograficznych, a następnie oświetla za pomocą prostej lampy. To, co rejestrujemy, to nie obraz, lecz sygnatura dyfrakcyjna, opisuje dr Aydogan Ozcan, twórca urządzenia. Naukowiec ma tu na myśli charakterystyczny sposób uginania się światła po przejściu przez komórki określonego typu. Gdy aparat wykona fotografię pojedynczej próbki, jest ona porównywana z biblioteką znanych sygnatur dyfrakcyjnych, co pozwala na zaklasyfikowanie komórek do określonych grup oraz ich zliczenie. Wykonywane kalkulacje są na tyle proste, że może je wykonywać nawet telefon komórkowy. W przeciwieństwie do tradycyjnych mikroskopów, opracowany sensor nie pozwala na uzyskanie precyzyjnych obrazów, lecz wyeliminowanie skomplikowanego układu optycznego pozwala na radykalne obniżenie kosztu produkcji maszyny. Jakość obrazu jest jednak, oczywiście, wystarczająca do wykonania precyzyjnego pomiaru. Dotychczas większość podobnych testów wykonywano z użyciem cytometrów przepływowych - niezwykle złożonych maszyn kosztujących kilkaset tysięcy złotych. Mają one ogromne możliwości wykonywania różnorodnych pomiarów, lecz w przypadku prostych analiz często jest to zwyczajnie niepotrzebne. Co więcej, cytometry to duże i ciężkie urządzenia, których z pewnością nie można nazwać przenośnymi, w przeciwieństwie do maszyny zaprojektowanej na Uniwersytecie Kalifornijskim. Pomimo kompaktowych rozmiarów wydajność prototypu jest stosunkowo wysoka. Pozwala on na wykrycie do stu tysięcy komórek w próbce o powierzchni 20 centymetrów kwadratowych w czasie jednej sekundy. Wystarcza to w zupełności np. do wykonania standardowej oceny morfologii krwi. Komórki są liczone z dokładnością ok. 10%, wystarczającą dla większości tego typu pomiarów. Wynalazek wzbudził już zainteresowanie innych naukowców. Pracujący na tej samej uczelni dr Alexander Revzin rozpoczął współpracę z dr. Ozcanem nad opracowaniem kieszonkowego urządzenia zdolnego do analizy krwi pod kątem liczebności limfocytów T. Pomiar ten jest niezwykle istotny dla oceny stopnia zaawansowania nabytego zespołu utraty odporności (AIDS). Podstawowym celem naukowców jest opracowanie systemu pozwalającego na niesienie pomocy pacjentom w krajach ubogich, lecz dr Rezvin nie wyklucza rozwinięcia tego pomysłu: [przyrząd] nie musi być używany wyłącznie w Afryce, jeżeli będzie to solidna technologia. Prototyp urządzenia zaprojektowanego w Kalifornii został już przetestowany w warunkach laboratoryjnych. Kolejnym etapem badań będzie zintegrowanie go z telefonem komórkowym - wbudowany weń aparat fotograficzny wykonywałby zdjęcia badanych próbek, a dalszy rozwój projektu wymaga jedynie dobudowanie podzespołów odpowiedzialnych za analizę obrazu oraz ładowanie szkiełek mikroskopowych do urządzenia.
  24. Czy diagnostyka nowotworów stanie się tańsza i bardziej dostepna? Technologia opracowana na Uniwersytecie Technologicznym w holenderskim mieście Delft pozwala wierzyć, że jest to możliwe. Eksperci z tej uczelni wymyślili nowy sposób wytwarzania radioaktywnych izotopów potrzebnych w niektórych badaniach wykrywających guzy nowotworowe. W ostatnich miesiącach w prasie specjalistycznej pojawiły się dramatyczne doniesienia o niedostatecznych dostawach technetu 99m - izotopu używanego w niektórych procedurach związanych z diagnostyką nowotworów. Na świecie istnieje zaledwie kilka reaktorów wytwarzających ten cenny materiał, którego używanie w szpitalach pomaga nieść pomoc około czterdziestu milionom pacjentów rocznie. Co więcej, aż trzy z nich są obecnie okresowo zamknięte z uwagi na przeglądy techniczne i naprawy. Na szczęście z pomocą przyszli naukowcy z holenderskiego Delftu, które opracowali nową technologię wytwarzania technetu 99m. Stosowane obecnie metody uzyskiwania izotopu wymagały zastosowania wzbogacanego uranu. Jednym z produktów jego rozpadu jest molibden 99 - stosunkowo szybko rozpadający się izotop, z którego powstaje materiał wykorzystywany w szpitalach, czyli technet 99m. Metoda ta jest dość skuteczna, lecz wymaga użycia wzbogaconego uranu, którego zdobycie wymaga wielu dokumentów wymaganych z uwagi na międzynarodowe umowy dotyczące stosowania broni jądrowej. Prace wykonane na Uniwersytecie w Delfcie dowodzą jednak, że istnieje prostsza metoda uzyskania molibdenu 99. Zgodnie z założeniami nowej metody wystarczy wykorzystać molibden 98 - stabilny izotop uzyskiwany bezpośrednio z podziemnych pokładów tego metalu. Jest on bombardowany przez neutrony, dzięki czemu uzyskuje się izotop cięższy o jedną jednostkę, czyli właśnie molibden 99, identyczny jak w przypadku stosowania standardowej metody. Może on być przetransportowany do szpitala i wykorzystywany identycznie, jak dotychczas. Nowa procedura ma jeszcze dwie istotne zalety. Pierwszą z nich jest rozpuszczalność w wodzie izotopu o masie 99 jednostek, której nie posiada jego lżejszy odpowiednik. Pozwala to na szybkie oczyszczenie interesującego materiału i jego zagęszczenie. Warto też zaznaczyć, że molibden 99 jest jedynym radioaktywnym produktem całej procedury. W przypadku uzyskiwania go z uranu ilość uciążliwych, promieniotwórczych odpadów jest znacznie większa. Prof. Wolterbeek planuje obecnie rozpoczęcie testów pozwalających stwierdzić, czy wprowadzenie opracowanej przez niego technologii będzie możliwe i opłacalne przy zwiększeniu skali produkcji. Można więc mieć nadzieję, że już niedługo nowoczesna diagnostyka obrazowa nowotworów będzie tańsza i bardziej dostępna.
  25. Badacze z Federalnego Instytutu Technologii w szwajcarskim Zurichu opracowali nową metodę precyzyjnej analizy wytrzymałości tkanki kostnej. Technika, opierająca się na pomiarach gęstości oraz parametrów mechanicznych próbki, ma szansę stać się za kilka lat istotnym elementem diagnostyki osteoporozy. Opracowana procedura działa w oparciu o złożone symulacje generowane przez superkomputer Blue Gene/L firmy IBM, której pracownicy wsparli pracownikow Instytutu. Na podstawie analizy reakcji fragmentu kości na nacisk tworzona jest "mapa" naprężeń powstających w całej objętości próbki. Uzyskane wyniki pozwolą w przyszłości na dobór optymalnego sposobu leczenia osteoporozy, pomogą także w podjęciu decyzji o ewentualnym wszczepieniu metalowych płytek wzmacniających kość w miejscach najbardziej narażonych na pęknięcia. Aby przeprowadzić badanie, wystarcza pobranie próbki kości o wymiarach 5x5 mm. Materiał jest następnie poddawany różnorodnym próbom obciążeniowym, a zebrane z czujników informacje trafiają do komputera. Efektem pojedynczego testu, trwającego około dwudziestu minut, jest wytworzenie około... 90 GB danych. Oczywiście, są one następnie obrabiane do bardziej "przystępnej" formy, pozwalającej na interpretację przez lekarza. Pozornie największą wadą metody jest konieczność użycia komputera klasy Blue Gene/L. Ilość przeprowadzanych obliczeń jest tak wielka, że nawet słynny komputer Deep Blue, znany z pojedynków szachowych z Garri Kasparowem pod koniec XX wieku, potrzebowałby na ich wykonanie niemal tygodnia. Na szczęście, porównanie to pokazuje jednocześnie, jak szybki jest rozwój informatyki. Jak ocenia dr Alessandro Curioni, pracujący dla laboratorium badawczego IBM w Zurichu, za dziesięć lat możliwości dzisiejszych komputerów będą osiągalne przy użyciu zwykłych komputerów biurkowych, dzięki czemu tego typu symulacje wytrzymałości tkanki kostnej staną się rutynową praktyką. Pracujący w Federalnym Instytucie Technologii prof. Peter Arbenz, pomysłodawca nawiązania współpracy z Błękitnym Gigantem, tłumaczy, że najważniejszym wyzwaniem dla jego zespołu było stworzenie nowoczesnych i wydajnych algorytmów zdolnych do przepowadzenia tak złożonych symulacji. Choć dotychczasowe wyniki wydają się być bardzo obiecujące, badacz ocenia to osiągnięcie ostrożnie: Jesteśmy na początku ekscytującej podróży. Ten kierunek badań musi być utrzymany, byśmy mogli osiągnąć nasz cel. Kolejnym celem grupy będzie stworzenie algorytmu zdolnego do symulacji złamania kości u ściśle określonej osoby poddawanej badaniu. Osiągnięcie tego celu pomogłoby bez wątpienia w szybkiej i skutecznej diagnostyce osteoporozy oraz ocenie zagrożeń związanych z osłabieniem kości. Stawka jest niezwykle wysoka, gdyż chorobą jest zagrożonych aż 9 milionów osób w samej tylko Polsce. Wyniki badań zaprezentowano na konferencji IACM/ECCOMAS 2008 w Wenecji.
×
×
  • Dodaj nową pozycję...