Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' diagnostyka'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 12 results

  1. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Każdy pojedynczy genom ludzki zawiera tysiące zmian genetycznych. Tylko nieliczne z nich prowadzą do zmian fenotypowych. Dlatego tak ważna jest ocena prognostyczna ich konsekwencji biologicznych oraz klinicznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz jego rodziny. Liczba i różnorodność diagnozowanych wariantów sprawia, że ocena ich konsekwencji funkcjonalnych wymaga wsparcia przez wieloelementową analizę obliczeniową. Obecnie dostępnych jest wiele narzędzi predykcji in silico. Wykorzystują one różnorodne modele obliczeniowe oraz źródła danych genetycznych. Genom człowieka jest to całkowita informacja genetyczna zawarta w zestawie 23 par chromosomów obecnych w jądrze komórkowym (genom jądrowy) oraz w mitochondriach (genom mitochondrialny) [1]. Haploidalny ludzki genom jądrowy ma długość około 3 miliardów par zasad i koduje około 30 000 genów [2]. Genom zbudowany jest z kwasu dezoksyrybonukleinowego (DNA). Składa się z części kodujących białka tzw. eksonów obejmujących Dla przetrwania oraz prawidłowego rozrodu wymagana jest stabilność genetyczna. Jest ona zapewniana przez proces replikacji oraz mechanizmy naprawy wychwytujące i korygujące błędy wynikające z pomyłek aparatu replikacyjnego oraz z przypadkowych uszkodzeń DNA. Czasem jednak mechanizmy naprawy okazują się zawodne i wtedy zamiast zmiany przejściowej dochodzi do utrwalenia błędu. Takie trwałe zmiany, które mogą lecz nie muszą, prowadzić do poważnych konsekwencji, nazywamy mutacjami. Efekty wpływu mutacji na komórkę, organizm zależą od wielu czynników m.in. rodzaju wariantu, miejsca powstania [4]. Mutacje zgodnie z definicją, są to wszelkie trwałe zmiany w sekwencji nukleotydowej o częstości populacyjnej poniżej 1%. Termin polimorfizm jest zdefiniowany jako wariant występujący w populacji z częstością 1% lub większą. Warianty genetyczne można sklasyfikować na podstawie wielu różnych parametrów m.in.: ze względu na zakres jaki obejmują, mechanizm powstawania, miejsca powstania lub konsekwencje jakie wywołują [5]. Wśród mutacji genowych dodatkowo wyróżnić można mutacje punktowe, które dotyczą zmian pojedynczych nukleotydów. Dynamiczny rozwój diagnostyki molekularnej wymusił konieczność wprowadzenia ujednoliconego oraz jednoznacznego zapisu wariantów sekwencji nukleotydowej. Na podstawie zestawu standardowych kryteriów powstała międzynarodowa, referencyjna nomenklatura wariantów genetycznych. Za utrzymywanie i wersjonowanie nomenklatury odpowiedzialna jest organizacja Human Genome Variation Society (HGVS). Opracowane wytyczne umożliwiają efektywne współdzielenie oraz użytkowanie informacji genomowych. Wszystkie laboratoria genetyczne zobligowane są do zapisu wyniku badania genetycznego zgodnie z wytycznymi HGVS [5,6]. Przyjęte rekomendacje dostępne są do publicznej wiadomości na stronie internetowej www.varnomen.hgvs.org [7]. Celem diagnostyki genetycznej jest wsparcie oceny klinicznej oraz podejmowanych decyzji medycznych. Błędna interpretacja znaczenia wykrytego wariantu może spowodować poważne konsekwencje dla pacjenta oraz błędną stratyfikację ryzyka dla członków jego rodziny. W 2013 r. organizacja American College of Medical Genetics and Genomics (ACMG) zwołała specjalną grupę roboczą złożoną z przedstawicieli ACMG, American Association for Molecular Pathology (AMP) oraz College of American Pathologists (CAP). Grupa ta składała się z klinicystów oraz dyrektorów laboratoriów klinicznych. Celem było opracowanie międzynarodowych wytycznych dotyczących klasyfikacji znaczenia wariantów genetycznych wykrywanych w analizach sekwencjonowania genomu ludzkiego. W 2015 roku został opublikowany specjalny raport przedstawiający szczegółowe rekomendacje dotyczące testów genetycznych wykonywanych w laboratoriach klinicznych. Warianty identyfikowane w chorobach monogenowych, dziedziczonych zgodnie z prawami Mendla zaklasyfikowano do pięciu kategorii: ● wariant patogenny (ang. pathogenic), ● wariant potencjalnie patogenny (ang. likely pathogenic), ● wariant o niepewnym znaczeniu (ang. uncertain significance), ● wariant potencjalnie łagodny (ang. likely benign), ● wariant łagodny (ang. benign) [6]. “In silico” jest to termin naukowy określający sposób wykonania czynności, badania, testu. Oznacza, że analiza została przeprowadzona za pomocą komputera i urządzeń informatycznych. Nazwa powstała analogicznie do terminów in vitro i in vivo [10]. Diagnostyka genetyczna ma na celu poszukiwanie wariantów genetycznych będących przyczyną zaburzeń fenotypowych pacjenta. Wykorzystuje analizę asocjacji polegającą na łączeniu określonego wariantu z wystąpieniem danej cechy [11]. Analiza bioinformatyczna wyniku pacjenta składa się z wielu etapów. Obejmuje m.in. następujące analizy in silico: ● porównywanie sekwencji badanej z sekwencją referencyjną - sekwencje referencyjne dostępne są w wielu przeglądarkach genomowych, do najczęściej stosowanych należą m.in. GenBank, LRG oraz Ensembl, ● przeszukiwanie baz danych populacyjnych, gromadzących informacje o częstościach wariantów np.1000 Genomes,, Exome Aggregation Consortium (ExAC), Exome Variant Server, ● przeszukiwanie biomedycznych baz danych, gromadzących informacje o klinicznym znaczeniu wariantów, powiązaniu fenotypowym, zaburzeniach genetycznych m.in. ClinVar, OMIM, Human Gene Mutation Database (HGMD) ● przeszukiwaniu biomedycznych publikacji naukowych, ● interpretację wpływu wykrytego wariantów na genom oraz kodowane białko z zastosowaniem programów predykcyjnych [6,7,8]. W chwili obecnej dostępnych jest wiele narzędzi predykcji in silico, a analiza patogenności wariantów genetycznych jest kluczowa w skutecznej diagnostyce genetycznej i następującej po niej terapii. Piśmiennictwo [1] Brown, T. A.: The Human Genome. Oxford: Wiley-Liss 2002 [2] National Human Genome Research Institute (NHGRI). Human Genome Project Completion: Frequently Asked Questions. https://www.genome.gov [3] Friedman J.M., Dill F.J. , Hayden M.R., McGillivaray B.C.: Genetyka. Wydawnictwo medyczne Urban & Partner, Wydanie I polskie pod redakcją Limona J., Wrocław 1996 [4] Alberts B., Bray D., Johnson A., Lewis J., Raff M., Roberts K., Walter P.: Podstawy biologii komórki. Wprowadzenie do biologii molekularnej. Wydawnictwo Naukowe PWN, przekład pod redakcją Michejdy J. i Augustyniaka J., Warszawa 1999 [5] Claustres M., Kozich V., Dequeker E., Fowler B., Hehir-Kwa J.Y., Miller K., Oosterwijk C., Peterlin B., van Ravenswaaij-Arts C., Zimmermann U., Zuffardi O., Hastings R.J. and David E., Barton D.E., on behalf of the ESHG Quality committee: Recommendations for reporting results of diagnostic genetic testing (biochemical, cytogenetic and molecular genetic). European Journal of Human Genetics 2014; 22 [6] Richards S., Aziz N., Bale S., Bick D., Das S., Gastier-Foster J., Grody W.W., Hegde M., Lyon E., Spector E., Voelkerding K., Rehm H.L., on behalf of the ACMG Laboratory Quality Assurance Committee: Standards and Guidelines for the Interpretation of Sequence Variants: A Joint Consensus Recommendation of the American College of Medical Genetics and Genomics and the Association for Molecular Pathology. Genetics in Medicine 2015; 17 [7] https://varnomen.hgvs.org [8] den Dunnen J.T., Dalgleish R. , Maglott D.R., Hart R.K., Greenblatt M.S., McGowan-Jordan J., Roux A.F., Smith T., Antonarakis S.E., Taschner P.E.: HGVS Recommendations for the Description of Sequence Variants. Hum Mutat. 2016; 37(6) [9] Kim Y.E., Ki C.S., Jang M.A.: Challenges and Considerations in Sequence Variant Interpretation for Mendelian Disorders. Ann Lab Med 2019; 39(5) [10] Colquitt R.B., Colquhoun D.A., Thiele R.H.: In silico modelling of physiologic systems. Best Practice & Research Clinical Anaesthesiology 2011; 25 [11] Słomski R.: Analiza DNA - Teoria i Praktyka. Wydawnictwo Uniwersytetu Przyrodniczego w Poznaniu, Poznań 2008 « powrót do artykułu
  2. W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%. Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście. Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia. Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School. Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga. Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT. « powrót do artykułu
  3. Uniwersytet im. Adama Mickiewicza w Poznaniu (UAM), Politechnika Poznańska oraz neurolodzy i psychiatrzy chcą opracować nową, bezinwazyjną metodę diagnozowania choroby Alzheimera na wczesnym etapie. Jak podkreślono na stronie UAM, w celu przeprowadzenia badań pilotażowych w projekcie naukowcy planują zgromadzić grupę około 50 osób zagrożonych rozwojem choroby, a także podobną grupę kontrolną. Choroba Alzheimer przez dekady może rozwijać się bez żadnych objawów. Tymczasem, jak w przypadku większości chorób, wczesne rozpoznanie ma olbrzymie znaczenie dla rokowań. Im zatem szybciej schorzenie zostanie zdiagnozowane, tym większa szansa na wyleczenie czy powstrzymanie dalszych postępów choroby. Wszyscy mamy nadzieję, że prędzej czy później będziemy dysponować skutecznym lekiem, jednak może się okazać, że największą barierą w jego zastosowaniu będzie dostęp do wczesnej diagnostyki - obecnie drogiej i trudno osiągalnej, mówi profesor Jędrzej Kociński z UAM. Naukowcy zapraszają więc do wzięcia udziału w bezpłatnych anonimowych badaniach wszystkich, którzy podejrzewają, że coś złego dzieje się z ich pamięcią, oraz osoby po 50. roku życia bez zaburzeń pamięci, ale w rodzinach których są lub były osoby z wczesnym otępieniem (czyli takie, u których rozwinęło się one przed 65. rokiem życia). W badaniach nie mogą wziąć udział osoby z wyraźnymi objawami otępienia, ani z już zdiagnozowaną chorobą Alzheimera. Szczegółowe informacje o projekcie znajdziemy na stronach Alzheimer Prediction Project, a chęć udziału w badaniu można zgłosić pisząc na adres kierownika projektu, doktora Marcina Górniaka, lekarz.marcin.gorniak[at]gmail.com. « powrót do artykułu
  4. Cukrzycą określa się grupę chorób metabolicznych charakteryzującą się przewlekłą hiperglikemią czyli podwyższonym poziomem glukozy we krwi. Istotną rolę w regulacji gospodarki węglowodanowej we krwi odgrywa insulina - hormon który wydzielany jest przez trzustkę. Insulina odpowiada za regulację transportu glukozy do komórek zmniejszając jej poziom we krwi obwodowej. Obecnie wyróżniamy dwa główne typy cukrzycy: Cukrzycę typu 1, w której dochodzi do zniszczenia komórek beta trzustki co prowadzi z reguły do bezwzględnego braku insuliny. Cukrzycę typu 2, nabytą, która spowodowana jest najczęściej opornością tkanek na insulinę. Cukrzyca charakteryzuje się objawami klinicznymi tj.: zwiększenie częstości oddawania moczu, wzmożone pragnienie, osłabienie, nieuzasadnione zmniejszenie masy ciała. U większości osób objawy te występują późno zatem konieczne jest wykonywanie badań przesiewowych. Współczesna medycyna posiada szeroki wachlarz badań dzięki, którym możemy diagnozować cukrzycę, stany przedcukrzycowe, insulinooporność oraz funkcje wydzielnicze trzustki. Wśród tych badań można wyróżnić: badanie glukozy na czczo, badanie glikemii przygodnej, badanie glukozy w moczu, doustny test obciążenia glukozą (OGTT), badanie peptydu-c, badanie odsetka hemoglobiny glikowanej (HbA1c), monitorowanie poziomu glukozy za pomocą glukometru oraz CGM. Według stanowiska Polskiego Towarzystwa Diabetologicznego z 2019 roku, podstawą do rozpoznania cukrzycy jest występowanie 1 z 3 kryteriów: – objawy hiperglikemii i glikemia przygodna ≥ 200 mg/dl, – dwukrotna glikemia na czczo ≥ 126 mg/dl, – glikemia 2h po posiłku ≥ 200 mg/dl. W roku 2021 Polskie Towarzystwo Diabetologiczne zdecydowało się umieścić w Zaleceniach dotyczących postępowania u chorych na cukrzycę badanie odsetka hemoglobiny glikowanej (HbA1c) w kryteriach rozpoznania cukrzycy. Do tej pory badanie to było stosowane do określania wyrównania cukrzycy u pacjentów na przełomie ostatnich trzech miesięcy. Aktualne zalecenia podają, iż lekarz może rozpoznać cukrzycę u pacjenta z wynikiem HbA1c powyżej 6,5%. Nasuwa się pytanie, czy badane odsetka hemoglobiny glikowanej może zastąpić doustny test obciążenia glukozą (OGTT) w rozpoznawaniu zaburzeń gospodarki węglowodanowej? Doustny test tolerancji glukozy (OGTT) został stworzony, aby określać tolerancję węglowodanów w organizmie. Badanie polega na pobraniu krwi żylnej na czczo oraz po 1 i 2 godzinach od wypicia 75g roztworu glukozy (*może się różnić w zależności od zaleceń lekarza). Podczas tego testu można równocześnie oznaczyć poziom glukozy i insuliny. Dzięki temu jest stosowany do określania tolerancji węglowodanów, zdolności komórek beta trzustki do wydzielania insuliny oraz wrażliwości tkanek na insulinę. Badane odsetka hemoglobiny glikowanej HbA1c jest stabilnym wskaźnikiem ekspozycji na glikemię przez okres ostatnich 3 miesięcy. Używano go do tej pory do monitorowania terapii u pacjentów z zdiagnozowaną cukrzycą. Za prawidłowo wyrównaną glikemię uznaje się poziom HbA1c < 7% Powszechnie wiadomo, że na wynik doustnego testu tolerancji glukozy (OGTT) wpływ ma wiele czynników. Jednym z najważniejszych jest przygotowanie pacjenta do badania.Pacjent musi być bezwzględnie na czczo (12h przerwy od ostatniego posiłku). Badania nie można wykonywać w czasie choroby, ciężkich treningów, ani w czasie stosowania nagłych restrykcji pokarmowych. Czas trwania badania to około 2 godziny i może się on wydłużyć w zależności od zaleceń lekarza. W tym czasie nie można nic jeść ani pić, nie można także wykonywać nadmiernej aktywności fizycznej. Zaleca się pozostanie w przychodni bądź laboratorium przez cały czas trwania badania.Obowiązkiem personelu jest zwrócić szczególną uwagę na przeprowadzenie z pacjentem dokładnego wywiadu oraz staranne przygotowanie do pobrania krwi gdyż częste powtarzanie tego badania nie pozostaje bez wpływu na organizm. Natomiast badanie HbA1c jest mniej wrażliwe na błędy fazy przedanalitycznej i analitycznej. Badanie to można wykonać o każdej porze dnia bez konieczności bycia na czczo. Parametr oznaczany jest z jednego pobrania, a badanie można również wykonać z materiału krew EDTA pobranego do badania morfologii krwi. Analizując tylko fazę przed analityczną i analityczną badań można stwierdzić, że test HbA1c jest rokującym kandydatem do skriningu pacjentów w celu rozpoznania cukrzycy. Czy zatem występuje istotna korelacja pomiędzy wynikami tych badań u diagnozowanych pacjentów? Esther Y T Yu i wsp. na Uniwersytecie w Hong Kongu przeprowadzili badania wśród 1128 osób, z których 229 miało zdiagnozowaną cukrzycą na podstawie testu OGTT. Czułość i swoistość testu HbA1c ≥ 6.5% wynosiły odpowiednio 33,2% i 93,5% u osób z wcześniej zdiagnozowaną cukrzycą na podstawie testu OGTT. Kiedy progiem odcięcia różnicowania chorych na cukrzycę było HbA1c ≥ 6,3% czułość i swoistość wynosiła odpowiednio 56,3% i 85,5%. Dla progu HbA1c ≥ 5,6% ma najwyższą czułość i swoistość wynoszącą odpowiednio 96,1% oraz 94.5% X. L. Dong i wsp. również przeprowadzili badania porównując wyniki badania HbA1c oraz testu OGTT. Wśród 701 uczestników badania, u 65 z nich została zdiagnozowana cukrzyca na podstawie badania HbA1c ≥ 6.5 % natomiast u 94 uczestników zdiagnozowano cukrzycę testem OGTT. W porównaniu z testem OGTT czułość i swoistość przy HbA1c > 6.5 % była odpowiednio 48.2% oraz 97.8%. Aż u 30,7% uczestników u których wynik badania HbA1c był powyżej 6.5% nie została zdiagnozowana cukrzyca na podstawie testu OGTT. Natomiast u 52%, u których na podstawie testu OGTT została zdiagnozowana cukrzyca, nie wykryto jej badaniem HbA1c ≥ 6.5 % Specyfika testu OGTT powoduje bardzo sceptyczne nastawienie pacjentów do niego. Łatwiejsze i bardziej komfortowe wydaje się być wykonanie badania HbA1c. Badanie odsetka hemoglobiny glikowanej może mieć istotne zastosowanie w monitorowaniu leczenia cukrzycy oraz może być jednym z badań wskazujących rozpoznanie choroby, ale wyniki HbA1c poniżej 6,5% nie wskazują na brak cukrzycy lub stanu przedcukrzycowego u pacjenta ze względu na niską czułość badania. U tych pacjentów należy przeprowadzić dodatkową diagnostykę. BIBLIOGRAFIA: Current Topics in Diabetes 2022 | Curr Top Diabetes, 2022; 2 (1): 1–134 Dong XL, Liu Y, Sun Y, Sun C, Fu FM, Wang SL, Chen L. Comparison of HbA1c and OGTT criteria to diagnose diabetes among Chinese. Exp Clin Endocrinol Diabetes. 2011 Jun;119(6):366-9. doi: 10.1055/s-0030-1267183. Epub 2010 Nov 19. PMID: 21104578 Solnica B., Dembińska-Kieć A., W. Naskalski J. (2017) Diagnostyka laboratoryjna z elementami biochemii klinicznej. Wrocław: Edra Urban & Partner Yu EY, Wong CK, Ho SY, Wong SY, Lam CL. Can HbA1c replace OGTT for the diagnosis of diabetes mellitus among Chinese patients with impaired fasting glucose? Fam Pract. 2015 Dec;32(6):631-8. doi: 10.1093/fampra/cmv077. Epub 2015 Oct 14. PMID: 26467644; PMCID: PMC5926458. « powrót do artykułu
  5. Amerykańska firma Biometryks LLC podpisała umowę licencyjną na patent należący do Uniwersytetu Warszawskiego (UW). Patent obejmuje nowatorską technologię produkcji matrycy grafenowej. Wynalazek może być wykorzystany w konstrukcji biosensora, który w nieinwazyjny sposób prowadzi analizy próbek potu, moczu lub krwi, monitorując lub diagnozując choroby nabyte i przewlekłe. Matryca grafenowa ma być kluczowym elementem sensora. Jego nowa generacja ma pozwolić na analizę na bieżąco próbek potu, moczu i krwi. W pierwszym etapie projektu Biometryks opracuje nieinwazyjną technologię do oznaczania i analizy biomarkerów w pocie. Po przyklejeniu do skóry sensor będzie mógł działać przez kilka tygodni. Jak podkreślono w komunikacie prasowym UW, dane z pomiarów zostaną przeanalizowane w chmurze w czasie rzeczywistym przez algorytm sztucznej inteligencji. Pacjent będzie mógł zobaczyć wyniki analizy w aplikacji na smartfonie. Tam znajdzie on również personalizowane (dostosowane do aktualnego stanu zdrowia) zalecenia związane ze zdrowym stylem życia. W oddzielnej aplikacji wgląd do danych będzie miał lekarz; pozwoli mu to na wczesne podjęcie decyzji o ewentualnym pogłębieniu diagnostyki czy wdrożeniu leczenia. Współpraca środowiska naukowego i biznesowego zaowocuje powstaniem sensora, który dokona rewolucji we wczesnej diagnostyce oraz monitorowaniu pacjentów z chorobami przewlekłymi. Takiej technologii nie ma jeszcze nikt. Dzięki innowacyjnemu rozwiązaniu Biometryks poprawi jakość życia pacjentów na całym świecie – zaznacza dr n. med. Kris Siemionow, prezes zarządu Biometryksu LLC. Matryca grafenowa została opracowana przez naukowców z Wydziału Chemii UW, którzy pracowali pod kierownictwem dr Barbary Kowalewskiej. Należy podkreślić, że to pierwsza na świecie matryca, która wykazuje na tyle wysoką stabilność, by dało się ją wykorzystać w rozwiązaniach medycznych. Zastosowanie grafenu pozwoliło uzyskać bezkonkurencyjne parametry transmisji danych pozyskiwanych przez projektowane biosensory. Dzięki umowie licencyjnej będzie można kontynuować prace badawcze nad innowacyjną i nieinwazyjną technologią diagnostyczną. Amerykańskie urządzenie jest roboczo nazywane Biometryksem B1. « powrót do artykułu
  6. Zespół dr. inż. Łukasza Frącczaka z Politechniki Łódzkiej pracuje nad innowacyjnym endoskopem o wydłużonym zasięgu, który pomoże w szybkim i skutecznym leczeniu układu pokarmowego. Cały pomysł w zasadzie wziął się od lekarzy chirurgów, którzy mają problem ze zdiagnozowaniem pacjentów, zwłaszcza w dalszej części układu pokarmowego. Wiadomo, w polskich warunkach zlecanie kolejnych badań i ich przeprowadzenie to jest odwlekanie o kolejne miesiące, natomiast pacjent cały czas pozostaje chory bez zdiagnozowanej choroby, dlatego też takie urządzenie już przy pierwszym badaniu kolonoskopowym umożliwiłoby znacznie szerszą diagnostykę. Zatem cały okres leczenia [...] znacznie by się skrócił - mówi Frącczak. Jak dodaje dr Katarzyna Koter, na razie robot mierzy 85 cm. Planowane jest zbudowanie prototypu o długości 1,5 i do 2 m. Docelowo chcielibyśmy, aby taki robot miał 4 m długości, czyli umożliwiał przebadanie zarówno jelita grubego, jak i wejście do fragmentu jelita cienkiego. Naukowcy musieli zmierzyć się z wyzwaniami, związanymi ze specyficznym środowiskiem jelit. Jak dowiadujemy się z opublikowanego przez uczelnię filmiku, opatentowali nawet sztuczne mięśnie - napęd, który imituje ruchy glisty ludzkiej. Uczeni podkreślają, że pod względem robotyki układ pokarmowy człowieka jest bardzo trudnym środowiskiem. [...] Ma bardzo niski współczynnik tarcia i jest bardzo ciasny w środku. Poza tym układ pokarmowy jest wrażliwy na bodźce zewnętrzne. Do tej pory lekarze poprzez badanie kolonoskopowe mogli zbadać tylko i wyłącznie okrężnicę i niewielki odcinek jelita krętego. Doktor Koter wyjaśnia, że ze względu na ruch wężopodobny robot powinien być mniej inwazyjny w porównaniu do tradycyjnej kolonoskopii. Nie powinien wywierać dużych sił na ścianki jelita. Zmniejszałoby to ryzyko uszkodzenia jelita oraz bolesność badania. Obecnie robot ma średnicę 15-16 mm, jeśli jednak chcemy efektywnie zbadać jelito cienkie, trzeba będzie ten wymiar jeszcze zmniejszyć. Wyposażenie takiego robota w narzędzia i w kanał roboczy pozwoli nam, na przykład, na pobieranie próbek do późniejszych badań. Wg Frącczaka, zbudowanie robota o strukturze wężopodobnej na mięśniach pneumatycznych jest dość nowym odkryciem. Tutaj akurat mamy [...] dwa zgłoszenia patentowe. Składamy dwa roboty. Jeden jest zbudowany w oparciu o mięśnie McKibbena. Druga konstrukcja robota jest zbudowana w oparciu o mięśnie poprzeczne. Na ten wynalazek mamy już przyznany patent i wykorzystujemy to dalej w budowie [...]. Na wprowadzenie robota do praktyki klinicznej musimy jeszcze poczekać. Na dzień dzisiejszy opracowaliśmy [bowiem] tylko i wyłącznie sam napęd takiego endoskopu. Przetestowaliśmy go w warunkach zbliżonych do tych, w których będzie pracował. Mamy już stworzony demonstrator technologii, że takie urządzenie potrafi wchodzić do ciała pacjenta i może być stosowane w medycynie. Natomiast do końcowego produktu... No tutaj jeszcze kilka lat pracy będzie trzeba w to włożyć - podsumowuje Frącczak.   « powrót do artykułu
  7. Badając znamiona barwnikowe na skórze pod kątem ryzyka zachorowania na nowotwór, dermatolodzy najczęściej dokonują oceny przy użyciu dermatoskopu, urządzenia z wbudowanym podświetleniem powiększającego zmienione miejsce. Zwracają szczególną uwagę na asymetrię nacieku, różnice w zabarwieniu czy nierówność brzegów, starają się także obserwować jego głębsze struktury. Działanie to jest o tyle ważne, że prawdopodobieństwo wyleczenia nowotworu skóry zależy od grubości guza. Jeśli nie przekracza ona 1 mm, wówczas chirurgiczne usunięcie zmiany daje szansę nawet na całkowite wyleczenie pacjenta. Użycie dermatoskopu nie pozwala jednak dokładnie zmierzyć owej grubości i wewnętrznej struktury nacieku. Interesujące rozwiązanie tego problemu zaproponowali naukowcy z Uniwersytetu Śląskiego oraz Śląskiego Uniwersytetu Medycznego. Wspólnie zaprojektowali specjalny klips wspomagający diagnostykę nowotworów skóry, w tym czerniaka złośliwego. Urządzenie przypomina zwykłą klamerkę do bielizny. Łapiemy fałd skóry w miejscu, w którym znajduje się znamię. Wyemitowana wiązka światła jest kierowana do licznych odbiorników zlokalizowanych w jednym z ramion klipsa. To z kolei pozwala określić grubość zmiany i inne jej parametry oraz decydować o podjęciu leczenia lub dalszej obserwacji – mówi dr hab. inż. Robert Koprowski, prof. UŚ, współautor wzoru użytkowego. Dzięki temu diagnostyka takich nowotworów skóry, jak czerniak złośliwy, będzie szybsza, obarczona mniejszymi błędami oraz niezależna od operatora – dodaje. Zaproponowana przez naukowców metoda badania jest nieinwazyjna i bezpieczna nawet dla miejsc zmienionych chorobowo. Klips może być również wykorzystywany do monitorowania postępów leczenia zarówno w warunkach szpitalnych, jak i domowych. Autorami wzoru użytkowego, na który przyznane zostało prawo ochronne, są naukowcy z Wydziału Nauk Ścisłych i Technicznych UŚ: dr hab. inż. Robert Koprowski, prof. UŚ oraz prof. dr hab. inż. Zygmunt Wróbel, a także dr hab. n. farm. Sławomir Wilczyński, prof. ŚUM i prof. dr hab. n. med. Barbara Błońska-Fajfrowska ze Śląskiego Uniwersytetu Medycznego w Katowicach. « powrót do artykułu
  8. Choroba zwyrodnieniowa stawów to najczęściej występujące schorzenie spośród wszystkich rodzajów zapaleń stawów. Obecnie diagnozuje się ją przede wszystkim na podstawie zdjęć rentgenowskich. Jednak naukowcy z Wydziału Medycyny University of Pittsburgh oraz Wydziału Inżynierii Carnegie Mellon University stworzyli algorytm sztucznej inteligencji, który diagnozuje to schorzenie wiele lat przed pojawieniem się objawów. Złotym standardem w diagnostyce choroby zwyrodnieniowej stawów jest zdjęcie rentgenowskie. Gdy stawy ulegają zniszczeniu, zmniejszają się odległości pomiędzy kośćmi. Problem w tym, że gdy możemy zauważ tę chorobę na zdjęciach, zniszczenia już się dokonały. Znacznie łatwiej jest zaś zapobiegać zniszczeniu tkanki chrzęstnej niż spowodować jej odrastanie, mówi jeden z autorów badań, profesor chirurgii ortopedycznej Kenneth Urish z Pittsburgha. Obecnie nie istnieje żadna metoda wykrywania choroby zwyrodnieniowej stawów na etapie, który pozwalałby na naprawienie powstałych szkód. W naszej pracy prezentujemy metodę, która pozwala na wykrycie choroby jeszcze zanim da ona objawy. Metoda ta łączy teorię optymalnego transportu masy ze statystycznym rozpoznawaniem wzorców, czytamy w pracy pod tytułem Enabling early detection of osteoarthritis from presymptomatic cartilage texture maps via transport-based learning. Gdy lekarze oglądają zdjęcia stawów, nie widać tam oczywistego wzorca, który od razu można zauważyć gołym okiem. Ale to nie znaczy, że taki wzorzec nie istnieje. To znaczy tylko, że nie można go dostrzec używając konwencjonalnych narzędzi, dodaje doktor Shinjini Kundu. To właśnie Kundu odpowiadał za trenowanie algorytmu na podstawie zdjęć kolan wykonanych za pomocą rezonansu magnetycznego, a następnie testował go na zdjęciach, pacjentów, z którymi model nie miał wcześniej do czynienia. Proces nauczania i testowania był powtarzany dziesiątki razy, za każdym razem na innej grupie osób. W końcu model poddano ostatecznemu testowi. Miał on do przeanalizowania zdjęcia stawów kolanowych 86 zdrowych osób, u których ani nie występowały objawy choroby zwyrodnieniowej stawów, ani nie było na zdjęciach widać zmian wskazujących na proces chorobowy. Okazało się, że algorytm z 78-procentową trafnością przewidział, u których pacjentów trzy lata później rozwinęła się choroba. Osiągnięcie to wskazuje, że wykrycie choroby zwyrodnieniowej stawów może być możliwe na etapie, gdzie można jej zapobiec. W przyszłości połączenie metody przedobjawowego wykrywania z nowymi terapiami pozwalającymi na jej zapobieganie może znacząco zmienić epidemiologię choroby, na walkę z którą którą amerykański system opieki zdrowotnej wydaje obecnie 16,5 miliarda dolarów rocznie. Co więcej, naszą technikę można zastosować do wcześniejszego wykrywania w badaniach obrazowych wielu innych chorób, które obecnie diagnozuje się w zaawansowanym stadium rozwoju. Przed tygodniem informowaliśmy o innym algorytmie, który równie dobrze jak radiolodzy potrafi diagnozować raka piersi. « powrót do artykułu
  9. Brytyjscy naukowcy pracują nad nową metodą diagnozowania i oceny zaawansowania choroby zwyrodnieniowej kolan. Bazuje ona na analizie emisji akustycznej, dlatego niektórzy porównują ją do podsłuchiwania odgłosów z kolana. W studium, którego wyniki ukazały się w piśmie PLoS ONE, wzięło udział 89 osób. Akademicy podkreślają więc, że potrzebne są badania na większej próbie, które stworzą podstawy do testów klinicznych. Do badania zakwalifikowano osoby z bólem kolan, które w skali Kellgrena-Lawrence'a do oceny stopnia zaawansowania zmian radiologicznych w chorobie zwyrodnieniowej stawów uzyskiwały wynik w zakresie 1-4; 1 oznacza drobne osteofity, zaś przy 4 osteofity są bardzo duże, a szpara stawowa bardzo zwężona lub niewidoczna. Jak tłumaczą Brytyjczycy, do kolana przyczepia się czujnik emisji akustycznej, który wychwytuje impulsy energii akustycznej (ang. acoustic emission, AE) generowane podczas naprężeń i tarcia między elementami stawu (wykrywane są dźwięki o wysokiej częstotliwości). Oprócz tego na Joint Acoustic Analysis System (JAAS) składa się elektrogoniometr, który umożliwia badanie zakresów ruchu w funkcji czasu. Dane dot. zgięcia stawu kolanowego i emisji akustycznych zbierano jednocześnie dla obu kolan, zespół koncentrował się jednak na kolanie uznawanym przez ochotników za bardziej bolesne. Test składał się z 2 serii 5 wstawań i siadów. Badani mieli się poruszać tak płynnie, jak to tylko możliwe z wygodną dla siebie prędkością. Zebrane dane poddano analizie komputerowej. Generalnie celem naukowców było poszukiwanie potencjalnych biomarkerów AE. Naukowcy z Uniwersytetu w Lancaster współpracowali ze specjalistami z Uniwersytetu w Manchesterze, Uniwersytetu Kumbrii i Uniwersytetu Centralnego Lancashire. Ich badania wykazały, że za pomocą JAAS można odróżnić kolana zdrowe i ze zmianami zwyrodnieniowymi i że technika sprawdza się zarówno w warunkach szpitalnych, jak i w praktyce lekarza rodzinnego. Projekt rozpoczął się w 2013 r. i jest finansowany przez Komitet Badań Naukowych. Potencjalnie możemy doprowadzić do zmiany sposobu prowadzenia choroby zwyrodnieniowej stawów. Nasze badania pozwolą na lepszą diagnostykę i dostosowanie leczenia do stanu kolana danej osoby [...] - cieszy się emerytowany profesor John Goodacre z Uniwersytetu w Lancaster. « powrót do artykułu
  10. Od mniej więcej dwóch dekad naukowcy na całym świecie pracują nad urządzeniami typu lab-on-a-chip. To obiecująca technologia pozwalająca na wykorzystanie niewielkiego przenośnego urządzenia do diagnostyki i sprawdzenie stanu zdrowia za pomocą niewielkiej ilości płynów ustrojowych. Tego typu proste urządzenia już istnieją, umożliwiając proste pomiary. Przykładami nie będą tu glukometry czy testy ciążowe. Jednak inżynierowie wciąż nie potrafią poradzić sobie ze stworzeniem urządzeń do bardziej złożonych analiz, które wymagają mieszania pojedynczej próbki płynu ustrojowego z różnymi precyzyjnie odmierzonymi odczynnikami w konkretnej kolejności. Jedną z najbardziej obiecujących metod na stworzenie takiego urządzenia jest zintegrowanie wielu różnych odczynników na jednym urządzeniu. Odczynniki takie mają być nanoszone metodą podobną do druku atramentowego w niewielkich, liczonych w pikolitrach, ilościach, a całość miałaby być szczelnie zamykana. Gdy użytkownik odpieczętuje urządzenie, zawarta w odczynnikach woda natychmiast wyparuje, pozostawiając wysuszone, precyzyjnie odmierzone ilości odczynników. Pod wpływem wilgoci z płynu ustrojowego odczynniki byłyby ponownie nawadniane, a urządzenie mogłoby przeprowadzić odpowiednie pomiary. Głównym problemem z takim rozwiązaniem jest fakt, że płyn ustrojowy, przepływający przez wysuszone odczynniki, unosi je ze sobą, zakłóca sygnał i uniemożliwia przeprowadzenie precyzyjnych pomiarów. Naukowcy z Politechniki w Montrealu i laboratoriów IBM-a w Zurichu – Onur Gökçe, Yuksel Temiz i Emmanuel Delamarche – postanowili zaradzić problemowi roznoszenia odczynników poprzez rozciągnięcie kropli wody do kształtu długiej wstążki w mikrokanale o szerokości ludzkiego włosa i zmuszenie wody by zagięła się na nałożyła na siebie. W ten sposób próbka wody zamyka się podobnie jak zamek błyskawiczny. Ten proces pozwolił nam na ograniczenie do minimum lokalnego przepływu wody. W ten sposób odczynniki zostają nawodnione, ale nie są rozpraszane, mówi Emmanuel Delamarche, który stoi na czele IBM-owskiej grupy zajmującej się diagnostyką precyzyjną. Wyniki testów wypadły pomyślnie, chociaż naukowcy wciąż nie do końca rozumieją obserwowane przez siebie zjawisko. Nigdy wcześniej bowiem nie było ono badane. Kolejne eksperymenty wykazały jednak, że ma ono związek ze zjawiskiem koalescencji. Obserwujemy je np. podczas spontanicznego łączenia się kropli płynów, które wejdą ze sobą w kontakt. Z fizycznego punktu widzenia koalescencja to wynik silnego powinowactwa molekuł wody, którego celem jest zmniejszenie powierzchni wody wystawionej na działanie powietrza. Dlatego właśnie niewielkie krople wody mają kształt sfery. Sfera bowiem, ze wszystkich kształtów, ma jedną z najmniejszych powierzchni dla danej objętości. W tym przypadku badamy, co się stanie, jeśli kropla wody, rozciągnięta w mikrokanaliku, łączy się z inną częścią samej siebie. Naszym celem jest zrozumienie i kontrolowanie tego zjawiska tak, byśmy mogli wymusić na płynie pozostanie dokładnie w miejscu, w którym napotkał na odczynnik, wyjaśnia profesor Gervais, dyrektor Laboratorium Mikropłynów Onkologicznych na Polytechnique Montreal. Opracowywane przy tej okazji modele matematyczne pozwoliły na lepsze kontrolowanie przepływu cieczy oraz uzyskanie bardzo precyzyjnej konfiguracji czasowo-przestrzennej sygnałów chemicznych z odczynników przy ich minimalnej dyspersji, bez konieczności interwencji ze strony użytkownika. Dotychczas eksperymentalnie wykazano, że nowo opracowany architektura „autokoalescencji” może zostać wykorzystana do badania reakcji enzymatycznych, wykrywania różnych chorób oraz przeprowadzania reakcji łańcuchowej polimerazy w temperaturze pokojowej. W przyszłości mogą dzięki temu powstać proste w użyciu testy genetyczne sekwencjonujące DNA pod kątem występowania różnych chorób, podatności na nowotwory czy identyfikowania wirusów. Mamy nadzieję, że opracowana przez nas technika pozwoli twórcom urządzeń typu lab-on-a-chip na opracowanie niedostępnych obecnie narzędzi diagnostycznych, które będą równie proste w użyciu, co współczesne glukometry, mówi doktor Delamarche. Takie proste urządzenia mogłyby stanowić nieocenioną pomoc zarówno w badaniach stanu zdrowia całych społeczeństw, gdyż uzyskane wyniki można by przesyłać na smartfony, a stamtąd do scentralizowanej bazy danych. Byłyby również niezwykle cennym narzędziem w walce z epidemiami, szczególnie w odległych zakątkach świata, gdzie dostęp do lekarzy i laboratoriów jest utrudniony. « powrót do artykułu
  11. Czy możliwe jest wykrycie nowotworu i określenie stopnia jego złośliwości w ciągu kilku minut, a nawet sekund? Okazuje się, że tak. Umożliwiają to innowacyjne narzędzia diagnostyczne - ramanowska biopsja optyczna i wirtualna histopatologia - opracowane w Laboratorium Laserowej Spektroskopii Molekularnej (LLSM) Politechniki Łódzkiej. Zdaniem naukowców jest to przełom jakościowy dla pacjentów, umożliwiający onkologom otrzymanie w czasie rzeczywistym precyzyjnego, obiektywnego wyniku badań. Kierownik LLSM prof. Halina Abramczyk podkreśla, że laboratorium opracowało gotową do komercjalizacji innowacyjną metodę biopsji optycznej służącej do identyfikacji nowotworów oraz wirtualnej analizy histopatologicznej, opartą na pomiarach światła rozproszonego Ramana. Naukowcy opracowali także metodę ramanowskiej nawigacji chirurgicznej, ułatwiającą usunięcie nowotworu podczas operacji. Dysponujemy również testami, które pozwolą, na podstawie badania krwi, zaledwie w ciągu sekund oznaczyć markery nowotworowe Ramana - dodała prof. Abramczyk. Naukowcy zapewniają, że innowacyjna technika oparta na spektroskopii Ramana wykorzystywana w identyfikacji raka i tworzeniu obrazów tkanek nowotworowych jest całkowicie bezpieczna dla pacjenta. Badanie nie wymaga wycięcia tkanek z organizmu. Polega na oświetlaniu badanej tkanki podejrzanej o istnienie zmiany nowotworowej światłem lasera z zastosowaniem sondy światłowodowej oraz analizie widma Ramana powstającego w ciągu sekund jako odpowiedź tkanki. Naukowcy z LLSM skoncentrowali się na czterech typach nowotworów: piersi, głowy i szyi, przewodu pokarmowego i mózgu. Nasza innowacyjna metoda to nie tylko nowoczesna technika oparta o zjawisko rozpraszania światła Ramana, ale również metoda znalezienia biomarkerów. Zajęło nam to mniej więcej 10 lat. Dysponujemy bazą danych dla tkanek ok. 300 pacjentów i zawierającą setki tysięcy widm. Jesteśmy w stanie w ciągu sekund, a w niektórych przypadkach przy obrazowaniu – minut, wyznaczyć stopień złośliwości nowotworu - dodała prof. Abramczyk. Dr inż. Jakub Surmacki z LLSM podkreślił, że opracowana przez łódzkich naukowców metoda ramanowska nawigacji chirurgicznej umożliwia w sposób jednoznaczny określenie marginesu błędu podczas operacji. Jest to niezwykle istotne w trakcie zabiegu, aby chirurg wiedział, czy usunął w całości nowotwór - dodał. Ramanowska biopsja optyczna pozwala zaś na szybkie i jednoznaczne zidentyfikowanie nowotworu oraz stopnia jego zaawansowania. Wprowadzamy igłę biopsyjną do piersi zaatakowanej przez nowotwór. Do igły przykładamy sondę światłowodową ze światłem lasera i w kilka sekund jesteśmy w stanie zarejestrować widmo ramanowskie na ekranie komputera. Dostajemy tym samym jednoznaczną informację, i to w czasie rzeczywistym, na temat stopnia złośliwości nowotworu piersi - wyjaśnił naukowiec. Kolejnym wynalazkiem opracowanym w laboratorium jest wirtualna histopatologia ramanowska, która wykorzystuje to samo zjawisko rozpraszania światła. Badania naukowców dowiodły, że jej zastosowanie umożliwia otrzymanie identycznych wyników, jak przy zastosowaniu standardowej histopatologii opartej na analizie morfologii tkanki i wykorzystującej barwienie hematocyliną i ozyną. Jednak ­ jak podkreśla współtwórczyni wynalazku prof. Beata Brożek-Płuska - olbrzymią przewagą wirtualnej histopatologii ramanowskiej jest fakt, że wyniki otrzymywane są w ciągu minut. W związku z tym radykalnie skracamy czas oczekiwania lekarza, a w konsekwencji również pacjenta na wynik diagnozy - zaznaczyła prof. Brożek-Płuska. Badaczka podkreśliła także, że obrazowanie ramanowskie, które jest wykorzystywane w tej metodzie, może również służyć do zajrzenia we wnętrze ludzkiego ciała, co było do tej pory niedostępne dla innych technik. Pozwala ono na wizualizację np. ludzkich przewodów mlecznych. Badaczka zaprezentowała porównanie wyników dla przewodu mlecznego o budowie prawidłowej oraz dla przewodu, w którego wnętrzu rozwija się nowotwór. W przypadku zdrowego przewodu jego wnętrze jest puste, ale dzięki obrazowaniu ramanowskiemu jesteśmy w stanie zwizualizować kolejne struktury, które występują wokół światła tego przewodu. Natomiast w przypadku przewodu, w którym rozwija się nowotwór, jesteśmy w stanie zwizualizować komórki nowotworowe, które znajdują się w jego wnętrzu, a także zbadać struktury, które są wokół tego przewodu i dokładnie poznać skład biochemiczny badanych struktur - podkreśliła współtwórczyni wynalazku. Naukowcy zapewniają, że badania laboratoryjne przeprowadzone w LLSM z wykorzystaniem preparatów tkanek pobranych od kilkuset pacjentów onkologicznych wykazały jednoznacznie, że opracowana innowacyjna procedura biopsji optycznej i wirtualnej histopatologii jest szybka i obiektywna, ponieważ wynik badania opiera się o pasma rejestrowane w widmie Ramana i jest niezależny od interpretacji i doświadczenia personelu medycznego. Metoda jest także wyjątkowo czuła – na poziomie 90 proc. Poza tym badanie tkanek jest możliwe bez konieczności stosowania kontrastu. Technika ta pozwala także w jednym pomiarze oszacować stopień złośliwości histologicznej nowotworu, a identyfikacja zmian nowotworowych zachodzi z precyzją rzędu ułamków mikrometra. Łódzcy naukowcy podkreślają, że obecnie zależy im przede wszystkim na tym, żeby tę metodę jak najszybciej wprowadzić do polskiej gospodarki i medycyny. Tym bardziej, że w styczniu ukazała się pierwsza praca opisująca operację przy użyciu neuronawigacji ramanowskiej, którą przeprowadzono w Stanach Zjednoczonych. Niestety, w tej sytuacji nie będziemy już pierwsi na świecie, ale możemy być pierwsi w kraju i w Europie - podsumowała prof. Halina Abramczyk. « powrót do artykułu
  12. Naukowcy z Politechniki Wrocławskiej wraz z młodym uczonym z Indii pracują nad unikatową metodą leczenia i diagnostyki raka piersi przy wykorzystaniu nanomateriałów. Metoda ma pomóc w leczeniu lekoopornych nowotworów. Projekt jest realizowany przez zespół naukowy pod kierownictwem dr inż. Joanny Bauer z Wydziału Podstawowych Problemów Techniki Politechnik Wrocławskiej. W badaniach, które są finansowane z unijnego programu Horyzont 2020, bierze udział młody naukowiec z Indii dr Nanasaheb Thorat. Efektem projektu o akronimie NANOCARGO ma być opracowanie nowatorskiej metody leczenia i diagnostyki raka piersi przy wykorzystaniu wielofunkcyjnych nanomateriałów. To metoda zaliczana do tzw. teranostyki, czyli nowatorskie podejście łączące metody terapeutyczne z jednoczesną diagnostyką - powiedziała w rozmowie z PAP dr Bauer. Badania w ramach tego projektu prowadzone są na Politechnice Wrocławskiej od października. Przez półtora roku naukowcy będą pracować we Wrocławia, a ostanie sześć miesięcy - w klinice weterynaryjnej Vetsuisse Faculty Zurich Hospital na Uniwersytecie w Zurychu. Tam będziemy prowadzić ostateczne testy in vivo potwierdzające skuteczność naszej metody na chorych psach, gdyż biologicznie nowotwór piersi u kobiet jest najbardziej zbliżony do tych występujących u psów. Do Zurychu w zasadzie przywieziemy gotową technologię - powiedziała dr Bauer. Kluczowym elementem nowatorskiej metody są wielofunkcyjne kompozytowe nanonośniki. Wykorzystywane w niej nanomateriały to bardzo małe elementy - np. wirusy mają rozmiar około 100 nanometrów. Wrocławscy naukowcy chcą wykorzystać jeszcze mniejsze cząsteczki, które pod wpływem pola magnetycznego oraz stymulacji optycznej będą niszczyć komórki nowotworowe. Te cząsteczki będą trafiać bezpośrednio do nowotworów dzięki temu, że dodamy do nich tzw. aptamery, czyli wyspecjalizowane biologiczne detektory. To spowoduje, że nanomateriał precyzyjnie znajdzie komórki nowotworowe - powiedziała dr Bauer. Dodała, że nanonośniki zostaną również zaopatrzone w celowany chemioterapeutyk. Lek dzięki temu trafi bezpośrednio do nowotworu - wyjaśniła. Otrzymamy nanonośniki nie tylko dedykowane do określonego typu nowotworu, ale także zaopatrzone w chemioterapeutyk oraz substancje aktywne, które pod wpływem stymulacji magnetycznej i optycznej zniszczą komórki nowotworowe. Możemy więc mówić tutaj o kombajnie trzech metod leczenia nowotworów - powiedziała. Dr Bauer dodała, że wstępne badania prowadzone na komórkach raka jelita grubego pokazały, że zastosowanie nanomateriałów do przenoszenia chemioterapeutyków zwiększa ich skuteczność o kilkadziesiąt procent. « powrót do artykułu
×
×
  • Create New...