Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  
KopalniaWiedzy.pl

Nobel z medycyny lub fizjologii za prace nad receptorami ciepła i dotyku

Recommended Posts

David Julius i Ardem Patapoutian podzielili się Nagrodą Nobla z fizjologii lub medycyny. Obaj uczeni, pracując oddzielnie, odkryli w skórze receptory temperatury i dotyku, a ich praca daje nadzieję na stworzenie nowych środków przeciwbólowych. Obaj wykazali, w jaki sposób ludzki organizm zamienia impuls cieplny czy dotyk w sygnał elektryczny. Jak stwierdził przyznający nagrodę Instytut Karolinska, proces ten pozwala nam odbierać sygnały z zewnątrz i adaptować się do nich.

Przedstawiciele Instytutu wyrazili też nadzieję, że wiedza, jaką zyskaliśmy dzięki pracy obu laureatów, „pozwoli na opracowanie metod leczenia wielu chorób, w tym chronicznego bólu”.

Ardem Patapoutian urodził się w 1967 roku w Bejrucie, w Libanie. Jego rodzice pochodzą z Armenii. W młodości przeprowadził się do Los Angeles, a obecnie pracuje w Howard Hughes Medical Institute w La Jolla w Kalifornii. Jak się okazuje, o zdobyciu nagrody dowiedział się od swojego ojca, gdyż przyznający nagrodę nie mogli się w nim skontaktować. Patapoutian okrył mechanizm komórkowy oraz geny, które przekładają siłę działającą na skórę na sygnały elektryczne.

Z kolei David Julius to rodowity Amerykanin urodzony w Nowym Jorku w 1955 roku. Obecnie jest profesorem na Uniwersytecie Kalifornijskim w San Francisco (UCFS), na którym zresztą pracował w przeszłości Patapoutian. Profesor Julius dokonał swojego odkrycia, gdyż zainteresowało go wykorzystanie naturalnych produktów do odkrywania funkcji biologicznych. Postanowił więc wykorzystać kapsaicynę, związek chemiczny odpowiedzialny za piekący smak papryczki chili, do wywołania na skórze fałszywego uczucia gorąca, by w ten sposób zrozumieć, jak skóra odczuwa temperaturę. Również i jego badania mogą pomóc w zwalczaniu bólu. Uczony mówił zresztą o tym już w 2017 roku, gdy podczas jednego z wykładów stwierdził, że "wszystcy wiemy, że naprawdę brakuje nam leków i metod leczenia chronicznego bólu".

Badania Juliusa już zresztą znalazły praktyczne zastosowanie. Niemiecka firma Guenenthal GmbH produkuje plastry i kremy przeciwbólowe wykorzystujące receptor kapsaicyny TRPV1, który odkrył Julius. Przedstawiciele firmy przyznają, że prace uczonego otworzyły nowe pole badań nad nieopioidowymi środkami przeciwbólowymi.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Królewska Szwedzka Akademia Nauk ogłosiła, że tegoroczna Nagroda Nobla z fizyki została przyznana za wkład w zrozumienie złożonych systemów fizycznych. Połową nagrody podzielą się Syukuro Manabe i Klaus Hasselmann za fizyczne modelowanie klimatu Ziemi, obliczenie jego zmienności i wiarygodne przewidzenie procesu ocieplania się. Druga połowa trafi do Giorgio Parisiego za odkrycie współzależności nieuporządkowania i fluktuacji w systemach fizycznych, od skali atomowej po planetarną.
      Wszyscy trzej laureaci specjalizują się badaniu chaotycznych i pozornie przypadkowych wydarzeń. Manabe i Hasselmann położyli wielkie zasługi dla lepszego zrozumienia klimatu naszej planety i wpływu nań człowieka. Z kolei Parisi zrewolucjonizował naszą wiedzę o materiałach nieuporządkowanych i procesach losowych.
      Syukuro Manabe wykazał, w jaki sposób zwiększona koncentracja dwutlenku węgla w atmosferze prowadzi do zwiększenia temperatury na powierzchni Ziemi. Już w latach 60. ubiegłego wieku pracował nad rozwojem fizycznych modeli ziemskiego klimatu. Był pierwszym naukowcem, który badał związek pomiędzy bilansem radiacyjnym Ziemi a pionowym ruchem mas powietrza wywołanym konwekcją.
      Żeby poradzić sobie z tak skomplikowanym zadaniem obliczeniowym, stworzył uproszczony model, który opisywał pionową kolumnę powietrza o wysokości 40 kilometrów i za jego pomocą testował różny skład atmosfery. Po setkach godzin obliczeń i symulacji wykazał, że poziom tlenu i azotu mają pomijalny wpływ, a o temperaturze decyduje dwutlenek węgla. Uczony wykazał, że przy dwukrotnym wzroście stężenia CO2, temperatura na powierzchni rośnie o ponad 2 stopnie Celsjusza. Jego model potwierdził, że wzrost temperatury na powierzchni Ziemi rzeczywiście jest zależny od koncentracji CO2, gdyż przewidywał wzrost temperatury przy powierzchni i jednoczesne ochładzanie się wyższych partii atmosfery. Gdyby za wzrost temperatury odpowiadały zmiany w promieniowaniu słonecznym, to cała atmosfera powinna się ogrzewać w tym samym czasie.
      Swój uproszczony, dwuwymiarowy model, zapoczątkowany w latach 60., rozbudował, gdy wzrosły możliwości obliczeniowe komputerów i mógł do niego dodawać kolejne elementy. W roku 1975 Manabe przedstawił trójwymiarowy model klimatyczny. Był on kolejnym krokiem milowym ku lepszemu zrozumieniu klimatu. Prace Manabe stanowią fundament dla współczesnych modeli.
      Około 10 lat po przełomowych pracach Manabe Klaus Hasselmann stworzył model fizyczny, w którym połączył pogodę i klimat. Odpowiedział w ten sposób na niezwykle ważne pytanie, dlaczego modele klimatyczne mogą być wiarygodne, pomimo tego, że sama pogoda jest zmienna i chaotyczna. Hasselmann stworzył też metody pozwalające na zidentyfikowanie sygnałów, świadczących o wpływie na klimat zarówno procesów naturalnych, jak i działalności człowieka. To dzięki nim jesteśmy w stanie udowodnić, że zwiększone temperatury na powierzchni Ziemi są spowodowane antropogeniczną emisją dwutlenku węgla.
      W latach 50. Hasselmann był doktorantem fizyki w Hamburgu, gdzie zajmował się dynamiką płynów i rozwijał modele opisujące fale i prądy oceaniczne. Przeprowadził się do Kalifornii i nadal zajmował się oceanografią. Poznał tam m.in. słynnego Charlesa Keelinga, autora najdłuższej serii pomiarów stężenia CO2 w atmosferze. Jednak wówczas nie przypuszczał jeszcze, że w swoich badaniach będzie regularnie wykorzystywał krzywą Keelinga.
      Hasselmann wiedział, że stworzenie modelu klimatycznego z chaotycznych danych pogodowych będzie niezwykle trudne. A zadania nie ułatwia fakt, że zjawiska wpływające na klimat są niezwykle zmienne w czasie. Mogą być to zjawiska gwałtowne i szybko się zmieniające, jak siła wiatru i temperatura powietrza, ale również bardzo powolne, jak topnienie lodowców czy ogrzewanie się oceanów. Wystarczy wziąć pod uwagę fakt, że równomierne zwiększenie temperatury o 1 stopień Celsjusza może trwać w przypadku atmosfery kilka tygodni, ale w przypadku oceanów mogą minąć setki lat. Prawdziwym wyzwaniem było uwzględnienie tych szybkich chaotycznych zmian pogodowych w obliczeniach dotyczących klimatu i wykazaniu, w jaki sposób wpływają one na klimat. Hasselmann stworzył stochastyczny model klimatyczny, do którego zainspirowały go prace Einsteina nad ruchami Browna.
      A gdy już ukończył model zmienności klimatu i wpływu nań pogody, stworzył modele opisujące wpływ człowieka na cały system. Pozwalają one odróżnić np. wpływ zmian promieniowania słonecznego od wpływu gazów emitowanych przez wulkany, a te od wpływu gazów emitowanych przez człowieka.
      Około 1980 roku Giorgio Parisi, ostatni z tegorocznych laureatów, znalazł ukryte wzorce w nieuporządkowanych złożonych materiałach. To jedno z najważniejszych osiągnięć teorii złożonych systemów. Dzięki niemu jesteśmy w stanie lepiej rozumieć i badać wiele pozornie losowych zjawisk i nieuporządkowanych materiałów. Odkrycie to ma znaczenie nie tylko fizyce. Ma olbrzymie znaczenie dla matematyki, biologii, neurologii czy maszynowego uczenia się.
      Parisi rozpoczął swoje przełomowe prace od badań szkła spinowego. To materiał magnetyczny, który wykazuje lokalne uporządkowanie spinów, czyli momentów magnetycznych, ale nie posiadający wypadkowego momentu magnetycznego. Szkło spinowe to stop metalu, w którym mamy np. atomy żelaza są losowo rozmieszczone wśród atomów miedzi. Jednak mimo że w stopie znajduje się niewiele atomów żelaza, to radykalnie zmieniają one właściwości magnetyczne całego materiału. Zachowują się jak małe magnesy, na które wpływają sąsiadujące atomy. W standardowym magnesie wszystkie spiny mają ten sam kierunek.
      Jenak w szkle spinowym niektóre pary usiłują wskazywać w jednym kierunku, a inne w innym. Parisi chciał dowiedzieć się, jak wybierają one optymalną orientację. Problemem tym zajmowało się wielu wybitnych uczonych, w tym laureaci Nagrody Nobla. Jednym ze sposobów na znalezienie odpowiedzi było wykorzystanie tzw. replica trick, matematycznej metody, w której wiele kopii tego samego systemu było przetwarzanych jednocześnie. Jednak w fizyce się to nie sprawdzało.
      W 1979 roku Parisi dokonał przełomowego odkrycia na tym polu. Wykazał, że w kopiach istnieją ukryte struktury i opisał je matematycznie. Minęło wiele lat, zanim udowodniono, że rozwiązanie Parisiego jest prawidłowe. Od tamtej jednak pory jego metoda jest używana do badania systemów nieuporządkowanych.
      Syukuro Manabe urodził się w Japonii w 1931 roku. Jest pionierem w wykorzystaniu komputerów do symulowania klimatu. Pracę doktorską obronił na Uniwersytecie Tokijskim w 1958 roku, następnie wyjechał do USA, gdzie pracował w US Weather Bureau, NOAA (Narodowa Administracja Oceaniczna i Atmosferyczna) i Princeton University. Jest obecnie starszym meteorologiem na Princeton University. Jest również członkiem Akademii Nauk USA, zagranicznym członkiem Akademii Japońskiej, Academia Europaea i Royal Society of Canada, laureatem licznych nagród naukowych.
      Klaus Hasselmann, urodzony w Hamburgu w 1931 roku, to czołowy niemiecki oceanograf i specjalista od modelowania klimatu. Jest twórcą modelu zmienności klimatycznej nazwanego modelem Hasselmanna. Życie zawodowe związał głównie z Uniwersytetem w Hamburgu, pracował też na Uniwersytecie w Getyndzie i w Instytucie Dynamiki Cieczy im. Maxa Plancka. Był dyrektorem-założycielem Instytutu Meteorologii im. Maxa Plancka oraz dyrektorem naukowym w Niemieckim Centrum Obliczeń Klimatycznych. Obecnie zaś jest wiceprzewodniczącym Europejskiego forum Klimatycznego, które założył w 2001 roku wraz z prof. Carlo Jaegerem. Za swoją pracę naukową otrzymał m.in. nagrodę od Europejskiego Towarzystwa Geofizycznego i amerykańskich oraz brytyjskich towarzystw Meteorologicznych.
      Giorgio Parisi urodził się w 1948 roku. Jest fizykiem teoretycznym, a jego zainteresowania koncentrują się na mechanice statystycznej, kwantowej teorii pola i systemach złożonych. Pracował w Laboratori Nazionali di Frascati, na Columbia University, Institut des Hautes Études Scientifiques oraz École normale supérieure i Uniwersytecie Rzymskim Tor Vergata. Jest też prezydentem jednej z najstarszych i najbardziej prestiżowych europejskich instytucji naukowych Accademia dei Lincei oraz członkiem Francuskiej Akademii Nauk, amerykańskiej Akademii Nauk czy Amerykańskiego Towarzystwa Filozoficznego. Parisi to laureat wielu nagród w tym Nagrody Enrico Fermiego czy Medalu Maxa Plancka.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Narodowe Centrum Badań Jądrowych od wielu lat jest wiodącym producentem promieniotwórczego jodu, stosowanego w terapii i diagnostyce medycznej. Naukowcy z Zakładu Badań Reaktorowych nieustannie badają i optymalizują procesy tej produkcji. Najnowszy sposób napromieniania pozwoli na zwiększenie aktywności uzyskanego materiału, ograniczy ilość ciepła wydzielanego podczas produkcji i zmniejszy ilość odpadów promieniotwórczych.
      Jod-131 jest powszechnie stosowanym radioizotopem, który rozpada się poprzez emisję cząstki beta. Stosowany jest w leczeniu nadczynności tarczycy oraz jej niektórych nowotworów, które wykazują zdolność pochłaniania tego pierwiastka. Jod-131 jest stosowany również jako znacznik w radioterapii np. jako metajodobenzyloguanina -131I (131I-MIBG) w terapii guzów chromochłonnych i nerwiaka płodowego.
      Obecnie dwutlenek telluru używany jako materiał tarczowy przy produkcji jodu-131 jest najczęściej napromienianym materiałem w reaktorze MARIA – wyjaśnia inż. Anna Talarowska z Zakładu Badań Reaktorowych. Przed każdym cyklem pracy reaktora, do jego kanałów załadowywanych jest średnio około stu czterdziestu zasobników z TeO2. Rocznie napromienianych jest ponad 3000 zasobników w kanałach pionowych reaktora MARIA. Po przetworzeniu w naszym OR POLATOM jod w postaci radiofarmaceutyków lub roztworów radiochemicznych trafia do odbiorców na całym świecie. Modernizacja procesu napromieniania telluru pozwoli na bardziej wydajną produkcję.
      Jod–131 powstaje w wyniku przemiany β- niestabilnego izotopu 131mTe. Ten ostatni powstaje w wyniku wychwytu neutronu przez atom telluru–130. Warunki pozwalające na wychwyt neutronu przez 130Te panują w reaktorach badawczych takich jak reaktor MARIA. Rdzenie tych reaktorów są projektowane w taki sposób, aby możliwe było umieszczenie zasobników z materiałem tarczowym na określony, optymalny czas napromienienia. Do reaktora MARIA jako tarcza trafia tzw. tellur naturalny, czyli taki, jaki występuje naturalnie w przyrodzie – tłumaczy uczona. Składa się on z ośmiu stabilnych izotopów. Izotop 130Te stanowi jedynie ok. 34 % naturalnego telluru. Pozostałe stabilne izotopy telluru mają większy od 130Te przekrój czynny na wychwyt neutronów. Dzięki dużym wartościom przekrojów czynnych w tellurze znajdującym się w polu neutronów termicznych, a szczególnie epitermicznych, ma miejsce duża generacja ciepła, będącego rezultatem intensywnie zachodzących reakcji jądrowych. Dotyczy to szczególnie izotopu 123Te (stanowiącego 0,9 % naturalnego telluru), którego przekrój czynny na wychwyt neutronów to jest ponad 1000 razy większy, niż w przypadku 130Te. Oznacza to, że dużo łatwiej zachodzi reakcja neutronów z 123Te niż 130Te i jest to efekt niepożądany.
      Istotą proponowanej zmiany w sposobie produkcji jest napromieniowanie tarcz z naturalnym tellurem o wzbogaceniu w 130Te do 95% (zamiast dotychczasowych 33,8%). Dzięki czemu zmniejszy się liczba reakcji neutronów z innymi izotopami telluru, które stanowią nieużyteczną część końcowego produktu, a znaczącą podwyższy się wydajność napromieniania. Nowy sposób napromieniania tarcz pozwoli na uzyskanie większej aktywności 131I, przy jednoczesnym zmniejszeniu ilość odpadów produkcyjnych i bardziej efektywnym wykorzystaniu kanałów pionowych reaktora. Zwiększenie aktywności końcowego produktu, zmniejszenie ilości odpadów i optymalizacja wykorzystania kanałów, to krok ku wydajniejszej produkcji, a więc też szerszemu dostępowi tego radioizotopu. Cały czas analizujemy procesy napromieniania tak aby możliwie najlepiej zmaksymalizować ich efekty – podkreśla inż. Talarowska.
      Otrzymane wyniki dotychczasowych analiz pozwalają na wyciągnięcie dwóch zasadniczych wniosków: zastosowanie wzbogaconego telluru znacznie zwiększa wydajność produkcji oraz zmniejsza generację ciepła w zasobnikach. Obecnie trwają prace eksperymentalne, których wyniki pozwolą dokonać końcowej oceny. Z punktu widzenia reaktora MARIA niezbędne jest przygotowanie dokumentacji – m.in. instrukcji i procedur.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Każdy chromosom ludzkiego organizmu jest zakończony sekwencjami telomerowymi. Ponieważ skracają się one przy każdym podziale komórki, przyciągały od lat wyobraźnię badaczy. Stawiali oni sobie pytanie: co stanie się, kiedy telomery skrócą się tak bardzo, że podział będzie niemożliwy? W istocie, związek między skracaniem telomerów a maksymalną liczbą podziałów komórki (limitem Hayflicka) został potwierdzony. Istnieje zatem związek między długością telomerów a starzeniem się.
      Wiele chorób ma cechy przyspieszonego starzenia – dezorganizacji procesów, które normalnie utrzymują równowagę niezbędną dla funkcjonowania organizmu. Wobec tego można też postulować, że długość telomerów mogłaby okazać się przydatna w medycynie, służąc jako marker stanu zdrowia.
      Krótsze telomery leukocytarne to eksperymentalny biomarker ryzyka sercowo-naczyniowego [1], w znacznym stopniu niezależny od typowych czynników ryzyka ocenianych w wywiadzie i analizach biochemicznych. Może to być pośrednio związane z czynnikami dietetycznymi, jako że większa długość telomerów koreluje ze spożyciem warzyw i owoców [2], większą aktywnością fizyczną [3] i czystością powietrza [4]. Jednak liczba chorób, w których wykazano zmiany długości telomerów, jest obszerna.
      Większa długość telomerów w tkance raka piersi jest związana z lepszą prognozą niezależnie od szeregu innych czynników zazwyczaj branych przy takiej ocenie pod uwagę [5]. Wykazano również zależność między długością telomerów a ryzykiem raka żołądka, chorobą Alzheimera i cukrzycą [10]. Telomery są krótsze u palaczy, proporcjonalnie do liczby paczkolat, a efekt ten zdaje się w jakimś stopniu utrzymywać nawet po zaprzestaniu palenia [6]. Zaburzenia wzrastania wewnątrzmacicznego korelują ze skróceniem telomerów łożyska [7]. Wiadomo także, że kobiety mają dłuższe telomery niż mężczyźni [8]. Osoby z krótszymi telomerami zdają się reagować silniejszą produkcją kortyzolu na czynniki stresowe [9].
      Temat długości telomerów jest również aktywnie zgłębiany w Polsce. W Klinice Gastroenterologii Dziecięcej i Chorób Metabolicznych Uniwersytetu Medycznego w Poznaniu realizowany jest projekt Narodowego Centrum Nauki „Preludium” dotyczący długości telomerów w mukowiscydozie (2017/25/N/NZ5/02126). Mukowiscydoza jest najczęstszą poważną chorobą genetyczną w populacji osób białych.
      Polski program badań przesiewowych w kierunku mukowiscydozy należy do najlepszych na świecie (ok. 99% skuteczność). Dodatni wynik stwierdza się u ok. 1 na 5000 nowo urodzonych dzieci. Łącznie w Polsce na mukowiscydozę choruje ponad 2000 osób. Dzięki postępom w intensywnym leczeniu, jakie jest wymagane w tej chorobie, przeciętna długość życia polskich chorych wydłużyła się z ok. 20 lat dekadę temu do niemal 30 lat dziś. U znaczącej większości chorych można dokładnie poznać mutacje genu CFTR, którego mutacje są odpowiedzialne za chorobę. Niemniej, zależności między tymi mutacjami a przebiegiem choroby nie są ścisłe, co stanowi jedną z wielkich zagadek biomedycyny w ogóle. Z tego powodu potrzebne są dokładne narzędzia pozwalające charakteryzować chorych i przewidywać u nich przebieg choroby, a także uprzedzająco stosować odpowiednie interwencje.
      Prowadzone w Poznaniu badania mają na celu scharakteryzowanie długości telomerów oraz przebiegu klinicznego choroby w grupie dzieci i osób dorosłych z mukowiscydozą. Długość telomerów oznaczana jest metodą ilościowej reakcji polimerazy (qPCR), co wymaga znacznego stopnia precyzji. Publikacji wyników badań można spodziewać się w przyszłym roku. Tymczasem coraz wyraźniej widać, że telomery budzą szerokie zainteresowanie w środowisku naukowym i przyciągają uwagę jako potencjalne biomarkery. Ich wprowadzenie do praktyki będzie jednak wymagało licznych badań i weryfikacji przydatności w dużych grupach.
      Bibliografia
      1.     Haycock PC, Heydon EE, Kaptoge S, Butterworth AS, Thompson A, Willeit P. Leucocyte telomere length and risk of cardiovascular disease: systematic review and meta-analysis. BMJ. 8 lipiec 2014;349:g4227.

      2.     Rafie N, Golpour Hamedani S, Barak F, Safavi SM, Miraghajani M. Dietary patterns, food groups and telomere length: a systematic review of current studies. Eur J Clin Nutr. 2017;71(2):151–8.

      3.     Lin X, Zhou J, Dong B. Effect of different levels of exercise on telomere length: A systematic review and meta-analysis. J Rehabil Med. 8 lipiec 2019;51(7):473–8.

      4.     Miri M, Nazarzadeh M, Alahabadi A, Ehrampoush MH, Rad A, Lotfi MH, i in. Air pollution and telomere length in adults: A systematic review and meta-analysis of observational studies. Environ Pollut. styczeń 2019;244:636–47.

      5.     Ennour-Idrissi K, Maunsell E, Diorio C. Telomere Length and Breast Cancer Prognosis: A Systematic Review. Cancer Epidemiol Biomarkers Prev. 2017;26(1):3–10.

      6.     Astuti Y, Wardhana A, Watkins J, Wulaningsih W, PILAR Research Network. Cigarette smoking and telomere length: A systematic review of 84 studies and meta-analysis. Environ Res. 2017;158:480–9.

      7.     Niu Z, Li K, Xie C, Wen X. Adverse Birth Outcomes and Birth Telomere Length: A Systematic Review and Meta-Analysis. J Pediatr. 2019;215:64-74.e6.

      8.     Gardner M, Bann D, Wiley L, Cooper R, Hardy R, Nitsch D, i in. Gender and telomere length: systematic review and meta-analysis. Exp Gerontol. marzec 2014;51:15–27.

      9.     Jiang Y, Da W, Qiao S, Zhang Q, Li X, Ivey G, i in. Basal cortisol, cortisol reactivity, and telomere length: A systematic review and meta-analysis. Psychoneuroendocrinology. 2019;103:163–72.

      10.     Smith L, Luchini C, Demurtas J, Soysal P, Stubbs B, Hamer M, i in. Telomere length and health outcomes: An umbrella review of systematic reviews and meta-analyses of observational studies. Ageing Res Rev. 2019;51:1–10.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Autorzy badań opublikowanych na łamach PNAS ostrzegają, że nie można ufać technikom obrazowania medycznego rekonstruowanym za pomocą sztucznej inteligencji. Międzynarodowy zespół naukowy pracujący pod kierunkiem Andersa Hansena z Uniwersytetu w Cambridge stwierdził, że narzędzia do głębokiego uczenia się, które rekonstruują obrazy wysokiej jakości na podstawie szybkich skanów, tworzą liczne przekłamania i artefakty, które mogą wpływać na diagnozę.
      Jak niejednokrotnie informowaliśmy, systemy sztucznej inteligencji są już na tyle zaawansowane, że równie dobrze jak radiolodzy, a często i lepiej, potrafią opisywać zdjęcia RTG, obrazy tomografii komputerowej czy rezonansu magnetycznego. W związku z tym pojawił się pomysł, by SI zaprząc do rekonstrukcji obrazów.
      Pomysł polega na tym, by wykonywać obrazowanie o niższej rozdzielczości, czyli pobierać dane z mniejszej liczby punktów, a następnie, by wytrenowane systemy algorytmy sztucznej inteligencji rekonstruowały na tej postawie obraz o wysokiej rozdzielczości. W ten sposób można by zaoszczędzić czas i pieniądze potrzebny na wykonanie badania. Wykorzystywane tutaj algorytmy były trenowana na dużej bazie danych obrazów wysokiej jakości, co stanowi znaczne odejście od klasycznych technik rekonstrukcji bazujących na teoriach matematycznych.
      Okazuje się jednak, że takie systemy SI mają poważne problemy. Mogą one bowiem przegapić niewielkie zmiany strukturalne, takie jak małe guzy nowotworowe, podczas gdy niewielkie, niemal niewidoczne zakłócenia spowodowane np. poruszeniem się pacjenta, mogą zostać odtworzone jako poważne artefakty na obrazie wyjściowym.
      Zespół w skład którego weszli Vegard Antun z Uniwersytetu w Oslo, Francesco Renna z Uniwersytetu w Porto, Clarice Poon z Uniwersytetu w Bath, Ben Adcock z Simon Fraser University oraz wspomniany już Anders Hansen, przetestował sześć sieci neuronowych, wykorzystywanych do rekonstrukcji obrazów tomografii i rezonansu. Sieciom zaprezentowano dane odpowiadają trzem potencjalnym problemom, które mogą się pojawić: niewielkim zakłóceniom, niewielkim zmianom strukturalnym oraz zmianom w próbkowaniu w porównaniu z danymi, na których system był trenowany.
      Wykazaliśmy, że niewielkie zakłócenia, których nie widać gołym okiem, mogą nagle stać się poważnym artefaktem, który pojawia się na obrazie, albo coś zostaje przez nie usunięte. Dostajemy więc fałszywie pozytywne i fałszywie negatywne dane, wyjaśnia Hansen.
      Uczeni, chcą sprawdzić zdolność systemu do wykrycia niewielkich zmian, dodali do skanów niewielkie litery i symbole z kart do gry. Tylko jedna z sieci była w stanie je prawidłowo zrekonstruować. Pozostałe sieci albo pokazały w tym miejscu niewyraźny obraz, albo usunęły te dodatki.
      Okazało się też, że tylko jedna sieć neuronowa radziła sobie ze zwiększaniem tempa skanowania i tworzyła lepszej jakości obrazy niż wynikałoby to z otrzymanych przez nią danych wejściowych. Druga z sieci nie była w stanie poprawić jakości obrazów i pokazywała skany niskiej jakości, a trzy inne rekonstruowały obrazy w gorszej jakości niż otrzymały do obróbki. Ostatni z systemów nie pozwalał na zwiększenie szybkości skanowania.
      Hansen stwierdza też, że badacze muszą zacząć testować stabilność takich systemów. Wówczas przekonają się, że wiele takich systemów jest niestabilnych. Jednak największym problemem jest fakt, że nie potrafimy w sposób matematyczny zrozumieć, jak działają tego typu systemy. Są one dla nas tajemnicą. Jeśli ich porządnie nie przetestujemy, możemy otrzymać katastrofalnie złe wyniki.
      Na szczęście takie systemy nie są jeszcze wykorzystywane w praktyce klinicznej. Zespół Hansena stworzył odpowiednie testy do ich sprawdzenia. Uczeni mówią, że nie chcą, by takie systemy zostały dopuszczone do użycia jeśli nie przejdą szczegółowych testów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Czarna żółć (gr. μελαινα χολή) to najbardziej tajemniczy humor w koncepcji zdrowia i choroby stworzonej przez Hippokratesa (V/IV w. p.n.e.), która, po rozwinięciu przez Klaudiusza Galena (II w. n.e.) i średniowiecznych, arabskich uczonych, pozostawała aktualna w dyskursie medycznym do końca XVIII w. Przez większość tego czasu zajmowała wiodące miejsce w wyobrażeniach na temat stanów patologicznych ludzkiego organizmu.
      Powyższe pojmowanie istoty chorób miało znaczący wpływ na rodzaj podejmowanych terapii i stosowanych leków. Powiązana z tym typologia temperamentów wprowadziła do obiegu obraz melancholii – choroby cechującej się długotrwałym smutkiem i pojęcie melancholika – osoby, która niejako z przyrodzenia, ze względu na przewagę czarnej żółci w organizmie, wykazuje tendencje do częstego i nadmiernego smutku. Połączenie koncepcji humoralnej z astrologią przyporządkowało melancholię wpływom Saturna. Zaowocowało to licznymi nawiązaniami w sztuce, czego przykładem jest choćby, powszechnie znany, miedzioryt Melancholia I z 1514 r., autorstwa Albrechta Dürera.
      Jatroastrologia nie wytrzymała próby czasu. Została poddana krytyce przez naukę doby oświecenia. W tym samym okresie, wskutek rozwoju medycyny klinicznej, zrezygnowano z koncepcji humoralnej. Oba wątki przetrwały jednak poza medycyną.
      Obecnie większość ludzi zna swój znak zodiaku oraz temperament, nierzadko tłumacząc w ten sposób swoje samopoczucie i postępowanie. Trafność humoralnej koncepcji temperamentów sprawia, że posługuje się nią współczesna psychologia. Co za tym idzie melancholia i melancholicy stanowią nadal element składowy otaczającego nas świata. W świetle dzisiejszych standardów psychologii i psychiatrii, dawny termin „melancholia” został utożsamiony z pojęciem depresji, która jest obecnie groźną chorobą cywilizacyjną.
      Czy można jednak postawić między nimi znak równości? Kwestia ta pozostaje nadal otwarta. Polski psychiatra i humanista, profesor Antoni Kępiński (1918-1972) postulował, by wrócić do stosowania dawnego terminu „melancholia”, który jego zdaniem, lepiej oddaje stan człowieka pogrążonego w długotrwałym i odbierającym chęć życia smutku. Obszerny i wielopłaszczyznowy temat melancholii pozostaje zagadnieniem niewyczerpanym przez naukę. Jego złożoność wymaga interdyscyplinarnego podejścia. Celem konferencji jest więc próba przedstawienia aktualnych badań prowadzonych w następujących obszarach badawczych:
      • Melancholia/depresja i melancholicy. Stan duszy i ciała.
      • Wpływ Saturna. Znaki zodiaku. Melancholia w astrologii.
      • Melancholia/depresja w kulturze (i popkulturze).
      • Motyw melancholii/depresji w sztuce i literaturze.
      • Melancholia i melancholicy w dawnym dyskursie medycznym.
      • Leczenie depresji we współczesnej psychiatrii i psychologii.
      • Społeczne i cywilizacyjne aspekty depresji.
      Na konferencję, która odbędzie się w Bydgoszczy w dniach 23–24 kwietnia 2020 r., zapraszają Zakład Historii Medycyny i Pielęgniarstwa, Studenckie Koło Naukowe Historii Medycyny i Farmacji Collegium Medicum im. Ludwika Rydygiera w Bydgoszczy
      Uniwersytetu Mikołaja Kopernika, Studenckie Koło Historyków Uniwersytetu Kazimierza Wielkiego, Fundacja Naukowa Bydgoska Szkoła Historii Nauk Medycznych oraz Bydgoskie Towarzystwo Naukowe.
      Organizatorzy są też otwarci na referaty wykraczające poza opisane obszary badawcze, związane z tematem konferencji. Nie ograniczają zasięgu geograficznego, ani zakresu chronologicznego podejmowanych zagadnień. Do udziału w konferencji zapraszają wszystkich badaczy zainteresowanych jej tematyką, zaś w szczególności studentów i doktorantów oraz młodych (nawet tylko duchem) pracowników naukowych, reprezentujących kierunki związane z: medycyną, farmacją, psychologią, a także historią, historią sztuki, literaturoznawstwem, religioznawstwem, etnologią, antropologią kultury itp.
      Czas na wygłoszenie referatu wynosił będzie 20 minut.
      Zgłoszenia należy wysyłać, nie później niż do 25.03.2020 r., na adres: melancholia.depresja@wp.pl . Abstrakt powinien zawierać od 1000 do 1500 znaków ze spacjami.
      Organizatorzy zastrzegają sobie prawo do selekcji nadesłanych abstraktów. Lista osób zakwalifikowanych zostanie podana najpóźniej 1.04.2020 r.. Opłata konferencyjna wynosi 350 zł dla pracowników naukowych, 300 zł dla uczestników studiów doktoranckich oraz 200 zł dla studentów. Opłata obejmuje materiały konferencyjne, przerwy kawowe oraz opublikowanie wygłoszonego referatów w recenzowanej pracy zbiorowej. Do druku będą skierowane tylko te prace, które uzyskają pozytywną opinię recenzentów i redaktorów.
      Koszty noclegu oraz wyżywienia pozostają we własnym zakresie uczestników. Organizatorzy konferencji mogą pomóc w znalezieniu zakwaterowania.Wszelkie pytania prosimy kierować na adres mailowy melancholia.depresja@wp.pl.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...