Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' medycyna' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 12 wyników

  1. W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%. Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście. Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia. Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School. Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga. Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT. « powrót do artykułu
  2. Niewielkie roboty, które pędzą przez płyn z niewiarygodna prędkością, mogą pewnego dnia posłużyć do naprawy ludzkiego ciała od wewnątrz. Wyobraźmy sobie roboty, które będą mogły przeprowadzać zabiegi chirurgiczne. Zamiast kroić pacjenta, będziemy mogli podać mu roboty w formie pigułki lub zastrzyku, a one przeprowadzą zabieg, mówi doktor Jin Lee z Wydziału Inżynierii Biologicznej i Chemicznej University of Colorado w Boulder. Taka wizja to obecnie odległa przyszłość, ale same roboty już powstały. Lee i jego zespół stworzyli urządzenia o średnicy 20 mikrometrów. To około 3-krotnie mniej niż średnica ludzkiego włosa. Roboty poruszają się w płynie w prędkością 3 mm/s zatem w ciągu minuty przebywają odległość 9000 razy większą niż ich własna długość. Przeciętny samochód osobowy, żeby poszczycić się takim osiągami, musiałby poruszać się z prędkością ok. 2400 km/h. Jednak zalety mikrorobotów nie ograniczają się do szybkiego przemieszczania się. Podczas eksperymentów naukowcy wykorzystali je do dostarczenia deksametazonu do pęcherza myszy. To wskazuje, że można by je wykorzystać do leczenia chorób pęcherza i innych schorzeń u ludzi. Mikroroboty zostały wykonane z biokompatybilnych polimerów metodą podobną do druku 3D. Przypominają niewielką rakietę z przyczepionymi trzema łopatami. W każdym z nich uwięziono pęcherzyk powietrza. Gdy taki robot zostanie wystawiony na działanie fal akustycznych – w eksperymentach wykorzystano ultradźwięki – pęcherzyk zaczyna wibrować, odpycha płyn i robot się porusza. Naukowcy postanowili przetestować swoje urządzenie na mysim modelu śródmiąższowego zapalenia pęcherza moczowego. To bolesna choroba powodująca silny ból w miednicy. Jej leczenie jest niekomfortowe. Pacjenci muszą zgłaszać się do lekarza, gdzie za pośrednictwem cewnika do pęcherza wprowadzany jest deksametazon. Naukowcy stworzyli mikroroboty zawierające ten lek, a następnie wprowadzili urządzenia do pęcherza myszy. Roboty rozprzestrzeniły się po organizmie, a następnie przylgnęły do ścian pęcherza, gdzie przez dwa dni powoli uwalniały środek leczniczy. Dzięki temu można było w dłuższym czasie podczas więcej lekarstwa, poprawiając stan pacjenta. Twórcy robotów zastrzegają, że zanim trafią one do ludzkiego organizmu, muszą zostać jeszcze udoskonalone. Pierwszym celem jest uczynienie urządzeń w pełni biodegradowalnymi, by całkowicie rozpuszczały się w organizmie po zrealizowaniu zadania. « powrót do artykułu
  3. Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine. Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego. W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie. Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników. Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang. Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej. « powrót do artykułu
  4. Tegoroczna Nagroda Nobla w dziedzinie fizjologii lub medycyny została przyznana Svante Pääbo za odkrycia dotyczące ludzkiej ewolucji oraz genomu wymarłych homininów. Pääbo jest szwedzkim genetykiem, specjalistą od genetyki ewolucyjnej i jednym z najwybitniejszych żyjących badaczy ewolucji człowieka. Zsekwencjonował DNA neandertalczyka, w 2010 roku ogłosił odkrycie nieznanego wcześniej gatunku człowieka, denisowianina. Dzięki swoim pionierskim badaniom Svante Pääbo dokonał czegoś, co wydawało się niemożliwe: zsekwencjonował genom neandertalczyka, wymarłego krewniaka człowieka współczesnego. Dokonał też sensacyjnego odkrycia nieznanego wcześniej hominina, denisowianina. Pääbo zauważył też, że już po wyjściu człowieka z Afryki, przed około 70 000 laty doszło do wymiany genów pomiędzy tymi obecnie wymarłymi homininami, a H. sapiens. Ten przepływ genów do człowieka współczesnego do dzisiaj wywiera na nas wpły, ma na przykład znaczenie dla reakcji naszego układu odpornościowego na infekcje, czytamy w uzasadnieniu Komitetu Noblowskiego. Komitet podkreślił, że nowatorskie badania prowadzone przez Szweda doprowadziły do powstania nowej gałęzi nauki – paleogenomiki. O pracy wybitnego uczonego niejednokrotnie informowaliśmy na łamach KopalniWiedzy. Już na początku swojej kariery naukowej Pääbo zastanawiał się nad możliwością wykorzystania nowoczesnych metod genetyki do badania genomu neandertalczyków. Szybko jednak zdał sobie sprawę z tego, że po tysiącach lat pozostaje niewiele materiału genetycznego, a ten, który uda się uzyskać, jest silnie zanieczyszczony przez bakterie i współczesnych ludzi. Pääbo, będąc studentem Allana Wilsona, pioniera biologii ewolucyjnej, zaczął pracować nad metodami badania DNA neandertalczyków. Gdy w 1990 roku został zatrudniony na Uniwersytecie w Monachium, kontynuował swoje zainteresowania. Rozpoczął od prób analizy mitochondrialnego DNA (mtDNA). mtDNA jest bardzo małe i zawiera niewielką część informacji genetycznej, ale występuje w olbrzymiej liczbie kopii, co zwiększało szanse na sukces. W końcu w 1997 roku mógł ogłosić sukces. Z liczącego 40 000 lat kawałka kości udało się uzyskać mtDNA. Tym samym po raz pierwszy w historii dysponowaliśmy genomem naszego wymarłego krewniaka. Porównanie z genomem H. sapiens i szympansem pokazało, że H. neanderthalensis był genetycznie odmiennym gatunkiem. Uczony nie spoczął jednak na laurach. Z czasem przyjął propozycję stworzenia Instytutu Antropologii Ewolucyjnej im. Maxa Plancka w Lipsku. W 2009 roku zaprezentował pierwszą, składającą się z ponad 3 miliardów par zasad, sekwencję DNA neandertalczyka. Dzięki temu dowiedzieliśmy się, że ostatni przodek H. neanderthalensis i H. sapiens żył około 800 000 lat temu. Uczony rozpoczął projekt, w ramach którego porównywał związki łączące neandertalczyków i ludzi współczesnych żyjących w różnych częściach świata. Okazało się, że sekwencje genetyczne neandertalczyków są bardziej podobne do ludzi żyjących obecnie na terenie Europy i Azji niż do mieszkańców Afryki, a to wskazywało na krzyżowanie się obu gatunków. W 2010 roku naukowiec dokonał kolejnego znaczącego odkrycia. Badania nad fragmentem kości znalezionym w Denisowej Jaskini na Syberii, przyniosły kolejną sensację. Okazało się, że kość należała do nieznanego wcześniej gatunku człowieka. Tegoroczny noblista zaczął zgłębiać temat i stwierdził, że pomiędzy H. sapiens a denisowianami również dochodziło do przepływu genów. Związki pomiędzy oboma naszymi gatunkami najwyraźniej widoczne są w Azji Południowo-Wschodniej. Nawet 6% genomu tamtejszych ludzi to dziedzictwo denisowian. Odkrycia Pääbo pozwoliły nam na nowo zrozumieć naszą ewolucję. Gdy H. sapiens opuścił Afrykę, w Eurazji istniały co najmniej dwie wymarłe obecnie populacje homininów. Neandertalczycy mieszkali w zachodniej Eurazji, a denisowianie zajmowali wschodnią część kontynentu. Podczas migracji z Afryki H. sapiens nie tylko napotkał i krzyżował się z neandertalczykami, ale również z denisowianami, piszą przedstawiciele Komitetu Noblowskiego. Paleogenomika, która powstała dzięki badaniom Svante Pääbo, pomaga nam lepiej zrozumieć naszą własną historię. Dowiedzieliśmy się, że krzyżowanie się z wymarłymi gatunkami człowieka wciąż wpływa na fizjologię współczesnych ludzi. Odziedziczona pod denisowianach wersja genu EPAS1 pozwoliła H. sapiens przetrwać na wysoko położonych terenach i zasiedlić Tybet, a neandertalskie geny wpływają na pracę naszego układu odpornościowego. Dzięki Pääbo mamy szansę dowiedzieć się, dlaczego nasz gatunek odniósł sukces ewolucyjny. Neandertalczycy również żyli w grupach, mieli duże mózgi, używali narzędzi, jednak ich kultura i technologia rozwijały się bardzo powoli. Przed odkryciami dokonanymi przez Svante Pääbo nie znaliśmy różnic genetycznych pomiędzy nimi a nami. Svante Pääbo urodził się w 1955 roku w Sztokholmie. Jego matką jest estońska chemik Karin Pääbo , a ojcem biochemik Sune Bergström, który w 1982 roku otrzymał Nagrodę Nobla w fizjologii lub medycynie. W 1986 roku Svante obronił doktorat na Uniwersytecie w Uppsali. Otrzymał go za badania nad wpływem proteiny E19 adenowirusów na układ odpornościowy. W 2007 roku magazyn Time uznał go za jednego ze 100 najbardziej wpływowych ludzi na świecie. Jest laureatem licznych nagród. W 2014 roku napisał książkę „Neandertalczyk. W poszukiwaniu zaginionych genomów”. « powrót do artykułu
  5. David Julius i Ardem Patapoutian podzielili się Nagrodą Nobla z fizjologii lub medycyny. Obaj uczeni, pracując oddzielnie, odkryli w skórze receptory temperatury i dotyku, a ich praca daje nadzieję na stworzenie nowych środków przeciwbólowych. Obaj wykazali, w jaki sposób ludzki organizm zamienia impuls cieplny czy dotyk w sygnał elektryczny. Jak stwierdził przyznający nagrodę Instytut Karolinska, proces ten pozwala nam odbierać sygnały z zewnątrz i adaptować się do nich. Przedstawiciele Instytutu wyrazili też nadzieję, że wiedza, jaką zyskaliśmy dzięki pracy obu laureatów, „pozwoli na opracowanie metod leczenia wielu chorób, w tym chronicznego bólu”. Ardem Patapoutian urodził się w 1967 roku w Bejrucie, w Libanie. Jego rodzice pochodzą z Armenii. W młodości przeprowadził się do Los Angeles, a obecnie pracuje w Howard Hughes Medical Institute w La Jolla w Kalifornii. Jak się okazuje, o zdobyciu nagrody dowiedział się od swojego ojca, gdyż przyznający nagrodę nie mogli się w nim skontaktować. Patapoutian okrył mechanizm komórkowy oraz geny, które przekładają siłę działającą na skórę na sygnały elektryczne. Z kolei David Julius to rodowity Amerykanin urodzony w Nowym Jorku w 1955 roku. Obecnie jest profesorem na Uniwersytecie Kalifornijskim w San Francisco (UCFS), na którym zresztą pracował w przeszłości Patapoutian. Profesor Julius dokonał swojego odkrycia, gdyż zainteresowało go wykorzystanie naturalnych produktów do odkrywania funkcji biologicznych. Postanowił więc wykorzystać kapsaicynę, związek chemiczny odpowiedzialny za piekący smak papryczki chili, do wywołania na skórze fałszywego uczucia gorąca, by w ten sposób zrozumieć, jak skóra odczuwa temperaturę. Również i jego badania mogą pomóc w zwalczaniu bólu. Uczony mówił zresztą o tym już w 2017 roku, gdy podczas jednego z wykładów stwierdził, że "wszystcy wiemy, że naprawdę brakuje nam leków i metod leczenia chronicznego bólu". Badania Juliusa już zresztą znalazły praktyczne zastosowanie. Niemiecka firma Guenenthal GmbH produkuje plastry i kremy przeciwbólowe wykorzystujące receptor kapsaicyny TRPV1, który odkrył Julius. Przedstawiciele firmy przyznają, że prace uczonego otworzyły nowe pole badań nad nieopioidowymi środkami przeciwbólowymi. « powrót do artykułu
  6. Narodowe Centrum Badań Jądrowych od wielu lat jest wiodącym producentem promieniotwórczego jodu, stosowanego w terapii i diagnostyce medycznej. Naukowcy z Zakładu Badań Reaktorowych nieustannie badają i optymalizują procesy tej produkcji. Najnowszy sposób napromieniania pozwoli na zwiększenie aktywności uzyskanego materiału, ograniczy ilość ciepła wydzielanego podczas produkcji i zmniejszy ilość odpadów promieniotwórczych. Jod-131 jest powszechnie stosowanym radioizotopem, który rozpada się poprzez emisję cząstki beta. Stosowany jest w leczeniu nadczynności tarczycy oraz jej niektórych nowotworów, które wykazują zdolność pochłaniania tego pierwiastka. Jod-131 jest stosowany również jako znacznik w radioterapii np. jako metajodobenzyloguanina -131I (131I-MIBG) w terapii guzów chromochłonnych i nerwiaka płodowego. Obecnie dwutlenek telluru używany jako materiał tarczowy przy produkcji jodu-131 jest najczęściej napromienianym materiałem w reaktorze MARIA – wyjaśnia inż. Anna Talarowska z Zakładu Badań Reaktorowych. Przed każdym cyklem pracy reaktora, do jego kanałów załadowywanych jest średnio około stu czterdziestu zasobników z TeO2. Rocznie napromienianych jest ponad 3000 zasobników w kanałach pionowych reaktora MARIA. Po przetworzeniu w naszym OR POLATOM jod w postaci radiofarmaceutyków lub roztworów radiochemicznych trafia do odbiorców na całym świecie. Modernizacja procesu napromieniania telluru pozwoli na bardziej wydajną produkcję. Jod–131 powstaje w wyniku przemiany β- niestabilnego izotopu 131mTe. Ten ostatni powstaje w wyniku wychwytu neutronu przez atom telluru–130. Warunki pozwalające na wychwyt neutronu przez 130Te panują w reaktorach badawczych takich jak reaktor MARIA. Rdzenie tych reaktorów są projektowane w taki sposób, aby możliwe było umieszczenie zasobników z materiałem tarczowym na określony, optymalny czas napromienienia. Do reaktora MARIA jako tarcza trafia tzw. tellur naturalny, czyli taki, jaki występuje naturalnie w przyrodzie – tłumaczy uczona. Składa się on z ośmiu stabilnych izotopów. Izotop 130Te stanowi jedynie ok. 34 % naturalnego telluru. Pozostałe stabilne izotopy telluru mają większy od 130Te przekrój czynny na wychwyt neutronów. Dzięki dużym wartościom przekrojów czynnych w tellurze znajdującym się w polu neutronów termicznych, a szczególnie epitermicznych, ma miejsce duża generacja ciepła, będącego rezultatem intensywnie zachodzących reakcji jądrowych. Dotyczy to szczególnie izotopu 123Te (stanowiącego 0,9 % naturalnego telluru), którego przekrój czynny na wychwyt neutronów to jest ponad 1000 razy większy, niż w przypadku 130Te. Oznacza to, że dużo łatwiej zachodzi reakcja neutronów z 123Te niż 130Te i jest to efekt niepożądany. Istotą proponowanej zmiany w sposobie produkcji jest napromieniowanie tarcz z naturalnym tellurem o wzbogaceniu w 130Te do 95% (zamiast dotychczasowych 33,8%). Dzięki czemu zmniejszy się liczba reakcji neutronów z innymi izotopami telluru, które stanowią nieużyteczną część końcowego produktu, a znaczącą podwyższy się wydajność napromieniania. Nowy sposób napromieniania tarcz pozwoli na uzyskanie większej aktywności 131I, przy jednoczesnym zmniejszeniu ilość odpadów produkcyjnych i bardziej efektywnym wykorzystaniu kanałów pionowych reaktora. Zwiększenie aktywności końcowego produktu, zmniejszenie ilości odpadów i optymalizacja wykorzystania kanałów, to krok ku wydajniejszej produkcji, a więc też szerszemu dostępowi tego radioizotopu. Cały czas analizujemy procesy napromieniania tak aby możliwie najlepiej zmaksymalizować ich efekty – podkreśla inż. Talarowska. Otrzymane wyniki dotychczasowych analiz pozwalają na wyciągnięcie dwóch zasadniczych wniosków: zastosowanie wzbogaconego telluru znacznie zwiększa wydajność produkcji oraz zmniejsza generację ciepła w zasobnikach. Obecnie trwają prace eksperymentalne, których wyniki pozwolą dokonać końcowej oceny. Z punktu widzenia reaktora MARIA niezbędne jest przygotowanie dokumentacji – m.in. instrukcji i procedur. « powrót do artykułu
  7. Każdy chromosom ludzkiego organizmu jest zakończony sekwencjami telomerowymi. Ponieważ skracają się one przy każdym podziale komórki, przyciągały od lat wyobraźnię badaczy. Stawiali oni sobie pytanie: co stanie się, kiedy telomery skrócą się tak bardzo, że podział będzie niemożliwy? W istocie, związek między skracaniem telomerów a maksymalną liczbą podziałów komórki (limitem Hayflicka) został potwierdzony. Istnieje zatem związek między długością telomerów a starzeniem się. Wiele chorób ma cechy przyspieszonego starzenia – dezorganizacji procesów, które normalnie utrzymują równowagę niezbędną dla funkcjonowania organizmu. Wobec tego można też postulować, że długość telomerów mogłaby okazać się przydatna w medycynie, służąc jako marker stanu zdrowia. Krótsze telomery leukocytarne to eksperymentalny biomarker ryzyka sercowo-naczyniowego [1], w znacznym stopniu niezależny od typowych czynników ryzyka ocenianych w wywiadzie i analizach biochemicznych. Może to być pośrednio związane z czynnikami dietetycznymi, jako że większa długość telomerów koreluje ze spożyciem warzyw i owoców [2], większą aktywnością fizyczną [3] i czystością powietrza [4]. Jednak liczba chorób, w których wykazano zmiany długości telomerów, jest obszerna. Większa długość telomerów w tkance raka piersi jest związana z lepszą prognozą niezależnie od szeregu innych czynników zazwyczaj branych przy takiej ocenie pod uwagę [5]. Wykazano również zależność między długością telomerów a ryzykiem raka żołądka, chorobą Alzheimera i cukrzycą [10]. Telomery są krótsze u palaczy, proporcjonalnie do liczby paczkolat, a efekt ten zdaje się w jakimś stopniu utrzymywać nawet po zaprzestaniu palenia [6]. Zaburzenia wzrastania wewnątrzmacicznego korelują ze skróceniem telomerów łożyska [7]. Wiadomo także, że kobiety mają dłuższe telomery niż mężczyźni [8]. Osoby z krótszymi telomerami zdają się reagować silniejszą produkcją kortyzolu na czynniki stresowe [9]. Temat długości telomerów jest również aktywnie zgłębiany w Polsce. W Klinice Gastroenterologii Dziecięcej i Chorób Metabolicznych Uniwersytetu Medycznego w Poznaniu realizowany jest projekt Narodowego Centrum Nauki „Preludium” dotyczący długości telomerów w mukowiscydozie (2017/25/N/NZ5/02126). Mukowiscydoza jest najczęstszą poważną chorobą genetyczną w populacji osób białych. Polski program badań przesiewowych w kierunku mukowiscydozy należy do najlepszych na świecie (ok. 99% skuteczność). Dodatni wynik stwierdza się u ok. 1 na 5000 nowo urodzonych dzieci. Łącznie w Polsce na mukowiscydozę choruje ponad 2000 osób. Dzięki postępom w intensywnym leczeniu, jakie jest wymagane w tej chorobie, przeciętna długość życia polskich chorych wydłużyła się z ok. 20 lat dekadę temu do niemal 30 lat dziś. U znaczącej większości chorych można dokładnie poznać mutacje genu CFTR, którego mutacje są odpowiedzialne za chorobę. Niemniej, zależności między tymi mutacjami a przebiegiem choroby nie są ścisłe, co stanowi jedną z wielkich zagadek biomedycyny w ogóle. Z tego powodu potrzebne są dokładne narzędzia pozwalające charakteryzować chorych i przewidywać u nich przebieg choroby, a także uprzedzająco stosować odpowiednie interwencje. Prowadzone w Poznaniu badania mają na celu scharakteryzowanie długości telomerów oraz przebiegu klinicznego choroby w grupie dzieci i osób dorosłych z mukowiscydozą. Długość telomerów oznaczana jest metodą ilościowej reakcji polimerazy (qPCR), co wymaga znacznego stopnia precyzji. Publikacji wyników badań można spodziewać się w przyszłym roku. Tymczasem coraz wyraźniej widać, że telomery budzą szerokie zainteresowanie w środowisku naukowym i przyciągają uwagę jako potencjalne biomarkery. Ich wprowadzenie do praktyki będzie jednak wymagało licznych badań i weryfikacji przydatności w dużych grupach. Bibliografia 1.     Haycock PC, Heydon EE, Kaptoge S, Butterworth AS, Thompson A, Willeit P. Leucocyte telomere length and risk of cardiovascular disease: systematic review and meta-analysis. BMJ. 8 lipiec 2014;349:g4227. 2.     Rafie N, Golpour Hamedani S, Barak F, Safavi SM, Miraghajani M. Dietary patterns, food groups and telomere length: a systematic review of current studies. Eur J Clin Nutr. 2017;71(2):151–8. 3.     Lin X, Zhou J, Dong B. Effect of different levels of exercise on telomere length: A systematic review and meta-analysis. J Rehabil Med. 8 lipiec 2019;51(7):473–8. 4.     Miri M, Nazarzadeh M, Alahabadi A, Ehrampoush MH, Rad A, Lotfi MH, i in. Air pollution and telomere length in adults: A systematic review and meta-analysis of observational studies. Environ Pollut. styczeń 2019;244:636–47. 5.     Ennour-Idrissi K, Maunsell E, Diorio C. Telomere Length and Breast Cancer Prognosis: A Systematic Review. Cancer Epidemiol Biomarkers Prev. 2017;26(1):3–10. 6.     Astuti Y, Wardhana A, Watkins J, Wulaningsih W, PILAR Research Network. Cigarette smoking and telomere length: A systematic review of 84 studies and meta-analysis. Environ Res. 2017;158:480–9. 7.     Niu Z, Li K, Xie C, Wen X. Adverse Birth Outcomes and Birth Telomere Length: A Systematic Review and Meta-Analysis. J Pediatr. 2019;215:64-74.e6. 8.     Gardner M, Bann D, Wiley L, Cooper R, Hardy R, Nitsch D, i in. Gender and telomere length: systematic review and meta-analysis. Exp Gerontol. marzec 2014;51:15–27. 9.     Jiang Y, Da W, Qiao S, Zhang Q, Li X, Ivey G, i in. Basal cortisol, cortisol reactivity, and telomere length: A systematic review and meta-analysis. Psychoneuroendocrinology. 2019;103:163–72. 10.     Smith L, Luchini C, Demurtas J, Soysal P, Stubbs B, Hamer M, i in. Telomere length and health outcomes: An umbrella review of systematic reviews and meta-analyses of observational studies. Ageing Res Rev. 2019;51:1–10. « powrót do artykułu
  8. Autorzy badań opublikowanych na łamach PNAS ostrzegają, że nie można ufać technikom obrazowania medycznego rekonstruowanym za pomocą sztucznej inteligencji. Międzynarodowy zespół naukowy pracujący pod kierunkiem Andersa Hansena z Uniwersytetu w Cambridge stwierdził, że narzędzia do głębokiego uczenia się, które rekonstruują obrazy wysokiej jakości na podstawie szybkich skanów, tworzą liczne przekłamania i artefakty, które mogą wpływać na diagnozę. Jak niejednokrotnie informowaliśmy, systemy sztucznej inteligencji są już na tyle zaawansowane, że równie dobrze jak radiolodzy, a często i lepiej, potrafią opisywać zdjęcia RTG, obrazy tomografii komputerowej czy rezonansu magnetycznego. W związku z tym pojawił się pomysł, by SI zaprząc do rekonstrukcji obrazów. Pomysł polega na tym, by wykonywać obrazowanie o niższej rozdzielczości, czyli pobierać dane z mniejszej liczby punktów, a następnie, by wytrenowane systemy algorytmy sztucznej inteligencji rekonstruowały na tej postawie obraz o wysokiej rozdzielczości. W ten sposób można by zaoszczędzić czas i pieniądze potrzebny na wykonanie badania. Wykorzystywane tutaj algorytmy były trenowana na dużej bazie danych obrazów wysokiej jakości, co stanowi znaczne odejście od klasycznych technik rekonstrukcji bazujących na teoriach matematycznych. Okazuje się jednak, że takie systemy SI mają poważne problemy. Mogą one bowiem przegapić niewielkie zmiany strukturalne, takie jak małe guzy nowotworowe, podczas gdy niewielkie, niemal niewidoczne zakłócenia spowodowane np. poruszeniem się pacjenta, mogą zostać odtworzone jako poważne artefakty na obrazie wyjściowym. Zespół w skład którego weszli Vegard Antun z Uniwersytetu w Oslo, Francesco Renna z Uniwersytetu w Porto, Clarice Poon z Uniwersytetu w Bath, Ben Adcock z Simon Fraser University oraz wspomniany już Anders Hansen, przetestował sześć sieci neuronowych, wykorzystywanych do rekonstrukcji obrazów tomografii i rezonansu. Sieciom zaprezentowano dane odpowiadają trzem potencjalnym problemom, które mogą się pojawić: niewielkim zakłóceniom, niewielkim zmianom strukturalnym oraz zmianom w próbkowaniu w porównaniu z danymi, na których system był trenowany. Wykazaliśmy, że niewielkie zakłócenia, których nie widać gołym okiem, mogą nagle stać się poważnym artefaktem, który pojawia się na obrazie, albo coś zostaje przez nie usunięte. Dostajemy więc fałszywie pozytywne i fałszywie negatywne dane, wyjaśnia Hansen. Uczeni, chcą sprawdzić zdolność systemu do wykrycia niewielkich zmian, dodali do skanów niewielkie litery i symbole z kart do gry. Tylko jedna z sieci była w stanie je prawidłowo zrekonstruować. Pozostałe sieci albo pokazały w tym miejscu niewyraźny obraz, albo usunęły te dodatki. Okazało się też, że tylko jedna sieć neuronowa radziła sobie ze zwiększaniem tempa skanowania i tworzyła lepszej jakości obrazy niż wynikałoby to z otrzymanych przez nią danych wejściowych. Druga z sieci nie była w stanie poprawić jakości obrazów i pokazywała skany niskiej jakości, a trzy inne rekonstruowały obrazy w gorszej jakości niż otrzymały do obróbki. Ostatni z systemów nie pozwalał na zwiększenie szybkości skanowania. Hansen stwierdza też, że badacze muszą zacząć testować stabilność takich systemów. Wówczas przekonają się, że wiele takich systemów jest niestabilnych. Jednak największym problemem jest fakt, że nie potrafimy w sposób matematyczny zrozumieć, jak działają tego typu systemy. Są one dla nas tajemnicą. Jeśli ich porządnie nie przetestujemy, możemy otrzymać katastrofalnie złe wyniki. Na szczęście takie systemy nie są jeszcze wykorzystywane w praktyce klinicznej. Zespół Hansena stworzył odpowiednie testy do ich sprawdzenia. Uczeni mówią, że nie chcą, by takie systemy zostały dopuszczone do użycia jeśli nie przejdą szczegółowych testów. « powrót do artykułu
  9. Czarna żółć (gr. μελαινα χολή) to najbardziej tajemniczy humor w koncepcji zdrowia i choroby stworzonej przez Hippokratesa (V/IV w. p.n.e.), która, po rozwinięciu przez Klaudiusza Galena (II w. n.e.) i średniowiecznych, arabskich uczonych, pozostawała aktualna w dyskursie medycznym do końca XVIII w. Przez większość tego czasu zajmowała wiodące miejsce w wyobrażeniach na temat stanów patologicznych ludzkiego organizmu. Powyższe pojmowanie istoty chorób miało znaczący wpływ na rodzaj podejmowanych terapii i stosowanych leków. Powiązana z tym typologia temperamentów wprowadziła do obiegu obraz melancholii – choroby cechującej się długotrwałym smutkiem i pojęcie melancholika – osoby, która niejako z przyrodzenia, ze względu na przewagę czarnej żółci w organizmie, wykazuje tendencje do częstego i nadmiernego smutku. Połączenie koncepcji humoralnej z astrologią przyporządkowało melancholię wpływom Saturna. Zaowocowało to licznymi nawiązaniami w sztuce, czego przykładem jest choćby, powszechnie znany, miedzioryt Melancholia I z 1514 r., autorstwa Albrechta Dürera. Jatroastrologia nie wytrzymała próby czasu. Została poddana krytyce przez naukę doby oświecenia. W tym samym okresie, wskutek rozwoju medycyny klinicznej, zrezygnowano z koncepcji humoralnej. Oba wątki przetrwały jednak poza medycyną. Obecnie większość ludzi zna swój znak zodiaku oraz temperament, nierzadko tłumacząc w ten sposób swoje samopoczucie i postępowanie. Trafność humoralnej koncepcji temperamentów sprawia, że posługuje się nią współczesna psychologia. Co za tym idzie melancholia i melancholicy stanowią nadal element składowy otaczającego nas świata. W świetle dzisiejszych standardów psychologii i psychiatrii, dawny termin „melancholia” został utożsamiony z pojęciem depresji, która jest obecnie groźną chorobą cywilizacyjną. Czy można jednak postawić między nimi znak równości? Kwestia ta pozostaje nadal otwarta. Polski psychiatra i humanista, profesor Antoni Kępiński (1918-1972) postulował, by wrócić do stosowania dawnego terminu „melancholia”, który jego zdaniem, lepiej oddaje stan człowieka pogrążonego w długotrwałym i odbierającym chęć życia smutku. Obszerny i wielopłaszczyznowy temat melancholii pozostaje zagadnieniem niewyczerpanym przez naukę. Jego złożoność wymaga interdyscyplinarnego podejścia. Celem konferencji jest więc próba przedstawienia aktualnych badań prowadzonych w następujących obszarach badawczych: • Melancholia/depresja i melancholicy. Stan duszy i ciała. • Wpływ Saturna. Znaki zodiaku. Melancholia w astrologii. • Melancholia/depresja w kulturze (i popkulturze). • Motyw melancholii/depresji w sztuce i literaturze. • Melancholia i melancholicy w dawnym dyskursie medycznym. • Leczenie depresji we współczesnej psychiatrii i psychologii. • Społeczne i cywilizacyjne aspekty depresji. Na konferencję, która odbędzie się w Bydgoszczy w dniach 23–24 kwietnia 2020 r., zapraszają Zakład Historii Medycyny i Pielęgniarstwa, Studenckie Koło Naukowe Historii Medycyny i Farmacji Collegium Medicum im. Ludwika Rydygiera w Bydgoszczy Uniwersytetu Mikołaja Kopernika, Studenckie Koło Historyków Uniwersytetu Kazimierza Wielkiego, Fundacja Naukowa Bydgoska Szkoła Historii Nauk Medycznych oraz Bydgoskie Towarzystwo Naukowe. Organizatorzy są też otwarci na referaty wykraczające poza opisane obszary badawcze, związane z tematem konferencji. Nie ograniczają zasięgu geograficznego, ani zakresu chronologicznego podejmowanych zagadnień. Do udziału w konferencji zapraszają wszystkich badaczy zainteresowanych jej tematyką, zaś w szczególności studentów i doktorantów oraz młodych (nawet tylko duchem) pracowników naukowych, reprezentujących kierunki związane z: medycyną, farmacją, psychologią, a także historią, historią sztuki, literaturoznawstwem, religioznawstwem, etnologią, antropologią kultury itp. Czas na wygłoszenie referatu wynosił będzie 20 minut. Zgłoszenia należy wysyłać, nie później niż do 25.03.2020 r., na adres: melancholia.depresja@wp.pl . Abstrakt powinien zawierać od 1000 do 1500 znaków ze spacjami. Organizatorzy zastrzegają sobie prawo do selekcji nadesłanych abstraktów. Lista osób zakwalifikowanych zostanie podana najpóźniej 1.04.2020 r.. Opłata konferencyjna wynosi 350 zł dla pracowników naukowych, 300 zł dla uczestników studiów doktoranckich oraz 200 zł dla studentów. Opłata obejmuje materiały konferencyjne, przerwy kawowe oraz opublikowanie wygłoszonego referatów w recenzowanej pracy zbiorowej. Do druku będą skierowane tylko te prace, które uzyskają pozytywną opinię recenzentów i redaktorów. Koszty noclegu oraz wyżywienia pozostają we własnym zakresie uczestników. Organizatorzy konferencji mogą pomóc w znalezieniu zakwaterowania.Wszelkie pytania prosimy kierować na adres mailowy melancholia.depresja@wp.pl. « powrót do artykułu
  10. Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl. Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności? W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia. Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich. Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych. Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm? Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy. Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin. Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła. Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature. Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych. Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji? Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości. « powrót do artykułu
  11. Na glinianej tabliczce-tekście medycznym sprzed 2700 lat znajduje się niezauważony dotychczas rysunek przedstawiający demona, który powodował epilepsję. Troels Pank Arbøll, asyriolog z Uniwersytetu w Kopenhadze badał glinianą tabliczkę przechowywaną w zbiorach Vorderasiatisches Museum w Berlinie, gdy na odwrocie zauważył częściowo zniszczony rysunek. Po bliższej analizie stwierdził, że przedstawia on demona z rogami, ogonem i wężowym językiem, który zgodnie z inskrypcją był odpowiedzialny za epilepsję. Od dawna wiemy, że Asyryjczycy i Babilończycy sądzili, iż choroby są powodowane przez bogów, demony lub czary. Zadaniem uzdrowicieli było pozbycie się tych mocy nadprzyrodzonych i powodowanych przez nie objawów za pomocą leków, rytuałów lub wygłaszania odpowiednich formułek. Tutaj  po raz pierwszy możemy połączyć jeden z bardzo rzadko występujących rysunków demonów z konkretnym tekstem dotyczącym epilepsji, którą Asyryjczycy i Babilończycy nazywali Bennu, mówi Arbøll. Na tekstach medycznych lub zawierających magiczne formuły lecznicze bardzo rzadko znajdują się rysunki, a gdy już tam są, to zwykle przedstawiają one figurki używane podczas leczenia, a nie samego demona wywołującego chorobę. Tutaj widzimy zaś demona epilepsji takiego, jakim wyobrażał go sobie uzdrowiciel, dodaje uczony. W znanych nam tekstach epilepsja (Bennu) jest opisywana jako choroba powodująca drgawki, utratę przytomności lub zdrowia umysłowego, dowiadujemy się, że czasem chorzy beczeli jak kozy. Tabliczka zdradza nam znacznie więcej informacji. W tekście czytamy, że przynoszący epilepsję demon działa w imieniu boga księżyca Sina. Zatem Asyryjczycy i Babilończycy wierzyli, że istnieje związek pomiędzy księżycem, epilepsją a chorobą umysłową. W kolejnych tysiącleciach taki pogląd się rozpowszechnił, również w naszej części świata, co widzimy np. w angielskim wyrazie „lunacy”. Innymi słowy, pogląd na chorobę, jej diagnozowanie i leczenie w najwcześniejszych cywilizacjach miał znaczący wpływ na jej późniejsze postrzeganie, nawet do czasów współczesnych, stwierdza Arbøll. « powrót do artykułu
  12. Wypalenie zawodowe lekarzy-rezydentów jest powszechnym zjawiskiem w USA, informują badacze z Mayo Clinic i Oregon Health & Science University. Wypalenie, niebezpieczna mieszanka wyczerpania i depersonalizacji, prowadzi do pojawiania się błędów lekarskich. Nie wszystkim jednak grozi w równym stopniu. Na podstawie przeprowadzonych ankiet naukowcy stwierdzili, że 45% amerykańskich rezydentów wykazuje co najmniej jeden objaw wypalenia, a największe ryzyko pojawienia się tego zjawiska zaobserwowano u lekarzy urologów, neurologów, specjalistów medycyny ratunkowej i chirurgii ogólnej. Niezależnie od specjalizacji, wysoki poziom niepokoju i niski poziom empatii podczas studiów medycznych były silnie skorelowane z późniejszym wypaleniem w czasie rezydentury. Okazało się, że rezydenci z objawami wypalenia zawodwego trzykrotnie częściej niż ich koledzy żałują decyzji o wybraniu kariery w medycynie. Na pytanie Czy, gdybyś mógł wybrać jeszcze raz, ponownie zdecydowałbyś, by zostać lekarzem? najczęściej przecząco odpowiadali patolodzy i anestezjolodzy. Wypalenie częściej też pojawiało się u kobiet niż u mężczyzn. Jednak ten problem był już wcześniej znany. Nowością jest, że częściej też dotyczy Latynosów niż Białych. Badacze przypuszczają, że bierze się to z faktu, że na członków mniejszości etnicznych wywierany jest nacisk, by brali udział w różnych instytucjonalnych inicjatywach na rzecz różnorodności, co przeciąża ich grafik. Nie można jednak powiedzieć, że badania rysują jednoznacznie czarny obraz rezydentów. Większość z nich jest zadowolona ze swojego wyboru i przebiegu kariery. Szczególnie wysoki poziom zadowolenia było widać u tych rezydentów, którzy w czasie studiów charakteryzowali się wysokim stopniem empatii. Są oni też bardziej odporni na wypalenie zawodowe. To zaś przeczy powszechnemu mniemaniu, że lekarz by przetrwać w swoim zawodzie musi mieć "grubą skórę" i odciąć się emocjonalnie od tego, co dzieje się w pracy. Wysoki poziom empatii podczas studiów był też skorelowany z chęcią ponownego wyboru tego samego zawodu. Powyższe badania to pierwsze tak szeroko zakrojone eksperymenty dotyczące wypalenia zawodowego u rezydentów. Dotychczasowe badania skupiały się bowiem na pełnoprawnych lekarzach. W badaniach tych wzięło udział 3600 osób z 50 szkół medycznych. Po raz pierwszy wypełniały one ankiety na czwartym roku studiów, a później na drugim roku rezydentury. « powrót do artykułu
×
×
  • Dodaj nową pozycję...