Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Dwa białka - receptory glikokortykoidów (ang. glucocorticoid receptor, GR) i mineralokortykoidów (ang. mineralocorticoid receptor, MR) - wspierają się wzajemnie, by utrzymać serce w dobrym zdrowiu. Gdy sygnalizacja między nimi zostaje zaburzona, u myszy rozwija się choroba serca.

Wyniki, które ukazały się w piśmie Science Signalling, mogą zostać wykorzystane do opracowania związków terapeutycznych dla osób z grupy podwyższonego ryzyka zawału.

Stres zwiększa ryzyko zgonu z powodu niewydolności serca, bo nadnercza wytwarzają wtedy kortyzol. Kortyzol wywołuje reakcję walcz lub uciekaj i wiąże się z receptorami GR i MR w różnych tkankach ciała, by m.in. ograniczyć stan zapalny.

Gdy poziom kortyzolu we krwi jest zbyt wysoki przez dłuższy czas, mogą się rozwinąć różne czynniki ryzyka chorób serca, w tym podwyższony poziom cholesterolu i cukru czy nadciśnienie.

Dr Robert Oakley zidentyfikował źle działające GR w latach 90., gdy jako student pracował z dr. Johnem Cidlowskim na Uniwersytecie Karoliny Północnej w Chapel Hill. Krótko po tym odkryciu inni naukowcy stwierdzili, że ludzie z ponadprzeciętną liczbą zmienionych receptorów GR są bardziej narażeni na choroby serca. Opierając się na tych wynikach, Oakley i Cidlowski testowali szczep myszy pozbawionych sercowych GR. U zwierząt dochodziło do powiększenia serca, a przez to do jego niewydolności i zgonu. Kiedy naukowcy z NIEHS (National Institute of Environmental Health Sciences) wyhodowali szczep myszy bez sercowych MR, serca gryzoni działały normalnie.

Oakley i Cidlowski zaczęli się więc zastanawiać, co się stanie, gdy w tkance serca brakować będzie obu receptorów. Naukowcy przypuszczali, że zwierzęta po podwójnym knock-oucie genowym będą miały podobne lub poważniejsze problemy z sercem jak myszy bez GR. Ku naszemu zaskoczeniu, serca były [jednak] oporne na chorobę - opowiada Oakley.

Cidlowski podkreśla, że u myszy tych nie zaszły zmiany genowe, które doprowadziły do niewydolności serca u gryzoni pozbawionych GR, a jednocześnie zaszły korzystne zmiany w działaniu genów chroniących serce. Choć ich serca działały prawidłowo, w porównaniu do serc bez receptorów MR, były one nieco powiększone.

Sugerujemy, że skoro GR i MR współpracują, lepszym podejściem [do leczenia ludzi z chorobami serca] będzie produkowanie leków działający nie na jeden, ale na dwa receptory naraz - podsumowuje Cidlowski.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania.
      Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia.
      Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego.
      Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania.
      W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami.
      Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards.
      Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards.
      Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe.
      Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem.
      Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń.
      O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych.
      Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Europejska Agencja Leków (EMA) poinformowała, że podczas grudniowego cyberataku przestępcy uzyskali dostęp do informacji nt. leków i szczepionek przeciwko COVID-19. Teraz dane dotyczące szczepionki Pfizera zostały przez nich udostępnione w internecie
      W trakcie prowadzonego śledztwa ws. ataku na EMA stwierdzono, że napastnicy nielegalnie zyskali dostęp do należących do stron trzecich dokumentów związanych z lekami i szczepionkami przeciwko COVID-19. Informacje te wyciekły do internetu. Organy ścigania podjęły odpowiednie działania, oświadczyli przedstawiciele EMA.
      To nie pierwszy raz, gdy cyberprzestępcy biorą na cel firmy i organizacje związane z rozwojem i dystrybucją szczepionek przeciwko COVID-19. Już w maju ubiegłego roku brytyjskie Narodowe Centrum Cyberbezpieczeństwa poinformowało, że brytyjskie uniwersytety i instytucje naukowe znalazły się na celowniku cyberprzestępców, a celem ataków jest zdobycie informacji dotyczących badań nad koronawirusem. Wspomniane grupy przestępce były prawdopodobnie powiązane z rządami Rosji, Iranu i Chin. Z kolei w listopadzie Microsoft poinformował, że powiązana z Moskwą grupa Fancy Bear oraz północnokoreańskie grupy Lazarus i Cerium zaatakowały siedem firm farmaceutycznych pracujących nad szczepionkami.
      Atak na EMA nie zakłócił działania samej Agencji, nie wpłynął też na dystrybucję szczepionek.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nowa metoda próbkowania woskowiny może być tanią i skuteczną techniką mierzenia poziomu hormonu stresu kortyzolu. Odkrycia zespołu z Uniwersyteckiego College'u Londyńskiego (UCL) i King's College London, które ukazały się w piśmie Heliyon, mogą wskazywać na nowe metody monitorowania depresji i zaburzeń lękowych.
      Nowe urządzenie można stosować w domu bez nadzoru, co ułatwia kontrole medyczne. Naukowcy wspominają też o potencjale metody w zakresie mierzenia np. poziomu glukozy.
      Próbkowanie kortyzolu jest trudne, gdyż poziom hormonu może się wahać, dlatego próbka nie będzie dokładnym odzwierciedleniem wartości występujących w dłuższym okresie. Co więcej, sama metoda pobierania próbki może wywoływać stres i wpływać na wyniki - opowiada dr Andres Herane-Vives.
      Poziom kortyzolu w wosku usznym wydaje się bardziej stabilny, a z naszym urządzeniem łatwo pobrać próbkę i szybko, tanio oraz skutecznie ją przetestować.
      Kortyzol uznawano za potencjalny biomarker depresji, ale naukowcy mieli problemy z dokładnym pomiarem jego poziomu. Brytyjczycy wspominają o badaniu włosów, ale jak zaznaczają, nie każdy ma ich np. wystarczająco dużo, by uzyskać odpowiednią próbkę. Poza tym, w porównaniu do woskowiny, analiza włosów jest bardziej czasochłonna i droższa. Niestety, dotąd nie było wiarygodnej i niestresującej metody próbkowania wosku usznego.
      Pracując nad urządzeniem, dr Herane-Vives inspirował się innym naturalnym woskiem - plastrem pszczelim, który jest oporny na zanieczyszczenie bakteryjne. Ponieważ woskowina ma podobne właściwości, nadaje się do próbkowania w domu; próbki mogą być wysłane do laboratorium pocztą bez większego ryzyka skażenia.
      Urządzenie Brytyjczyków przypomina patyczek higieniczny. Znajduje się w nim ogranicznik, który zapobiega zbyt głębokiemu wsadzaniu do przewodu słuchowego. Czubek jest pokryty celulozową gąbeczką (impregnowaną roztworem oleju mineralnego z MgCl2).
       W pilotażowym badaniu Herane-Vives i współpracownicy z Wielkiej Brytanii, Chile i Niemiec zebrali grupę 37 ochotników, aby przetestować różne metody pobierania próbek kortyzolu. Najpierw próbki woskowiny pobierano, wykorzystując strzykawki uszne (zabieg ten bywa bolesny). Badanych instruowano, by przez miesiąc nie używali patyczków higienicznych ani  w żaden sposób nie czyścili ucha zewnętrznego. Dzięki temu podczas kolejnej wizyty w laboratorium można było zebrać standaryzowaną ilość wosku (wcześniej ustalono, że w zdrowym uchu przez 4 tygodnie powstaje ok. 3-8 mg woskowiny).
      Miesiąc później tę samą procedurę stosowano w jednym uchu (lewym), podczas gdy w drugim wykorzystywano nową metodę (ochotnicy sami pobierali próbki z prawego ucha zgodnie z instrukcją producenta). Akademicy analizowali także próbki włosów i krwi od tych samych osób.
      Naukowcy odkryli, że woskowina zawierała więcej kortyzolu niż próbki włosów i że nowa technika była najszybszą i potencjalnie najtańszą metodą. W najmniejszym stopniu wpływały też na nią czynniki zaburzające działające w ciągu poprzedniego miesiąca.
      W innym badaniu ochotnicy ocenili nowe urządzenie jako wygodniejsze od tradycyjnych metod.
      Dr Herane-Vives założył firmę Trears, która pomoże w komercjalizacji rozwiązania. Jego zespół sprawdza także, czy urządzenie może być przydatne np. do pomiaru poziomu glukozy w woskowinie.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Żadna z czterech terapii testowanych w ramach pilotowanego przez WHO wielkiego międzynarodowego badania leków przeciwko COVID-19 nie okazała się skuteczna. Zawiódł też remdesivir, z którym wiązano największe nadzieje. Po testach przeprowadzonych na 11 000 pacjentów w 400 szpitalach stwierdzono, że testowane leki nie wydłużają życia chorych.
      To rozczarowujące, że stosowanie żadnego z czterech leków nie przyniosło skutku w postaci zmniejszonej śmiertelności. Jednak pokazuje to, jak bardzo potrzebujemy szeroko zakrojonych testów, mówi Jeremy Farrar, dyrektor Wellcome Trust. Chcielibyśmy, by któryś z leków działał. Jednak lepiej jest wiedzieć, czy lek w ogóle działa, niż niczego nie wiedzieć i nadal go stosować, dodaje główny naukowiec WHO Soumya Swaminathan.
      O rozpoczęciu projektu Solidarity, w ramach którego były prowadzone testy, informowaliśmy pod koniec marca. W projekcie wykorzystano już istniejące terapie stosowane w walce z innymi chorobami. Były to remdesivir, połączenie chlorochiny i hydroksycholochiny, kaltera oraz połączenie ritonaviru, lopinaviru i interferonu beta. Już w czerwcu bieżącego roku WHO zaprzestało testowania hydroksychlorochiny i kombinacji ritonaviru/lopinaviru, gdyż duże badania prowadzone w Wielkiej Brytanii wykazały, że są one nieskuteczne.
      Z czasem okazało się, że pozostałe w teście Solidarity specyfiki również nie przedłużają życia chorych na COVID-19 ani nie opóźniają momentu, w którym chorzy potrzebują podawania tlenu.
      Największe nadzieje wiązano z remdesivirem. Już wcześniej amerykańskie badania przeprowadzone na 1000 pacjentach sugerowały, że osoby otrzymujące remdesivir szybciej zdrowieją, chociaż nie zanotowano zmniejszonej śmiertelności. Dlatego też w maju amerykańska Agencja ds. Żywności i Leków (FDA) w trybie nadzwyczajnym dopuściła remdesivir do leczenia COVID-19.
      Badania prowadzone w ramach Solidarity wykazały, że remdesivir nie pomaga w ciężkich przypadkach. Spośród 2743 hospitalizowanych osób, które otrzymały ten środek, zmarło 11%, podczas gdy śmiertelność w grupie kontrolnej wyniosła 11,2%.
      Różnica jest na tyle niewielka, że mogła powstać przypadkiem. Analiza innych testów wykazała, że różnica w odsetku zgonów wśród osób przyjmujących i nie przyjmujących remdesiviru, jest nieistotna statystycznie.
      Producent remdesiviru – Gilead Sciences – uważa, że projekt Solidarity był niewłaściwie przeprowadzony, przez co nie jest jasne, czy z tych badań można wyciągnąć jakieś jednoznaczne wnioski. Co ciekawe, jak informuje WHO, Gilead otrzymał informację o wynikach Solidarity 28 września, a 8 października, zanim wyniki testu zostały upublicznione, firma podpisała z Komisją Europejską wartą 1 miliard USD umowę na dostawy remdesiviru.
      Najbardziej jednak rozczarował interferon beta. Odsetek zgonów wśród osób, które go otrzymały – czy to osobno czy w połączeniu z lopinavirem i ritonavirem – wyniósł 11,9% w porównaniu do 10,5% w grupie konstolnej. Już wcześniejsze badania sugerowały, że interferon beta pomaga, jeśli zostanie poddany wcześniej, a nie u osób hospitalizowanych. Zatem skuteczność interferonu beta na wczesnych etapach choroby pozostaje kwestią otwartą.
      Leczenie późnego stadium COVID-19 jest bardzo trudne. W stadium tym mamy duży stan zapalny i wiele skrzepów. Prawdopodobnie dlatego testowane leki okazały się nieskuteczne, mówi wirolog Benjamin tenOever z Icahn School of Medicine at Mount Sinai.
      Program Solidarity jest kontynuowany. Każdego miesiąca zapisywanych jest około 2000 nowych pacjentów. W tej chwili kontynuowane są badania nad remdesivirem, które mają dać lepszy obraz kliniczny tego środka. Do testu dodawane będą też nowe leki. Pacjentom właśnie rozpoczęto podawanie acalabrunitibu, leku przeciwnowotworowego blokującego enzym, który odgrywa ważną rolę w ludzkim układzie odpornościowym. Specjaliści mają nadzieję, że wkrótce będą mogli rozpocząć testy przeciwciał monoklonalnych, które mogą być bardziej skuteczne niż leki opracowane z myślą o innych chorobach. Próba znalezienia skutecznego leku wśród tych, już zatwierdzonych do leczenia innych chorób nie jest optymalną strategią, ale prawdopodobnie najlepszą w obecnych okolicznościach, dodaje tenOever.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Choroby układu krążenia są główną przyczyną zgonów na świecie. Lepsze zrozumienie mechanizmów tych chorób pozwoliłoby na uratowanie wielu ludzi. Niezbędnym elementem jest tutaj zaś zrozumienie procesów molekularnych zachodzących w komórkach zdrowego serca. Naukowcy stworzyli właśnie wielką szczegółową mapę zdrowego mięśnia sercowego.
      Mapa powstała w ramach wielkiej inicjatywy Human Cell Atlas, której celem jest opisanie każdego typu komórek znajdujących się w ludzkim organizmie. Autorzy atlasu serca przeanalizowali niemal 500 000 indywidualnych komórek. Dzięki temu powstał najbardziej szczegółowy opis ludzkiego serca. Pokazuje on olbrzymią różnorodność komórek i ich typów. Jego autorzy scharakteryzowali sześć regionów anatomicznych serca. Opisali, w jaki sposób komórki komunikują się ze sobą, by zapewnić działanie mięśnia sercowego.
      Badania przeprowadzono na podstawie 14 zdrowych ludzkich serc, które uznano za nienadające się do transplantacji. Naukowcy połączyli techniki analizy poszczególnych komórek, maszynowego uczenia się oraz techniki obrazowania, dzięki czemu mogli stwierdził, które geny były aktywne, a które nieaktywne w każdej z komórek.
      Uczonym udało się zidentyfikować różnice pomiędzy komórkami w różnych regionach serca. Stwierdzili też, że w każdym obszar mięśnia sercowego zawiera specyficzny dla siebie zestaw komórek, co wskazuje, że różne obszary serca mogą różnie reagować na leczenie.
      Projekt ten to początek nowego sposobu rozumienia budowy serca na poziomie komórkowym. Dzięki lepszemu poznaniu różnic pomiędzy różnymi regionami serca możemy zacząć rozważać wpływ wieku, trybu życia oraz chorób i rozpocząć nową epokę w kardiologii, mówi współautor badań Daniel Reichart z Harvard Medical School.
      Po raz pierwszy tak dokładnie przyjrzano się ludzkiemu sercu, dodaje profesor Norbert Hubner z Centrum Medycyny Molekularnej im. Maxa Delbrücka. Poznanie pełnego spektrum komórek serca i ich aktywności genetycznej są niezbędne do zrozumienia sposobu funkcjonowania serca oraz odkrycia, w jaki sposób reaguje ono na stres i choroby.
      Ze szczegółami badań można zapoznać się w artykule Cells of the adult human heart, opublikowanym na łamach Nature.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...