Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Ekspozycja na niebieskie światło obniża ciśnienie krwi, zmniejszając ryzyko chorób sercowo-naczyniowych.

W ramach badania skrzyżowanego 14 zdrowych mężczyzn było przez 30 min wystawianych na oddziaływanie monochromatycznego światła niebieskiego (o długości fali ok. 450 nanometrów) lub niebieskiego światła przepuszczonego przez filtr.

Przed, w trakcie i do 2 godzin po naświetleniu określano m.in. ciśnienie krwi czy funkcję śródbłonka (pomiar rozszerzalności tętnicy promieniowej).

Okazało się, że ekspozycja całego ciała na niebieskie światło obniżała ciśnienie skurczowe badanych o niemal 8 mmHg (w porównaniu do światła kontrolnego). Spadek ciśnienia był więc porównywalny do efektów osiąganych w testach klinicznych za pomocą leków.

Naukowcy z Uniwersytetu Surrey zauważyli także, że wystawienie na oddziaływanie niebieskiego światła poprawiało szereg markerów sercowo-naczyniowych, np. zmniejszało sztywność tętnic i podwyższało rozluźnienie naczyń krwionośnych.

Autorzy publikacji z European Journal of Preventive Cardiology dodają, że ekspozycja na niebieskie światło zwiększała również poziom krążącego tlenku azotu, który jest ważną cząsteczką sygnałową chroniącą układ sercowo-naczyniowy.

Brytyjczycy sądzą, że podczas zabiegu dochodzi do uwolnienia tlenku azotu z fotolabilnych śródskórnych metabolitów tlenku azotu.

Ekspozycja na niebieskie światło zapewnia innowacyjną metodę precyzyjnego kontrolowania ciśnienia krwi bez leków. Ubieralne źródła niebieskiego światła mogłyby sprawić, że stała ekspozycja byłaby wykonalna i praktyczna. Technika wydaje się szczególnie użyteczna u tych pacjentów, u których nadciśnienie trudno jest kontrolować za pomocą leków, czyli np. u seniorów - podsumowuje prof. Christian Heiss.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Teraz wiem dlaczego przysypiam w ciągu dnia

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dlaczego? Niebieskie światło hamuje uwalnianie melatoniny.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Po ponad 20 latach pracy naukowcy odszyfrowali pełną strukturę kluczowej molekuły sygnałowej. Otwiera to drogę do opracowania nowych i lepszych leków na niektóre rodzaje nowotworów. Nad poznaniem pełnej struktury kinaz janusowych pracuje wiele zespołów na całym świecie. Udało się to grupie Christophera Garcii z Howard Hughes Medical Institute.
      Garcia i jego koledzy pracowali nad tym zadaniem od ponad 2 dekad. Pod koniec ubiegłego roku spod ich mikroskopów elektronowych zaczęły wyłaniać się wyraźne obrazy poszczególnych elementów kinazy. A 8 grudnia doktor Naotaka Tsutsumi i magister Caleb Glassman wysłali mu e-mail z załączonym zdjęciem, na którym było wyraźnie widać molekułę przyłączoną do receptora. Garcia, który brał właśnie udział w spotkaniu, od razu pobiegł do laboratorium. Chciałem, byśmy szybko dokończyli prace, mówi.
      Trójka naukowców pracowała od tej pory bez wytchnienia. To był prawdziwy wyścig pomiędzy wieloma świetnymi ośrodkami akademickimi na całym świecie. A my pędziliśmy do mety, stwierdził. W końcu 26 grudnia uczeni wysłali szczegółowy opis swojej pracy do redakcji Science. Wczoraj ukazał się artykuł i świat mógł zapoznać się z tak długo poszukiwaną dokładną strukturą molekuły.
      Zespół Garcii nie tylko określił dokładną strukturę kinazy janusowej, ale również opisał mechanizm jej działania. To jedna z kluczowych kwestii biologii, mówi John O'shea immunolog z National Institutes of Health, który jest współautorem jednego z pierwszych leków blokujących kinazy janusowe.
      Kinazy janusowe to jedne z podstawowych molekuł sygnałowych. Zbierają one sygnały spoza komórki i przekazują je do komórki. Naukowcy od wielu lat wiedzą, że nieprawidłowo działające kinazy janusowe są przyczyną różnych chorób. A niektóre mutacje prowadzące do nieprawidłowego działania tych kinaz znacząco upośledzają zdolność organizmu do zwalczania infekcji. Nieprawidłowo działające kinazy janusowe przyczyniają się do rozwoju nowotworów krwi, jak białaczka, oraz chorób autoimmunologicznych.
      Dotychczas znaliśmy częściową strukturę tych kinaz, co pozwoliło na opracowanie inhibitorów kinaz, pomagających w leczeniu nowotworów czy artretyzmu. Jednak leki te powstały bez znajomości pełnej struktury kinaz i ich działania. Dlatego też większość współcześnie stosowanych leków nakierowanych na kinazy janusowe to broń obosieczna. Pomagają w leczeniu wielu chorób, od egzemy po COVID-19, ale mogą mieć też wiele skutków ubocznych.
      Garcia po raz pierwszy próbował szczegółowo zobrazować kinazy janusowe w 1995 roku. Jednak to naprawdę trudne zadanie. Kinazy bardzo trudno jest uzyskać w warunkach laboratoryjnych. Jakby tego było mało, nie tworzą one łatwo kryształów, a kryształy są potrzebne, by za pomocą krystalografii rentgenowskiej określić strukturę badanej molekuły.
      Przez lata uczeni mogli więc obserwować małe fragmenty kinaz, które nie składały się w całość. Przełom nastąpił przed kilku laty, wraz z udoskonaleniem kriomikroskopii elektronowej. Drugim istotnym elementem odniesionego sukcesu była decyzja Garcii i skupieniu się na badaniu mysiej kinazy janusowej, w miejsce mniej stabilnej kinazy ludzkiej. Dodatkowo naukowcy wprowadzili do mysiej kinazy mutację powodującą nowotwór, co dodatkowo ustabilizowało molekułę.
      Dzięki temu uczeni byli w końcu w stanie dokładnie opisać strukturę kinazy JAK1 oraz mechanizm jej działań. Garcia ma nadzieję, że dzięki temu uda się w niedalekiej przyszłości opracować leki, które będą brały na cel wyłącznie nieprawidłowo działające kinazy janusowe, co zmniejszy liczbę skutków ubocznych, gdyż kinazy prawidłowo działające będą mogły niezakłócenie pracować.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy odkryli, że w latach 2002-2012 aż 99,6% testów klinicznych leków zapobiegających, leczących bądź usuwających objawy choroby Alzheimera (ChA) zakończyło się porażką bądź zarzuceniem ich prowadzenia. Dla porównania, w przypadku leków przeciwnowotworowych wskaźnik porażek sięga 81%. Amerykanie alarmują, że rozwija się stosunkowo mało leków, a od 2009 r. ich liczba spada.
      Doktorzy Jeffrey L. Cummings z Cleveland Clinic Lou Ruvo Center for Brain Health, Kate Zhong z Uniwersytetu w Touro oraz student Travis Morstorf przeanalizowali wpisy z rządowej witryny ClinicalTrials.com. Analizując zarówno zakończone, jak i toczące się testy [...], byliśmy w stanie zyskać wgląd w podłużne trendy w rozwijaniu leków. Odkryliśmy, że inwestycje w leki i terapie na ChA są relatywnie niskie, biorąc pod uwagę obciążenie przez chorobę [na świecie żyje ok. 44 mln osób z alzheimeryzmem] - podkreśla Zhong.
      Ponieważ ChA jest dla amerykańskiej ekonomii kosztowniejsza niż nowotwory czy choroby sercowo-naczyniowe, zespół badawczy z Cleveland Clinic Lou Ruvo Center for Brain Health sądzi, że system leków na ChA musi być wspierany, rozwijany i koordynowany. Tylko wtedy można zwiększyć wskaźnik sukcesów. Akademicy wspominają o potrzebie badań repozycjonujących (chodzi o ocenę już zatwierdzonych leków pod kątem nowych zastosowań). Obecnie prowadzą fazę II a (ustalania dawki w porównaniu do placebo) testów beksarotenu, leku zatwierdzonego przez FDA do leczenia nowotworów skóry. Próbują ustalić, czy u ludzi, tak jak u zwierząt, usuwa on złogi beta-amyloidu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Połączenie inhibitora kinazy leku kabozantynib oraz używanego w immunoterapii niwolumabu powoduje, że część pacjentów z nowotworami wątroby, którzy nie mogli być leczeni operacyjnie, może zostać poddana zabiegowi chirurgicznemu. Takie wnioski płyną z badań przeprowadzonych w Johns Hopkins Kimmel Cancer Center, których wyniki zostały opublikowane na lamach Nature Cancer.
      We wspomnianych badaniach wzięło udział 15 pacjentów cierpiących na pierwotnego raka wątroby (raka wątrobowokomórkowego – HCC). Żaden z nich nie mógł być poddany leczeniu chirurgicznemu, jednak po łączonej terapii kabozantynibem i niwolumabem okazało się, że u 12 z tych osób można było z powodzeniem chirurgicznie usunąć nowotwór. U 5 z tych 12 osób po podaniu leków pozostało zaledwie 10% lub mniej guza.
      Rak wątrobowokomórkowy stanowi aż 90% pierwotnych raków wątroby i jest czwartym najbardziej śmiercionośnym nowotworem na świecie. W momencie diagnozy jedynie 30% tych nowotworów nadaje się do chirurgicznego usunięcia. Dzieje się tak albo dlatego, że wątroba jest już zbyt mocno uszkodzona, albo też z powodu rozpowszechnienia się nowotworu na tkanki, z których usunięcie jest zbyt trudne.
      Pacjenci, którzy zapisali się do naszych badań, byli uznawani według obecnych kryteriów za nieuleczalnie chorych. Dlatego też fakt, iż zaobserwowaliśmy tak dobrą reakcję na leczenie jest bardzo ekscytujący, gdyż wskazuje, że strategię taką można zastosować w przypadku ciężkich nieuleczalnych przypadków, mówi główny autor badań, profesor Won Jin Ho z Wydziału Medycyny Uniwersytetu Johnsa Hopkinsa.
      Wyniki badań sugerują też, że połączenie wspomnianych leków może zmienić odsetek nawrotów choroby po chirurgii. Nawet bowiem u tych pacjentów, którzy nadawali się do zabiegu chirurgicznego i zabiegi takie się udały, odsetek nawrotu choroby może wynosić 50% lub więcej. Okazało się bowiem, że u 5 pacjentów, których guzy znacząco się zmniejszyły i u których wykonano zabieg chirurgiczny, jak dotychczas nie doszło do wznowy choroby. A od czasu zabiegu minęły 230 dni. Z kolei u czterech z siedmiu pacjentów, których guzy nie zareagowały tak dobrze na leczenie kabozantynibem i niwolumabem, choroba zaczęła postępować pomiędzy 56. a 155. dniem od zakończenia leczenia.
      Oba leki już wcześniej były używane, razem i osobno, w terapii HCC. Jednak autorzy obecnych badań prowadzili je właśnie pod kątem sprawdzenia, czy terapia spowoduje, że większy odsetek pacjentów będzie nadawał się do przeprowadzenia leczenia chirurgicznego.
      W czasie prowadzonych badań naukowcy szczegółowo przyglądali się reakcji układu odpornościowego, badali mikrośrodowisko guza, wykonywali biopsje, by dokładnie wiedzieć, w jaki sposób guz reaguje na leczenie. Zastosowano m.in. obrazowanie metodą cytometrii masowej, co pozwoliło na jednoczesne obrazowanie różnych typów komórek i określenie interakcji pomiędzy nimi.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania.
      Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia.
      Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego.
      Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania.
      W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami.
      Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards.
      Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards.
      Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe.
      Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem.
      Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń.
      O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych.
      Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Europejska Agencja Leków (EMA) poinformowała, że podczas grudniowego cyberataku przestępcy uzyskali dostęp do informacji nt. leków i szczepionek przeciwko COVID-19. Teraz dane dotyczące szczepionki Pfizera zostały przez nich udostępnione w internecie
      W trakcie prowadzonego śledztwa ws. ataku na EMA stwierdzono, że napastnicy nielegalnie zyskali dostęp do należących do stron trzecich dokumentów związanych z lekami i szczepionkami przeciwko COVID-19. Informacje te wyciekły do internetu. Organy ścigania podjęły odpowiednie działania, oświadczyli przedstawiciele EMA.
      To nie pierwszy raz, gdy cyberprzestępcy biorą na cel firmy i organizacje związane z rozwojem i dystrybucją szczepionek przeciwko COVID-19. Już w maju ubiegłego roku brytyjskie Narodowe Centrum Cyberbezpieczeństwa poinformowało, że brytyjskie uniwersytety i instytucje naukowe znalazły się na celowniku cyberprzestępców, a celem ataków jest zdobycie informacji dotyczących badań nad koronawirusem. Wspomniane grupy przestępce były prawdopodobnie powiązane z rządami Rosji, Iranu i Chin. Z kolei w listopadzie Microsoft poinformował, że powiązana z Moskwą grupa Fancy Bear oraz północnokoreańskie grupy Lazarus i Cerium zaatakowały siedem firm farmaceutycznych pracujących nad szczepionkami.
      Atak na EMA nie zakłócił działania samej Agencji, nie wpłynął też na dystrybucję szczepionek.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...