Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Naukowcy ze szwajcarskiego laboratorium materiałoznawstwa Empa (Eidgenössische Materialprüfungs- und Forschungsanstalt) pracują nad tkaninami uwalniającymi leki, np. do leczenia ran. Inteligentne włókna mają same rozpoznawać, że zachodzi taka potrzeba i dozować substancje czynne z dużą precyzją i dokładnością.

Włókna do projektu Self Care Materials są wytwarzane z biodegradowalnych polimerów. Zastosowanie włókien determinuje, jaki proces produkcyjny jest najlepszy - wyjaśnia René Rossi. Delikatne membrany z dużą powierzchnią powstają dzięki elektroprzędzeniu. Gdy zaś potrzebne są solidne, wytrzymałe włókna, np. na odzież ochronną, lepiej jest się uciec do rozciągania stopionych składników.

W każdym przypadku powstają nowe włókna, które składają się z wielu warstw i komponentów. Właściwości tych nowych materiałów są teraz badane z zastosowaniem substancji testowych. W produkcie we włóknach integrowane są np. antybiotyki i środki przeciwbólowe.

By upewnić się, że substancje czynne są uwalnianie w razie potrzeby i w precyzyjnych dawkach, Szwajcarzy zastosowali polimery ulegające degradacji tylko w pewnych warunkach. W reakcji na bodziec z organizmu włókna powinny uwolnić leki do środowiska w wyliczonym tempie rozkładu. Takim bodźcem może być zmienione pH rany, które wskazuje na wymagające leczenia uszkodzenie tkanki. Na tej zasadzie plastry czy ubrania wspierają diagnostykę i terapię różnych chorób.

Naukowcy dodają, że bodźcem do uruchomienia pewnych procesów mogą być nie tylko chemiczne sygnały z ciała, ale i sygnały pochodzące z zewnątrz, np. ucisk czy światło. Wg Rossiego, znacznie ułatwiłoby to pracę lekarzom i pielęgniarkom, o komforcie życia pacjentów nie wspominając.

Szwajcarzy wspominają też o zastosowaniu inteligentnych włókien w prewencji. Skoro mogą one uwalniać różne substancje, możliwa jest też penetracja w odwrotnym kierunku. Na tej zasadzie włókna byłyby czujnikami, które np. mierzą poziom cukru we krwi.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W centrum naszej galaktyki naukowcy znaleźli nieznane wcześniej struktury. Nieco przypominają one gigantyczne jednowymiarowe włókna materii rozciągające się pionowo w pobliżu centralnej supermasywnej czarnej dziury Sagittarius A*, jakie przed 40 laty zaobserwował Farhad Yusef-Zadek z Northwester University. Jednak nowe struktury, odkryte właśnie przez Yusefa-Zadeha i jego zespół, są znacznie mniejsze i ułożone horyzontalnie od Sgr A*, tworzą coś na podobieństwo szprych koła.
      Populacje obu włókien są podobne w niektórych aspektach, jednak zdaniem odkrywców, mają różne pochodzenie. Giganty mają wyraźny kształt włókien o wysokości dochodzącej do 150 lat świetlnych. Tymczasem włókna poziome są niewielkie, przypominają kropki i kreski z kodu Morse'a, a każde z nich znajduje się tylko po jednej stronie czarnej dziury.
      Byłem zaskoczony tym, co zauważyłem. Dużo czasu zajęła nam weryfikacja tego, co widzimy. I odkryliśmy, że te włókna nie są rozłożone przypadkowo, ale wydają się związane z tym, co wydobywa się z czarnej dziury. Badając je, możemy więcej dowiedzieć się o obrocie czarnej dziury i orientacji dysku akrecyjnego mówi Yusef-Zadeh.
      Profesor fizyki i astronomii, Yusef-Zadech, od ponad 40 lat bada centrum Drogi Mlecznej. W 1984 roku był współodkrywcą olbrzymich pionowych włókien w pobliżu czarnej dziury, a przed 4 laty odkrył w centrum Drogi Mlecznej dwa bąble o długości 700 lat świetlnych każdy. W ubiegłym zaś roku, we współpracy z innymi ekspertami, zarejestrował setki poziomych włókien, które ułożone są w pary lub grupy i bardzo często są równomiernie rozłożone, na podobieństwo strun instrumentu. Uczony, specjalista od radioastronomii, mówi, że coraz częstsze odkrycia tego typu to zasługa nowych technologii i dostępnych instrumentów, szczególnie zaś radioteleskopu MeerKAT z RPA. Ten instrument zmienia reguły gry. Rozwój technologiczny i dedykowany czas obserwacyjny dostarczyły nam nowych informacji. To naprawdę duży postęp techniczny w radioastronomii, wyjaśnia uczony.
      Yusef-Zadeh, który od dekad bada gigantyczne pionowe włókna był bardzo zaskoczony, gdy zauważył też mniejsze poziome struktury. Ich wiek ocenił na 6 milionów lat. Zawsze myślałem o włóknach pionowych i o ich pochodzeniu. Jestem przyzwyczajony do tego, że są pionowe. Nigdy nie przyszło mi na myśl, że mogą być też poziome, mówi. Oba rodzaje włókien są jednowymiarowe, można je obserwować za pomocą fal radiowych i wydają się powiązane z aktywnością czarnej dziury. Ale na tym się ich podobieństwa kończą.
      Włókna pionowe są prostopadłe do płaszczyzny galaktyki. Włókna poziome rozciągnięte są równolegle do płaszczyzny galaktyki, ale promieniście wskazują na jej centrum, gdzie znajduje się Sagittarius A*. Pionowe są magnetyczne i relatywistyczne, poziome wypromieniowują ciepło. Włókna pionowe składają się z cząstek poruszających się niemal z prędkością światła, włókna poziome wydają się przyspieszać gorący materiał znajdujący się w chmurze molekularnej. Dotychczas zaobserwowano setki włókien każdego z rodzajów. Ponadto włókna pionowe mają długość do 150 lat świetlnych, a poziome 5–10 lś. Włókna pionowe znajdują się wszędzie wokół środka galaktyki, natomiast poziomie tylko z jednej strony.
      Odkrycie rodzi więcej pytań niż odpowiedzi. Yusef-Zadeh przypuszcza, że włókna poziome powstały podczas jakiegoś emisji z czarnej dziury, która miała miejsce przed milionami lat. Wydają się wynikiem interakcji materiału, który wypływał, z jakimś pobliskim obiektem. Nasza praca nigdy się nie kończy. Zawsze musimy prowadzić nowe badania i weryfikować naszą wiedzę oraz hipotezy, dodaje uczony.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po ponad 20 latach pracy naukowcy odszyfrowali pełną strukturę kluczowej molekuły sygnałowej. Otwiera to drogę do opracowania nowych i lepszych leków na niektóre rodzaje nowotworów. Nad poznaniem pełnej struktury kinaz janusowych pracuje wiele zespołów na całym świecie. Udało się to grupie Christophera Garcii z Howard Hughes Medical Institute.
      Garcia i jego koledzy pracowali nad tym zadaniem od ponad 2 dekad. Pod koniec ubiegłego roku spod ich mikroskopów elektronowych zaczęły wyłaniać się wyraźne obrazy poszczególnych elementów kinazy. A 8 grudnia doktor Naotaka Tsutsumi i magister Caleb Glassman wysłali mu e-mail z załączonym zdjęciem, na którym było wyraźnie widać molekułę przyłączoną do receptora. Garcia, który brał właśnie udział w spotkaniu, od razu pobiegł do laboratorium. Chciałem, byśmy szybko dokończyli prace, mówi.
      Trójka naukowców pracowała od tej pory bez wytchnienia. To był prawdziwy wyścig pomiędzy wieloma świetnymi ośrodkami akademickimi na całym świecie. A my pędziliśmy do mety, stwierdził. W końcu 26 grudnia uczeni wysłali szczegółowy opis swojej pracy do redakcji Science. Wczoraj ukazał się artykuł i świat mógł zapoznać się z tak długo poszukiwaną dokładną strukturą molekuły.
      Zespół Garcii nie tylko określił dokładną strukturę kinazy janusowej, ale również opisał mechanizm jej działania. To jedna z kluczowych kwestii biologii, mówi John O'shea immunolog z National Institutes of Health, który jest współautorem jednego z pierwszych leków blokujących kinazy janusowe.
      Kinazy janusowe to jedne z podstawowych molekuł sygnałowych. Zbierają one sygnały spoza komórki i przekazują je do komórki. Naukowcy od wielu lat wiedzą, że nieprawidłowo działające kinazy janusowe są przyczyną różnych chorób. A niektóre mutacje prowadzące do nieprawidłowego działania tych kinaz znacząco upośledzają zdolność organizmu do zwalczania infekcji. Nieprawidłowo działające kinazy janusowe przyczyniają się do rozwoju nowotworów krwi, jak białaczka, oraz chorób autoimmunologicznych.
      Dotychczas znaliśmy częściową strukturę tych kinaz, co pozwoliło na opracowanie inhibitorów kinaz, pomagających w leczeniu nowotworów czy artretyzmu. Jednak leki te powstały bez znajomości pełnej struktury kinaz i ich działania. Dlatego też większość współcześnie stosowanych leków nakierowanych na kinazy janusowe to broń obosieczna. Pomagają w leczeniu wielu chorób, od egzemy po COVID-19, ale mogą mieć też wiele skutków ubocznych.
      Garcia po raz pierwszy próbował szczegółowo zobrazować kinazy janusowe w 1995 roku. Jednak to naprawdę trudne zadanie. Kinazy bardzo trudno jest uzyskać w warunkach laboratoryjnych. Jakby tego było mało, nie tworzą one łatwo kryształów, a kryształy są potrzebne, by za pomocą krystalografii rentgenowskiej określić strukturę badanej molekuły.
      Przez lata uczeni mogli więc obserwować małe fragmenty kinaz, które nie składały się w całość. Przełom nastąpił przed kilku laty, wraz z udoskonaleniem kriomikroskopii elektronowej. Drugim istotnym elementem odniesionego sukcesu była decyzja Garcii i skupieniu się na badaniu mysiej kinazy janusowej, w miejsce mniej stabilnej kinazy ludzkiej. Dodatkowo naukowcy wprowadzili do mysiej kinazy mutację powodującą nowotwór, co dodatkowo ustabilizowało molekułę.
      Dzięki temu uczeni byli w końcu w stanie dokładnie opisać strukturę kinazy JAK1 oraz mechanizm jej działań. Garcia ma nadzieję, że dzięki temu uda się w niedalekiej przyszłości opracować leki, które będą brały na cel wyłącznie nieprawidłowo działające kinazy janusowe, co zmniejszy liczbę skutków ubocznych, gdyż kinazy prawidłowo działające będą mogły niezakłócenie pracować.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy odkryli, że w latach 2002-2012 aż 99,6% testów klinicznych leków zapobiegających, leczących bądź usuwających objawy choroby Alzheimera (ChA) zakończyło się porażką bądź zarzuceniem ich prowadzenia. Dla porównania, w przypadku leków przeciwnowotworowych wskaźnik porażek sięga 81%. Amerykanie alarmują, że rozwija się stosunkowo mało leków, a od 2009 r. ich liczba spada.
      Doktorzy Jeffrey L. Cummings z Cleveland Clinic Lou Ruvo Center for Brain Health, Kate Zhong z Uniwersytetu w Touro oraz student Travis Morstorf przeanalizowali wpisy z rządowej witryny ClinicalTrials.com. Analizując zarówno zakończone, jak i toczące się testy [...], byliśmy w stanie zyskać wgląd w podłużne trendy w rozwijaniu leków. Odkryliśmy, że inwestycje w leki i terapie na ChA są relatywnie niskie, biorąc pod uwagę obciążenie przez chorobę [na świecie żyje ok. 44 mln osób z alzheimeryzmem] - podkreśla Zhong.
      Ponieważ ChA jest dla amerykańskiej ekonomii kosztowniejsza niż nowotwory czy choroby sercowo-naczyniowe, zespół badawczy z Cleveland Clinic Lou Ruvo Center for Brain Health sądzi, że system leków na ChA musi być wspierany, rozwijany i koordynowany. Tylko wtedy można zwiększyć wskaźnik sukcesów. Akademicy wspominają o potrzebie badań repozycjonujących (chodzi o ocenę już zatwierdzonych leków pod kątem nowych zastosowań). Obecnie prowadzą fazę II a (ustalania dawki w porównaniu do placebo) testów beksarotenu, leku zatwierdzonego przez FDA do leczenia nowotworów skóry. Próbują ustalić, czy u ludzi, tak jak u zwierząt, usuwa on złogi beta-amyloidu.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Połączenie inhibitora kinazy leku kabozantynib oraz używanego w immunoterapii niwolumabu powoduje, że część pacjentów z nowotworami wątroby, którzy nie mogli być leczeni operacyjnie, może zostać poddana zabiegowi chirurgicznemu. Takie wnioski płyną z badań przeprowadzonych w Johns Hopkins Kimmel Cancer Center, których wyniki zostały opublikowane na lamach Nature Cancer.
      We wspomnianych badaniach wzięło udział 15 pacjentów cierpiących na pierwotnego raka wątroby (raka wątrobowokomórkowego – HCC). Żaden z nich nie mógł być poddany leczeniu chirurgicznemu, jednak po łączonej terapii kabozantynibem i niwolumabem okazało się, że u 12 z tych osób można było z powodzeniem chirurgicznie usunąć nowotwór. U 5 z tych 12 osób po podaniu leków pozostało zaledwie 10% lub mniej guza.
      Rak wątrobowokomórkowy stanowi aż 90% pierwotnych raków wątroby i jest czwartym najbardziej śmiercionośnym nowotworem na świecie. W momencie diagnozy jedynie 30% tych nowotworów nadaje się do chirurgicznego usunięcia. Dzieje się tak albo dlatego, że wątroba jest już zbyt mocno uszkodzona, albo też z powodu rozpowszechnienia się nowotworu na tkanki, z których usunięcie jest zbyt trudne.
      Pacjenci, którzy zapisali się do naszych badań, byli uznawani według obecnych kryteriów za nieuleczalnie chorych. Dlatego też fakt, iż zaobserwowaliśmy tak dobrą reakcję na leczenie jest bardzo ekscytujący, gdyż wskazuje, że strategię taką można zastosować w przypadku ciężkich nieuleczalnych przypadków, mówi główny autor badań, profesor Won Jin Ho z Wydziału Medycyny Uniwersytetu Johnsa Hopkinsa.
      Wyniki badań sugerują też, że połączenie wspomnianych leków może zmienić odsetek nawrotów choroby po chirurgii. Nawet bowiem u tych pacjentów, którzy nadawali się do zabiegu chirurgicznego i zabiegi takie się udały, odsetek nawrotu choroby może wynosić 50% lub więcej. Okazało się bowiem, że u 5 pacjentów, których guzy znacząco się zmniejszyły i u których wykonano zabieg chirurgiczny, jak dotychczas nie doszło do wznowy choroby. A od czasu zabiegu minęły 230 dni. Z kolei u czterech z siedmiu pacjentów, których guzy nie zareagowały tak dobrze na leczenie kabozantynibem i niwolumabem, choroba zaczęła postępować pomiędzy 56. a 155. dniem od zakończenia leczenia.
      Oba leki już wcześniej były używane, razem i osobno, w terapii HCC. Jednak autorzy obecnych badań prowadzili je właśnie pod kątem sprawdzenia, czy terapia spowoduje, że większy odsetek pacjentów będzie nadawał się do przeprowadzenia leczenia chirurgicznego.
      W czasie prowadzonych badań naukowcy szczegółowo przyglądali się reakcji układu odpornościowego, badali mikrośrodowisko guza, wykonywali biopsje, by dokładnie wiedzieć, w jaki sposób guz reaguje na leczenie. Zastosowano m.in. obrazowanie metodą cytometrii masowej, co pozwoliło na jednoczesne obrazowanie różnych typów komórek i określenie interakcji pomiędzy nimi.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Ostatnie działania gigantów IT, takich jak Google, oraz koncernów farmaceutycznych sugerują, że pierwszym naprawdę przydatnym zastosowaniem komputerów kwantowych mogą stać się obliczenia związane z pracami nad nowymi lekami. Komputery kwantowe będą – przynajmniej teoretycznie – dysponowały mocą nieosiągalną dla komputerów klasycznych. Wynika to wprost z zasady ich działania.
      Najmniejszą jednostką informacji jest bit. Reprezentowany jest on przez „0” lub „1”. Jeśli wyobrazimy sobie zestaw trzech bitów, z których w każdym możemy zapisać wartość „0” lub „1” to możemy w ten sposób stworzyć 8 różnych kombinacji zer i jedynek (23). Jednak w komputerze klasycznym w danym momencie możemy zapisać tylko jedną z tych kombinacji i tylko na jednej wykonamy obliczenia.
      Jednak w komputerze kwantowym mamy nie bity, a bity kwantowe, kubity. A z praw mechaniki kwantowej wiemy, że kubit nie ma jednej ustalonej wartości. Może więc przyjmować jednocześnie obie wartości: „0” i „1”. To tzw. superpozycja. A to oznacza, że w trzech kubitach możemy w danym momencie zapisać wszystkie możliwe kombinacje zer i jedynek i wykonać na nich obliczenia. Z tego zaś wynika, że trzybitowy komputer kwantowy jest – przynajmniej w teorii – ośmiokrotnie szybszy niż trzybitowy komputer klasyczny. Jako, że obecnie w komputerach wykorzystujemy procesory 64-bitowe, łatwo obliczyć, że 64-bitowy komputer kwantowy byłby... 18 trylionów (264) razy szybszy od komputera klasycznego.
      Pozostaje tylko pytanie, po co komu tak olbrzymie moce obliczeniowe? Okazuje się, że bardzo przydałyby się one firmom farmaceutycznym. I firmy te najwyraźniej dobrze o tym wiedzą. Świadczą o tym ich ostatnie działania.
      W styczniu największa prywatna firma farmaceutyczna Boehringer Ingelheim ogłosiła, że rozpoczęła współpracę z Google'em nad wykorzystaniem komputerów kwantowych w pracach badawczo-rozwojowych. W tym samym miesiącu firma Roche, największy koncern farmaceutyczny na świecie, poinformował, że od pewnego czasu współpracuje już z Cambridge Quantum Computing nad opracowaniem kwantowych algorytmów służących wstępnym badaniom nad lekami.
      Obecnie do tego typu badań wykorzystuje się konwencjonalne wysoko wydajne systemy komputerowe (HPC), takie jak superkomputery. Górną granicą możliwości współczesnych HPC  są precyzyjne obliczenia dotyczące molekuł o złożoności podobne do złożoności molekuły kofeiny, mówi Chad Edwards, dyrektor w Cambridge Quantum Computing. Molekuła kofeiny składa się z 24 atomów. W farmacji mamy do czynienia ze znacznie większymi molekułami, proteinami składającymi się z tysięcy atomów. Jeśli chcemy zrozumieć, jak funkcjonują systemy działające według zasad mechaniki kwantowej, a tak właśnie działa chemia, to potrzebujemy maszyn, które w pracy wykorzystują mechanikę kwantową, dodaje Edwards.
      Cambridge Quantum Computing nie zajmuje się tworzeniem komputerów kwantowych. Pracuje nad kwantowymi algorytmami. Jesteśmy łącznikiem pomiędzy takimi korporacjami jak Roche, które chcą wykorzystywać komputery kwantowe, ale nie wiedzą, jak dopasować je do swoich potrzeb, oraz firmami jak IBM, Honeywell, Microsoft czy Google, które nie do końca wiedzą, jak zaimplementować komputery kwantowe do potrzeb różnych firm. Współpracujemy z 5 z 10 największych firm farmaceutycznych, wyjaśnia Edwards.
      Bardzo ważnym obszarem prac Cambridge Quantum Computing jest chemia kwantowa. Specjaliści pomagają rozwiązać takie problemy jak znalezieniem molekuł, które najmocniej będą wiązały się z danymi białkami, określenie struktury krystalicznej różnych molekuł, obliczanie stanów, jakie mogą przyjmować różne molekuły w zależności od energii, jaką mają do dyspozycji, sposobu ewolucji molekuł, ich reakcji na światło czy też metod metabolizowania różnych związków przez organizmy żywe.
      Na razie dysponujemy jednak bardzo prymitywnymi komputerami kwantowymi. Są one w stanie przeprowadzać obliczenia dla molekuł składających się z 5–10 atomów, tymczasem minimum, czego potrzebują firmy farmaceutyczne to praca z molekułami, w skład których wchodzi 30–40 atomów. Dlatego też obecnie przeprowadzane są obliczenia dla fragmentów molekuł, a następnie stosuje się specjalne metody obliczeniowe, by stwierdzić, jak te fragmenty będą zachowywały się razem.
      Edwards mówi, że w przyszłości komputery kwantowe będą szybsze od konwencjonalnych, jednak tym, co jest najważniejsze, jest dokładność. Maszyny kwantowe będą dokonywały znacznie bardziej dokładnych obliczeń.
      O tym, jak wielkie nadzieje pokładane są w komputerach kwantowych może świadczyć fakt, że główne koncerny farmaceutyczne powołały do życia konsorcjum o nazwie QuPharm, którego zadaniem jest przyspieszenie rozwoju informatyki kwantowej na potrzeby produkcji leków. QuPharm współpracuje z Quantum Economic Development Consortium (QED-C), powołanym po to, by pomóc w rozwoju komercyjnych aplikacji z dziedziny informatyki kwantowej na potrzeby nauk ścisłych i inżynierii. Współpracuje też z Pistoia Alliance, którego celem jest przyspieszenie innowacyjności w naukach biologicznych.
      Widzimy zainteresowanie długoterminowymi badaniami nad informatyką kwantową. Firmy te przeznaczają znaczące środki rozwój obliczeń kwantowych, zwykle zapewniają finansowanie w dwu-, trzyletniej perspektywie. To znacznie bardziej zaawansowane działania niż dotychczasowe planowanie i studia koncepcyjne. Wtedy sprawdzali, czy informatyka kwantowa może się do czegoś przydać, teraz rozpoczęli długofalowe inwestycje. To jest właśnie to, czego ta technologia potrzebuje, dodaje Edwards.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...