Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Centrum GE Global Research, dział rozwoju technologii firmy GE (NYSE:GE), ogłosiło rozpoczęcie współpracy z programem "Inicjatywa na rzecz Transformacyjnych Technologii Medycznych" (Transformational Medical Technologies Initiative - TMTI). Projekt znany jako "Człowiek Biotyczny” polegać będzie na stworzeniu komputerowego modelu wirtualnego człowieka opartego na ludzkiej fizjologii.

Oprogramowanie posłuży do określenia, w jaki sposób człowiek zareagowałby na podanie danego leku. Celem przedsięwzięcia jest znaczące przyspieszenie procesu opracowania leków w odpowiedzi na atak bronią biologiczną na polu walki, jak również w sytuacji zagrożenia biologicznego w czasie pokoju. Przewidywany czas trwania projektu to dwa lata, a jego koszt to 1,1 miliona dolarów. „Człowiek Biotyczny” powstanie dzięki zamówieniu złożonemu przez Agencję Redukcji Zagrożeń Obronnych (Defense Threat Reduction Agency - DTRA), stanowiącą część amerykańskiego Departamentu Obrony. Naukowcy GE przystosują oprogramowanie PBPK (Physiologically Based Pharmacokinetic) do obliczeniowego modelowania wpływu bakterii, wirusów i innych czynników zakaźnych na ludzki organizm.

Oprogramowanie to oparte jest na modelu farmakokinetycznym bazującym na fizjologii wykorzystuje modele obliczeniowe do mierzenia reakcji organizmu na lek na długo przed rozpoczęciem badań klinicznych. Po dokonaniu modyfikacji, program będzie symulował wpływ nowych terapii opartych na lekach antybiotykowych i antywirusowych w sytuacji określonego zagrożenia. Ponadto nowoopracowane oprogramowanie posłuży do precyzyjnego przedstawiania zmian fizjologicznych u pacjentów znajdujących się w stanie krytycznym spowodowanym oparzeniami, urazami lub niedawno odbytym zabiegiem chirurgicznym w celu oszacowania efektywności terapii farmakologicznej w różnych warunkach jej stosowania.


Celem projektu „Człowiek Biotyczny” jest przyspieszenie procesu tworzenia leków tak, aby móc stawić czoła zagrożeniom natury biologicznej. Nowe oprogramowanie może mieć również ogromny wpływ na cały przemysł farmaceutyczny dzięki możliwości szybszego opracowywania nowych lekarstw przy znacznie mniejszych kosztach - powiedział John Graf, główny inżynier odpowiedzialny za ten projekt w GE Global Research. Nowe, ulepszone oprogramowanie pozwoli naukowcom na testowanie i tworzenie nowych terapii farmakologicznych w wirtualnym, bezpieczniejszym środowisku przy wykorzystaniu lepszych danych ilościowych - dodał Graf.

Głównymi przeszkodami stojącymi dziś na drodze szybkiego, efektywnego opracowywania nowych leków są kwestie bezpieczeństwa oraz niemożność wcześniejszego stwierdzenia skuteczności leku, przed rozpoczęciem testów na ludziach, a nawet w początkowej fazie badań klinicznych. Ograniczenia te mogą również prowadzić do znacząco wyższych kosztów badań. Dzięki decyzjom opartym na pełniejszych danych ilościowych, identyfikacji związków wiodących oraz efektywniejszych testach będzie można osiągnąć lepszą wydajność, a także ograniczyć koszty badań. Tworzenie nowych narzędzi komputerowych służących do opracowywania leków jest również ilustracją rosnącej zbieżności diagnostyki i terapeutyki.

Share this post


Link to post
Share on other sites

Coś fantastycznego, nie tylko dla leków ale widzę tu wspaniałe pole do popisu przed genetykami, tworząc wirtualne komórki z wirtualnym DNA będzie można w czasie rzeczywistym dokonywać zmian i przewidywać wyniki nawet na 100 lat do przodu  8)

Share this post


Link to post
Share on other sites

Robiac model jakiegos zjawiska nalezy znac zmienne jakie na nie wplyw. Niestety wydaje mi sie, ze zbyt malo wiemy o nas samych.

Co innego modelowanie zderzen samochodow, ktore zaprojektowalismy i znamy od podszewki.

O czlowieku, w tym jego ukladzie immunologicznym wiemy za malo. Temat nowotworow czy chocby alergii jest niedostatecznie wyjasniony.

Jakis model zapewne stworza, ale jak wiele procesow bedzie modl modelowac ?

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Na Politechnice Federalnej w Lozannie powstało oprogramowanie, które wykorzystuje awatar, by przewidzieć, ile energii ludzie zużywają w zależności od sposobu chodzenia.
      Szwajcarzy podkreślają, że choć nie zdajemy sobie z tego sprawy, stale zmieniamy tempo chodu, długość kroków i unoszenie stóp (instynktownie "wybieramy" chód, który w danych warunkach jest najmniej energochłonny).
      Awatar autorów publikacji ze Scientific Reports to tułów wyposażony w nogi i stopy. Można go dowolnie konfigurować. Najpierw użytkownik wprowadza swój wzrost i wagę. Później ustawia prędkość chodu, długość i szerokość kroku, uniesienie stopy, a także przechylenie tułowia i podłoża. Dodatkowo można symulować wpływ bycia pchanym bądź ciągniętym na poziomie różnych części ciała. Zużycie energii jest wyświetlane w czasie rzeczywistym za każdym razem, gdy parametry są zmieniane.
      Naukowcy dodają, że dla swojego oprogramowania widzą wiele zastosowań, zwłaszcza medycznych. Oprogramowanie może zostać wykorzystane do wybrania najlepszego projektu egzoszkieletu lub protezy (najlepszego, czyli takiego, który redukowałby wysiłek użytkownika) - tłumaczy Amy Wu.
      Zespół dodaje, że z pomocą oprogramowania można by nawet określić, jak nosić plecak, by zminimalizować wydatkowanie energii. Jeśli [jednak] twoim celem jest spalanie kalorii, oprogramowanie da się wykorzystać do znalezienia serii ruchów z dużym kosztem metabolicznym.
      Szwajcarzy ujawniają, że oprogramowanie powstało w laboratorium robotyki z myślą o robotach humanoidalnych i miało służyć do analizy mechaniki ludzkiego chodu. Sposób, w jaki ludzie chodzą, jest niezwykle skomplikowany. Poziom wymaganej kontroli jest sporym wyzwaniem dla humanoidalnych robotów - podsumowuje Salman Faraji.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Każde oprogramowanie zawiera błędy, ale jak mogliśmy się dowiedzieć podczas konferencji Black Hat Europe, najwięcej błędów zawiera oprogramowanie tworzone przez instytucje państwowe lub na ich potrzeby.
      Chris Wysopal z firmy Veracode, która specjalizuje się w wyszukiwaniu dziur w programach, poinformował o wynikach badań przeprowadzonych pomiędzy drugą połową roku 2010 a końcem roku 2011.
      W tym czasie jego firma przeanalizowała 9910 różnych aplikacji. Eksperci stwierdzili, że 80% programów nie spełnia wymagań bezpieczeństwa firmy Veracode. Oprogramowanie tworzone dla instytucji państwowych wypadło znacznie gorzej, niż programy komercyjne. Okazało się bowiem, że jedynie 16% stworzonych przez rząd i dla rządu aplikacji sieciowych można było uznać za bezpieczne z punktu widzenia standardów OWASP (Open Web Application Security Project). Dla  sektora finansowego odsetek ten wynosił 24%, a dla innego komercyjnego oprogramowania - 28%.
      Z kolei do wyników badań innych programów niż programy sieciowe posłużono się kryteriami opracowanymi przez SANS Institute. Za bezpieczne uznano 18% oprogramowania rządowego, 28% oprogramowania finansowego i 34% innego oprogramowania komercyjnego.
      Rząd zachowuje się tak, jakby bezpieczeństwo było problemem sektora prywatnego i próbuje go ściśle regulować. Jeśli jednak bliżej się temu przyjrzymy to okazuje się, że sektor prywatny jest zdecydowanie bardziej bezpieczny niż sektor rządowy - mówi Wysopal.
      Aż 40% aplikacji sieciowych wytworzonych dla agend rządowych było podatnych na ataki SQL injection. Dla sektora finansowego odsetek ten wynosił 29%, a dla oprogramowania komercyjnego 30%. Na ataki typu XSS (cross-site scripting) narażonych było 75% rządowych aplikacji sieciowych, 67% aplikacji wytworzonych przez sektor finansowy oraz 55% aplikacji komercyjnych.
      Alan Paller, dyrektor ds. badań w SANS Institute mówi, że przyczyną takiego stanu rzeczy jest to, iż sektor prywatny karze firmy za błędy, a sektor rządowy je nagradza. Jeśli przedsiębiorstwo stworzy komercyjne oprogramowanie zawierające błędy, to ryzykuje utratę klientów oraz dobrego imienia, co wpłynie na jego wyniki finansowe w przyszłości. Jeśli zaś napisze wadliwe oprogramowanie dla sektora rządowego, to zostanie nagrodzone kolejnym kontraktem na poprawienie tego oprogramowania. Nie twierdzę, że nie próbują wykonać swojej pracy właściwie. Ale w ten sposób działa system nagród i zachęt - mówi Paller. To powoduje, że błędy w oprogramowaniu rządowym istnieją nawet wówczas, gdy zanikają w oprogramowaniu komercyjnym. Specjaliści od dwóch lat obserwują spadek odsetka dziur typu SQL injection i XSS w oprogramowaniu komercyjnym. W programach rządowych  nic się w tym zakresie nie zmieniło.
      Wszystkie powyższe dane dotyczą USA.
    • By KopalniaWiedzy.pl
      Podczas badań na myszach wykazano, że wyeliminowanie białka neurofibrominy 1 nasila powstawanie nowych neuronów z nerwowych komórek progenitorowych (neurogenezę) oraz skraca czas, po jakim antydepresanty zaczynają działać.
      W ciągu życia neurogeneza zachodzi w pewnym rejonie hipokampa. Niestety, zmniejsza się z wiekiem i pod wpływem stresu. Wcześniejsze badania wykazały, że pod wpływem terapii depresji proces można na nowo pobudzić.
      Zespół doktora Luisa Parady z University of Texas Southwestern przyglądał się neurogenezie po usunięciu genu neurofibrominy 1 (Nf1) z nerwowych komórek progenitorowych (ang. neural progenitor cells, NPCs) dorosłych myszy. Okazało się, że zwiększyło to liczbę i przyspieszyło dojrzewanie nowych neuronów w hipokampie. U zmutowanych myszy ograniczenie objawów depresji oraz lęku następowało już po tygodniu farmakoterapii, a u zwierząt z grupy kontrolnej na poprawę trzeba było poczekać znacznie dłużej.
      Nasze badania jako jedne z pierwszych demonstrują wykonalność zmieniania nastroju przez bezpośrednią manipulację neurogenezą u dorosłych - cieszy się dr Renee McKay.
      Chcąc sprawdzić, czy zmiany w zachowaniu myszy pozbawionych Nf1 są długoterminowe, Amerykanie zbadali 8-miesięczne osobniki za pomocą szeregu testów. W porównaniu do innych gryzoni, mutanty wykazywały mniej objawów lęku i były bardziej oporne na wpływ łagodnego stresu przewlekłego. Zjawisko to występowało nawet wtedy, gdy myszom nie podawano antydepresantów. Wystarczyła sama delecja genu.
      Zwykle neurofibromina 1 zapobiega niekontrolowanemu wzrostowi komórkowemu. Mutacje w genie Nf1 wywołują nerwiakowłokniakowatość typu 1. Ponieważ gen Nf1 jest duży - prawidłowe białko składa się aż z 2818 aminokwasów - w ok. połowie przypadków mamy do czynienia z nową mutacją, a nie dziedziczeniem w obrębie rodziny.
    • By KopalniaWiedzy.pl
      Jak donosi Businessweek w systemie Windows 8 znajdzie się mechanizm, pozwalający Microsoftowi na zdalne usuwanie i zmianę oprogramowania. Ma być to mechanizm podobny do tego, jaki jest obecny w systemie Android, iOS czy w urządzeniach Kindle.
      Koncern z Redmond nie chce zdradzać szczegółów na temat wspomnianego mechanizmu. Zapewnia jedynie, że pozwoli on tylko i wyłącznie na manipulowanie aplikacjami pobranymi z firmowego sklepu. Programy pochodzące z innych źródeł będą dla Microsoftu niedostępne. Niewykluczone jednak, że mechanizm ten umożliwi również oczyszczanie komputerów użytkowników ze szkodliwego kodu.
      Podobne mechanizmy, chociaż w pewnych przypadkach mogą być korzystne dla użytkowników, budzą liczne kontrowersje. Firmy je wykorzystujące dotychczas nie określiły ścisłych i jednoznacznych zasad ich użycia. Ponadto zawsze istnieje obawa, że przedsiębiorstwa ulegną naciskom polityków i np. będą usuwały z komputerów treści, które nie podobają się rządzącym. Jest ktoś, kto ma absolutną kontrolę nad moim dyskiem twardym. Jeśli używa jej w sposób mądry, może uczynić moje życie lepszym. Jednak nie wiemy, czy używają tego mądrze. Tak naprawdę nie wiemy, czy w ogóle tego używają - mówi Eric Goldman, dyrektor High Tech Law Institute.
      Jeśli jednak przyjrzymy się temu, co mówią przedstawiciele firm, które w swoje produkty wbudowały takie mechanizmy, zauważymy, że pozostawiają sobie duża swobodę. Hiroshi Lockheimer, wiceprezes Google ds. inżynieryjnych systemu Android mówi, że mechanizm jest używany w naprawdę wyjątkowych, oczywistych sytuacjach. Todd Biggs, jeden dyrektorów z Windows Phone Marketplace zapewnia, że w smartfonach z systemem Microsoftu używano tech mechanizmu w celach radzenia sobie z problemami technicznymi, a Apple i Amazon nie chciały sprawy komentować.
    • By KopalniaWiedzy.pl
      Lęk dość powszechnie kojarzony jest z nadwrażliwością, tymczasem okazuje się, że osoby lękowe mogą w rzeczywistości nie być dostatecznie wrażliwe (Biological Psychology).
      Podczas eksperymentów doktorantka Tahl Frenkel z Uniwersytetu w Tel Awiwie pokazywała ochotnikom zdjęcia wywołujące lęk i strach. W tym czasie wykonywano im EEG. Okazało się, że grupa lękowa była w rzeczywistości mniej pobudzona tymi obrazami niż przedstawiciele grupy nielękowej. Jak wyjaśniają naukowcy, osoby często doświadczające lęku nie były fizjologicznie tak wrażliwe na drobne zmiany w środowisku. Frenkel uważa, że występuje u nich deficyt w zakresie zdolności oceny zagrożenia. Nie dysponując sprawnym systemem wczesnego ostrzegania, tacy ludzie dają się zaskoczyć. Stąd reakcja mylnie interpretowana jako nadwrażliwość. Dla odmiany nielękowi najpierw nieświadomie odnotowują zmiany w środowisku, analizują i dopiero potem świadomie rozpoznają ewentualne zagrożenie.
      Naukowcy zebrali grupę 240 studentów. Bazując na wynikach kwestionariusza STAI (State-Trait Anxiety Inventory), wybrano 10% najbardziej i 10% najmniej lękowych osób. Na początku badanym pokazywano serię zdjęć człowieka, który wyglądał na coraz bardziej przestraszonego w skali od 1 do 100. Ludzie lękowi reagowali szybciej, identyfikując twarz jako przestraszoną już przy 32 punktach, podczas gdy członkowie drugiej podgrupy zaczynali uznawać fizjonomię za przestraszoną dopiero przy 39 punktach.
      Do tego momentu wyniki potwierdzały obowiązującą teorię o nadpobudliwości lękowych, kiedy jednak psycholodzy skupili się na zapisie EEG, zobaczyli coś zupełnie innego. Osoby rzadko odczuwające lęk przeprowadziły pogłębioną analizę bodźców wywołujących strach, co pozwoliło im dostosować reakcję behawioralną. Ich koledzy i koleżanki z drugiej grupy tego nie zrobili. EEG pokazuje, że to, co wydaje się nadwrażliwością na poziomie zachowania, jest w rzeczywistości próbą skompensowania deficytu we wrażliwości percepcji.
×
×
  • Create New...