Jump to content
Forum Kopalni Wiedzy
Sign in to follow this  

Recommended Posts

Naukowcy pracujący w szwajcarskim oddziale IBM-a w Zurychu stworzyli oprogramowanie pozwalające na uzyskanie trójwymiarowych awatarów pacjentów. Dane z tradycyjnych kartotek medycznych przechowywanych w formie cyfrowej są powiązane z trójwymiarową wirtualną postacią.

ASME (Anatomic and Symbolic Mapper Engine) pozwala medykowi kliknąć myszką na wybranej części ciała awatara i zdobyć potrzebne informacje. To jak Google Earth, ale dla ciała. Mając nadzieję na przyspieszenie zwrotu w kierunku elektronicznego zapisu danych medycznych, chcieliśmy sprawić, by były one łatwo osiągalne dla pracowników służby zdrowia. Dlatego połączyliśmy dane medyczne z reprezentacją wizualną. Wyszliśmy z założenia, że jak najprostszy sposób manipulowania nimi może poprawić jakość opieki nad pacjentem - wyjaśnia nadzorujący przebieg projektu Andre Elisseeff.

Lekarz, przeglądając konkretny obszar ciała pacjenta, będzie jednocześnie widział wszelkie wyniki badań (w tym zdjęcia wykonane różnymi technikami obrazowania medycznego).
ASME korzysta również z SNOMEDU, usystematyzowanego słownika terminologii medycznej, który zawiera około 300 000 pojęć. Znakomicie poprawia on interakcje i łączy dane tradycyjne z obrazem 3D.

Teraz naukowcy pracują nad zaimplementowaniem w ASME technologii mowy.

Share this post


Link to post
Share on other sites
Guest shadowmajk

Podoba mi sie :) ogolnie wspanialy pomysl IBM <3

Share this post


Link to post
Share on other sites

Bardzo ciekawy pomysł. Mam tylko pewne wątpliwości, czy się przyjmie i czy tak naprawdę będzie rzeczywiście ułatwiał pracę, czy tylko stanie się gadżetem. Nie bez podstaw to piszę, bo miałem okazję oglądać pracę kilku laboratoriów tomografii (zarówno tomografii rentgenowskiej, jak i NMR) i zdecydowana większość zarówno radiologów, jak i np. chirurgów korzystała wyłącznie z obrazów 2D, choć od dawna mogą stosować obrazy trójwymiarowe. Nie zdziwię się, jeśli wielu klinicystów będzie też wolało tradycyjną kartotekę medyczną, co najwyżej podzieloną na "działy tematyczne" jak np. "układ pokarmowy", "układ nerwowy" itd. Swoją drogą nawet przygotowując się bezpośrednio do operacji większość lekarzy woli mieć kilka zdjęć 2D z kilku perspektyw, niż jedną projekcję 3D. No, ale na pewno projekt jest ciekawy i jeśli pomoże chociaż jednemu lekarzowi lepiej pomagać, to jest tego wart :)

Share this post


Link to post
Share on other sites

To takie Vudu dla lekarzy, pyk pacjęta (awatra) w nereczkę i już mamy stóweczkę ;D

a tak na serio to może łatwiej by było się zoriętować co pacjęt ma chore

gdyby ten ludek na ekranie barwił narządy chore i wymusiłoby to statystykę danych oraz dało wnioski co do podobnych przypadków i ich metod leczenia, oraz ograniczyło liczbę archiwów oraz było cennym zagłębiem danych o nowych epidemiach (niekoniecznie śmiertelnych).

Share this post


Link to post
Share on other sites

No dobra, tylko jak w takim awatarze zabarwić choćby przysadkę, która może powodować poważne komplikacje, a sama ma wagę 7 gramów? Gdyby opierać się na wizualizacji, lekarz mógłby przeoczyć taką zmianę w "kartotece 3D". Tymczasem zwykła kartka papieru lub formularz elektroniczny z zapisem "Nadczynność przysadki" po pierwsze jest bardzo czytelna, po drugie zawiera znacznie więcej informacji, niż czerwona plamka na takiej projekcji. W takim przypadku niezwykle łatwe byłoby też przeprowadzanie statystyk, szczególnie gdyby wprowadzić pełną standaryzację wprowadzanych danych - wyszukujesz wszystkich pacjentów, szukasz wspólnych elementów w ich historiach choroby, a potem snujesz wnioski oparte o statystykę. Takie coś już dziś funkcjonuje np. w genetyce onkologicznej: na podstawie konfiguracji alleli można z dużym prawdopodobieństwem określić rodzaj i stopień złośliwości nowotworu (a przez to określić optymalną metodę diagnostyki), wiek zachorowania, a nawet często przewidzieć reakcję danej pacjentki na określoną chemioterapię no i oczywiście jej skuteczność.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now
Sign in to follow this  

  • Similar Content

    • By KopalniaWiedzy.pl
      IBM uruchomił w Nowym Jorku Quantum Computation Center, w którym znalazł się największy na świecie zbiór komputerów kwantowych. Wkrótce dołączy do nich nich 53-kubitowy system, a wszystkie maszyny są dostępne dla osób i instytucji z zewnątrz w celach komercyjnych i naukowych.
      Quantum Computation Center ma w tej chwili ponad 150 000 zarejestrowanych użytkowników oraz niemal 80 klientów komercyjnych, akademickich i badawczych. Od czasu, gdy w 2016 roku IBM udostępnił w chmurze pierwszy komputer kwantowy, wykonano na nim 14 milionów eksperymentów, których skutkiem było powstanie ponad 200 publikacji naukowych. W związku z rosnącym zainteresowaniem obliczeniami kwantowymi, Błękity Gigant udostępnił teraz 10 systemów kwantowych, w tym pięć 20-kubitowych, jeden 14-kubitowy i cztery 5-kubitowe. IBM zapowiada, że w ciągu miesiąca liczba dostępnych systemów kwantowych wzrośnie do 14. Znajdzie się wśród nich komputer 53-kubitowy, największy uniwersalny system kwantowy udostępniony osobom trzecim.
      Nasza strategia, od czasu gdy w 2016 roku udostępniliśmy pierwszy komputer kwantowy, polega na wyprowadzeniu obliczeń kwantowych z laboratoriów, gdzie mogły z nich skorzystać nieliczne organizacje, do chmur i oddanie ich w ręce dziesiątków tysięcy użytkowników, mówi Dario Gil, dyrektor IBM Research. Chcemy wspomóc rodzącą się społeczność badaczy, edukatorów i deweloperów oprogramowania komputerów kwantowych, którzy dzielą z nami chęć zrewolucjonizowania informatyki, stworzyliśmy różne generacje procesorów kwantowych, które zintegrowaliśmy w udostępnione przez nas systemy kwantowe.
      Dotychczas komputery kwantowe IBM-a zostały wykorzystane m.in. podczas współpracy z bankiem J.P. Morgan Chase, kiedy to na potrzeby operacji finansowych opracowano nowe algorytmy przyspieszające pracę o całe rzędy wielkości. Pozwoliły one na przykład na osiągnięcie tych samych wyników dzięki dostępowi do kilku tysięcy przykładów, podczas gdy komputery klasyczne wykorzystujące metody Monte Carlo potrzebują milionów próbek. Dzięki temu analizy finansowe mogą być wykonywane niemal w czasie rzeczywistym. Z kolei we współpracy z Mitsubishi Chemical i Keio University symulowano początkowe etapy reakcji pomiędzy litem a tlenem w akumulatorach litowo-powietrznych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Badacze IBM-a postawili sobie ambitny cel. Chcą co roku dwukrotnie zwiększać wydajność komputerów kwantowych tak, by w końcu były one szybsze lub bardziej wydajne niż komputery klasyczne. Podczas tegorocznych targów CES IBM pokazał przełomowe urządzenie: IBM Q System One, pierwszy komputer kwantowy, który ma być gotowy do komercyjnego użytku.
      Celem IBM-a jest coś, co nazywają „Quantum Advantage” (Kwantowa przewaga). Zgodnie z tym założeniem komputery kwantowe mają zyskać „znaczną” przewagę nad komputerami klasycznymi. Przez „znaczną” rozumie się tutaj system, który albo będzie setki lub tysiące razy szybszy od komputerów kwantowych, albo będzie wykorzystywał niewielki ułamek pamięci potrzebny maszynom kwantowym lub też będzie w stanie wykonać zadania, jakich klasyczne komputery wykonać nie są.
      Wydajność komputera kwantowego można opisać albo za pomocą tego, jak sprawują się poszczególne kubity (kwantowe bity), albo też jako ogólną wydajność całego systemu.
      IBM poinformował, że Q System One może pochwalić się jednym z najniższych odsetków błędów, jakie kiedykolwiek zmierzono. Średni odsetek błędów na dwukubitowej bramce logicznej wynosi mniej niż 2%, a najlepszy zmierzony wynik to mniej niż 1%. Ponadto system ten jest bliski fizycznemu limitowi czasów koherencji, który w w przypadku Q System One wyniósł średnio 73 ms.To oznacza, że błędy wprowadzane przez działanie urządzenia są dość małe i zbliżamy się do osiągnięcia minimalnego możliwego odsetka błędów, oświadczyli badacze IBM-a.
      Błękitny Gigant stworzył też Quantum Volume, system pomiaru wydajności komputera kwantowego jako całości. Bierze on pod uwagę zarówno błędy na bramkach, błędyh pomiarów czy wydajność kompilatora. Jeśli chcemy osiągnąć Quantum Advantage w latach 20. XXI wieku, to każdego roku wartość Quantum Volume musi się co najmniej podwajać, stwierdzili badacze. Na razie udaje im się osiągnąć cel. Wydajność pięciokubitowego systemu Tenerife z 2017 roku wynosiła 4. W 2018 roku 20-kubitowy system IBM Q osiągnął w teście Quantum Volume wynik 8. Najnowszy zaś Q System One nieco przekroczył 16.
      Sądzimy, że obecnie przyszłość komputerów to przyszłość komputerów kwantowych, mówią specjaliści z IBM-a.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM poinformował o podpisaniu porozumienia, w ramach którego Błękitny Gigant przejmie znanego producenta jednej z dystrybucji Linuksa, firmę Red Hat. Transakcja będzie warta 34 miliardy dolarów. Jeśli do niej dojdzie będzie to trzecia największa w historii akwizycja na rynku IT.
      Umowa przewiduje, że IBM wykupi akcje Red Hata, płacąc za każdą z nich 190 dolarów. Na zamknięciu ostatniej sesji giełdowej przed ogłoszeniem transakcji akcje Red Hata kosztowały 116,68 USD.
      Przejęcie Red Hata zmieni zasady gry. Całkowicie zmieni rynek chmur obliczeniowych, mówi szef IBM-a Ginni Rometty. "IBM stanie się największym na świecie dostawcą dla hybrydowych chmur i zaoferuje przedsiębiorcom jedyną otwartą architekturę chmur, dzięki której klient będzie mógł uzyskać z niej maksimum korzyści", dodał. Zdaniem menedżera obenie większość firm wstrzymuje się z rozwojem własnych chmur ze względu na zamknięte architektury takich rozwiązań.
      Jeszcze przed kilku laty IBM zajmował się głównie produkcją sprzętu komputerowego. W ostatnim czasie firma zdecydowanie weszła na takie rynki jak analityczny czy bezpieczeństwa. Teraz ma zamiar konkurować z Microsoftem, Amazonem czy Google'em na rynku chmur obliczeniowych.
      Po przejęciu Red Hat będzie niezależną jednostką zarządzaną przez obecnego szefa Jima Whitehursta i obecny zespół menedżerów. To ważny dzień dla świata open source. Doszło do największej transakcji w historii rynku oprogramowania i bierze w tym udział firma zajmująca się otwartym oprogramowaniem. Tworzymy historię, dodał Paul Cormier, wiceprezes Red Hata.
      Obecnie Red Hat ma siedziby w 35 krajach, zatrudnia około 12 000 osób je jest jednym z największych oraz najbardziej znanych graczy na rynku open source. W roku 2018 zysk firmy wyniósł 259 milionów dolarów czy przychodach rzędu 2,9 miliarda USD. Dla porównania, w 2017 roku przychody IBM-a zamknęły się kwotą 79 miliardów dolarów, a zysk to 5,8 miliarda USD.
      Na przejęcie muszą się jeszcze zgodzić akcjonariusze Red Hata oraz odpowiednie urzędy antymonopolowe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      IBM pokaże dzisiaj prototypowy optyczny układ scalony „Holey Optochip“. To pierwszy równoległy optyczny nadajnik-odbiornik pracujący z prędkością terabita na sekundę. Urządzenie działa zatem ośmiokrotnie szybciej niż inne tego typu kości. Układ pozwala na tak szybki transfer danych, że mógłby obsłużyć jednocześnie 100 000 typowych użytkowników internetu. Za jego pomocą można by w ciągu około godziny przesłać zawartość Biblioteki Kongresu USA, największej biblioteki świata.
      Holey Optochip powstał dzięki wywierceniu 48 otworów w standardowym układzie CMOS. Dało to dostęp do 24 optycznych nadajników i 24 optycznych odbiorników. Przy tworzeniu kości zwrócono też uwagę na pobór mocy. Jest on jednym z najbardziej energooszczędnych układów pod względem ilości energii potrzebnej do przesłania jednego bita informacji. Holey Optochip potrzebuje do pracy zaledwie 5 watów.
      Cały układ mierzy zaledwie 5,2x5,8 mm. Odbiornikami sygnału są fotodiody, a nadajnikami standardowe lasery półprzewodnikowe VCSEL pracujące emitujące światło o długości fali 850 nm.
    • By KopalniaWiedzy.pl
      Podczas odbywającego się właśnie dorocznego spotkania Amerykańskiego Towarzystwa Fizycznego specjaliści z IBM-a poinformowali o dokonaniu trzech przełomowych kroków, dzięki którym zbudowanie komputera kwantowego stanie się możliwe jeszcze za naszego życia.
      Jednym z najważniejszych wyzwań stojących przed ekspertami zajmującymi się kwantowymi komputerami jest dekoherencja. To wywołana oddziaływaniem czynników zewnętrznych utrata właściwości kwantowych przez kubity - kwantowe bity. Koherencja wprowadza błędy do obliczeń kwantowych. Jednak jeśli udałoby się utrzymać kwantowe bity przez wystarczająco długi czas można by przeprowadzić korektę błędów.
      Eksperci z IBM-a eksperymentowali ostatnio z „trójwymiarowymi“ nadprzewodzącymi kubitami, które zostały opracowane na Yale University. Ich prace pozwoliły na dokonanie przełomu. Udało się im utrzymać stan kwantowy kubitu przez 100 mikrosekund. To 2 do 4 razy więcej niż poprzednie rekordy. A co najważniejsze, to na tyle długo by przeprowadzić korekcję błędów na kubitach 3D.
      Drugi z przełomowych kroków to powstrzymanie dekoherencji zwykłego „dwuwymiarowego“ kubitu przez 10 mikrosekund. W przypadku takich kubitów wystarczy to do przeprowadzenia korekcji błędów.
      Utrzymanie przez tak długi czas kubitu pozwoliło na dokonanie trzeciego z przełomów. Udało się bowiem przeprowadzić na dwóch kubitach operację CNOT (controlled-NOT) z dokładnością 95-98 procent. To niezwykle ważne osiągnięcie, gdyż bramka CNOT w połączeniu z prostszymi bramkami kubitowymi może być skonfigurowana do przeprowadzenia dowolnej operacji logicznej.
      Od połowy 2009 roku IBM udoskonalił wiele technik związanych z komputerami kwantowymi. Najprzeróżniejsze aspekty związane z takimi maszynami udoskonalono od 100 do 1000 razy. W sumie wszystkie te techniki są bardzo bliskie spełnienia minimalnych wymagań stawianych przed praktycznym komputerem kwantowym.
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...