Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja projektuje układy scalone dla przyszłych generacji sztucznej inteligencji

Recommended Posts

Rynkowy sukces lub porażka układu scalonego zależą w dużej mierze od etapu jego projektowania. Wtedy właśnie zostają podjęte decyzje odnośnie umiejscowienia na krzemie modułów pamięci i elementów logicznych. Dotychczas zadania tego nie udawało się zautomatyzować, a etap projektowania zajmuje inżynierom całe tygodnie lub miesiące. Inżynierowie Google'a poinformowali właśnie, że stworzony przez nich system sztucznej inteligencji poradził sobie z częściowym zaprojektowaniem chipa w ciągu godzin.

Współczesne układy scalone składają się z miliardów tranzystorów, dziesiątek milionów bramek logicznych, tysiące bloków logicznych i łączących je kilometrów ścieżek. Lokalizacja poszczególnych układów i bloków logicznych odgrywa kluczową rolę dla przyszłej wydajności chipa. Specjaliści od dziesięcioleci pracują nad rozwiązaniami pozwalającymi zautomatyzować proces projektowania.

Jako że bloki logiczne to duże elementy, tysiące i miliony razy większe od bramek logicznych, bardzo trudno jest jednocześnie umieszczać bloki i bramki. Dlatego współcześni projektanci układów najpierw umieszczają na krzemie bloki, a wolne miejsca zostają zapełnione pozostałymi bramkami logicznymi.

Już samo rozmieszczenie bloków jest niezwykle wymagające. Eksperci Google'a obliczyli, że liczba możliwych kombinacji rozmieszczenia makrobloków, które brali pod uwagę w swoich badaniach, wynosi 102500.

Planując rozmieszczenie bloków, inżynierowie muszą pamiętać o pozostawieniu miejsca na inne elementy i ich łączenie. Azalia Mirhoseini i jej zespół poinformowali na łamach Nature o stworzeniu metody automatycznego wstępnego projektowania chipa w czasie krótszym niż 6 godzin, które swoimi wynikami dorównuje lub nawet przewyższa to, co potrafią doświadczeni inżynierowie.
naukowcy z Google'a wykorzystali techniki maszynowego uczenia się do wytrenowania swojego programu tak, by rozmieszczał na planie makrobloki. Po umieszczeniu każdego z nich program dokonuje oceny całego chipa, a następnie wykorzystuje to, czego się nauczył, do zaplanowania jak najlepszego kolejnego kroku.

Co interesujące, projekty tworzone przez google'owską SI znacząco różnią się od tego, jak projektuje człowiek. Sztuczna inteligencja rozpoczyna od największych makrobloków. Ponadto w jakiś sposób unika ciągłego poprawiania tego, co już zostało zrobione. Inżynierowie, po umieszczeniu kolejnych bloków, bardzo często poprawiają rozmieszczenie następnych. SI tego nie robi. Mimo to udało jej się zaprojektować układy, w których sygnał pomiędzy poszczególnymi elementami biegnie równie sprawnie, co między układami zaprojektowanymi przez ludzi.

Google już stosuje metody opracowane prze Mirhoseini do projektowania układów dla przyszłej generacji systemów sztucznej inteligencji. Tymczasem producenci układów scalonych próbują odtworzyć osiągnięcie Google'a i wdrożyć podobne rozwiązania do własnego procesu projektowania.


« powrót do artykułu

Share this post


Link to post
Share on other sites
5 godzin temu, KopalniaWiedzy.pl napisał:

Inżynierowie, po umieszczeniu kolejnych bloków, bardzo często poprawiają rozmieszczenie następnych.

Powinno być "poprawiają rozmieszczenie poprzednich".

5 godzin temu, KopalniaWiedzy.pl napisał:

SI tego nie robi.

Brzmi jak bug, a nie feature, ale:

5 godzin temu, KopalniaWiedzy.pl napisał:

Sztuczna inteligencja rozpoczyna od największych makrobloków.

To akurat ma sens - w miarę postępu pracy powstają coraz bardziej skomplikowane dziury, które w oczywisty sposób łatwiej wypełniać coraz mniejszymi blokami.
Jeśli ludzie robią inaczej, to łatwiej wpaść w pułapkę że nie da się wsadzić albo skomunikować dużego elementu. Do tego AI może precyzyjniej szacować, człowiek zawsze będzie robił więcej błędów niż maszyna.
Ludzie w pewnym sensie są bez szans - podobnie jak w szachach, ilość przykładów uczących mózg jest bardzo mała w porównaniu do ilości używanych do trenowania sieci neuronowych.

 

Share this post


Link to post
Share on other sites
W dniu 10.06.2021 o 15:57, peceed napisał:

Brzmi jak bug, a nie feature

Gdyby to był bug, wtedy jego wyeliminowanie przyniosłoby zauważalny wzrost wydajności, a to już - odnosząc się do ich twierdzeń - przekroczyłoby możliwości człowieka. Bylibyśmy więc u progu osobliwości technologicznej. Czyli, właściwie, nowej ery. 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Tajwański gigant TSMC, podczas Technology Symposium, zdradził nieco szczegółów na temat technologii 3- i 2-nanometrowych. Układy w technologii 3 nanometrów mają zjeżdżać z fabrycznych taśm w drugiej połowie przyszłego. roku. N3 będzie wykonany w technologii FinFET, a układy te mają być o 10-15 procent bardziej wydajne niż N5 przy tym samym poborze mocy.
      Zaś przy tej samej prędkości pracy N3 będą pobierały o 25–30 procent mniej energii niż N5. N3 pozwoli na zwiększenie gęstości upakowania układów logicznych o 70%, gęstość SRAM o 20%, a podzespołów analogowych o 10%. Wydaje się też, że klienci są bardzo zainteresowani układami N3. TSMC informuje, że już w tej chwili ma 2-krotnie więcej zamówień na N3 niż w analogicznym momencie było ich na N5.
      Jednak prawdziwym skokiem technologicznym dla TSMC będzie proces technologiczny N2. Układy 2-nanometrowe nie będą korzystały z technologii FinFET. Firma wykorzysta technologię nanopowłok. To najważniejsza zmiana od lat. TSMC informuje, że tranzystory z nanopowłok charakteryzują się aż 15-procentowym spadkiem zmienności napięcia progowego (Vt) w porównaniu  z „bardzo dobrymi” tranzystorami FinFET. W przemyśle półprzewodnikowym Vt odnosi się do minimalnego napięcia wymaganego, by obwód działał i nawet najmniejsza zmienność w tym zakresie może prowadzić do problemów projektowych oraz spadku wydajności układu, wyjaśniają przedstawiciele TSMC.
      Firma potwierdziła jednocześnie swoje plany odnośnie budowy fabryki produkującej układy w technologii N2. Fabryka taka powstanie w Hsinchu na Tajwanie, a firma właśnie negocjuje zakup ziemi pod jej budowę.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii.
      Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji.
      Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie.
      Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne.
      Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now.
      Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii.
      Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów.
      Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Prezydent Biden wezwał Kongres, by przyznał 50 miliardów USD na wsparcie rodzimego przemysłu półprzewodnikowego. Jeśli Kongres wyrazi zgodę, będzie oznaczało to spory wzrost w porównaniu z ubiegłorocznymi ustawami American Foundries Act of 2020 i Creating Helpful Incentives to Produce Semiconductors, gdzie na wsparcie przewidziano 37 miliardów USD.
      Prezydent Biden wierzy, że w naszym kraju powinniśmy wytwarzać technologie i towary, które spełniają dzisiejsze wymagania i pozwolą wykorzystać przyszłe szanse, oświadczył Biały Dom. Biden chce, by w ramach Departamentu Handlu powstało nowe biuro, które zajmie się monitorowaniem krajowego przemysłu półprzewodnikowego i wsparciem inwestycji w tym zakresie. Prezydent chciałby uzyskać w Kongresie wsparcie obu największych partii, jednak jest to mało prawdopodobne. Lider mniejszości, Mitch McConnell, skrytykował plan Białego Domu, nazywając go koniem trojańskim, za którym ukrywają się podwyżki podatków szkodzące przedsiębiorstwom i klasie średniej.
      Jednak propozycję Bidena trzeba widzieć w szerszym kontekście. Tylko w bieżącym roku wydatki inwestycyjne dwóch wielkich azjatyckich producentów półprzewodników – TSMC i Samsunga – sięgną co najmniej 55,5 miliarda dolarów. Zatem w ciągu roku będzie to kwota większa, niż rozłożona na wiele lat propozycja Bidena.
      Ponad 70 lat temu cała światowa produkcja półprzewodników odbywała się w USA. Obecnie w Stanach Zjednoczonych produkowanych jest 12% półprzewodników powstających na świecie. Co prawda USA produkują większość kluczowego oprogramowania i sprzętu dla przemysłu półprzewodnikowego, ale same półprzewodniki powstają głównie na Tajwanie, w Korei Południowej i Chinach.
      W ubiegłym miesiącu największy amerykański producent półprzewodników, Intel, ogłosił, że wchodzi na rynek produkcji chipów na zlecenie. Chce na nim konkurować z TSMC i Samsungiem. Rozpoczyna od zainwestowania 20 miliardów USD w Arizonie. Do życia powoływane jest osobne przedsiębiorstwo o nazwie Intel Foundry Services. Co istotne, plany Intela nie są uzależnione od rządowego wsparcia.
      Rosnąca dominacja Samsunga i TSMC niesie ze sobą istotne skutki biznesowe i geopolityczne. Południowokoreański Samsung znajduje się w zasięgu broni atomowej Korei Północnej, a Tajwanowi wciąż zagrażają Chiny, uznające ten kraj za swoją zbuntowaną prowincję.
      Od kilkunastu miesięcy USA i poszczególne kraje Europy próbują zmniejszyć swoje uzależnieni od dostaw półprzewodników z zagranicy i chcą odbudować możliwości produkcyjne swojego przemysłu półprzewodnikowego. Jednak tego typu działania mogą spalić na panewce.
      Jak mówi Bill McClean, prezes firmy IC Insight specjalizującej się w badaniu rynku półprzewodników, by realistycznie myśleć o przynajmniej częściowym powrocie przemysłu półprzewodnikowego do USA rząd musiałby wydawać co najmniej 30 miliardów USD rocznie przez co najmniej pięć lat. Z kolei Mark Liu, przewodniczący TSMC stwierdza, że rządowe projekty budowy własnych krajowych łańcuchów dostaw mogą skończyć się zablokowaniem zdolności produkcyjnych i spadkiem marginesu zysku. Zdaniem Liu, działania takie są nierealistyczne z ekonomicznego punktu widzenia.
      Oczywiście sensownym jest, by największe światowe gospodarki były w stanie produkować układy scalone na potrzeby swojej obronności i infrastruktury na własnym terytorium. Jednak przeniesienie całego łańcucha dostaw i samodzielność w dziedzinie półprzewodników jest całkowicie nieefektywna. Te dodatkowe moce produkcyjne nie byłyby ekonomicznie opłacalne, stwierdza Liu.
      Na razie nie wiadomo, jak miałoby wyglądać wzmocnienie pozycji USA na rynku produkcji półprzewodników. Czy polegałoby to na zachęceniu TSMC i Samsunga do budowy fabryk w Stanach Zjednoczonych, czy na wsparciu dla rodzimych producentów czy też byłoby połączeniem obu tych projektów. Wiadomo za to, że TSMC i Samsung zapowiedziały zwiększenie inwestycji w USA, jednocześnie zaś lobbują o wsparcie rządowe.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wg raportu Światowej Organizacji Zdrowia (WHO) spontaniczny przedwczesny poród dotyczy 15 milionów noworodków rocznie. Aż milion z nich umiera. Wiele przez całe życie mierzy się z niepełnosprawnością.
      Wykorzystywana powszechnie manualna analiza obrazów ultrasonograficznych umożliwia wykrycie ewentualnych problemów, ale nie jest to metoda doskonała.
      Problem ten dostrzegają lekarze. W 2017 roku Nicole Sochacki-Wójcicka (w trakcie specjalizacji z ginekologii) oraz Jakub Wójcicki zgłosili się do dr. Tomasza Trzcińskiego z Wydziału Elektroniki i Technik Informacyjnych PW z pytaniem, czy jest możliwość zrealizowania projektu predykcji spontanicznego przedwczesnego porodu z wykorzystaniem sieci neuronowych.
      Wtedy powstał zespół badawczy i zaczęły się prace. Pierwsze efekty już znamy.
      Nasze rozwiązanie może wspomóc diagnostykę komputerową i pozwolić z większą dokładnością przewidywać spontaniczne przedwczesne porody – wyjaśnia Szymon Płotka, absolwent Politechniki Warszawskiej i jeden z członków zespołu pracującego nad projektem.
      Wytrenować sieć neuronową
      Przed rozpoczęciem projektu, współpracujący z nami lekarze przygotowali zestaw danych uczących, walidacyjnych oraz adnotacji w formie obrysu kształtu szyjek macicy na obrazach ultrasonograficznych oraz numerycznych (0 i 1), odpowiadającymi kolejno: poród w terminie, poród przedwczesny – wyjaśnia Szymon Płotka.
      Po wstępnym oczyszczeniu takie dane są wykorzystywane jako dane „uczące” sieć neuronową – w tym przypadku konwolucyjną (splotową).
      Analizuje ona każde zdjęcie piksel po pikselu, wyodrębniając z nich niezbędne cechy, które posłużą do zadania segmentacji interesującego nas fragmentu obrazu (w tym przypadku szyjki macicy) oraz klasyfikacji (czy mamy do czynienia z porodem przedwczesnym, czy nie) – tłumaczy dalej Szymon Płotka.W trakcie treningu sieć neuronowa testuje swoje predykcje na zbiorze walidacyjnym. Po zakończeniu trenowania sieci neuronowej, jest ona sprawdzana na danych testowych, które nie zostały wykorzystane w ramach treningu. W ten sposób weryfikuje się poprawność wytrenowanego modelu.
      W ramach projektu powstały dwie publikacje naukowe.
      Efektem prac opisanych w „Estimation of preterm birth markers with U-Net segmentation network” (publikacja dostępna tutaj i tutaj) jest m.in. redukcja błędu predykcji spontanicznych przedwczesnych porodów z 30% (manualnie przez lekarzy) do 18% przez sieć neuronową.
      W „Spontaneous preterm birth prediction using convolutional neural networks” (szczegóły tutaj i tutaj) naukowcy zaprezentowali poprawę jakości segmentacji w stosunku do pierwszej publikacji i uzyskali lepsze wyniki klasyfikacji.
      Zgodnie z naszą najlepszą wiedzą, są to jedyne istniejące prace podejmujące się zadania predykcji spontanicznego przedwczesnego porodu w oparciu o transwaginalne obrazy ultrasonograficzne – mówi Szymon Płotka.
      Naukowcy pracują obecnie nad serwisem w formie aplikacji internetowej. Chcą tam udostępnić przygotowane modele sieci neuronowej. Ma to pomóc ginekologom analizować obrazy ultrasonograficzne i tym samym wesprzeć diagnostykę spontanicznego przedwczesnego porodu. A to może uratować życie i zdrowie milionów noworodków.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W medycynie nuklearnej sztuczna inteligencja wkroczyła już na III i IV poziom w pięciostopniowej skali. Oznacza ona oszczędność czasu, szansę uniknięcia błędów ludzkich i skuteczniejsze terapie dla pacjentów – ocenia prof. Janusz Braziewicz z Polskiego Towarzystwa Medycyny Nuklearnej.
      Wkraczająca do nowoczesnej medycyny sztuczna inteligencja budzi skrajne emocje: w środowisku medycznym jak i w społeczeństwie jedni wiążą z nią duże nadzieje, inni mają obawy i wątpliwości. Tak jest np. z medycyną nuklearną, w której wykorzystywane są nowoczesne technologie.
      Prof. Janusz Braziewicz, kierownik Zakładu Medycyny Nuklearnej z Ośrodkiem PET w Świętokrzyskim Centrum Onkologii twierdzi, że zaawansowanie automatyzacji i sztucznej inteligencji w medycynie nuklearnej jest już na tyle duże, ze wkroczyło na III i IV poziom w pięciostopniowej skali.
      Pierwszy poziom oznacza jedynie działania manualne, drugi – maszynowo-manualne, a trzeci – zautomatyzowane działania maszynowo-manualne. Na czwartym poziomie pojawia się automatyzacja, ale „z ludzką ręką”, piąty oznacza pełną automatyzację.
      W diagnostyce obrazowej wygląda to w ten sposób, że na poziomie III (warunkowej automatyzacji) skaner czy system opisowy pod wpływem operatora dostosowuje się do narzucanych mu warunków i wykonuje zlecone zadanie.
      Obecnie obserwujemy duże przyspieszenie technologiczne i wejście na poziom IV (wysokiej automatyzacji), kiedy to system automatycznie przetwarza samodzielnie pozyskane dane i dostarcza specjaliście wstępnie przeanalizowane informacje. Ma to miejsce na przykład wówczas, kiedy system zeskanuje ułożonego na stole skanera PET/TK pacjenta i na podstawie swego rodzaju skanu topogramowego, w oparciu o analizę danych anatomicznych chorego zaproponuje wykonanie skanu PET i tomografu komputerowego z uwzględnieniem wskazania klinicznego i sylwetki pacjenta – wyjaśnia w informacji przekazanej PAP prof. Braziewicz, członek Zarządu Polskiego Towarzystwa Medycyny Nuklearnej.
      Odbywa się to z użyciem automatycznie dostosowanych parametrów akwizycji, z minimum wymaganej dawki promieniowania ze strony tomografu komputerowego. Algorytm po stronie PET ustala: szybkość przesuwu łóżka podczas płynnego skanowania różnych części ciała pacjenta, zastosowanie różnych matryc rekonstrukcyjnych, zastosowanie bramkowania oddechowego dla odpowiedniego obszaru klatki piersiowej i tułowia.
      Według prof. Braziewicza bezzasadne są zatem obawy, że komputery zastąpią lekarzy. W przypadku diagnostyki obrazowej stają się one wręcz niezbędne. Powodem jest choćby lawinowy wzrost diagnostycznych badań obrazowych, w tym również z zakresu medycyny nuklearnej. Jedynie w latach 2000-2010 liczba badań tomografii komputerowej i rezonansu magnetycznego wzrosła dziesięciokrotnie. Z kolei w medycynie nuklearnej taki gwałtowny wzrost liczby badań SPECT i PET przypada na okres po 2010 r.
      W ślad za tym nie następuje niestety proporcjonalny wzrost liczby dostępnych lekarzy specjalistów, którzy mogliby je szybko i rzetelnie przeprowadzić. Brakuje także wyszkolonych techników, korzystających z zaawansowanych metod akwizycji z zastosowaniem narzędzi, jakie oferuje dany skaner. Efektem jest przeciążenie ilością pracy poszczególnych grup specjalistów i często coraz dłuższy czas oczekiwania na opisanie badań. Co istotne, presja obniża jakość pracy. Jak pokazują badania, jeśli skróci się o 50 proc. czas na interpretację badania radiologicznego, to stosunek błędów interpretacyjnych wzrośnie o niemal 17 proc. – zaznacza prof. Janusz Braziewicz.
      Sztuczna inteligencja w coraz bardziej skomplikowanej i wymagającej diagnostyce obrazowej może zatem usprawnić i wspomóc pracę lekarza. Wdrożenia algorytmów opartych na Artificial Intelligence (AI) przynoszą oszczędność czasu i szansę na pełną standaryzację procedur, ale także na uniknięcie błędów ludzkich i skuteczniejsze, spersonalizowane terapie dla pacjentów – twierdzi specjalista.
      Obecnie medycy nuklearni rozwijają nowy trend teranostyki, który wydaje się być przyszłością personalizowanej medycyny poprzez ścisłe połączenie diagnostyki i terapii w celu dobrania do potrzeb konkretnego pacjenta celowanego leczenia. W obszarze sztucznej inteligencji medycy nuklearni coraz częściej wspierają proces terapii, pomagając w ocenie trafności i zasadności zaleconego leczenia już w początkowej jego fazie. Nie bez znaczenia jest w tym kontekście wykorzystywanie hybrydowych badań PET/CT na przykład w planowaniu radioterapii – tłumaczy prof. Janusz Braziewicz.
      Sztuczna inteligencja określa proces, w którym maszyna, czyli komputer, uczy się i naśladuje funkcje poznawcze specyficzne dla człowieka, aby wykonywać zadania, jakie zwyczajowo wykonywane są przez ludzki umysł: rozpoznawanie obrazów, identyfikacja różnic czy stawianie logicznych wniosków i prognozowanie. W procesie deep learning komputer już nie organizuje danych i nie wykonuje wcześniej zdefiniowanych ciągów równań, ale zbiera podstawowe parametry dotyczące tych danych i jest tak zaprogramowany, że przygotowuje się do samodzielnego uczenia się przez rozpoznawanie wzorców przy użyciu wielu kolejnych warstw przetwarzania.
      Trzeba mieć zatem świadomość, że algorytmy AI będą tak dobre, jak dane, na których były trenowane. Wyzwaniem będzie zatem zgromadzenie odpowiednio opracowanych dużych zestawów danych oraz odpowiednio wydajnych centrów obliczeniowych – uważa przedstawiciel Polskiego Towarzystwa Medycyny Nuklearnej.
      Jego zdaniem szanse zastosowania sztucznej inteligencji w medycynie to przede wszystkim digitalizacja wszystkich danych dotyczących konkretnego pacjenta, z uwzględnieniem takich aspektów, jak miejsce zamieszkania, historia chorób w rodzinie, dotychczasowe hospitalizacje, podejmowane wcześniej terapie lekowe i obecnie przyjmowane leki, styl życia, rodzaj wykonywanej pracy, kondycja psychofizyczna.
      Ta ilość danych może być przetworzona przez wydajne komputery. Jeśli maszyny będą miały zaimplementowane algorytmy deep learning, jest szansa, że wesprą specjalistów w szybszej i trafniejszej diagnostyce oraz lepszej opiece farmakologicznej. Korzyści z wdrożeń sztucznej inteligencji może odnieść zatem cały system opieki zdrowotnej, w tym: świadczeniodawca, lekarz, ale przede wszystkim – sam pacjent – uważa specjalista.
      Podkreśla, że lekarze, którzy będą używać z dużą rozwagą i odpowiedzialnością systemów opartych na sztucznej inteligencji zastąpią tych, którzy ich nie będą używać. Tym bardziej, że w nowoczesnych rozwiązaniach nie mówimy już o wielkości danych generowanych przy badaniach i dalej poddawanych processingowi w gigabajtach, terabajtach czy nawet petabajtach. Bardzo szybko nadchodzi era eksabajtów danych – dodaje prof. Janusz Braziewicz.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...