Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Unia Europejska chce regulować sztuczną inteligencję

Recommended Posts

Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii.

Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji.

Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie.

Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne.

Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now.

Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii.

Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów.

Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Ot i popadli my w kałabanie, a czort karty rozdaje.

Tzn., że asystent googla, alexa, siri etc. też będzie zakazana? Pytanie jak zdefiniują AI...

18 godzin temu, KopalniaWiedzy.pl napisał:

Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

no bo już się zaczyna jak ze ślimakiem-rybą i krzywizną banana :)

Share this post


Link to post
Share on other sites
18 godzin temu, KopalniaWiedzy.pl napisał:

Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

Ależ to proste! Zakazać reklamy, całej, wszędzie. 

Share this post


Link to post
Share on other sites
13 minut temu, Jajcenty napisał:

Ależ to proste! Zakazać reklamy, całej, wszędzie. 

Bardziej by mnie ucieszyło, gdyby zakazali pytać o ciasteczka, tylko domyślnie mają być minimalne, a jak chcesz zwiększyć to sam musisz wejść w ustawienia (bez pop-upów). Do tego zakazać udostępniania "swojej" listy kontaktów z moim numerem telefonu wszelkiej maści aplikacjom/firmom. Cóż, bez reklamy nie miałbyś też i kopalni i gdzie byś to napisał? :)

Share this post


Link to post
Share on other sites

To jest bardzo zły i niebezpieczny kierunek. Jesteśmy naiwni skoro myślimy że takie rozwiązania są w trosce o naszą prywatność. Rozwiązania które chce wprowadzić Unia prowadzą do zwiększenia nierównowagi między koncernami i zwykłymi osobami. De facto są to rozwiązania, które uniemożliwiają ludziom wykorzystywać pozytywne walory AI - a które mogły by być ochroną przed działalnością koncernów, zmuszać koncerny do dzielenia się zyskami, i prowadzić aby każdy użytkownik był partnerem koncernu a nie dojną krową.

Podam prosty przykład. Załóżmy, że jest w pewnym miejscu inteligentny bilbord. Koncern chce aby mógł być spersonalizowany. Jeśli lubimy łowić ryby będzie wyświetlana reklama wędek, a jeśli górskich wędrówek to reklama plecaków. UE ogranicza naszą prywatność - więc koncern nie może posłużyć się naszymi danymi. AU wnioskuje o naszych preferencjach na podstawie np. sposobu chodzenia i tak personalizuje tą reklamę. Ma to 90% skuteczności. Strata dla koncernu żadna. Gdyby jednak prywatność nie była ograniczona, ustawodawca mógłby nakazać koncernowi aby każdemu oglądającemu bilbord płacić 0,03 grosza za przejście obok bilbordu. W przypadku tzw "ochrony prywatności" taka regulacja jest niemożliwa. W efekcie koncerny nie mają kosztu innego jak tylko opłata za miejsce i wyprodukowanie bilbordów. Zasr***ają każdą przestrzeń bilbordami, nie mają kosztów z tym związanych a my tracimy coś na czym moglibyśmy zarobić, a co byłoby po prostu uczciwe. Gdyby takie nano-płatności były możliwe, można by wręcz nieźle zarobić chodząc po całym mieście i oglądając bilbordy, a koncerny zaczęły by się zastanawiać czy na prawdę warto zasłaniać każdy jeden widok swoimi plakatami.

Przedstawiony przykład nie dotyczy tylko bilbordów, ale także wszelkich reklam np. w inteligentnej TV. Można to oczywiście rozszerzyć na całą gamę innych zjawisk jak nano-płatności za aktywność na wielu polach - w pracy, biznesie, rozrywce itp itd.

Ochrona prywatność dla koncernów jest szansą na darmowe dojenie nas, a my tracimy możliwość rekompensaty.

Chcę przez to powiedzieć, że to wszystko nie jest takie różowe jak przestawia to Unia, a jestem 100% przekonana o tym, że robi to pod naciskiem koncernów a nie zwykłych ludzi. To koncernom zależy na wprowadzeniu tych przepisów - a oni dobrze wiedzą co jest ich zyskiem a naszą stratą.

 

Share this post


Link to post
Share on other sites
2 minuty temu, Ergo Sum napisał:

Ochrona prywatność dla koncernów jest szansą na darmowe dojenie nas, a my tracimy możliwość rekompensaty.

Trochę Cię poniosło.

1. Koncern traci na "wyświetlaniu" reklam niespersonalizowanych, bo już płaci za ten bilbord, ale reklama niekoniecznie trafia do odbiorcy (bo ja łowić nie lubię więc wędki nie kupię).

2. Ja nie tracę możliwości rekompensaty, bo nie potrzebuję rekompensaty za utratę prywatności, bo tej prywatności nie tracę.

Cały sęk w tym, żeby uniemożliwić śledzenie (bezwarunkowe), a nie żeby ktoś mi za to zapłacił. Jak ktoś chce to ok, a nie tak jak teraz.

5 minut temu, Ergo Sum napisał:

jestem 100% przekonana

hmm, ja tam "wiem, że nic nie wiem"

Share this post


Link to post
Share on other sites
1 godzinę temu, radar napisał:

Cóż, bez reklamy nie miałbyś też i kopalni i gdzie byś to napisał? :)

Też tu. Skłonny jestem płacić za treść. Może wystarczy osobna domena? Szukam reklama.com:plecak+wędka

Mnie w reklamie dźga (w moją komunistyczną część światopoglądu) absurdalne pieniądze jakie się tam przewijają. Znaleziono sposób by za pomocą mikropłatności golić i absolutnie przeceniać pracę. Jeśli aktor otrzymuje 100 tys za 20 sekundową reklamę, której nakręcenie kosztowało go godzinę z dojazdem, to daje absurdalnie wysoką stawkę godzinową. Podobnie jest ze sportem, skąd te kwoty w piłce nożnej? Nikt przy zdrowych zmysłach nie zapłaci 30 tys za prywatny, półgodzinny występ na urodzinach syna - ta praca nie jest tyle warta, chyba że masz zaburzoną ocenę wartości pieniądza, o co łatwo skoro zarabiasz na reklamowaniu kremiku na młodość i wieczność. 

Wiem, stary komunista ze mnie :D Ale naprawdę wkurza mnie, że kupując proszek do prania, czy mając konto w banku finansuję czyjeś baseny z szampanem. Chętnie zobaczyłbym jak pozbawiona wpływów z reklam piłka pada na pysk i staje się normalną rozrywką starszych panów z brzuszkami.

Share this post


Link to post
Share on other sites
22 godziny temu, Jajcenty napisał:

Ależ to proste! Zakazać reklamy, całej, wszędzie. 

Tylko człowiekom, czy innym zwierzakom też i roślinom tak samo? :D

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Rynkowy sukces lub porażka układu scalonego zależą w dużej mierze od etapu jego projektowania. Wtedy właśnie zostają podjęte decyzje odnośnie umiejscowienia na krzemie modułów pamięci i elementów logicznych. Dotychczas zadania tego nie udawało się zautomatyzować, a etap projektowania zajmuje inżynierom całe tygodnie lub miesiące. Inżynierowie Google'a poinformowali właśnie, że stworzony przez nich system sztucznej inteligencji poradził sobie z częściowym zaprojektowaniem chipa w ciągu godzin.
      Współczesne układy scalone składają się z miliardów tranzystorów, dziesiątek milionów bramek logicznych, tysiące bloków logicznych i łączących je kilometrów ścieżek. Lokalizacja poszczególnych układów i bloków logicznych odgrywa kluczową rolę dla przyszłej wydajności chipa. Specjaliści od dziesięcioleci pracują nad rozwiązaniami pozwalającymi zautomatyzować proces projektowania.
      Jako że bloki logiczne to duże elementy, tysiące i miliony razy większe od bramek logicznych, bardzo trudno jest jednocześnie umieszczać bloki i bramki. Dlatego współcześni projektanci układów najpierw umieszczają na krzemie bloki, a wolne miejsca zostają zapełnione pozostałymi bramkami logicznymi.
      Już samo rozmieszczenie bloków jest niezwykle wymagające. Eksperci Google'a obliczyli, że liczba możliwych kombinacji rozmieszczenia makrobloków, które brali pod uwagę w swoich badaniach, wynosi 102500.
      Planując rozmieszczenie bloków, inżynierowie muszą pamiętać o pozostawieniu miejsca na inne elementy i ich łączenie. Azalia Mirhoseini i jej zespół poinformowali na łamach Nature o stworzeniu metody automatycznego wstępnego projektowania chipa w czasie krótszym niż 6 godzin, które swoimi wynikami dorównuje lub nawet przewyższa to, co potrafią doświadczeni inżynierowie.
      naukowcy z Google'a wykorzystali techniki maszynowego uczenia się do wytrenowania swojego programu tak, by rozmieszczał na planie makrobloki. Po umieszczeniu każdego z nich program dokonuje oceny całego chipa, a następnie wykorzystuje to, czego się nauczył, do zaplanowania jak najlepszego kolejnego kroku.
      Co interesujące, projekty tworzone przez google'owską SI znacząco różnią się od tego, jak projektuje człowiek. Sztuczna inteligencja rozpoczyna od największych makrobloków. Ponadto w jakiś sposób unika ciągłego poprawiania tego, co już zostało zrobione. Inżynierowie, po umieszczeniu kolejnych bloków, bardzo często poprawiają rozmieszczenie następnych. SI tego nie robi. Mimo to udało jej się zaprojektować układy, w których sygnał pomiędzy poszczególnymi elementami biegnie równie sprawnie, co między układami zaprojektowanymi przez ludzi.
      Google już stosuje metody opracowane prze Mirhoseini do projektowania układów dla przyszłej generacji systemów sztucznej inteligencji. Tymczasem producenci układów scalonych próbują odtworzyć osiągnięcie Google'a i wdrożyć podobne rozwiązania do własnego procesu projektowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wg raportu Światowej Organizacji Zdrowia (WHO) spontaniczny przedwczesny poród dotyczy 15 milionów noworodków rocznie. Aż milion z nich umiera. Wiele przez całe życie mierzy się z niepełnosprawnością.
      Wykorzystywana powszechnie manualna analiza obrazów ultrasonograficznych umożliwia wykrycie ewentualnych problemów, ale nie jest to metoda doskonała.
      Problem ten dostrzegają lekarze. W 2017 roku Nicole Sochacki-Wójcicka (w trakcie specjalizacji z ginekologii) oraz Jakub Wójcicki zgłosili się do dr. Tomasza Trzcińskiego z Wydziału Elektroniki i Technik Informacyjnych PW z pytaniem, czy jest możliwość zrealizowania projektu predykcji spontanicznego przedwczesnego porodu z wykorzystaniem sieci neuronowych.
      Wtedy powstał zespół badawczy i zaczęły się prace. Pierwsze efekty już znamy.
      Nasze rozwiązanie może wspomóc diagnostykę komputerową i pozwolić z większą dokładnością przewidywać spontaniczne przedwczesne porody – wyjaśnia Szymon Płotka, absolwent Politechniki Warszawskiej i jeden z członków zespołu pracującego nad projektem.
      Wytrenować sieć neuronową
      Przed rozpoczęciem projektu, współpracujący z nami lekarze przygotowali zestaw danych uczących, walidacyjnych oraz adnotacji w formie obrysu kształtu szyjek macicy na obrazach ultrasonograficznych oraz numerycznych (0 i 1), odpowiadającymi kolejno: poród w terminie, poród przedwczesny – wyjaśnia Szymon Płotka.
      Po wstępnym oczyszczeniu takie dane są wykorzystywane jako dane „uczące” sieć neuronową – w tym przypadku konwolucyjną (splotową).
      Analizuje ona każde zdjęcie piksel po pikselu, wyodrębniając z nich niezbędne cechy, które posłużą do zadania segmentacji interesującego nas fragmentu obrazu (w tym przypadku szyjki macicy) oraz klasyfikacji (czy mamy do czynienia z porodem przedwczesnym, czy nie) – tłumaczy dalej Szymon Płotka.W trakcie treningu sieć neuronowa testuje swoje predykcje na zbiorze walidacyjnym. Po zakończeniu trenowania sieci neuronowej, jest ona sprawdzana na danych testowych, które nie zostały wykorzystane w ramach treningu. W ten sposób weryfikuje się poprawność wytrenowanego modelu.
      W ramach projektu powstały dwie publikacje naukowe.
      Efektem prac opisanych w „Estimation of preterm birth markers with U-Net segmentation network” (publikacja dostępna tutaj i tutaj) jest m.in. redukcja błędu predykcji spontanicznych przedwczesnych porodów z 30% (manualnie przez lekarzy) do 18% przez sieć neuronową.
      W „Spontaneous preterm birth prediction using convolutional neural networks” (szczegóły tutaj i tutaj) naukowcy zaprezentowali poprawę jakości segmentacji w stosunku do pierwszej publikacji i uzyskali lepsze wyniki klasyfikacji.
      Zgodnie z naszą najlepszą wiedzą, są to jedyne istniejące prace podejmujące się zadania predykcji spontanicznego przedwczesnego porodu w oparciu o transwaginalne obrazy ultrasonograficzne – mówi Szymon Płotka.
      Naukowcy pracują obecnie nad serwisem w formie aplikacji internetowej. Chcą tam udostępnić przygotowane modele sieci neuronowej. Ma to pomóc ginekologom analizować obrazy ultrasonograficzne i tym samym wesprzeć diagnostykę spontanicznego przedwczesnego porodu. A to może uratować życie i zdrowie milionów noworodków.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Google zagroził zbanowaniem całej Australii, a Facebook zapowiada, że usunie ze swojego news feeda treści z australijskich mediów. Wszystko dlatego, że parlament Australii toczy debatę na temat ustawy, zgodnie z którą firmy takie jak Google i Facebook zostałyby zobowiązane do zapłaty autorom za treści, które wykorzystują. Ustawa przewiduje, że jeśli strony nie doszłyby do porozumienia ws. stawek, koncerny internetowe musiałyby płacić stawki określone w ustawie.
      Dyrektor Google Australia, Mel Silva, poinformowała, że ustawa taka stanowiłaby „niebezpieczny precedens”, a sama firma przedstawiła rządowi ultimatum, w którym grozi, że przestanie świadczyć swoje usługi na terenie Australii.
      Prawo do nieograniczonego linkowania pomiędzy witrynami to podstawa działania wyszukiwarki, jeśli nowe przepisy weszłyby w życie działanie wyszukiwarki byłoby związane z olbrzymim ryzykiem finansowym i operacyjnym i nie mielibyśmy innego wyjścia, niż zaprzestanie oferowania usług Google Search na terenie Australii, stwierdziła Silva podczas przesłuchań przed Senatem. Dodała przy tym, że firma jest skłonna do płacenia mediom za tworzone przez nich treści i podała przykład około 450 tego typu umów, jakie Google podpisało z firmami na całym świecie.
      Premier Australii Scott Morrison oświadczył, ze jego rząd nie będzie reagował na groźby. Niech wszystko będzie jasne. To Australia określa, co można robić na terenie Australii. Takie decyzje są podejmowane przez nasz parlament i przez nasz rząd. Tak to działa w Australii. Ci, którzy się z tym zgadzają, są przez nas chętnie widziani.
      Najlepszym dowodem na to, że sprawy zaszły za daleko jest fakt, że prywatna firma, korzystając ze swojej monopolistycznej decyzji, próbuje zastraszać suwerenne państwo, mówi Chris Cooper, dyrektor organizacji Reset Australia, która stara się o uregulowanie działalności koncernów technologicznych.
      Z kolei przedstawiciele australijskiego Facebooka stwierdzili, że jeśli nowe przepisy zostaną uchwalone, to nie tylko media, ale również zwykli Australijczycy nie będą mogli umieszczać w news feedzie odnośników do australijskich mediów. Josh Machin, dyrektor ds. polityki w Facebook Australia powiedział podczas przesłuchania przed parlamentem, że w feedzie przeciętnego użytkownika informacje z mediów stanowią jedynie 5% treści i Facebook nie odnosi z nich zbyt dużych korzyści finansowych.
      Słowa te skomentował Dan Stinton dyrektor australijskiej wersji Guardiana, który stwierdził, że informacje prasowe angażują użytkowników Facebooka, powodują, że ci dłużej w serwisie pozostają, klikają, więc dziwić mogą słowa Machina twierdzącego, że nie przynosi to serwisowi korzyści materialnych.
      Niezależny senator Rex Patrick porównał odpowiedź Google'a z reakcją Chin, które zagroziły Australii wojną handlową, gdyby australijskie władze prowadziły śledztwo ws. wybuchu pandemii COVID-19. Wy nie usiłujecie chronić praw użytkowników do wyszukiwania. Wy usiłujecie chronić swoje konto bankowe, stwierdził Patrick.
      Przeciwnicy narzucenia regulacji twierdzą, że bronią wolnego internetu. Jednak Dan Stinton zwraca uwagę, że wolny internet, o którym mówią, przestał istnieć wiele lat temu i obecnie jest zdominowany przez kilka wielkich amerykańskich korporacji. Sinton dodaje, że z Facebooka korzysta 17 milionów Australijczyków, a z Google'a – 19 milionów. O tym, co Australijczycy robią w internecie decydują algorytmy tych firm, stwierdza Stinton. Smaczku całemu sporowi dodaje fakt, że przedstawiciele Google'a przyznali, iż w ramach eksperymentu celowo ukrywali w wyszukiwarce pewne treści. Zapewnili jednak, że to nie problem, gdyż były one ukrywane przed 1% australijskiej populacji.
      Nowa ustawa trafiła do parlamentu po 18-miesięcznym przeglądzie dokonanym przez Australijską Komisję ds. Konkurencji i Konsumentów. Urząd stwierdził, że monopolistyczna pozycja gigantów IT, jaką ci mają w stosunku do mediów, jest groźna dla demokracji.
      W spór włączył się rząd USA. Jego przedstawiciele wyrazili zaniepokojenie próbą regulowania na drodze ustawowej pozycji graczy rynkowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W medycynie nuklearnej sztuczna inteligencja wkroczyła już na III i IV poziom w pięciostopniowej skali. Oznacza ona oszczędność czasu, szansę uniknięcia błędów ludzkich i skuteczniejsze terapie dla pacjentów – ocenia prof. Janusz Braziewicz z Polskiego Towarzystwa Medycyny Nuklearnej.
      Wkraczająca do nowoczesnej medycyny sztuczna inteligencja budzi skrajne emocje: w środowisku medycznym jak i w społeczeństwie jedni wiążą z nią duże nadzieje, inni mają obawy i wątpliwości. Tak jest np. z medycyną nuklearną, w której wykorzystywane są nowoczesne technologie.
      Prof. Janusz Braziewicz, kierownik Zakładu Medycyny Nuklearnej z Ośrodkiem PET w Świętokrzyskim Centrum Onkologii twierdzi, że zaawansowanie automatyzacji i sztucznej inteligencji w medycynie nuklearnej jest już na tyle duże, ze wkroczyło na III i IV poziom w pięciostopniowej skali.
      Pierwszy poziom oznacza jedynie działania manualne, drugi – maszynowo-manualne, a trzeci – zautomatyzowane działania maszynowo-manualne. Na czwartym poziomie pojawia się automatyzacja, ale „z ludzką ręką”, piąty oznacza pełną automatyzację.
      W diagnostyce obrazowej wygląda to w ten sposób, że na poziomie III (warunkowej automatyzacji) skaner czy system opisowy pod wpływem operatora dostosowuje się do narzucanych mu warunków i wykonuje zlecone zadanie.
      Obecnie obserwujemy duże przyspieszenie technologiczne i wejście na poziom IV (wysokiej automatyzacji), kiedy to system automatycznie przetwarza samodzielnie pozyskane dane i dostarcza specjaliście wstępnie przeanalizowane informacje. Ma to miejsce na przykład wówczas, kiedy system zeskanuje ułożonego na stole skanera PET/TK pacjenta i na podstawie swego rodzaju skanu topogramowego, w oparciu o analizę danych anatomicznych chorego zaproponuje wykonanie skanu PET i tomografu komputerowego z uwzględnieniem wskazania klinicznego i sylwetki pacjenta – wyjaśnia w informacji przekazanej PAP prof. Braziewicz, członek Zarządu Polskiego Towarzystwa Medycyny Nuklearnej.
      Odbywa się to z użyciem automatycznie dostosowanych parametrów akwizycji, z minimum wymaganej dawki promieniowania ze strony tomografu komputerowego. Algorytm po stronie PET ustala: szybkość przesuwu łóżka podczas płynnego skanowania różnych części ciała pacjenta, zastosowanie różnych matryc rekonstrukcyjnych, zastosowanie bramkowania oddechowego dla odpowiedniego obszaru klatki piersiowej i tułowia.
      Według prof. Braziewicza bezzasadne są zatem obawy, że komputery zastąpią lekarzy. W przypadku diagnostyki obrazowej stają się one wręcz niezbędne. Powodem jest choćby lawinowy wzrost diagnostycznych badań obrazowych, w tym również z zakresu medycyny nuklearnej. Jedynie w latach 2000-2010 liczba badań tomografii komputerowej i rezonansu magnetycznego wzrosła dziesięciokrotnie. Z kolei w medycynie nuklearnej taki gwałtowny wzrost liczby badań SPECT i PET przypada na okres po 2010 r.
      W ślad za tym nie następuje niestety proporcjonalny wzrost liczby dostępnych lekarzy specjalistów, którzy mogliby je szybko i rzetelnie przeprowadzić. Brakuje także wyszkolonych techników, korzystających z zaawansowanych metod akwizycji z zastosowaniem narzędzi, jakie oferuje dany skaner. Efektem jest przeciążenie ilością pracy poszczególnych grup specjalistów i często coraz dłuższy czas oczekiwania na opisanie badań. Co istotne, presja obniża jakość pracy. Jak pokazują badania, jeśli skróci się o 50 proc. czas na interpretację badania radiologicznego, to stosunek błędów interpretacyjnych wzrośnie o niemal 17 proc. – zaznacza prof. Janusz Braziewicz.
      Sztuczna inteligencja w coraz bardziej skomplikowanej i wymagającej diagnostyce obrazowej może zatem usprawnić i wspomóc pracę lekarza. Wdrożenia algorytmów opartych na Artificial Intelligence (AI) przynoszą oszczędność czasu i szansę na pełną standaryzację procedur, ale także na uniknięcie błędów ludzkich i skuteczniejsze, spersonalizowane terapie dla pacjentów – twierdzi specjalista.
      Obecnie medycy nuklearni rozwijają nowy trend teranostyki, który wydaje się być przyszłością personalizowanej medycyny poprzez ścisłe połączenie diagnostyki i terapii w celu dobrania do potrzeb konkretnego pacjenta celowanego leczenia. W obszarze sztucznej inteligencji medycy nuklearni coraz częściej wspierają proces terapii, pomagając w ocenie trafności i zasadności zaleconego leczenia już w początkowej jego fazie. Nie bez znaczenia jest w tym kontekście wykorzystywanie hybrydowych badań PET/CT na przykład w planowaniu radioterapii – tłumaczy prof. Janusz Braziewicz.
      Sztuczna inteligencja określa proces, w którym maszyna, czyli komputer, uczy się i naśladuje funkcje poznawcze specyficzne dla człowieka, aby wykonywać zadania, jakie zwyczajowo wykonywane są przez ludzki umysł: rozpoznawanie obrazów, identyfikacja różnic czy stawianie logicznych wniosków i prognozowanie. W procesie deep learning komputer już nie organizuje danych i nie wykonuje wcześniej zdefiniowanych ciągów równań, ale zbiera podstawowe parametry dotyczące tych danych i jest tak zaprogramowany, że przygotowuje się do samodzielnego uczenia się przez rozpoznawanie wzorców przy użyciu wielu kolejnych warstw przetwarzania.
      Trzeba mieć zatem świadomość, że algorytmy AI będą tak dobre, jak dane, na których były trenowane. Wyzwaniem będzie zatem zgromadzenie odpowiednio opracowanych dużych zestawów danych oraz odpowiednio wydajnych centrów obliczeniowych – uważa przedstawiciel Polskiego Towarzystwa Medycyny Nuklearnej.
      Jego zdaniem szanse zastosowania sztucznej inteligencji w medycynie to przede wszystkim digitalizacja wszystkich danych dotyczących konkretnego pacjenta, z uwzględnieniem takich aspektów, jak miejsce zamieszkania, historia chorób w rodzinie, dotychczasowe hospitalizacje, podejmowane wcześniej terapie lekowe i obecnie przyjmowane leki, styl życia, rodzaj wykonywanej pracy, kondycja psychofizyczna.
      Ta ilość danych może być przetworzona przez wydajne komputery. Jeśli maszyny będą miały zaimplementowane algorytmy deep learning, jest szansa, że wesprą specjalistów w szybszej i trafniejszej diagnostyce oraz lepszej opiece farmakologicznej. Korzyści z wdrożeń sztucznej inteligencji może odnieść zatem cały system opieki zdrowotnej, w tym: świadczeniodawca, lekarz, ale przede wszystkim – sam pacjent – uważa specjalista.
      Podkreśla, że lekarze, którzy będą używać z dużą rozwagą i odpowiedzialnością systemów opartych na sztucznej inteligencji zastąpią tych, którzy ich nie będą używać. Tym bardziej, że w nowoczesnych rozwiązaniach nie mówimy już o wielkości danych generowanych przy badaniach i dalej poddawanych processingowi w gigabajtach, terabajtach czy nawet petabajtach. Bardzo szybko nadchodzi era eksabajtów danych – dodaje prof. Janusz Braziewicz.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem.
      Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu.
      Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii.
      Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych.
      Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla.
      W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań.
      Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center.
      Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach.
      Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym.
      Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych.
      Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...