Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Naukowcy z Cornell University stworzyli program, dzięki któremu komputer jest w stanie wykorzystać dane z obserwacji do stworzenia ogólnego prawa. To, co dotychczas było efektem pracy genialnych umysłów, stało się dostępne dla maszyn.

Przełomowa praca to dzieło profesora mechaniki i inżynierii kosmicznej Hoda Lipsona oraz doktoranta Michaela Schmidta, specjalizującego się w tworzeniu oprogramowania dla nauk biologicznych.

Program pozwala maszynie na analizowanie surowych niedokładnych danych i na odkrycie na ich podstawie praw rządzących naturą. Jednym z największych problemów współczesnej nauki jest analizowanie olbrzymich zbiorów danych i odkrywanie fundamentalnych praw tam, gdzie istnieją luki w teoriach ich dotyczących - mówi Lipson.

Oprogramowanie z Cornell University potrafi porównywać olbrzymią liczbę zmiennych, szukać w nich zależności i wyodrębniać pewne stałe zależności pomiędzy nimi. Tworzy na tej podstawie równania, których prawdziwość sprawdza w oparciu o dostępne informacje. Pozostawia następnie te równania, które najlepiej się sprawdzają, a inne odrzuca. Czynności te powtarza tak długo, aż w końcu znajdzie algorytm, który dokładnie opisuje zachowanie analizowanego przez siebie systemu. W ten sposób komputer znajduje stałe, które leżą u podstaw praw fizyki.

Po włączeniu maszyna Schmidta i Lipsona potrafiła jedynie określić jaka korelacja zachodzi pomiędzy obserwowanymi danymi i stwierdzić, które z nich są ważne, a które należy odrzucić. Korzystając z danych z oscylatora harmonicznego, wahadła i podwójnego wahadła, ale bez znajomości jakichkolwiek zasad fizyki, geometrii czy kinematyki, maszyna samodzielnie stworzyła prawa zachowania energii, pędu i drugą zasadę dynamiki.

Nie oznacza to, że naukowcy wkrótce staną się niepotrzebni, gdyż zastąpią ich komputery. Jednak nowe oprogramowanie umożliwi uczonym na znacznie szybsze wyodrębnienie istotnych danych i skupienie się właśnie na nich.

Warto wspomnieć, że uczeni z Cornell nie są jedynymi, którzy w ostatnim czasie przeprowadzili tak znaczące prace.

W Wielkiej Brytanii profesor Ross King z Aberystwyth University stworzył automatycznego naukowca imieniem Adam. Maszyna samodzielnie stworzyła hipotezę o istnieniu genów w drożdżach i o enzymach produkowanych przez te geny. Następnie zaprojektowała i przeprowadziła eksperyment, który miał potwierdzić hipotezę. Następnie, korzystając z wyników eksperymentu, Adam skorygował hipotezę i przeprowadził kolejne eksperymenty, na podstawie których opracował teorię. Naukowcy powtórzyli następnie eksperymenty Adama i okazało się, że robot doszedł do prawidłowych wniosków.

Share this post


Link to post
Share on other sites

Do czasu prawdziwych odkryć poczynionych przez powyższe(powyższych?) pozostanę sceptyczny w ocenie ich przydatności/funkcjonalności...

Share this post


Link to post
Share on other sites

Czyli program robi to, co obecnie magistranci - próbuje na podstawie mnóstwa danych znaleźć jakąś zależność statystyczną i na jej podstawie formułuje hipotezę  :)

Od czasu zaimplementowania prostych funkcji statystycznych w Excelu stało się to banalnie proste (chyba od 12 lat), ale nazywać zautomatyzowanie tego sztuczną inteligencją to przesada - samo napisanie programu, który zestawiał by zmienne ze sobą i szukał korelacji jest banalnie prosty, cała rzecz w mocach obliczeniowych. 10 lat temu, jak pracowałem na uczelni, uzyskanie wstępnej korelacji dla ok. 13 500 000 danych (przy 4 zmiennych) zajęło uczelnianemu serwerowi 7 godzin i poproszono mnie, by więcej go tak nie obciążać dla, jak to nazwano, eksperymentu programistycznego :;)

Share this post


Link to post
Share on other sites

Wydaje mi się, że nie jest to tak powierzchowne jak zakładasz i system ten nie tyle co wyszukuje korelację, by móc później transformować wejście->wyjście, ale potrafi ją także zidentyfikować i opisać. Sądzę, że do wybierania najtrafniejszych wzorów korelacji używa algorytmów ewolucyjnych. Bardzo ciekawy news.

Share this post


Link to post
Share on other sites

Poza tym sformułowanie prawa fizycznego wymaga wprowadzenia wielu dodatkowych korekt, m.in. zaokrągleń, odrzucenia wyników ekstremalnych itp. Mnie też wydaje się, że sprawa jest mocno skomplikowana.

Share this post


Link to post
Share on other sites

Ocena błędu grubego i metodyka jego usuwania (wraz z adnotacją w analizie wyników) jest ściśle matematycznie określone w Metrologii (dla danych ilościowych), i żadnych skomplikowanych programów do tego nie potrzeba. Inna rzecz to badania bazujące na danych jakościowych (ale Metodologia też jest nauką o ściśle określonych zasadach)- ale tu z kolei największym problemem jest przedstawienie danych za pomocą wartości liczbowych, bo tylko na takich jak na razie może operować jakikolwiek program.

Także znalezienie jakiegoś związku między zmiennymi na zasadzie olśnienia (słynne eureka Archimedesa) jest raczej w przypadku programu wykluczone.

Jak zwykł mawiać mój profesor, z komputera dostajesz to, co do niego włożysz, tyle że, gdy jesteś dobry w programowaniu, to w formie o wiele łatwiejszej do zrozumienia niż surowe dane.

PS. Opisać wyniki?? To znaczy zamienić dane ilościowe w jakościowe! Tylko po co? Ten kto to zaprogramował takiej zamiany do dalszej analizy nie potrzebuje, ten który nie zna algorytmu opisującego nie ma żadnych możliwości weryfikacji wyników - więc merytorycznie wypowiadać się nie powinien.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Na University of Leeds powstał system sztucznej inteligencji (SI), który analizuje skany oczu wykonywane podczas rutynowych wizyt u okulisty czy optyka i wskazuje osoby narażone na... wysokie ryzyko ataku serca. System analizuje zmiany w miniaturowych naczyniach krwionośnych siatkówki, o kórych wiemy, że wskazują na szerszy problem z układem krążenia.
      Specjaliści z Leeds wykorzystali techniki głębokiego uczenia się, by przeszkolić SI w automatycznym odczytywaniu skanów oraz wyławianiu osób, które w ciągu najbliższego roku mogą doświadczyć ataku serca.
      System, który został opisany na łamach Nature Machine Intelligence, wyróżnia się dokładnością rzędu 70–80 procent i zdaniem jego twórców może być wykorzystany przy diagnostyce chorób układu krążenia.
      Choroby układu krążenia, w tym ataki serca, to główne przyczyny zgonów na całym świecie i druga przyczyna zgonów w Wielkiej Brytanii. To choroby chroniczne, obniżające jakość życia. Ta technika może potencjalnie zrewolucjonizować diagnostykę. Skanowanie siatkówki to tani i rutynowy proces stosowany w czasie wielu badań oczu, mówi profesor Alex Frangi, który nadzorował rozwój nowego systemu. Osoby badane przez okulistę czy optometrystę mogą niejako przy okazji dowiedzieć się, czy nie rozwija się u nich choroba układu krążenia. Dzięki temu leczenie można będzie zacząć wcześniej, zanim pojawią się inne objawy.
      System sztucznej inteligencji trenowano na danych okulistycznych i kardiologicznych ponad 5000 osób. Uczył się odróżniania stanów patologicznych od prawidłowych. Gdy już się tego nauczył, na podstawie samych skanów siatkówki był w stanie określić wielkość oraz wydajność pracy lewej komory serca. Powiększona komora jest powiązana z większym ryzykiem chorób serca. Następnie SI, łącząc dane o stanie lewej komory serca z informacjami o wieku i płci pacjenta, może przewidzieć ryzyko ataku serca w ciągu najbliższych 12 miesięcy.
      Obecnie rozmiar i funkcjonowanie lewej komory serca jesteśmy w stanie określić za pomocą echokardiografii czy rezonansu magnetycznego. To specjalistyczne i kosztowne badania, które są znacznie gorzej dostępne niż badania prowadzone w gabinetach okulistycznych czy optycznych. Nowy system nie tylko obniży koszty i poprawi dostępność wczesnej diagnostyki kardiologicznej, ale może odegrać olbrzymią rolę w krajach o słabiej rozwiniętym systemie opieki zdrowotnej, gdzie specjalistyczne badania są bardzo trudno dostępne.
      Ten system sztucznej inteligencji to wspaniałe narzędzie do ujawniania wzorców istniejących w naturze. I właśnie to robi, łączy wzorce zmian w siatkówce ze zmianami w sercu, cieszy się profesor Sven Plein, jeden z autorów badań.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Zróżnicowanie komórek mózgowych może prowadzić do szybszego uczenia się, odkryli naukowcy z Imperial College London (ICL). Spostrzeżenie to może zwiększyć wydajność systemów sztucznej inteligencji. Uczeni zauważyli, że gdy w symulowanych sieciach neuronowych indywidualnie dobierali właściwości elektryczne poszczególnych komórek, sieci takie uczyły się szybciej, niż sieci złożone z komórek o identycznych parametrach.
      Okazało się również, że gdy mamy zróżnicowane komórki, sieć neuronowa potrzebuje ich mniej, a całość zużywa mniej energii niż sieć o identycznych komórkach.
      Zdaniem autorów badań, może to wyjaśniać, dlaczego mózgi tak efektywnie potrafią się uczyć. Mózg musi być wydajny energetycznie, a jednocześnie zdolnym do rozwiązywania złożonych zadań. Nasza praca sugeruje, że zróżnicowanie neuronów – zarówno w mózgach jak i w systemach sztucznej inteligencji – pozwala spełnić oba warunki, mówi główny autor badań, doktorant Nicolas Perez z Wydziału Inżynierii Elektrycznej i elektronicznej.
      Odkrycie powinno też zachęcić twórców sieci neuronowych do budowania ich tak, by były bardziej podobne do mózgu. Nasze mózgi składają się z neuronów. Pozornie są one identyczne, ale przy bliższym przyjrzeniu się, widoczne są liczne różnice. Z kolei każda komórka sztucznych sieci neuronowych jest identyczna, różnią się one tylko połączeniami. Pomimo dużych postępów w rozwoju systemów sztucznej inteligencji, bardzo daleko im do mózgów. Dlatego też uczeni z ICL zastanawiali się, czy przyczyną nie jest brak zróżnicowania komórek sztucznych sieci neuronowych.
      Rozpoczęli więc badania, w ramach których emulowali różne właściwości komórek składających się na siec sztucznej inteligencji. Zauważyli, że zróżnicowanie komórek spowodowało zwiększenie szybkości uczenia się i spadek zapotrzebowania na energię. Ewolucja dała nam niesamowicie funkcjonujący mózg. Dopiero zaczynamy rozumieć, jak on działa, stwierdził doktor Dan Goodman.
      W ramach badań uczeni manipulowali „stałą czasową”, czyli tym, jak szybko każda komórka sztucznej sieci neuronowej decyduje, co ma zrobić w zależności od tego, co robią połączone z nią komórki. Niektóre z tak manipulowanych komórek podejmowały decyzję bardzo szybko, natychmiast po tym, jak działania podjęły komórki z nimi połączone. Inne zaś odczekały chwilę i podejmowały decyzję na podstawie tego, co przez pewien czas robiły komórki z nimi połączone.
      Po zróżnicowaniu „stałej czasowej” swoich komórek, naukowcy przeprowadzili zestaw testów dla uczenia maszynowego się, takich jak rozpoznawanie gestów, pogrupowanie ubrań czy ręcznie napisanych cyfr oraz zidentyfikowanie wypowiadanych komend oraz cyfr.
      Eksperymenty pokazały, że połączenie komórek o różnej „stałej czasowej” powoduje, że cała sieć lepiej rozwiązuje złożone zadania. Okazało się przy okazji, że najlepiej sprawuje się sieć o takiej konfiguracji, której zróżnicowanie jest najbliższe zróżnicowaniu komórek w mózgu. To z kolei sugeruje, że nasz mózg ewoluował w kierunku osiągnięcia najlepszego poziomu zróżnicowania dla optymalnego uczenia się.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rynkowy sukces lub porażka układu scalonego zależą w dużej mierze od etapu jego projektowania. Wtedy właśnie zostają podjęte decyzje odnośnie umiejscowienia na krzemie modułów pamięci i elementów logicznych. Dotychczas zadania tego nie udawało się zautomatyzować, a etap projektowania zajmuje inżynierom całe tygodnie lub miesiące. Inżynierowie Google'a poinformowali właśnie, że stworzony przez nich system sztucznej inteligencji poradził sobie z częściowym zaprojektowaniem chipa w ciągu godzin.
      Współczesne układy scalone składają się z miliardów tranzystorów, dziesiątek milionów bramek logicznych, tysiące bloków logicznych i łączących je kilometrów ścieżek. Lokalizacja poszczególnych układów i bloków logicznych odgrywa kluczową rolę dla przyszłej wydajności chipa. Specjaliści od dziesięcioleci pracują nad rozwiązaniami pozwalającymi zautomatyzować proces projektowania.
      Jako że bloki logiczne to duże elementy, tysiące i miliony razy większe od bramek logicznych, bardzo trudno jest jednocześnie umieszczać bloki i bramki. Dlatego współcześni projektanci układów najpierw umieszczają na krzemie bloki, a wolne miejsca zostają zapełnione pozostałymi bramkami logicznymi.
      Już samo rozmieszczenie bloków jest niezwykle wymagające. Eksperci Google'a obliczyli, że liczba możliwych kombinacji rozmieszczenia makrobloków, które brali pod uwagę w swoich badaniach, wynosi 102500.
      Planując rozmieszczenie bloków, inżynierowie muszą pamiętać o pozostawieniu miejsca na inne elementy i ich łączenie. Azalia Mirhoseini i jej zespół poinformowali na łamach Nature o stworzeniu metody automatycznego wstępnego projektowania chipa w czasie krótszym niż 6 godzin, które swoimi wynikami dorównuje lub nawet przewyższa to, co potrafią doświadczeni inżynierowie.
      naukowcy z Google'a wykorzystali techniki maszynowego uczenia się do wytrenowania swojego programu tak, by rozmieszczał na planie makrobloki. Po umieszczeniu każdego z nich program dokonuje oceny całego chipa, a następnie wykorzystuje to, czego się nauczył, do zaplanowania jak najlepszego kolejnego kroku.
      Co interesujące, projekty tworzone przez google'owską SI znacząco różnią się od tego, jak projektuje człowiek. Sztuczna inteligencja rozpoczyna od największych makrobloków. Ponadto w jakiś sposób unika ciągłego poprawiania tego, co już zostało zrobione. Inżynierowie, po umieszczeniu kolejnych bloków, bardzo często poprawiają rozmieszczenie następnych. SI tego nie robi. Mimo to udało jej się zaprojektować układy, w których sygnał pomiędzy poszczególnymi elementami biegnie równie sprawnie, co między układami zaprojektowanymi przez ludzi.
      Google już stosuje metody opracowane prze Mirhoseini do projektowania układów dla przyszłej generacji systemów sztucznej inteligencji. Tymczasem producenci układów scalonych próbują odtworzyć osiągnięcie Google'a i wdrożyć podobne rozwiązania do własnego procesu projektowania.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unia Europejska pracuje nad regulacjami dotyczącymi użycia sztucznej inteligencji. Regulacje takie mają na celu stworzenie przejrzystych reguł wykorzystania AI i zwiększenie zaufania do najnowocześniejszych technologii.
      Nowe zasady mają regulować nie tylko używanie sztucznej inteligencji na terenie UE, ale również prace nad nią. Unia chce bowiem stać się jednym z głównych centrów rozwoju bezpiecznej, godnej zaufania i nakierowanej na człowieka sztucznej inteligencji.
      Regulacje skupiają się przede wszystkim na tych zastosowania AI, które mogą nieść ze sobą ryzyko naruszania praw czy prywatności. Wchodzą tutaj w grę przepisy dotyczące identyfikacji biometrycznej i kategoryzowania ludzi, egzekwowania prawa, zarządzania kwestiami azylowymi i granicznymi, migracji, edukacji i innych pól, na których AI może znaleźć zastosowanie.
      Eurourzędnicy chcą zakazać stosowania technologii, które mogą stanowić potencjalne zagrożenie dla bezpieczeństwa i podstawowych praw człowieka. Przepisy mają np. zapobiegać społecznemu kategoryzowaniu ludzi przez sztuczną inteligencję, jak ma to miejsce w Chinach czy USA. Zakazane ma być np. stosowanie sztucznej inteligencji do tworzenia reklam nakierowanych na konkretnego odbiorcę. Unia Europejska chce również, by przedsiębiorstwa mały obowiązek informowania użytkowników, gdy AI będzie wykorzystywana do określania ludzkich emocji czy klasyfikowania ludzi ze względu na niektóre dane biometryczne.
      Wysunięte propozycje obejmują bardzo szeroki zakres działalności AI, do samochodów autonomicznych poprzez reklamę bo bankowe systemy decydujące o przyznaniu kredytu. To bardzo ważny globalny przekaz mówiący, że pewne zastosowania sztucznej inteligencji są niedopuszczalne w krajach demokratycznych, praworządnych, przestrzegających praw człowieka, mówi Daniel Leufer, analityk z organizacji Access Now.
      Na razie propozycje są dość ogólne, ale i pełne luk, pozwalające na sporą interpretację. Z pewnością jednak działaniom UE będą przyglądały się firmy z całego świata, gdyż proponowane przepisy będą bezpośrednio dotyczyły tego, w jaki sposób przedsiębiorstwa będą mogły wykorzystywać AI na terenie Unii.
      Avi Gesser, partner w amerykańskiej firmie Debevoise mówi, że unijne regulacje – mimo że do czasu ich wprowadzenia z pewnością miną całe lata – wpłyną na przepisy na całym świecie. Zwykle prawodawcy nie palą się do wprowadzania tego typu przepisów. Raz, że uważają, iż AI to kwestia ściśle techniczna, dwa, że boją się zablokować swoimi przepisami rozwój. Jeśli więc pojawią się przepisy unijne, prawdopodobnie będą się na nich wzorowali prawodawcy z innych krajów.
      Do rozwiązania zaś pozostają tak poważne kwestie, jak np. problem manipulacji ludzkimi zachowaniami. Cała reklama polega na manipulacji. Prawdziwym wyzwaniem jest więc określenie, jakie manipulacje są dopuszczalne, a jakie niedopuszczalne, zauważa Gesser.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wg raportu Światowej Organizacji Zdrowia (WHO) spontaniczny przedwczesny poród dotyczy 15 milionów noworodków rocznie. Aż milion z nich umiera. Wiele przez całe życie mierzy się z niepełnosprawnością.
      Wykorzystywana powszechnie manualna analiza obrazów ultrasonograficznych umożliwia wykrycie ewentualnych problemów, ale nie jest to metoda doskonała.
      Problem ten dostrzegają lekarze. W 2017 roku Nicole Sochacki-Wójcicka (w trakcie specjalizacji z ginekologii) oraz Jakub Wójcicki zgłosili się do dr. Tomasza Trzcińskiego z Wydziału Elektroniki i Technik Informacyjnych PW z pytaniem, czy jest możliwość zrealizowania projektu predykcji spontanicznego przedwczesnego porodu z wykorzystaniem sieci neuronowych.
      Wtedy powstał zespół badawczy i zaczęły się prace. Pierwsze efekty już znamy.
      Nasze rozwiązanie może wspomóc diagnostykę komputerową i pozwolić z większą dokładnością przewidywać spontaniczne przedwczesne porody – wyjaśnia Szymon Płotka, absolwent Politechniki Warszawskiej i jeden z członków zespołu pracującego nad projektem.
      Wytrenować sieć neuronową
      Przed rozpoczęciem projektu, współpracujący z nami lekarze przygotowali zestaw danych uczących, walidacyjnych oraz adnotacji w formie obrysu kształtu szyjek macicy na obrazach ultrasonograficznych oraz numerycznych (0 i 1), odpowiadającymi kolejno: poród w terminie, poród przedwczesny – wyjaśnia Szymon Płotka.
      Po wstępnym oczyszczeniu takie dane są wykorzystywane jako dane „uczące” sieć neuronową – w tym przypadku konwolucyjną (splotową).
      Analizuje ona każde zdjęcie piksel po pikselu, wyodrębniając z nich niezbędne cechy, które posłużą do zadania segmentacji interesującego nas fragmentu obrazu (w tym przypadku szyjki macicy) oraz klasyfikacji (czy mamy do czynienia z porodem przedwczesnym, czy nie) – tłumaczy dalej Szymon Płotka.W trakcie treningu sieć neuronowa testuje swoje predykcje na zbiorze walidacyjnym. Po zakończeniu trenowania sieci neuronowej, jest ona sprawdzana na danych testowych, które nie zostały wykorzystane w ramach treningu. W ten sposób weryfikuje się poprawność wytrenowanego modelu.
      W ramach projektu powstały dwie publikacje naukowe.
      Efektem prac opisanych w „Estimation of preterm birth markers with U-Net segmentation network” (publikacja dostępna tutaj i tutaj) jest m.in. redukcja błędu predykcji spontanicznych przedwczesnych porodów z 30% (manualnie przez lekarzy) do 18% przez sieć neuronową.
      W „Spontaneous preterm birth prediction using convolutional neural networks” (szczegóły tutaj i tutaj) naukowcy zaprezentowali poprawę jakości segmentacji w stosunku do pierwszej publikacji i uzyskali lepsze wyniki klasyfikacji.
      Zgodnie z naszą najlepszą wiedzą, są to jedyne istniejące prace podejmujące się zadania predykcji spontanicznego przedwczesnego porodu w oparciu o transwaginalne obrazy ultrasonograficzne – mówi Szymon Płotka.
      Naukowcy pracują obecnie nad serwisem w formie aplikacji internetowej. Chcą tam udostępnić przygotowane modele sieci neuronowej. Ma to pomóc ginekologom analizować obrazy ultrasonograficzne i tym samym wesprzeć diagnostykę spontanicznego przedwczesnego porodu. A to może uratować życie i zdrowie milionów noworodków.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...