Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja odtworzyła PAC-MANa. W przyszłości nauczy się praw fizyki oglądając YouTube'a?

Recommended Posts

Stworzony przez NVIDIĘ algorytm sztucznej inteligencji GameGAN był w stanie samodzielnie stworzyć grę PAC-MAN. System nie miał dostępu do kodu gry. Zaprezentowano mu jedynie 50 000 fragmentów wideo. Na tej podstawie sztuczna inteligencja samodzielnie stworzyła w pełni funkcjonalną warstwę graficzną PAC-MANa.

PAC-MAN to jedna z najpopularniejszych gier komputerowych. Ta klasyka wirtualnej rozrywki powstała przed 40 laty w Japonii. Podbiła świat w czasach salonów gier i automatów.

Osiągnięcie inżynierów NVIDII oznacza, że nawet bez znajomości podstawowych zasad rozgrywki ich algorytm jest w stanie samodzielnie je zrekonstruować oraz stworzyć własną grę. GameGAN to pierwsza sieć neuronowa, która wykorzystuje technologię GAN (generatywne sieci współzawodniczące) do stworzenia gry. GAN korzysta z dwóch niezależnych sieci neuronowych. Jedna to dyskryminator, druga zwana jest generatorem. Obie współzawodniczą ze sobą.

Zwykle sieci neuronowe uczą się np. rozpoznawać koty na zdjęciach dzięki przeanalizowaniu olbrzymiej liczby zdjęć kotów. Metoda ta jest po pierwsze czasochłonna, po drugie zaś wymaga, by wszystkie użyte do treningu zdjęcia zostały ręcznie prawidłowo oznaczone przez człowieka. Dopiero po analizie olbrzymiej bazy danych sieć jest w stanie rozpoznać kota na zdjęciu, z którym wcześniej nie miała do czynienia. GAN wymaga znacznie mniej czasu i pracy. w tej koncepcji generator stara się stworzyć zdjęcie kota jak najbardziej przypominającego kota, a dyskryminator przegląda zdjęcia kotów i decyduje, które jest prawdziwe, a które fałszywe. W wyniku tego współzawodnictwa generator tworzy coraz doskonalsze zdjęcia, a dyskryminator coraz lepiej rozpoznaje koty.

Teraz po raz pierwszy technika taka została użyta do stworzenia nadającego się do użycia funkcjonalnego layoutu gry. Chcieliśmy sprawdzić, czy sztuczna inteligencja jest w stanie nauczyć się reguł obowiązujących w środowisku jedynie patrząc na przebieg gry. I to jej się udało, mówi główny autor projektu Seung-Wook Kim.

Osiągnięcie inżynierów NVIDII oznacza, że autorzy gier będą mogli wykorzystać sztuczną inteligencję do szybszego i łatwiejszego tworzenie kolejnych jej etapów, a badacze sztucznej inteligencji będą łatwiej mogli stworzyć symulatory do treningu autonomicznych systemów. W przyszłości w ten sposób mogą powstać systemy sztucznej inteligencji, które samodzielnie – tylko na podstawie nagrań wideo – nauczą się przepisów ruchu drogowego czy zasad fizyki. GameGAN to pierwszy krok w tym kierunku, dodaje Sanja Fidler, dyrektor laboratorium NVIDII w Toronto.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Od razu pomyślałam o odkrywaniu zasad fizyki, ale też np. odkrywania kodu źródłowego techniki przeciwnika zastosowanej np. na polu walki.

Share this post


Link to post
Share on other sites
6 godzin temu, Ergo Sum napisał:

Od razu pomyślałam o odkrywaniu zasad fizyki

Takie z założenia wymagają dostępu do eksperymentów. Na zasadzie że ktoś kto zna prawa fizyki musi stworzyć nowe doświadczenie które je weryfikuje. Bez tego odtworzona zostanie hipoteza jak mogą wyglądać prawa fizyki, bez możliwości weryfikacji. Z punktu widzenia maszyny to co "odkryje" nie będzie żadnymi prawami fizyki.
 

6 godzin temu, Ergo Sum napisał:

ale też np. odkrywania kodu źródłowego techniki przeciwnika zastosowanej np. na polu walki

Właśnie takie wpisy podtrzymują seksistowskie stereotypy ;)
Jest to niemożliwe, nie bylibyśmy w stanie wykryć nawet języka w którym go napisano.
A użyteczność takie odkrycia byłaby zerowa i sprowadzałaby się do wniosku "mamy przewalone".

 

Share this post


Link to post
Share on other sites
W dniu 25.05.2020 o 14:50, KopalniaWiedzy.pl napisał:

sztuczna inteligencja samodzielnie stworzyła w pełni funkcjonalną warstwę graficzną PAC-MANa

no niby fajnie, ale dalej musieli mieć dane treningowe. 

Sukces jest niepodważalny, ale GAN nie jest jakimś świętym gralem. Do tego opis GANa w artykule uważam za nieco mylący jednak :)

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Posted (edited)
1 hour ago, peceed said:

Jest to niemożliwe, nie bylibyśmy w stanie wykryć nawet języka w którym go napisano.

Też tak mi się wydaje. Nie ma znaczenia jaki soft steruje czołgiem, a z samego wystrzelenia pocisku niewiele wynika. Parametry fizyczne są ważniejsze. Jak przeciwnik dysponujący zasobami potrzebuje poznać możliwości nowego myśliwca, to łatwiej zrobić włam i wykraść dokumentację w PDF'ach prosto od producenta. Chińczycy są podejrzewani o pozyskanie dokumentacji dotyczącej projektu F-35 z Locheed Martin.

Z kolei w cyber bezpieczeństwie, często wywiad i kontrwywiad uzyskuje często pełen dostęp do skompilowanych środków ataku i narzędzi, które można zdekompilować i zbadać. Czasem nawet pozyskują czysty kod źródłowy, na przykład wyciek The Shadow Brokers. Po za tym sam atak często jest jednorazowy i kończy się "spaleniem" środków technicznych, szczególnie jak zostanie wykryty albo ma widoczne następstwa, na przykład Stuxnet. Po za tym dobry monitoring zdarzeń na maszynach i ruchu w sieci oraz kompetentny team często pozwala na uzyskanie wystarczającej informacji na temat podatności wykorzystanych w ataku do przejęcia maszyn.

Przypomniała mi się jeszcze historia sprzed kilku lat ;)
https://www.technologyreview.com/2017/10/11/148681/israeli-spies-spied-russian-spies-spying-on-american-spy-plans-via-kaspersky-software/

Z kolei DARPA organizuje regularnie turniej, gdzie zmagają się ze sobą implementacje AI. Mają za zadanie ochronę swoich systemów i atakowanie przeciwnika bez pomocy człowieka, więc na pewno coś z tego wyniknie w przyszłości.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites

Sztuczna inteligencja będzie wtedy, jak będzie miał świadomość, a nie jak będzie wykonywal zaprogramowane zadania. Jak można tolerować te kłamstwa głoszone przez pseudonaukowców.

Share this post


Link to post
Share on other sites

Powiało inkwizycją i zimnymi lochami ;)

Są trzy główne typy AI:
 

Quote

Artificial narrow intelligence (ANI), which has a narrow range of abilities
Artificial general intelligence (AGI), which is on par with human capabilities
Artificial superintelligence (ASI), which is more capable than a human

Artificial narrow intelligence (ANI), also referred to as weak AI or narrow AI, is the only type of artificial intelligence we have successfully realized to date. Narrow AI is goal-oriented, designed to perform singular tasks - i.e. facial recognition, speech recognition/voice assistants, driving a car, or searching the internet - and is very intelligent at completing the specific task it is programmed to do.

Źródło:
https://codebots.com/artificial-intelligence/the-3-types-of-ai-is-the-third-even-possible

Share this post


Link to post
Share on other sites

Ta klasyfikacja jest wadliwa, bo miesza zakresy kompetencji z mocą. Już teraz mamy nadludzkie klasyfikatory obrazów.
General AI należy rozumieć jako zdolność do sterowania agentem humanoidalnym w ludzkim społeczeństwie i w sumie nic ponadto.
Bardzo wiele zależy od "mocy", od kiedy zaczynają się nadludzkie możliwości. Ludzie nie są tacy sami.
W sumie już teraz można by stworzyć "autystycznego mistrza szachowego".

 

I jeszcze jedno, rozwój takiego agenta zaczyna się od wjazdu na salę porodową przez tunel i strzała w tyłek / nie może pobierać informacji inaczej niż przez analogiczne do ludzkich zmysły.

Share this post


Link to post
Share on other sites
9 godzin temu, peceed napisał:

Ludzie nie są tacy sami.

Fajnie to ujęli w "I, robot" :)

"- Can robot write a symphony? Can robot turn a canvas into a beautiful masterpiece?

 - Can you?" :)

15 godzin temu, cyjanobakteria napisał:

Nie ma znaczenia jaki soft steruje czołgiem, a z samego wystrzelenia pocisku niewiele wynika. Parametry fizyczne są ważniejsze.

Dopóki mówimy o parametrach fizycznych. W niedalekiej przyszłości, a może już teraz, istotna będzie cyberwojna (z użyciem AI), a tam wykrycie  "wzoru" zachowania asap może być ważne.

Share this post


Link to post
Share on other sites

 

5 godzin temu, radar napisał:

W niedalekiej przyszłości, a może już teraz, istotna będzie cyberwojna (z użyciem AI)

Hakowanie jest znacznie trudniejsze niż stworzenie niehakowalnej infrastruktury informatycznej, cała ta zabawa to pochodna czasów w których nie do końca stawiano bezpieczeństwo na pierwszym miejscu. Cyberwojna ma znaczenie teraz i jeszcze przez kilkanaście/dwadzieścia lat a potem nastąpi koniec, nastąpi nasycenie wyznaczane przez zdolność konsumpcji treści przez ludzi. I wtedy bezpieczeństwo będzie kolejnym krokiem w modernizacji infrastruktury. Silne AI rozminie się z cyberwojną.
Znacznie ciekawszy i skuteczniejszy będzie wywiad technologiczny z użyciem mikrorobotów, już dzisiaj szpiegowska mucha to bardziej rzeczywistość niż futurystyka.
 

Share this post


Link to post
Share on other sites
Posted (edited)
47 minut temu, peceed napisał:

Hakowanie jest znacznie trudniejsze niż stworzenie niehakowalnej infrastruktury informatycznej,

No nie wiem. Całe moje wieloletnie doświadczenie i obserwacja wskazuje, że jest zupełnie przeciwnie*.

* Jeden** (albo kilku ludków) vs. cały olbrzymi sztab dobrze opłacanych spaślaków.
** Nec Hercules contra plures au rebours (inteligencja znaczy czasem więcej niż całe kohorty prymitywów).

P.S. Płaci oczywiście pan, pani i ja. Za co? Nie za inteligencję, a za "kohorty". Również za to, że czasem znajdzie się zwykły szewczyk dratewka***.
*** Też au rebours.

Edited by Astro

Share this post


Link to post
Share on other sites
Posted (edited)
42 minuty temu, Astro napisał:

No nie wiem. Całe moje wieloletnie doświadczenie i obserwacja wskazuje, że jest zupełnie przeciwnie*.

Mając porównywalne zasoby po obu "stronach" atakowanie jest skazane na porażkę. Obecnie na poziomie biznesowym może wyglądać to inaczej, ale w sytuacji kiedy bezpieczeństwo zacznie być cenione (w znaczeniu klienci będą chcieli je sfinansować) haking odejdzie do lamusa: po prostu wiadomo jak zrobić całkowicie bezpieczny hardware i software na poziomie systemowym, co ważne wiadomo od dosyć dawna (i nie, nie chodzi o  "wystarczy robić tak, aby było dobrze" ;) ).

W sytuacji kiedy do walki wejdzie AI zabawa i tak się skończy: obrońca będzie równie dobry jak napastnik i wszystkie luki zostaną naprawione nawet przy obecnym sprzęcie (to podejście "wystarczy robić tak, aby było dobrze"). Cyberwojna to gra błędów.

 

Edited by peceed

Share this post


Link to post
Share on other sites
Posted (edited)
12 minut temu, peceed napisał:

Obecnie na poziomie biznesowym może wyglądać to inaczej,

Nie tylko wygląda, bo JEST.

12 minut temu, peceed napisał:

ale w sytuacji kiedy bezpieczeństwo zacznie być cenione (w znaczeniu klienci będą chcieli je sfinansować)

A klientom o co chodzi? Znaczy sądzisz pan, że ja płacę za mało w swoim systemie bankowości? Tak to odbieram, bo nie inaczej.

12 minut temu, peceed napisał:

po prostu wiadomo jak zrobić całkowicie bezpieczny hardware i software na poziomie systemowym, co ważne wiadomo od dosyć dawna

Wiesz co? Ty tu jeszcze siedzisz na FORUM zamiast zgarniać grube gigadolary???

12 minut temu, peceed napisał:

W sytuacji kiedy do walki wejdzie AI zabawa i tak się skończy: obrońca będzie równie dobry jak napastnik

No właśnie nie. Wszystko leży w zasobach. :)

12 minut temu, peceed napisał:

Cyberwojna to gra błędów.

Nie. To tylko przedłużenie wykazywania kto ma dłuższą fujarkę*....

* Właściwie ok. jeśli uznać, że ewolucja** doprowadza do kosmicznych dowcipów, a właściwie żartów koneserskich.
** Nie tylko "naturalna".

Edited by Astro

Share this post


Link to post
Share on other sites
3 godziny temu, Astro napisał:

Znaczy sądzisz pan, że ja płacę za mało w swoim systemie bankowości? Tak to odbieram, bo nie inaczej.

Tak. Koszty opracowania systemów informatycznych są współdzielone przez różne branże, potrzeby jednej nie wprowadzą nagle nowej jakości. Ale akurat branża bankowa wciąż może płacić tyle, że "było zrobione dobrze".

3 godziny temu, Astro napisał:

Ty tu jeszcze siedzisz na FORUM zamiast zgarniać grube gigadolary?

Przecież  klienci nie chcą płacić tych gigadolarów!

3 godziny temu, Astro napisał:
3 godziny temu, peceed napisał:

Cyberwojna to gra błędów.

Nie. To tylko przedłużenie wykazywania kto ma dłuższą fujarkę*

Aż boję spytać co w takim razie kolega rozumie pod pojęciem "testy penetracyjne".
 

Share this post


Link to post
Share on other sites
9 minut temu, peceed napisał:

Tak.

No to nie dziwię się, że nie zarabiasz G$. W bankowości nie wróżę Ci zbyt wiele, ale oczywiście możesz tam pracować. ;)

10 minut temu, peceed napisał:

Przecież  klienci nie chcą płacić tych gigadolarów!

Znasz jakiegokolwiek klienta jakiegokolwiek systemu, który chce zapłacić WIĘCEJ? Polecam uczciwość:
1. mamy dla ciebie standardowe konto za 10 pln, które nie gwarantuje jakiegokolwiek bezpieczeństwa;
2. mamy też konto za 1000 pln miesięcznie, którego nikt nie zatopi*
* No chybna, że zatopi.

13 minut temu, peceed napisał:

Aż boję spytać co w takim razie kolega rozumie pod pojęciem "testy penetracyjne"

Nie znam się, bo nie przeprowadzam testów penetracyjnych, a jedynie penetrację. Zwykle z obopólną radością*.
* Jeśli nie, to zwykle tyłozgięcie.

Share this post


Link to post
Share on other sites
Posted (edited)
9 hours ago, peceed said:

Hakowanie jest znacznie trudniejsze niż stworzenie niehakowalnej infrastruktury informatycznej

Nie chcę Cię martwić, ale jest dokładnie odwrotnie ;) Co nie oznacza, że włamy są proste. Średni poziom się podnosi w miarę dojrzewania narzędzi i coraz lepszej automatyzacji. Ludzie natomiast dalej popełniają te same błędy. Niedawno oglądałem tutorial na YT z tego roku, więc świeży i deweloper tłumaczący zagadnienie wprowadził kilka podatności w ciągu kilkunastu minut.

9 hours ago, peceed said:

cała ta zabawa to pochodna czasów w których nie do końca stawiano bezpieczeństwo na pierwszym miejscu

W mało jakiej branży infosec jest na pierwszym miejscu. Chociaż teraz jest ogólnie lepiej. Nowe protokoły sieciowe nie są projektowane w oparciu o zaufanie, szyfrowanie jest w standardzie i tak dalej. Duże korporacje kładą nacisk na bezpieczeństwo, patrz Google, MS, ale w małych firmach mało kogo interesuje bezpieczeństwo, bo klient płaci za features a nie bezpieczeństwo.

7 hours ago, peceed said:

Mając porównywalne zasoby po obu "stronach" atakowanie jest skazane na porażkę.

Nie zgadzam się z tym. Defensywa ma trudniej, bo muszą zabezpieczyć wszystko, za to atakującemu wystarczy jedna luka albo jeden pracownik, który zainstaluje malware z linku w emailu. Atakujący najczęściej wyszuka najsłabsze ogniwo i tam uderzy. Żeby szanse były równe, defensywa musiała by mieć więcej zasobów niż atakujący. Do tego to zawsze wygląda jak nierówna walka, bo zwykłych ludzi cyber bezpieczeństwo mało interesuje. Chcą odbębnić robotę i iść do domu. W przypadku programistów może 1/10 się interesuje bezpieczeństwem, ludzie w innych działach w biurze jeszcze mniej.

Z resztą co to są porównywalne zasoby? Mogę sobie kupić u-locka z wyższej półki od Kryptonite za 100 euro, a złodziej szlifierką kątową na akumulator z promocji w Castoramie za ułamek tej kwoty przetnie zabezpieczenie w 2-3 minuty.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
45 minut temu, cyjanobakteria napisał:

Nie chcę Cię martwić, ale jest dokładnie odwrotnie ;)

Nie chcę Cię zmartwić, ale jest dokładnie odwrotnie do twojego odwrotnie ;)
Weźmy coś takiego: https://en.wikipedia.org/wiki/Capability-based_addressing
Rzuca się w oczy dosyć duża 40 letnia przerwa od ostatnich prób na serio (bo i432 traktuję jako podejście serio do problemu).,
To można rozszerzyć na wszystkie zasoby, również pliki (taki drm na sterydach).

51 minut temu, cyjanobakteria napisał:

Defensywa ma trudniej, bo muszą zabezpieczyć wszystko, za to atakującemu wystarczy jedna luka albo jeden pracownik

Patrzę pod kątem całkowicie nowych systemów zaprojektowanych z myślą o bezpieczeństwie, a nie starym software/sprzęcie.

55 minut temu, cyjanobakteria napisał:

który zainstaluje malware z linku w emailu

Nie ma prawa mieć prawa :P W hipotetycznym systemie pracownik może być agentem chińskiego mosadu ( ;) ),a i tak nie będzie w stanie wysłać zastrzeżonych danych, inaczej niż robiąc aparatem zdjęcia ekranu.
Bezpieczeństwo trzeba budować od dołu, najpierw odpowiedni sprzęt, a potem system, a na końcu software. Naprawdę nie chodziło mi o intela, windows i c++.

 

Godzinę temu, cyjanobakteria napisał:

Ludzie natomiast dalej popełniają te same błędy. Niedawno oglądałem tutorial na YT z tego roku, więc świeży i deweloper tłumaczący zagadnienie wprowadził kilka podatności w ciągu kilkunastu minut.

To oznacza że model tworzenia oprogramowania nie jest właściwy. Powinno się pisać do takich bibliotek aby zrobienie podatności było wyczynem, nawet po przeszkoleniu w NSA. Osobiście widzę tylko jeden problem: ludziom trudno zaakceptować potencjalnie mniejszą wydajność bezpiecznych systemów.


 

1 godzinę temu, cyjanobakteria napisał:

Z resztą co to są porównywalne zasoby?

Ściśle chodziło mi to, że jeśli z jednej i drugiej strony posadzimy tak samo kompetentne (sprytne) osoby, to software nie będzie miał luk z którymi poradzą sobie napastnicy.
Oczywiście realia rynku są takie, że przeciwko code monkey staje gorilla.

 

Share this post


Link to post
Share on other sites
Posted (edited)

Jestem pewien, że w ciągu 20 lat problemy cyberbezpieczeństwa nie znikną ze sceny IT, a co będzie dalej, nie podejmuję się wróżenia. Ostatnio słyszałem o ransomware, które instaluje VirtualBox i konfiguruje maszynę wirtualną z Windows XP z której uruchamia się w celu ominięcia antywirusa na W10 ;) Teoretycznie można dużo zrobić lepiej, ale rzeczywistość jest ponura. Nawet wprowadzanie zwykłego IPv6 idzie siermiężnie. Dopiero od kilku ostatnich lat trochę przyśpieszyło. Dopóki nie ma absolutnej konieczności, a NAT nadal działa, wszyscy zwlekają.

Pracownik nie ma prawa mieć prawa instalować malware, ale zawsze są wyjątki. Po za tym admin IT też może próbować zainstalować malware na prawach administratora, bo ludzie są tylko ludźmi. Nawet najlepszy next-gen antywirus może być wyłączony albo nie działać. Wszystko się non-stop zmienia w IT i nawet osoby siedzące w branży mają problem, nie nadążają i nie ogarniają nowinek i zagrożeń, jakie powodują nowe technologie.

11 hours ago, cyjanobakteria said:

Z resztą co to są porównywalne zasoby? Mogę sobie kupić u-locka z wyższej półki od Kryptonite za 100 euro, a złodziej szlifierką kątową na akumulator z promocji w Castoramie za ułamek tej kwoty przetnie zabezpieczenie w 2-3 minuty.

Tak sobie jeszcze pomyślałem, że szlifierka na akumulator bije u-lock Kryptonite, ale gazrurka z tej samej Castoramy bije szlifierkę i jej operatora ;)

9 hours ago, peceed said:

Oczywiście realia rynku są takie, że przeciwko code monkey staje gorilla.

Teraz właśnie tak jest. Realia są takie, że w firmie jest 1 pracownik infosec na 100, a do tego w dziale IT na każdego przypada nawet kilkaset sztuk sprzętu wliczając w to elektrozłom typu telefony, drukarki, ekrany i tak dalej. Może w przyszłości AI będzie tak zaawansowane, że wszystko będzie się konfigurowało i zarządzało samo, ale wtedy będzie można obciąć dział IT i deweloperski do prawie zera. Może wtedy będzie w miarę bezpieczniej ;)

IOT to jest ciekawa przypadek relatywnie nowej technologi, która była w powijakach kilka lat temu i kompletnie na bakier z cyberbezpieczeństwem na tylu poziomach, że nie wiadomo, gdzie zacząć to opisywać.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
2 godziny temu, cyjanobakteria napisał:

Tak sobie jeszcze pomyślałem, że szlifierka na akumulator bije u-lock Kryptonite, ale gazrurka z tej samej Castoramy bije szlifierkę i jej operatora ;)

A to jakiś problem żeby U-Locka pokryć widią albo - w wersji dla oszczędnych - korundem? :P
 

Share this post


Link to post
Share on other sites
Posted (edited)

Ciekawy pomysł, ale nie słyszałem o takich u-lockach. Widziałem niedawno w necie u-lock Altor SAF, który tłumaczy się jako Strong as F*** ;) Rdzeń jest ukryty w warstwie aluminium, która jest na tyle gruba, że standardowe tarcze do cięcia nie sięgają. Złodziej musiałby zastosować szerszą tarczę albo wycinać aluminium, plus mieć zapasowe akumulatory. Do tego kształt powoduje niszczenie tarcz. Minusem jest cena, waga i wymiary, czyli klasyka: albo jest tanio i wygodnie albo drogo i ciężko, ale bezpiecznie ;)

SAF-lock-in-hands-cb3ad45.jpg?webp=true&

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
1 godzinę temu, cyjanobakteria napisał:

Minusem jest cena, waga i wymiary

Wygląda na to że waga i wymiary to nie bug, to feature.
Główna zaleta takiej kłódki to odstraszenie złodziei, nie sądzę aby rowery kradziono na zamówienie więc zawsze jest lepszy cel obok.
Następnym logicznym etapem rozwoju są kłódkorowery: zniszczenie kłódki będzie tożsame ze zniszczeniem samego roweru.

 

Share this post


Link to post
Share on other sites
Posted (edited)
18 hours ago, peceed said:

Wygląda na to że waga i wymiary to nie bug, to feature.

To jest bardziej nieunikniony efekt uboczny. Jako rowerzysta nie jestem zainteresowany posiadaniem jak najcięższej kłódki, tylko takiej, której nie da się przeciąć w łatwy sposób, a to oznacza konieczność grubej warstwy twardego materiału. Ciekawe jaką twardość ma materia neutronowa. Podejrzewam, że wysoką, ale ma też i niepożądane cechy :)

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
Posted (edited)
3 godziny temu, cyjanobakteria napisał:

Jako rowerzysta nie jestem zainteresowany posiadaniem jak najcięższej kłódki, tylko takiej, której nie da się przeciąć w łatwy sposób, a to oznacza konieczność grubej warstwy twardego materiału.

Widiowy pałąk powinien wystarczyć: nie ma materiałów które są w stanie taki łatwo przeciąć. 

 

 

3 godziny temu, cyjanobakteria napisał:

Ciekawe jaką twardość ma materia neutronowa.

W relacji do masy mniejszą niż zwykła materia, na oko 4 - 5 rzędów wielkości.

Edited by peceed

Share this post


Link to post
Share on other sites
1 godzinę temu, peceed napisał:

Widiowy pałąk powinien wystarczyć: nie ma materiałów które są w stanie taki łatwo przeciąć. 

Widia jest bardzo krucha. Cios młotkiem i kasza. Bardziej jakiś dziwny kompozyt  typu gips zbrojony kewlarem :D, Ale sądzę, że problem jest jednak nierozwiązywalny - SAF jest najlepszym przykładem. 

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Grupa naukowa, na której czele stali specjaliści z Uniwersytetu Nowej Południowej Walii, dokonała analizy badań na temat związku bogactwa z gospodarką oraz wpływem tych zjawisk na otoczenie. Uczeni doszli do wniosku, że sama technologia nie rozwiąże stojących przed nami problemów związanych ze zrównoważonym rozwojem. Do jego osiągnięcia konieczne są głębokie zmiany stylu życia oraz zmiana paradygmatów ekonomicznych.
      W opublikowanym na łamach Nature Communications artykule zatytułowanym Scientists' warning of affluence, naukowcy podsumowują dostępne dowody oraz przedstawiają możliwe rozwiązania. W ostatnim czasie autorzy różnych prac naukowych wykonali świetną robotę opisując takie zagrożenia jak kryzys klimatyczny, żywnościowy czy kryzys bioróżnorodności. Jednak żadna z tych analiz nie brała wprost pod uwagę roli ekonomii zorientowanych na wzrost i bogactwo. W naszej analizie skupiliśmy się na niekorzystnym wpływie takich zjawisk jak nadmierna konsumpcja i wymieniamy rozwiązania, które pozwalają poradzić sobie z przytłaczającą potęgą konsumpcjonizmu i ekonomicznym paradygmatem wzrostu, mówi główny autor analizy, profesor Tommy Wiedmann.
      Główny wniosek z naszej analizy jest taki, że nie możemy polegać wyłącznie na rozwoju technologii, który za nas rozwiąże tak podstawowe problemy jak zmiana klimatu, utrata bioróżnorodności, zanieczyszczenie. Musimy wdrożyć zmiany strukturalne, zmienić nasz nastawiony na bogacenie się styl życia oraz zmniejszyć nadmierną konsumpcję, dodaje uczony.
      Z analizy dowiadujemy się, że w ciągu ostatnich 40 lat tempo wzrostu konsumpcji przewyższało tempo wzrostu wydajności. Technologia może pomóc nam konsumować bardziej wydajnie, czyli np. oszczędzać energię i zasoby, jednak tempo postępu technologicznego i tak jest wolniejsze niż tempo wzrostu konsumpcji, mówi Wiedmann.
      Współautorka badań, profesor Julia Seinterber z University of Leeds zauważa, że chęć życia w dostatku jest często uznawana za coś pozytywnego. Jednak w naszej analizie dowodzimy, że tak naprawdę jest to niebezpieczne i prowadzi do zniszczeń na skalę globalną. Aby chronić się przed kryzysem klimatycznym musimy zmniejszyć nierówności i zmienić pogląd, że gromadzenie dóbr oraz ci którzy je gromadzą, jest czymś jednoznacznie korzystnym. Paradygmat ten, jak wynika z analizy, jest nieprawdziwy, gdyż to ta część ludności, która zgromadziła najwięcej dóbr, ma największy wpływ na środowisko i to od jej postawy głównie zależy, czy uda się zapobiec większej katastrofie.
      Konsumpcja najbogatszych gospodarstw domowych na świecie jest najsilniejszym czynnikiem, który determinuje i przyspiesza, wpływ gospodarki na środowisko naturalne oraz środowisko społeczne", dodaje Lorenz Keysser z EHT Zurich. Dyskusja o tym, w jaki sposób mamy postępować wobec kryzysów ekologicznych musi brać pod uwagę tych, którzy na kryzysy mają największy wpływ, zauważa.
      Profesor Manfred Lenzen z University of Sydney mówi, że często na różnych spotkaniach jest pytany o wpływ stylu życia na kryzysy. Zwykle mówię, że to, co kojarzymy z obecnymi kryzysami środowiskowymi – jak wykorzystywanie samochodów, samolotów, olbrzymia konsumpcja energii – to tylko wierzchołek naszej osobistej góry lodowej. Że tutaj chodzi o to wszystko co konsumujemy oraz o zniszczenia związane z koniecznością zapewnienia nam tych rzeczy, to one tworzą niewidoczną część góry lodowej. Niestety, gdy sobie to uświadomimy, to okazuje się, że implikacje dla naszego stylu życia są tak olbrzymie, iż wówczas dochodzi do odrzucenia i zaprzeczenia.
      Naukowcy zwracają też uwagę, że indywidualne działania, na poziomie odpowiedzialności każdego z nas, nie wystarczą. Konieczne są zmiany strukturalne. Próby zmiany stylu życia na poziomie indywidualnym mogą być skazane na niepowodzenie, gdyż cała struktura społeczna, ekonomiczna, cała kultura są nastawione na zachęcanie do coraz większej konsumpcji, mówi Wiedmann. Strukturalny imperatyw wzrostu na konkurencyjnym rynku prowadzi do tego, że osoby podejmujące decyzję mają ograniczone pole działania, są zmuszone do pobudzania wzrostu i hamowania koniecznych zmian społecznych. Musimy odejść od obsesji wzrostu gospodarczego. Musimy zacząć zarządzać gospodarką tak, by chronić zasoby naturalne i klimat, nawet jeśli będzie to oznaczało wolniejszy lub nawet ujemny wzrost gospodarczy, stwierdza uczony.
      Naukowcy dodaję, że takie pojęcia jak „zielony wzrost” czy „zrównoważony wzrost” to mity. Tak długo, jak istnieje wzrost – zarówno ekonomiczny jak i ludnościowy – technologia nie jest w stanie za nim nadążyć na tyle, by zredukować negatywny wpływ tego wzrostu, zatem całościowy negatywny wpływ na środowisko jest coraz większy, dodaje Wiedmann.
      Wśród wymienionych przez naukowców propozycji rozwiązań znajdują się m.in. podatki ekologiczne, inwestycje w ekologiczne technologie, redystrybucja za pośrednictwem systemu podatkowego, wprowadzenie maksymalnego dochodu, dochodu gwarantowanego oraz zmniejszenie liczby godzin pracy.
      Obecnie zespół Wiedmanna pracuje nad różnymi modelami komputerowymi, które pozwolą badać różne scenariusze i rozwiązania. Chcą w ten sposób sprawdzić, w jaki sposób można osiągnąć najlepsze wyniki.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Algorytmy do maszynowego uczenia się pozwoliły specjalistom z MIT zidentyfikować nowe potężne antybiotyki. Podczas testów laboratoryjnych nowe związki zabiły jedne z najtrudniejszych w zwalczaniu bakterii chorobotwórczych, w tym szczepy oporne na działanie wszystkich znanych antybiotyków. Jakby tego było mało, umożliwiły one zwalczenie infekcji w dwóch różnych mysich modelach chorób.
      Naukowcy wykorzystali model komputerowy, który pozwala na przeanalizowanie w ciągu zaledwie kilku dni działania setek milionów związków chemicznych. Taka analiza pozwala na wybór do dalszych badań najbardziej obiecujących środków. Uczeni szukają związków, które zabijają bakterie w inny sposób, niż obecnie znane antybiotyki.
      Chcieliśmy stworzyć platformę, która pozwoliłaby nam na wykorzystanie sztucznej inteligencji do zapoczątkowania nowej epoki w odkrywaniu antybiotyków. Dzięki takiemu podejściu natrafiliśmy na zadziwiającą molekułę, która jest jednym z najpotężniejszych znanych antybiotyków, mówi profesor James Collins z MIT.
      Przy okazji zidentyfikowano wiele innych obiecujących kandydatów na antybiotyki. Substancje te dopiero będą testowane. Uczeni uważają, że ich model można wykorzystać również do projektowania nowych leków.
      Model maszynowego uczenia się pozwala nam masowo badać związki chemiczne. Przeprowadzenie takich badań w laboratorium byłoby niemożliwe ze względu na koszty, dodaje Regina Barzilay z Computer Science and Artificial Intelligencje Laboratory (CSAIL) na MIT.
      Przez ostatnich kilkadziesiąt lat wynaleziono niewiele nowych antybiotyków, a większość z tych nowych to lekko istniejące wersje wcześniej istniejących. Obecnie wykorzystywane metody badania związków chemicznych pod kątem ich przydatności do produkcji antybiotyków są niezwykle kosztowne, wymagają dużo czasu i zwykle pozwalają zbadać wąską grupę mało zróżnicowanych środków.
      Stoimy w obliczu rosnącej antybiotykooporności. Z jednej strony problem ten spowodowany jest coraz większą liczbą antybiotykoopornych patogenów, a z drugiej – powolnym postępem na tym polu, mówi Collins. Coraz częściej pojawiają się głosy, że ludzie mogą zacząć umierać na choroby zakaźne, na które nie umierali od dziesięcioleci. Dlatego też niezwykle pilnym zadaniem jest znalezienie nowych antybiotyków. Niedawno informowaliśmy o odkryciu antybiotyków, które zabijają bakterie w niespotykany dotąd sposób.
      Pomysł wykorzystania komputerów do identyfikowania potencjalnych antybiotyków nie jest nowy, dotychczas jednak obliczenia takie były albo niezwykle czasochłonne, albo niedokładne. Nowe sieci neuronowe znacznie skracają czas obliczeń.
      Naukowcy z MIT dostosowali swój model obliczeniowy tak, by poszukiwał związków chemicznych mogących być zabójczymi dla E. coli. Swój model trenowali na około 2500 molekuł, w tym na około 1700 lekach zatwierdzonych przez FDA i około 800 naturalnych produktach o zróżnicowanych strukturach i działaniu.
      Po zakończonym treningu sieć neuronowa została przetestowana na należącej do Broad Institute bazie Drug Repository Hub, która zawiera około 6000 związków. Algorytm znalazł tam molekułę, która miała strukturę inną od wszystkich istniejących antybiotyków i o której sądził, że będzie wykazywała silne działanie antybakteryjne. Naukowcy najpierw poddali tę molekułę badaniom za pomocą innego modelu maszynowego i stwierdzili, że prawdopodobnie jest ona mało toksyczna dla ludzi.
      Halicyna, bo tak nazwano tę molekułę, była w przeszłości badana pod kątem jej przydatności w leczeniu cukrzycy. Teraz naukowcy przetestowali ją na dziesiątkach szczepów bakterii pobranych od ludzi. Okazało się, że zabija ona wiele antybiotykoopornych patogenów, w tym Clostridium difficile, Acinetobacter bumannii czy Mycobacterium turebculosis. Jedynym patogenem, który oparł się jej działaniu była Pseudomonas aeruginosa, powodująca trudne w leczeniu choroby płuc.
      Po pomyślnych testach in vitro rozpoczęto badania na zwierzętach. Halicynę użyto do leczenia myszy zarażonej wcześniej opornym na działanie wszystkich znanych antybiotyków szczepem A. baumannii. Halicyna w ciągu 24 godzin zwalczyła infekcję u zwierząt.
      Wstępne badania sugerują, że nowy antybiotyk działa poprzez zaburzanie u bakterii możliwości utrzymania gradientu elektrochemicznego w błonie komórkowej. Gradient ten jest niezbędny m.in. do wytwarzania molekuły ATP, niezbędnego nośnika energii. Bakterie pozbawione ATP giną. Naukowcy uważają, że bakteriom będzie bardzo trudno nabyć oporność na taki sposób działania antybiotyku.
      Podczas obecnych badań uczeni stwierdzili, że w ciągu 30 dni leczenia u E. coli w ogóle nie rozwinęła się oporność na halicynę. Tymczasem np. oporność na cyprofloksacynę zaczyna się u E. coli rozwijać w ciągu 1-3 dni od podania, a po 30 dniach bakteria jest 200-krotnie bardziej oporn działanie tego środka.
      Po zidentyfikowaniu halicyny naukowcy wykorzystali swój model do przeanalizowania ponad 100 milionów molekuł wybranych z bazy ZINC15, w której znajduje się około 1,5 miliarda molekuł. Analiza trwała trzy doby, a sztuczna inteligencja znalazła 23 molekuły, które są niepodobne do żadnego istniejącego antybiotyku i nie powinny być toksyczne dla ludzi. Podczas testów in vitro stwierdzono, że 8 z tych molekuł wykazuje właściwości antybakteryjne, z czego 2 są szczególnie silne. Uczeni planują dalsze badania tych molekuł oraz analizę pozostałych związków z ZINC15.
      Naukowcy planują dalsze udoskonalanie swojego modelu. Chcą np. by poszukiwał on związków zdolnych do zabicia konkretnego gatunku bakterii, a oszczędzenia bakterii korzystnych dla ludzi.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Dr inż. Marcin Sieniek jest absolwentem Akademii Górniczo-Hutniczej w Krakowie i tamtejszego Uniwersytetu Ekonomicznego. Na AGH otrzymał również doktorat z informatyki za badania w dziedzinie nauk obliczeniowych. W Google Health zajmuje się pracą nad zastosowaniem sztucznej inteligencji w diagnozie raka piersi. Oprócz Google pracował w zespole Autopilota Tesli oraz prowadził w Polsce startup z dziedziny social learning. Prywatnie gra w zespole rockowym i prowadzi bloga expat-pozytywnie.pl.
      Jak trafia się do Google Health i dlaczego właśnie tam? To dość niszowa działka w działalności Google'a czy Alphabetu i wymagająca chyba szczególnych umiejętności?
      W Google Health pomocne są przede wszystkim różnorodne umiejętności i doświadczenia. W Google pracuję od ponad 5 lat, początkowo jako inżynier oprogramowania w polskim biurze firmy. Jednak już od samego początku pracowałem nad wykorzystywaniem sztucznej inteligencji, a konkretniej określonych technik - tzw. uczenia maszynowego. Później kontynuowałem pracę nad moimi projektami w amerykańskich biurach Google. Dopiero wtedy, szukając ciekawych wyzwań wewnątrz firmy, znalazłem możliwość dołączenia do Google Research - działu firmy skupiającego się na badaniach nad rozwojem sztucznej inteligencji i jej wykorzystaniem w różnych dziedzinach życia.
      Tam powstawał właśnie mały zespół badawczy zajmujący się zastosowaniem głębokiego uczenia maszynowego właśnie w radiologii. Proces selekcji do zespołu był wymagający - sprawdzano m.in. znajomość technik sztucznej inteligencji oraz udokumentowane doświadczenie w badaniach biotechnologicznych co akurat zupełnie przypadkiem było przedmiotem jednej z moich prac na studiach doktoranckich.
      Pod koniec 2018 roku mój zespół stał się częścią nowego działu Google Health - łączącego w sobie nie tylko inżynierów oprogramowania, ale także doświadczenie i wiedzę lekarzy, prawników, etyków i specjalistów od procedur medycznych.
      Jest Pan jednym ze współtwórców algorytmu, który lepiej diagnozuje raka piersi niż lekarze. Jak powstaje i działa taki algorytm?
      Algorytm taki powstaje podobnie jak np. technologia która pozwala rozpoznawać co znajduje się na zdjęciu. Algorytm sztucznej inteligencji jest „szkolony” na istniejącym zbiorze danych, gdzie obrazom (w tym wypadku medycznym, czyli zdjęciom z mammografii) towarzyszą oznaczenia (w tym wypadku: czy wykryto nowotwór złośliwy i ewentualna informacja o jego umiejscowieniu). Takie zbiory danych powstają w ramach normalnej praktyki w szpitalach i centrach programów przesiewowych, jednak często na tym ich zastosowanie się kończy.
      Takie algorytmy działają na bazie mechanizmu zwanego „sieciami neuronowymi”. Ich struktura inspirowana jest tym w jaki sposób informacje przetwarza ludzki mózg. Proces nauki przypomina w istocie proces w którym człowiek uczy się rozróżniać obrazy (np. dziecko rozpoznawać koty i psy, a radiolog rozpoznawać groźne guzy od nieszkodliwych zmian). W odróżnieniu jednak od radiologa, który w toku treningu może zobaczyć kilkadziesiąt-kilkaset nowotworów, komputer jest w stanie przetworzyć dziesiątki tysięcy przykładów w przeciągu jedynie kilku godzin.
      Taki „wytrenowany” algorytm stosuje się następnie do oceny osobnego, nowego zbioru danych. Następnie inżynierowie mogą wprowadzić poprawki w procesie uczenia się albo w budowie modelu i powtórzyć testy. Dopiero gdy wyniki działania modelu zadowalają jego twórców, sprawdza się go na kolejnym zbiorze danych, np. pochodzących z innej instytucji lub z innego źródła.
      Na tym właśnie etapie postanowiliśmy opublikować nasz artykuł w Nature.
      Na tym jednak nie kończymy pracy. Zanim taki model znajdzie praktyczne zastosowanie w szpitalach na całym świecie, muszą zostać przeprowadzone próby kliniczne i o na różnych populacjach pacjentów, musimy także ocenić skuteczność modelu na danych pochodzących z innych aparatów mammograficznych.
      Niejednokrotnie informowaliśmy o systemach SI radzących sobie w pewnych zadaniach lepiej od lekarzy. Skąd się bierze ta przewaga sztucznej inteligencji?
      Warto powiedzieć, że to „potencjalna” przewaga. Raczej patrzymy na to jako na wsparcie i usprawnienie procesów diagnostycznych lekarzy. To potencjalne usprawnienie bierze się kilku źródeł: po pierwsze, w procesie uczenia się algorytm może przeanalizować dużo więcej przypadków niż pojedynczy lekarz w procesie nauki (z drugiej strony ludzie wyciągają wnioski szybciej – maszyna potrzebuje więcej przykładów). Co więcej automat nie ma skłonności do zaspokojenia swoich poszukiwań jednym „znaleziskiem” i jest mniejsze ryzyko, że umknie mu inne, często ważniejsze. Wreszcie, system sztucznej inteligencji pozwala na „nastrojenie” go na pożądany przez daną placówkę medyczną poziom czułości i swoistości.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W ostatni piątek w Instytucie Fizyki PAN zakończyła się konferencja „INNO THINKING, Nauka dla Społeczeństwa 2.0”. Zaprezentowane na niej trzy projekty badawcze mogą zrewolucjonizować medycynę i ochronę środowiska.
      Sztuczna inteligencja w diagnostyce ścięgna Achillesa
      Urazy ścięgna Achillesa należą do najczęstszych urazów ortopedycznych. Samych tylko zerwań ścięgna notuje się około 200 rocznie na 1 mln ludności w USA i Europie. Rosnąca podaż wykonywanych badań stanowi ogromne wyzwanie dla zmniejszających się zastępów lekarzy radiologów. Już dziś zdarza się, że dostępność zaawansowanych aparatów diagnostycznych jest dość powszechna, ale czas oczekiwania na opisy wykonanych badań znacznie się wydłuża.
      Diagnostyka oparta na obrazowaniu medycznym otwiera nowe możliwości w zakresie leczenia oraz doboru optymalnych metod rehabilitacji pourazowej lub pooperacyjnej – przekonuje Bartosz Borucki, Kierownik laboratorium R&D na Uniwersytecie Warszawskim. Już dziś stworzyliśmy rozwiązanie do oceny ścięgna Achillesa, które wprowadza automatyzację, umożliwiającą tworzenie obiektywnych ocen radiologicznych w oparciu o wykorzystanie sztucznej inteligencji. To pierwsze tego typu rozwiązanie na świecie. Jesteśmy przekonani, że nasz projekt wyznaczy nowe kierunki rozwoju diagnostyki obrazowej w ortopedii i medycynie sportowej, i usprawni czas oraz skuteczność stawianych diagnoz – dodaje.
      Projekt objęty jest obecnie pracami przedwdrożeniowymi, które uwzględniają m.in. usługi badawcze związane z poszerzoną walidacją i analizą dot. certyfikacji i legislacji. Status ten jest doskonałym przykładem komercjalizacji badań naukowych, realizowanych przez polskie instytucje badawczo-naukowe i ma szansę już w nieodległej przyszłości na dobre wpisać się w proces diagnostyki urazów ścięgna Achillesa, a także innych urazów – jak na przykład więzadeł w kolanie.
      Osteoporoza na trzecim miejscu śmiertelnych chorób cywilizacyjnych
      Szczególnym wyzwaniem, wobec którego stanie ludzkość w nadchodzących dekadach, będzie znalezienie skutecznego arsenału rozwiązań do walki z mutującymi wirusami i superbakteriami. Dane Światowej Organizacji Zdrowia (WHO) są zatrważające. Obecnie już 2 mln ludzi umiera rocznie w wyniku zakażeń lekoopornymi bakteriami. Według prognoz w 2050 roku, liczba ta zwiększy się dziesięciokrotnie. Naukowcy zgodni są wobec faktu, że możliwości znanych nam antybiotyków wyczerpują się. Powstawanie nowych bakterii, na które medycyna nie zna lekarstwa, wymusza poszukiwanie alternatywnych rozwiązań.
      W Instytucie Fizyki PAN od wielu lat prowadzone są badania związane z wykorzystaniem tlenków metali o właściwościach antybakteryjnych. Dotychczasowe kierunki badań zostały rozwinięte, obejmując swoim zastosowaniem sektor medycyny implantacyjnej. Udało się bowiem dowieźć, że technologia pokrywania implantów warstwami tlenków metali wpływa na przyspieszenie regeneracji kości i tkanek.
      Wyniki naszych badań to nadzieja dla wszystkich pacjentów, którzy zmagają się z problemami osteointegracji. Nasze badania dają nadzieję na wyeliminowanie  poimplantacyjnych stanów zapalnych, infekcji bakteryjnych, metalozy czy reakcji alergicznych – mówi Aleksandra Seweryn z IF PAN. Jesteśmy przekonani, że zastosowanie naszej technologii bezpośrednio przełoży się na minimalizację ryzyk wynikających z leczenia implantacyjnego, zarówno u pacjentów cierpiących na osteoporozę, jak również przy zabiegach dentystycznych.
      Potrzebujemy coraz więcej energii
      Model życia ludzkości i rozwój technologiczny wymusza coraz większe zapotrzebowanie na energię elektryczną. Szacuje się, że do 2050 roku podwoimy jej wykorzystanie – z 15 TW do ok. 30 TW. Wykorzystywane dziś źródła energii, wciąż w dużej mierze uzależnione od paliw kopalnych, z pewnością okażą się niewystarczające w dłuższej perspektywie czasowej.
      Zbyt niska produkcja prądu będzie hamowała rozwój ludzkości. Do tego czasu zmagać się będziemy ze zjawiskiem globalnego ocieplenia i jego, już dziś zauważalnymi, katastrofalnymi efektami. Utrzymanie obecnego stanu rzeczy skutkować będzie do 2050 roku podniesieniem poziomu mórz i oceanów o 4 m, przesunięciem stepów i pustyń o 600 km na północ, wielkimi ruchami migracyjnymi ludzkości, kataklizmami, które wpłyną również na wyginięcie milionów gatunków zwierząt i roślin.
      Instytut Fizyki PAN realizuje zaawansowane badania związane z fotowoltaiką. Wierzymy bowiem, że energia słoneczna jest naturalnym, bezpiecznym i w zasadzie nieograniczonym źródłem energii. W ciągu 40 lat koszt paneli słonecznych zmniejszył się stukrotnie, znacząco zwiększając dostępność tego typu rozwiązań dla przeciętnych gospodarstw domowych, twierdzi Monika Ożga, naukowiec IF PAN.
      Opracowane przez Instytut rozwiązania można z powodzeniem stosować w produkcji diod oświetleniowych i energooszczędnych okien, które redukują przyjmowanie i oddawanie ciepła, a co za tym idzie, zmniejszają ilość energii potrzebnej do ogrzania lub ochłodzenia pomieszczeń. Diody mogą się ponadto przyczynić nie tylko do ograniczenie popytu na energię, ale i znaleźć swoje zastosowanie w technologii budowania farm wertykalnych, które coraz częściej są wskazywane jako metoda walki z deficytem żywności na świecie.
      Według wstępnych szacunków, zastosowanie nowej kategorii diod może przynieść Polsce oszczędności rzędu 1-1,5 mld złotych, a poprzez redukcję wykorzystania prądu, przyczynić do zmniejszenia emisji CO2 i innych trujących gazów, powstałych wskutek spalania węgla.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Opracowanie planu radioterapii to skomplikowane zadanie, dlatego też nawet pacjenci, którzy potrzebują natychmiastowego wdrożenia leczenia muszą zwykle czekać kilka dni lub dłużej, aż lekarze opracują plan. Okazuje się jednak, że z pomocą może tutaj przyjść sztuczna inteligencja, która odpowiedni plan może przygotować w ułamku sekundy.
      Niektórzy z takich pacjentów wymagają natychmiastowej radioterapii, ale lekarze odsyłają ich do domu i każą czekać. Opracowanie w czasie rzeczywistym planu leczenia jest bardzo ważne. To część naszego projektu, w ramach którego chcemy zaprząc SI do poprawy wszelkich aspektów walki z nowotworami, mówi doktor Steve Jiang, który kieruje Laboratorium Medycznej Sztucznej Inteligencji i Automatyzacji na UT Soutwestern Medical Center.
      Radioterapia to często stosowana metoda walki z nowotworami. Badania pokazują, że w przypadku niektórych nowotworów odroczenie radioterapii o zaledwie tydzień zwiększa ryzyko nawrotu lub rozprzestrzenienia się choroby nawet o 14%. To właśnie takie dane stały się przyczyną, dla której zespół Jianga postanowił wykorzystać SI to pomocy w zaplanowaniu radioterapii. Od rozpoczęcia leczenia po przeliczenie dawek w miarę postępów leczenia.
      Testy przeprowadzone za pomocą specjalnie opracowanego algorytmu wykazały, że jest on w stanie opracować optymalny plan leczenia zaledwie w ciągu 5/100 sekundy od momentu otrzymania danych dotyczących pacjenta.
      Nowo opracowany algorytm korzystał z technik głębokiego uczenia się. Szkolono go na przykładzie 70 osób cierpiących na nowotwór prostaty, a przy uczeniu wykorzystano 4 algorytmy głębokiego uczenia się. Z czasem sztuczna inteligencja nauczyła się opracowywania optymalnego planu leczenia. Okazało się, że w przypadku każdego z tych pacjentów jest on taki sam, jak ten opracowany przez lekarzy.
      To jednak nie wszystko. Algorytm był też w stanie przed każdą kolejną sesją radioterapii błyskawicznie obliczyć prawidłowe dawki promieniowania. Zwykle pacjenci przed każdą sesją przechodzą badanie, na podstawie którego obliczane są dawki.
      Nowy algorytm korzysta z dwóch standardowych modeli obliczania dawki. Jednego szybkiego, który jednak jest mniej precyzyjny, i drugiego bardzo precyzyjnego, który jednak wymaga półgodzinnych obliczeń. SI, porównując na przykładzie wspomnianych 70 pacjentów wyniki obu modeli, nauczyła się, jak wykorzystać szybkość jednego i precyzję drugiego, by w czasie krótszym od sekundy uzyskać precyzyjne wyniki.
      Naukowcy z UT Southwestern Medical Center mają teraz zamiar wykorzystać swój algorytm w codziennej praktyce klinicznej.

      « powrót do artykułu
×
×
  • Create New...