Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Sztuczna inteligencja pomogła w rozwiązaniu jednej z zagadek zwojów znad Morza Martwego. Przeprowadzona przez algorytm analiza potwierdziła, że jeden z najstarszych zwojów z Qumran – Wielki Zwój Izajasza, pochodzący z ok. 125 roku p.n.e. – został spisany przez dwie osoby, a nie przez jedną.

Wielki Zwój Izajasza to kopia Księgi Izajasza. Zanim odkryto zwoje z Qumran historię tekstów biblijnych mogliśmy studiować praktycznie wyłącznie ze średniowiecznych manuskryptów z około 1000 roku. Zwoje znad Morza Martwego są jak kapsuła czasu. Pozwalają nam podróżować do czasów, w których Biblia dopiero powstawała. Dają nam więc wyjątkowy wgląd w kulturę i środowisko, które ją wytworzyło, mówi Mladen Popovic z Uniwersytetu w Groningen.

Wielki Zwój Izajasza jest naprawdę wielki. Ma 734 centymetry długości. To największy, jeden z najlepiej zachowanych i jedyny niemal kompletny zwój z Qumran. Dotychczas naukowcy nie byli pewni, czy spisała go jedna czy dwie osoby, gdyż charakter pisma na całym zwoju jest niezwykle podobny.

Popovic i jego zespół zaprzęgli sztuczną inteligencję do analizy zdjęć zwoju. Zadaniem algorytmu było przyjrzenie się literom, przeanalizowanie trudnych do wychwycenia dla człowieka zmian w kroju i stylu liter oraz stwierdzenie, czy Wielki Zwój wyszedł spod jednej ręki, czy też pracowało nad nim więcej osób o podobnym charakterze pisma.

Sztuczną inteligencję zaprzęgnęliśmy do pracy dlatego, że mamy tutaj podobny charakter pisma. Chcieliśmy dowiedzieć się, czy pisały dwie osoby czy jedna, która w pewnym momencie zmieniła narzędzie do pisania, wyjaśnia Charlotte Hempel z University of Birmingham. Teraz możemy zadać sobie jeszcze jedno fascynujące pytanie. Czy tak duże podobieństwo w charakterze pisma dwóch osób wynikało z faktu, iż mamy tutaj do czynienia z  wysokiej klasy profesjonalistą zdolnym do naśladowania charakteru pisma innej osoby i czy obaj skrybowie pochodzili z tego samego kręgu, w którym uczyli się swojej profesji, dodaje Hempel.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie sztuczna inteligencja bo takowe nie istnieją tylko algorytm komputerowy.
Gdyby powstała sztuczna inteligencja to kwestią czasu byłaby technologiczna osobliwość.
Gdzieś kiedyś jakieś sympozjum dotyczyło jednego z tych marketingowych słówek (zapomniałem którego): coś jak sztuczna inteligencja, innowacyjność i takie tam bla bla wymyślane przez teoretyków lub marketingowców.
Pierwszy prelegent zmieszał z błotem ten termin.
Wszyscy następni robili wszystko co mogli żeby zastąpić ten termin zbrukany z błotem jakimś zamiennikiem. Była zabawa, bo prawie każdy w co drugim zdaniu go pierwotnie użył :)
"Musimy innowacyjnie rozwijać innowacyjność naszej gospodarki. Będziemy tu siedzieli i pier**lili (za co nam płacą) chociaż nikt nigdy nie skorzysta w prawdziwej firmie z naszej wiedzy".

Edytowane przez thikim
  • Haha 1
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To się nazywa narrow AI po angielsku.

Quote

Narrow AI (ANI) is defined as “a specific type of artificial intelligence in which a technology outperforms humans in some very narrowly defined task. Unlike general artificial intelligence, narrow artificial intelligence focuses on a single subset of cognitive abilities and advances in that spectrum.”

https://www.springboard.com/blog/narrow-vs-general-ai/

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, thikim napisał:

Nie sztuczna inteligencja bo takowe nie istnieją tylko algorytm komputerowy.

To trochę nadużycie pojęcia algorytm. Cały algorytm to: tanh(sum(wi*xi)). W skrócie, ten sam 'algorytm' odróżnia jabłko od truskawki od pryszcza od raka. Zwykle różne algorytmy rozwiązują różne zadania.AI rozwiązuje różne zadania jednym (mniej więjcej)  algorytmem. Ale zgadzam się, ciągle jeszcze z AI nie pogadasz o życiu i śmierci, a rano nie zrobi jajecznicy. 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kiedyś znajoma w pracy zrobiła krótki wykład o AI (2h). Sam nie jestem ekspertem w tej dziedzinie, to były podstawy podstaw, ale byłem pod wrażeniem ile można zdziałać stosunkowo prostą matematyką w klasyfikacji obiektów.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeszcze kilka lat temu nazywano te algorytmem maszynowym lub uczeniem maszynowym. Teraz wszędzie już sztuczną inteligencją się zwie, ponieważ to jest bardziej medialne określenie. Ludzie którzy nie siedzą w temacie pomyślą że takie coś już jest. Niestety. Ale cieszmy się że w końcu mamy coraz więcej zastosowań komputera.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie dostrzegałbym przesadnego spisku marketingowców. Wyjdź na ulicę, wytypuj ofiary i zapytaj co to "uczenie maszynowe" oraz co to "sztuczna inteligencja" ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

"Sztuczna inteligencja" chyba jednak bardziej powszechnie występuje w ludzkiej świadomości, niż "uczenie maszynowe", choćby nawet w dowcipach o blondynkach ;) A ile filmów hollywoodzkich o AI nakręcono w ciągu kilku-kilkunastu ostatnich lat w porównaniu z filmami o "uczeniu maszynowym".... :)

Edytowane przez darekp
  • Haha 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nawet statystyczny deweloper w IT niedawno się dowiedział co to ML i DL. Sam nie kojarzyłem tych określeń przed 2014, o ile mnie pamięć nie myli. Wtedy rozpocząłem pracę w firmie, gdzie była zatrudniona osoba od ML w sąsiednim teamie. W ciągu ostatnich 5 lat kilka osób się w tej samej firmie zainteresowało tematem. Zgadzam się, że jest tak napisane aby było bardziej zrozumiałe, a nie żeby tworzyć złudzenia. Nie wiem czy to wynika z mojej poprzedniej wypowiedzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, cyjanobakteria napisał:

Nawet statystyczny deweloper w IT niedawno się dowiedział co to ML i DL. Sam nie kojarzyłem tych określeń przed 2014,

Bo moc i pamięć. Osiągnęliśmy wystarczający poziom i dziedzina zaczęła się rozwijać lawinowo.  Maleństwa typu Raspberry Pi mogą liczyć w czasie rzeczywistym.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.04.2021 o 10:18, thikim napisał:

Nie sztuczna inteligencja bo takowe nie istnieją tylko algorytm komputerowy.

Jest nawet dowód na to, że sztuczna inteligencja nigdy nie powstanie. Bo dotychczas każdy rozwiązany problem z domeny AI stawał się "kolejnym zwykłym softem na komputer", jak dla przykładu szachy czy obecnie zagadnienia klasyfikacyjne. Gdy coś rozwiążemy kolejne, znowu staną się one "zwykłymi algorytmami".

 

W dniu 24.04.2021 o 10:21, cyjanobakteria napisał:

Sam nie kojarzyłem tych określeń przed 2014, o ile mnie pamięć nie myli.

Nic dziwnego, deep learning to była nowość. Teoretycznie badano bardzo głębokie sieci od dawna, ale dopiero niedawno udało się uzyskać "nadludzkie" rezultaty w bardzo szerokiej klasie problemów, głównie dzięki większej mocy obliczeniowej.
Sam nad tym przez krótką chwilę pracowałem, ale raczej od strony znalezienia zupełnie nowych algorytmów które pozwalałyby efektywnie uczyć bardzo głębokie sieci, i w czasie kiedy jeszcze nie było to modne.
Niestety wyszedłem z błędnego założenia, że mózg nie korzysta ze wstecznej propagacji błędów, dlatego żaden pomysł nie miał szansy zadziałać, choć pewne powinny mieć sens w znacznie większych skalach (np. mózg musi wykorzystywać permanentną konkurencję pomiędzy obwodami, i powinny istnieć mechanizmy przypominające wolny rynek)

 

 

W dniu 22.04.2021 o 10:09, KopalniaWiedzy.pl napisał:

Sztuczną inteligencję zaprzęgnęliśmy do pracy dlatego, że mamy tutaj podobny charakter pisma. Chcieliśmy dowiedzieć się, czy pisały dwie osoby czy jedna, która w pewnym momencie zmieniła narzędzie do pisania, wyjaśnia Charlotte Hempel z University of Birmingham. Teraz możemy zadać sobie jeszcze jedno fascynujące pytanie. Czy tak duże podobieństwo w charakterze pisma dwóch osób wynikało z faktu, iż mamy tutaj do czynienia z  wysokiej klasy profesjonalistą zdolnym do naśladowania charakteru pisma innej osoby i czy obaj skrybowie pochodzili z tego samego kręgu, w którym uczyli się swojej profesji, dodaje Hempel.

Wciąż może być to jedna osoba z osobowścią wieloraką :P

Edytowane przez peceed
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 22.04.2021 o 10:18, thikim napisał:

Nie sztuczna inteligencja bo takowe nie istnieją tylko algorytm komputerowy.

Jak nie istnieje, jak istnieje? Gdyby to się nazywało "komputerowa inteligencja", to można byłoby się zgodzić z tym zdaniem. Ale nie, gdy mowa o sztucznej. Bo co to znaczy sztuczna? Intuicyjnie rozumiemy to jako nienaturalną. Ale też możemy rozumieć to słowo nieco szerzej, a mianowicie wychodząc od słowa "sztuczka", czyli iluzji, możemy przyjąć, że jest to synonim słowa nieprawdziwa, złudna, iluzoryczna inteligencja. Mamy sztuczny miód, a wy powiecie, że sztuczny miód to nie miód, tylko wygląda jak miód. I właśnie dlatego, że wygląda i trudno go odróżnić od miodu, nazywa się go miodem.

2 godziny temu, peceed napisał:

Jest nawet dowód na to, że sztuczna inteligencja nigdy nie powstanie. Bo dotychczas każdy rozwiązany problem z domeny AI stawał się "kolejnym zwykłym softem na komputer", jak dla przykładu szachy czy obecnie zagadnienia klasyfikacyjne. Gdy coś rozwiążemy kolejne, znowu staną się one "zwykłymi algorytmami".

I to właśnie stanowi jakby esencję sztucznej inteligencji. Efekt jest taki sam. Przecież CELEM inteligencji jest wygranie w szachy, a nie SAMO granie. To właśnie SZTUCZKA. I dlatego AI to JEST inteligencja. Na jakiej podstawie w ogóle twierdzisz, że inteligencja to nie jest jakiś algorytm?

Operujecie tzw. heurystykami, prowadzącymi często do błędnego rozumowania (dla programistów - douczyć się o słowie heurystyka, bo nie chodzi o definicję informatyczną). Macie słowo inteligencja i od razu wam się wydaje się, że to musi być zjawisko świadome, a nie zwykły algorytm.

Przypomina mi się ostatnio usłyszany dowcip. Przychodzi Polak do sklepu w Anglii, ale nie umie mówić po angielsku i próbuje wytłumaczyć sprzedawcy co chce kupić. I Polak do niego mówi: Chcę kupić ... i pokazuje mu rękami kształt kuli. Sprzedawca myśli i myśli i nagle wpada: You want to buy a ball? Polak zadowolony krzyczy: yes! Sprzedawca już chce ruszyć po jakąś piłkę, a wtedy Polak do niego: Czekaj. Teraz się skup.  Zaczyna mu pokazywać rękami jakby chciał coś przeciąć piłą. I dodaje: Chodzi o piłkę mechaniczną....

Edytowane przez Antylogik

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
3 godziny temu, Antylogik napisał:

Chodzi o piłkę mechaniczną...

do metalu.

 

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Artykuł podsumowujący obecny etap funckjonowania AI vel modeli uczenia maszynowego:

https://mlodytechnik.pl/technika/30612-czego-ai-nie-moze-i-co-ja-blokuje

Jednak naukowcy Google’a wsadzili kij w mrowisko, udowadniając, że nawet najlepsze w swojej klasie metodologie testowania nie dają pewności co do wymaganej wydajności w świecie rzeczywistym. Po testach niektóre modele będą znakomite w świecie rzeczywistym, ale niektóre rozczarują, i nie można tego przewidzieć z wyprzedzeniem.[...]

Społeczność badaczy uczenia maszynowego głęboko poruszył opublikowany w listopadzie 2020 r. artykuł zespołu AI Google pt. "Underspecification Presents Challenges for Credibility in Modern Machine Learning". Dokument zwraca uwagę na szczególnie drażliwy problem polegający na tym, że nawet jeśli modele uczenia maszynowego przechodzą testy dobrze, nie radzą sobie równie dobrze w świecie rzeczywistym. Błędy modeli, które nie osiągają wydajności w testach w świecie rzeczywistym, są znane od dawna, ale ta praca jest pierwszą, która publicznie udowadnia i wymienia ową "underspecification" (co można tłumaczyć jako "niedookreślenie") w roli głównej przyczyny problemów.

Parę lat temu wydawało się, że rewolucja jest tuż za rogiem, co byłoby dla naszego kraju, trapionego głęboką niewydolnością systemu zdrowia, iskierką nadziei. Jednak:

Najbardziej chyba bolesną porażką AI, której nie omawia się i nie opisuje tak szeroko w mediach, jak jeszcze kilka lat temu szumnych zapowiedzi, jest to, co stało się ze sławnym Watsonem firmy IBM, który miał wspierać m.in. diagnostykę raka. Okazało się, że co innego wygrać z ludźmi teleturniej, a co innego dać sobie radę w roli lekarza. Jak pamiętamy, a pisał o tym także przed laty MT, system ten miał nawet "pozbawić lekarzy pracy".

Więcej:

https://mlodytechnik.pl/technika/30614-watson-nie-wygryzl-lekarza-i-bardzo-dobrze

Okazało się jednak, że Watson nie potrafi samodzielnie uzyskać wglądu do literatury medycznej ani też nie może wydobywać informacji z elektronicznej dokumentacji zdrowotnej pacjentów. Jednak najcięższy zarzut wobec niego opierał się na konstatacji, że nie umie sprawnie porównać nowego pacjenta z innymi starszymi przypadkami chorych na raka i odkryć symptomów, które są na pierwszy rzut oka niewidoczne.

Jednak nie wszystko stracone ponieważ:  

są dziedziny, w których okazał się niezwykle przydatny. Produkt Watson for Genomics, który został opracowany we współpracy z Uniwersytetem Karoliny Północnej, Uniwersytetem Yale i innymi instytucjami, jest wykorzystywany przez laboratoria genetyczne do generowania raportów dla onkologów. Watson pobiera plik z listą mutacji genetycznych u pacjenta i w ciągu kilku minut potrafi wygenerować raport, który zawiera sugestie dotyczące wszystkich ważnych leków i badań klinicznych. Watson stosunkowo łatwo radzi sobie z informacjami genetycznymi, ponieważ są prezentowane w ustrukturyzowanych plikach i nie zawierają dwuznaczności - albo mutacja jest, albo jej nie ma.

Ale największa rewolucja to chyba modelowanie  białek. Tu jest pole do popisu co zresztą ma swój praktyczny wymiar w walce z sars-cov-2.

Z obu artykułów wynika, że "sztuczna inteligencja" najbardziej obecnie sprawdza się wycinkowo, co bardziej pasuje do definicji algorytmu. Aczkolwiek taki GPT-3 firmy OpenAi wygląda obiecująco: Tu warto wtrącić, iż akurat GPT-3 może być wyjątkiem, czyli pierwszym przykładem sztucznej inteligencji, która, choć nie jest "ogólna", przekroczyła definicję "wąskiej". Algorytm, choć był szkolony do pisania tekstów, ostatecznie potrafi także tłumaczyć między językami, pisać kod, autouzupełniać obrazy, wykonywać zadania matematyczne i inne zadania związane z językiem

 Z artykułu wynika, że GPT-3  jest "mniejszy" tysiąc razy niż ludzki mózg, to jest kwestią czasu gdy te parametry się zrównają. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 godzin temu, venator napisał:

Dokument zwraca uwagę na szczególnie drażliwy problem polegający na tym, że nawet jeśli modele uczenia maszynowego przechodzą testy dobrze, nie radzą sobie równie dobrze w świecie rzeczywistym.

Tak, jeszcze nie wymyśliłem jak to obejść. Dobry model to 95% poprawnych rozpoznań, oczywiście jest w stanie ocenić gazylion zdjęć. z fałszywymi rozpoznaniami nie ma dużego problemu - te kilka sztuk wyłapie człowiek. Ale co 5% przypadków nierozpoznanych? Wychodzi na to, że i tak człowiek musi zobaczyć wszystkie obrazki. Zatem musi zostać jak jest, robotę robi człowiek, a robota można jedynie użyć do sprawdzenia po człowieku.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W niedawno opublikowanym wywiadzie Mark Zuckerberg stwierdził, że prawdopodobnie jeszcze w bieżącym roku firma Meta (właściciel Facebooka), podobnie jak inne wielkie firmy, będzie dysponowała systemem sztuczne inteligencji zdolnym do programowania na poziomie średnio doświadczonego inżyniera (mid-level engineer).
      Początkowo wdrożenie takich systemów będzie bardzo kosztowne i będą one musiały zyskać na wydajności, jednak z czasem dojdziemy to momentu, w którym bardzo duża część kodu używanych przez nas aplikacji, w tym kodu algorytmów sztucznej inteligencji, nie będzie pisana przez ludzi, a przez sztuczną inteligencję, stwierdził założyciel Facebooka.
      Słowa Zuckerberga to tylko jeden z sygnałów, że branżę programistyczną mogą w najbliższym czasie czekać olbrzymie zmiany. Sami programiści z jednej strony tworzą algorytmy sztucznej inteligencji, które w przyszłości mogą ich zastąpić, z drugiej zaś, coraz częściej korzystają z ich pomocy. Jeszcze na początku 2023 roku tylko 10% programistów używało AI do pomocy w programowaniu, pod koniec roku 2023 już 63% firm używało lub wdrażało użycie narzędzi AI pomagających w programowaniu. Pod koniec ubiegłego roku odsetek ten wzrósł do 80%.
      Zuckerberg nie jest jedynym wśród wiodących biznesmenów z branży IT, który zapowiada szybkie nadejście olbrzymich zmian. We wrześniu Matt Garman, szef Amazon Web Services, zasugerował, że w ciągu najbliższych 2 lat większość inżynierów oprogramowania przestanie zajmować się programowaniem. Zaś kilka miesięcy wcześniej prezes Nvidii stwierdził, że uczenie się programowania nie jest dobrym pomysłem, gdyż dzięki rozwojowi AI ludzki język staje się najważniejszym językiem programowania.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pomiędzy lipcem 2021 roku a lutym 2023 roku 12 centrów mammograficznych w Niemczech brało udział w programie, w którym badania mammograficzne były wspomagane przez system sztucznej inteligencji. Radiolodzy sami decydowali, kiedy wykorzystać AI, a kiedy wykonać badania tradycyjnymi metodami. W tym czasie we wspomnianych centrach 119 radiologów przebadało 463 094 kobiety w wieku 50–69 lat. W przypadku 260 739 z nich diagnoza była wspomagana przez sztuczną inteligencję, pozostała część stanowiła grupę kontrolną.
      W grupie, w której badania wspomagane były przez AI, odsetek wykrytych nowotworów piersi wyniósł 0,67%, podczas gdy w grupie badanej tradycyjnymi metodami było to 0,57%. Ponadto tam, gdzie do badania użyto AI odsetek pań poddanych pogłębionej diagnostyce wyniósł 3,74%, a w grupie kontrolnej – 3,83%. Wartość predykcyjna dodatnia (PPV) dla grupy badanej przez AI wynosiła 17,9%, dla grupy kontrolnej – 14,9%. PPV pokazuje tę część podejrzanych wyników mammografii, które w pogłębionej diagnostyce rzeczywiście reprezentują chorobę.
      Najważniejszym wskaźnikiem przydatności algorytmu sztucznej inteligencji w badaniach mammograficznych jest fakt, że zwiększył on wykrywalność choroby bez zwiększania potrzeby przeprowadzenia pogłębionej diagnostyki. To już kolejne badania, które pokazały, że algorytmy sztucznej inteligencji rzeczywiście wspomagają pracę radiologów i mogą ratować życie kobiet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W latach 1967–1978 roku Włoska Wyprawa Archeologiczna ISMEO prowadziła pierwsze badania w Shahr-i Sokhta (SiS) w Iranie. Szybko okazało się, że miasto składało się z trzech obszarów: mieszkalnego, cmentarza i przemysłowego. Jego największy rozkwit przypadł na połowę III tysiąclecia przed naszą erą, gdy obszar mieszkalny zajmował 80 hektarów. Miasto uznano za jeden z najważniejszych ośrodków na wschodzie Wyżyny Irańskiej. Zidentyfikowano tam cztery okresy kulturowe podzielone na 10 faz konstrukcyjnych, które datowano na od 2. połowy IV tysiąclecia do połowy III tysiąclecia. W południowej części miasta znaleziono duży cmentarz o powierzchni około 20 hektarów, a w jednym z grobów planszę do gry i bierki.
      Datowanie wykazało, że gra pochodzi z lat 2600–2700 p.n.e. W grobie nie znaleziono żadnej innej planszy, założono więc, że wszystkie bierki pochodzą z tej jednej gry i że jest ona kompletna. Planszę do gry złożono w pobliżu głowy zmarłej osoby, w pobliżu zaś stał koszyk z bierkami i kostkami. Plansza jest podobna do wcześniej znajdowanych plansz, ale istnieją między nimi też duże różnice. Kształt planszy z SiS jest niezwykle podobny do słynnej Królewskiej Gry z Ur, jednak gra z SiS ma więcej bierek i nie ma na niej rozety, która wydaje się bardzo ważnym elementem tego typu gier, znanych pod zbiorową nazwą „gier na 20 kwadratach”.
      Z Bliskiego Wschodu i spoza niego znamy ponad 100 plansz, w pewnej mierze do siebie podobnych, a w wielu aspektach różnych, które klasyfikowane są pod tą nazwą. Znaleziono je w Turkmenistanie czy Indiach. Podobnej gry używali Egipcjanie ok. 1580 roku p.n.e. Prawdopodobnie zapoznali się z nią za pośrednictwem Hyksosów. Podobne gry były popularne przez około 2000 lat.
      Autorzy nowych badań zaprzęgli algorytmy sztucznej inteligencji, do pracy nad odgadnięciem zasad gry. Wykorzystanie metod obliczeniowych do badań starożytnych gier, pozwala na symulowanie tysięcy możliwych zestawów zasad i wybranie tych najbardziej prawdopodobnych czy pasujących do gry i bierek.
      Gra z Shahr-i Sokhta wydaje się grą strategiczną – rodzajem wyścigu – podobną do Królewskiej Gry z Ur, ale bardziej złożoną. Zdaniem naukowców, mamy tutaj do czynienia z grą 2-osobową, a celem gracza jest przesunięcie przez pola planszy wszystkich 10 swoich bierek, zanim zrobi to przeciwnik. W grze gracze posługują się kostką i mogą wykorzystywać swoje bierki zarówno do jak najszybszego dotarcia do celu, jak i do blokowania ruchów przeciwnika. Badacze sugerują, że dodatkowe bierki, dzięki którym gra różni się np. od gry z Ur, dodawały jej złożoności. Widzimy wśród nich na przykład rozety, podobne do rozet, które w grze w Ur narysowane są na planszy. W przeciwieństwie do Królewskiej Gry z Ur, w przypadku gry z SiS losowość odgrywa mniejszą rolę, a większa rolę gra strategia.
      Po określeniu najbardziej prawdopodobnych zasad, grę z SIS przetestowało 50 doświadczonych graczy, który ocenili ją i porównali z Królewską Grą z Ur. Przyznali, że gra z SiS jest bardziej wymagająca pod względem strategii niż gra z Ur.
      Szczegóły badań zostały opublikowane na łamach Journal of the British Institute of Persian Studies. Gra z Shahr-i Sokhta została znaleziona w bogato wyposażonym grobie, ale nie był to grób królewski, co wskazuje, że była bardziej dostępna niż gra dla najwyższej elity.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
      Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
      Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
      W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
      Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...