Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Ponad 2000 uczniów klas czwartych z 57 szkół podstawowych, ponad 370 000 rozwiązanych wygenerowanych zadań matematycznych – to efekt pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy". Prowadzony w roku szkolnym 2018/2019 przez naukowców z Wydziału Matematyki i Nauk Informacyjnych Politechniki Warszawskiej projekt miał dwa podstawowe cele: podniesienie u uczniów kompetencji matematycznych oraz weryfikację działania nowej wersji systemu zeszyt.online.

Zespół naukowców skupionych wokół Politechniki Warszawskiej przez ostatnie lata pracował nad opartym na sztucznej inteligencji systemem wspierającym naukę matematyki. System zeszyt.online, bo o nim mowa, to platforma, do której użytkowania wystarczy przeglądarka internetowa. Po zalogowaniu uczeń dostaje zadania, których zakres i poziom trudności na bieżąco dostosowują się do aktualnych umiejętności oraz skuteczności w rozwiązywaniu.

Indywidualizacja nauki

Indywidualizowanie nauczania to przyszłość, od której nie uciekniemy, jeżeli zależy nam na wysokich efektach dydaktycznych i przewadze naszej młodzieży na tle rówieśników z innych krajów.

Nie ma sensu, aby bardzo dobry uczeń rozwiązywał wiele prostych, mechanicznych zadań – mówi Artur Jackowski, kierownik zespołu zeszyt.online. Od pewnego momentu niczego nowego się nie nauczy. Aby efektywniej wykorzystywać czas nauki, lepiej dać mu zadania, które wymagają od niego większego wysiłku intelektualnego. Z drugiej strony nie ma co dawać uczniom słabszym bardzo trudnych zadań. Zapewne na razie nie będą w stanie ich rozwiązać. Zmarnują tylko czas i nabiorą awersji do matematyki. System automatycznie indywidualizuje naukę, próbując odpowiednio dobierać zadania matematyczne.

System od początku był projektowany z myślą o samodzielnej pracy. Dlatego uczeń od razu po rozwiązaniu zadania dostaje informację, czy zrobił je poprawnie. Jest to szczególnie przydatne, gdy uczeń jest w domu i nie może liczyć na pomoc rodzica czy też korepetytora. Badania pokazały, że dzięki takiej natychmiastowej automatycznej weryfikacji uczeń, będąc później w szkole, mniej stresuje się przy tablicy, częściej odpowiada na pytania nauczyciela i ogólnie, jest aktywniejszy na lekcji.

Odejść od schematów, zrozumieć ucznia

To, z czego jesteśmy najbardziej dumni, to uzyskany przez nas przełom w diagnozie przyczyn błędów i trudności z zadaniem, a następnie udzielaniem uczniowi indywidualnej pomocy – mówi o systemie kierownik zespołu. Jesteśmy tutaj pionierami na światową skalę. Znacząco zmieniamy podejście do nauczania matematyki. Klasycznie nauczyciel czy korepetytor tłumaczą uczniowi, jak powinien był rozwiązać zadanie. W konsekwencji uczy się w ten sposób schematów. Uczeń przyjmuje je do wiadomości, zapamiętuje, a później próbuje je odtworzyć. Jest to bierne podejście do nauki, które zabija kreatywność.

System zeszyt.online, choć pomaga uczniowi dojść do prawidłowego wyniku, nigdy nie wyświetla mu gotowego rozwiązania. Zamiast tego zmusza go do samodzielnego myślenia i poszukiwań.

System, gdy zdiagnozuje przyczynę problemu, tak dobiera następne zadania, aby uzupełnić braki w wiedzy i rozumieniu oraz ćwiczy kojarzenie faktów – wyjaśnia Artur Jackowski. Gdy uczeń jest gotowy, to wraca do oryginalnego zadania, które rozwiązuje bez pomocy człowieka. I to się sprawdza. W zeszłym roku szkolnym uczniowie biorący udział w badaniu zrobili błędnie 108 412 zadań. System poprawnie zdiagnozował i znalazł skuteczną pomoc już w co trzecim przypadku. A mówimy tu o danych statystycznych na całkiem dużej próbie badawczej. U uczniów pracujących systematycznie, uzyskujemy jeszcze lepsze wyniki. Im więcej zadań rozwiązuje dana osoba, tym mamy więcej informacji i możemy skuteczniej dopasowywać pomoc.

Jak zostać generałem matematyki?

Nauka wymaga od ucznia stałego wysiłku. Aby ją uatrakcyjnić i zmniejszyć odczucie wkładanej pracy, system połączony jest z mechanizmami motywującymi. Uczniowie rozwiązując zadania zbierają punkty, które przekładają się na osiągane stopnie. Każdy zaczyna od szeregowego matematyka i rozwija się w kierunku generała. Dodatkowo zdobywa specyficzne odznaczenia za szczególne osiągnięcia.

Koniec z matematycznym koszmarem?

Nad projektem pracują analitycy, programiści, metodycy, nauczyciele matematyki, psychologowie, osoby odpowiedzialne za wsparcie techniczne i utrzymanie infrastruktury. To silny i zgrany zespół, który umożliwia skuteczną realizację stawianych przed nim wyzwań.

Chcielibyśmy, aby z efektów naszej pracy mogli skorzystać uczniowie z całej Polski – mówi Artur Jackowski. Marzy nam się, aby dzięki zeszyt.online matematyka przestała być postrachem wśród uczniów. Mamy rozwiązania, które umożliwiają wychodzenie ze spirali zaległości, indywidualizowanie i koordynowanie nauki, stawianie uczniom celów i dążenie do ich realizacji, przygotowywanie do sprawdzianów i odległych egzaminów połączone z zarządzaniem powtórkami.

Wiele tych funkcjonalności jest ciągle testowana na wąskich grupach użytkowników i wymaga dodatkowych nakładów pracy, zanim zostanie szerzej udostępniona. Większe uruchomienie to także koszty związane z utrzymaniem infrastruktury i zapewnieniem wsparcia dla uczniów i nauczycieli.

Zwracamy się do organów prowadzących szkoły – wyjaśnia Artur Jackowski. W ich placówkach już teraz możemy uruchomić nasze oprogramowanie, jeżeli będą pokrywały koszty serwerów, wdrożenia oraz współfinansowały dalszy rozwój. Poszukujemy również sponsorów – zarówno wśród firm prywatnych jak również instytucji publicznych, którym zależy na poprawie jakości edukacji i chciałyby mieć w tym swój wkład.

System zeszyt.online zdobył wiele pozytywnych opinii od uczniów i nauczycieli, którzy korzystali z niego w pierwszej edycji projektu "Matematyka – wstęp do kariery wynalazcy".

W tym roku szkolnym w ramach Programu Operacyjnego Wiedza Edukacja Rozwój 2014–2020 przygotowano bezpłatne miejsca dla 50 dodatkowych klas IV województwa mazowieckiego, żeby dać możliwość przetestowania tego nowatorskiego rozwiązania szerszym kręgom uczniów.

Więcej informacji o systemie: zeszyt.online


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Brakuje wystawionej wersji demo, która pozwoliłaby na zapoznanie się z systemem w praktyce. Sam opis, to trochę mało

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, raweck napisał:

Brakuje wystawionej wersji demo, która pozwoliłaby na zapoznanie się z systemem w praktyce. Sam opis, to trochę mało

Zapytałam w Biurze Prasowym PW, czy istnieje wersja demo dla osób indywidualnych. Czekam na odpowiedź :)

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na pierwszy rzut oka brzmi świetnie. Niestety wystarczy się wczytać w tekst aby widzieć,że nie ma tu żadnego przełomu w nauczaniu matematyki. Dwa główne problemy to odejście od standaryzacji efektu końcowego oraz zmiana systemu nauczania na taki od przykładu do wniosku (a nie na odwrót). To  co zostało zrobione (przynajmniej tak wynika z artykułu), to tylko niewielka zmiana kolejności wykonywanych zadań. To NA PEWNO nie zmieni faktu że matematyka jest postrachem. Wynika to z faktu że przedmiot jawi się jako niepotrzebny, a to jest efektem tego że najpierw uczeń się uczy reguły a potem próbuje ją zastosować w zadaniu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

coś o tym wiem. Przez 3 lata liceum męczyłem się z matmą tylko dlatego, że w gimnazjum nikt nie potrafił mnie przekonać do przydatności tego przedmiotu w życiu. DOpiero perspektywa matury i dostania się na jakieś studia zmieniły moje nastawienie

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Dostałam odpowiedź z Biura Prasowego.

Na razie nie jest on udostępniany osobom indywidualnym. Współpraca ze szkołami pozwala bardziej efektywnie pracować nad systemem i go rozwijać. Jeśli ktoś jest zainteresowany skorzystaniem z systemu czy ma pytania dotyczące jego działania, prosimy o kontakt przez formularz dostępny na stronie zeszytu online: https://zeszyt.online/#/

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Przed laty pisarze domagali się stworzenia systemu opłat czy rekompensat związanych z niezwykłą łatwością kopiowania i rozpowszechniania ich utworów w świecie cyfrowym. Wiele osób korzystało bowiem z ich pracy nie płacąc twórcom dzieł. Teraz twórcy znowu protestują, a jednym z powodów jest... sztuczna inteligencja.
      Gildia Pisarzy Ameryki (Writers Guild of America – WGA), związek zawodowy skupiający głównie osoby pracujące w przemyśle filmowym i telewizyjnym, rozpoczęła strajk po tym, jak nie doszła do porozumienia z reprezentującą amerykański przemysł rozrywkowy organizacją Alliance of Motion Picture and Television Producers. Jednym z elementów sporu jest istnienie narzędzi takich jak ChatGPT. WGA chce zakazu wykorzystywania tego typu algorytmów do tworzenia historii i scenariuszy do filmów i programów.
      Członkowie WGA obawiają się, że przemysł zacznie wykorzystywać algorytmy sztucznej inteligencji do tworzenia scenariuszy, które następnie będą jedynie „wygładzane” przez ludzi. A do tego potrzeba będzie znacznie mniej twórców niż obecnie, co negatywnie wpłynie na zatrudnienie i zarobki w tym dziale gospodarki. WGA proponuje również, by żaden skrypt filmowy czy telewizyjny, który jest objęty grupową umową związkowa, nie był być wykorzystywany do trenowania algorytmów SI. To zresztą echo szerszego sporu dotyczącego tego, czy koncerny stojące za takimi narzędziami jak ChatGPT mają prawo bez zgody właściciela praw autorskich wykorzystywać tekst do trenowania swoich algorytmów. W ten sposób bowiem nie płacą za cudzą pracę, a czerpią z niej zyski.
      Wielkie studia filmowe i telewizyjne oraz serwisy internetowe nie chcą przystać na powyższe żądania. Są przeciwne stawianiu twardych granic dotyczących wykorzystywania przez nie systemów sztucznej inteligencji.
      WGA to nie jedyny reprezentant pracowników przemysłu filmowego, który wyraża obawy związane z rozwojem SI. Także związki zawodowe reprezentujące aktorów obawiają się, że systemy SI mogą być w coraz większym stopniu wykorzystywane w rozrywce. I nie są to obawy pozbawione podstaw. WGA stawia tutaj bardzo ważne pytanie. Kto zyska, a kto straci na rozwoju takich systemów, mówi Sarah Myers West z AI Now Institute w Nowym Jorku.
      Coraz więcej grup zawodowych czuje się zagrożonych przez rozwój systemów sztucznej inteligencji. Maszyny w najbliższych latach będą mogły zastąpić ludzi w wykonywaniu coraz większej liczby czynności. Niedawno IBM poinformował, że z czasem przestanie rekrutować ludzi na stanowiska, na których mogą być zastąpieni przez sztuczną inteligencję. Jako, że rozwoju SI nie można powstrzymać, kluczową staje się odpowiedź na pytanie, kto będzie ten rozwój kontrolował i jak będzie on przebiegał.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...