Sign in to follow this
Followers
0
-
Similar Content
-
By KopalniaWiedzy.pl
Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.
« powrót do artykułu -
By KopalniaWiedzy.pl
Przed laty pisarze domagali się stworzenia systemu opłat czy rekompensat związanych z niezwykłą łatwością kopiowania i rozpowszechniania ich utworów w świecie cyfrowym. Wiele osób korzystało bowiem z ich pracy nie płacąc twórcom dzieł. Teraz twórcy znowu protestują, a jednym z powodów jest... sztuczna inteligencja.
Gildia Pisarzy Ameryki (Writers Guild of America – WGA), związek zawodowy skupiający głównie osoby pracujące w przemyśle filmowym i telewizyjnym, rozpoczęła strajk po tym, jak nie doszła do porozumienia z reprezentującą amerykański przemysł rozrywkowy organizacją Alliance of Motion Picture and Television Producers. Jednym z elementów sporu jest istnienie narzędzi takich jak ChatGPT. WGA chce zakazu wykorzystywania tego typu algorytmów do tworzenia historii i scenariuszy do filmów i programów.
Członkowie WGA obawiają się, że przemysł zacznie wykorzystywać algorytmy sztucznej inteligencji do tworzenia scenariuszy, które następnie będą jedynie „wygładzane” przez ludzi. A do tego potrzeba będzie znacznie mniej twórców niż obecnie, co negatywnie wpłynie na zatrudnienie i zarobki w tym dziale gospodarki. WGA proponuje również, by żaden skrypt filmowy czy telewizyjny, który jest objęty grupową umową związkowa, nie był być wykorzystywany do trenowania algorytmów SI. To zresztą echo szerszego sporu dotyczącego tego, czy koncerny stojące za takimi narzędziami jak ChatGPT mają prawo bez zgody właściciela praw autorskich wykorzystywać tekst do trenowania swoich algorytmów. W ten sposób bowiem nie płacą za cudzą pracę, a czerpią z niej zyski.
Wielkie studia filmowe i telewizyjne oraz serwisy internetowe nie chcą przystać na powyższe żądania. Są przeciwne stawianiu twardych granic dotyczących wykorzystywania przez nie systemów sztucznej inteligencji.
WGA to nie jedyny reprezentant pracowników przemysłu filmowego, który wyraża obawy związane z rozwojem SI. Także związki zawodowe reprezentujące aktorów obawiają się, że systemy SI mogą być w coraz większym stopniu wykorzystywane w rozrywce. I nie są to obawy pozbawione podstaw. WGA stawia tutaj bardzo ważne pytanie. Kto zyska, a kto straci na rozwoju takich systemów, mówi Sarah Myers West z AI Now Institute w Nowym Jorku.
Coraz więcej grup zawodowych czuje się zagrożonych przez rozwój systemów sztucznej inteligencji. Maszyny w najbliższych latach będą mogły zastąpić ludzi w wykonywaniu coraz większej liczby czynności. Niedawno IBM poinformował, że z czasem przestanie rekrutować ludzi na stanowiska, na których mogą być zastąpieni przez sztuczną inteligencję. Jako, że rozwoju SI nie można powstrzymać, kluczową staje się odpowiedź na pytanie, kto będzie ten rozwój kontrolował i jak będzie on przebiegał.
« powrót do artykułu -
By KopalniaWiedzy.pl
Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.
Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.
Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.
Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.
« powrót do artykułu -
By KopalniaWiedzy.pl
Przed kilku laty głośno było o Neuralink, firmie Elona Muska, który obiecał stworzenie implantu łączącego ludzki mózg z komputerem. Przed kilkoma miesiącami biznesmen ogłosił, że do maja bieżącego roku rozpoczną się testy implantu The Link na ludziach. Jednak przed Neuralinkiem może być bardzo wyboista droga. Media doniosły właśnie, że już przed rokiem Federalna Agencja ds. Żywności i Leków (FDA) odrzuciła wniosek o testy urządzenia, a dwa amerykańskie ministerstwa prowadzą śledztwo ws. działań firmy Neuralink.
The Link ma być wszczepiany do mózgu. Jako taki jest przez FDA klasyfikowany jako urządzenie Klasy III. Należą do niej urządzenia medyczne, które podtrzymują lub wspierają funkcje życiowe, są implantowane lub stwarzają potencjalnie nieuzasadnione ryzyko choroby lub odniesienia obrażeń. FDA oświadczyła, że wniosek Neuralinku o rozpoczęcie testów na ludziach zawierał „dziesiątki niedociągnięć”, więc został odrzucony. Wątpliwości Agencji budziły m.in. stabilność akumulatorów i systemu ładowania, możliwość migrowania implantu w mózgu czy uszkodzenia tkanki. I mimo upływu wielu miesięcy Neuralink wciąż nie jest w stanie poprawić wszystkich niedociągnięć.
Odrzucenie wniosku nie oznacza, co prawda, że The Link nie zostanie w końcu dopuszczony do testów, ale wskazuje, że kilkunastu ekspertów, którzy przyglądali się implantowi, zgłosiło poważne zastrzeżenia.
To jednak nie wszystkie problemy. Pod koniec ubiegłego roku Departament Rolnictwa wszczął śledztwo ws. złego traktowania zwierząt laboratoryjnych przez firmę Muska, a Departament Transportu otworzył swoje śledztwo dotyczące nieprawidłowości przy międzystanowym transporcie materiałów niebezpiecznych, w tym implantów od chorych zwierząt.
Ustalenia Departamentów Rolnictwa i Transportu mogą w jakiś pośredni sposób wpłynąć na proces decyzyjny FDA. Dodatkowo sprawę mogą skomplikować zapowiedzi Muska i innych przedstawicieli firmy, którzy twierdzili, że The Link pozwoli niewidomym widzieć, sparaliżowanym chodzić oraz pozwoli na połączenie z jakimś rodzajem sztucznej inteligencji. Urządzenia Klasy III są oceniane pod kątem bezpieczeństwa oraz spełniania stawianych przed nimi założeń. Szumne zapowiedzi dotyczące niezwykłych możliwości The Link, nawet jeśli nie znajdą się w oficjalnym wniosku, mogą spowodować, że urzędnicy FDA będą znacznie baczniej przyglądali się urządzeniu i aplikacji.
Eksperci uważają, że firma Muska nie ma niezbędnej wiedzy i doświadczenia, by w przewidywalnym czasie wprowadzić na rynek implant mózgowy.
« powrót do artykułu -
By KopalniaWiedzy.pl
Francisco Lope de Vega był – obok Cervantesa – najwybitniejszym pisarzem hiszpańskiego Złotego Wieku. Jest autorem olbrzymiej liczby dramatów, sonetów, komedii, pisał powieści i epopeje. Nie cała jego spuścizna się zachowała. Tym cenniejsze jest odkrycie każdego nieznanego fragmentu tekstu jego autorstwa. W zbiorach Hiszpańskiej Biblioteki Narodowej (BNE) odnaleziono właśnie nieznaną dotychczas komedię Lope de Vegi, a do jej zidentyfikowania przyczyniła się sztuczna inteligencja.
Naukowcy z Uniwersytetów w Wiedniu i Valladolid prowadzą projekt ETSO: Estilometría aplicada al Teatro del Siglo de Oro. Wraz ze 150 współpracownikami stosują metody analizy komputerowej do prac teatralnych Złotego Wieku, by rozwiązać problemy z autorstwem poszczególnych dzieł. Badania przeprowadzono m.in. na XVII-wiecznym manuskrypcie, który został spisany wiele lat po śmierci Lope de Vegi. Na podstawie analizy stylistycznej sztuczna inteligencja wskazała, że znajdująca się w nim komedia „Francuzka Laura” wyszła spod pióra wielkiego pisarza i powstała na kilka lat przed jego śmiercią.
Odkrycie było możliwe dzięki ostatnim postępom w technologii automatycznej transkrypcji tekstów. Jeszcze kilka lat temu maszyny bardzo słabo radziły sobie z odręcznym pismem, szczególnie z dawnych epok. Obecnie się to zmieniło. Współczesna technologia w ciągu zaledwie kilku godzin była w stanie rozpoznać tekst – zarówno drukowany jak i pisany odręcznie – z około 1300 sztuk teatralnych Złotego Wieku. Maszynowe rozpoznawanie nie działa oczywiście idealnie, ale znakomicie ułatwia i przyspiesza pracę. Dzięki temu ludzie mogą bardzo szybko wprowadzić niezbędne poprawki. Następnie, dzięki analizie stylistycznej i słownikowej już poprawionych tekstów, algorytmy sztucznej inteligencji mogą identyfikować autora po unikatowym stylu. Nie od dzisiaj wiadomo, że każdy pisarz i każdy z nas, używa różnych słów w różnych proporcjach. A maszyny mogą analizować olbrzymie zbiory danych i obliczać proporcje dla konkretnych słów, wyrażeń czy zdań.
Już na podstawie wcześniejszych eksperymentów z algorytmami wiedziano, że potrafią one z 99-procentową dokładnością określić, czy dane dzieło wyszło spod pióra Lope de Vegi czy też nie. Sztuczna inteligencja dostała za zadanie przeanalizowanie wspomnianych 1300 dzieł oraz stwierdzenie, czy ich autorem jest Lope de Vega, czy też któryś z 350 innych pisarzy epoki. Algorytm wskazał, że „Francuzkę Laurę” napisał Lope de Vega. Wówczas do pracy przystąpili eksperci, którzy tradycyjnymi metodami badawczymi mieli zweryfikować wyniki pracy maszyny. Naukowcy porównywali więc metrykę, ortoepię, a przede wszystkim tropy literackie, idee i struktury leksykalne typowe dla Lope de Vegi i okresu jego twórczości, jakie wskazała sztuczna inteligencja z tym, co widoczne jest w nowo zidentyfikowanej komedii.
Wszystko wskazuje na to, że mamy oto do czynienia z nieznanym dotychczas dziełem wielkiego pisarza, które powstało pod koniec jego życia, a o istnieniu którego nie mieliśmy pojęcia. „Francuzka Laura” jest osadzona w kontekście politycznym czasu, w którym powstała. Wtedy to, pod koniec lat 20. XVII wieku, w trakcie Wojny Trzydziestoletniej, Francja i Hiszpania zawarły krótki pokój, który przez sojuszników obu stron był postrzegany jako zdrada. Główną bohaterką komedii jest Laura, córka księcia Bretanii, żona hrabiego Arnaldo. Bretania była sojuszniczką Hiszpanii. W Laurze zakochał się jednak następca tronu Francji, który próbuje zdobyć ją wszelkimi sposobami. Budzi to podejrzenia Arnaldo, który – zarówno z zazdrości jak i z obawy przed skandalem – próbuje otruć żonę. Ostatecznie jednak Laura wychodzi z opałów obronną ręką, opiera się zalotom Delfina, co przekonuje męża do jej wierności.
Szczegółowy opis odkrycia i badań nad „Francuzką Laurą” znajdziemy w piśmie wydawanym przez Universitat Autònoma de Barcelona.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.