Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczna inteligencja wygrywa z cenzurą

Rekomendowane odpowiedzi

Na University of Maryland powstał Geneva (Genetic Evasion), system sztucznej inteligencji, który uczy się omijania cenzury w sieci. Podczas testów w Chinach, Indiach i Kazachstanie Geneva opracował dziesiątki sposobów na ominięci cenzury i dotarł do informacji, których samodzielne odnalezienie było niemożliwe.

Geneva to pierwszy krok w kierunku rozpoczęcia nowego wyścigu zbrojeń, w którym konkurowały będą systemy sztucznej inteligencji opracowane przez cenzorów i ich przeciwników, mówi profesor Dave Levin, główny autor badań. Zwycięstwo w tym wyścigu będzie oznaczało wolność słowa i swobodną komunikację dla milionów ludzi na całym świecie, którzy obecnie nie mogą z niej korzystać.

Działanie większości systemów internetowej cenzury opiera się na monitorowaniu pakietów wysyłanych przez wyszukiwarki. Blokowane są pakiety zawierające niewłaściwe słowa lub adresy. Geneva w inny sposób dzieli pakiety, przez co systemy cenzurujące nie są w stanie rozpoznać zakazanych treści. Program jest ewoluującym algorytmem, który w każdej swojej generacji identyfikuje te strategie antycenzorskie, które najlepiej działały, wykorzystuje je do dalszej pracy i przestaje używać tych źle działających.

Testy Genevy przeprowadzono w Chinach, gdzie użytkownik komputera z zainstalowaną Genevą był w stanie wyszukiwać informacje zawierające zakazane słowa, w Indiach, gdzie władze blokują konkretne witryny i w Kazachstanie, gdzie w czasie testów władze blokowały niektóre serwisy społecznościowe. We wszystkich przypadkach Geneva wygrała z cenzurą.
Naukowcy z Maryland chcą udostępnić swoje dane i kod źródłowy, by inni mogli z nich korzystać i rozwijać Genevę. Jeśli Genevę możnaby zainstalować po stronie serwera i po stronie klienta, to miliony ludzi zyskałyby dostęp do informacji. W tym właśnie kierunku zmierzamy, mówi Levin.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Z PDFu wynika, że rozwiązanie nie polega na szyfrowaniu połączenia jak robi to VPN, tylko manipulowaniu protokołem TCP żeby zmylić algorytm nasłuchujący połączenia. Nie są wymagane implementacje po stronie serwera.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Bardzo dobry projekt! Cenzura czegokolwiek to po prostu jawny atak rządu na obywatela. Na coś takiego każdy szanujący się człowiek powinien reagować kontratakiem i stanowczym sprzeciwem (oczywiście w miarę swoich możliwości :). 

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Wolność nieograniczona jest atakiem na społeczeństwo. Cenzura powinna istnieć. Nie powinna być ona jednak skierowana na polityczne cele grupy opartej o ideologie niewolnictwa. Wiem że nie dostanę "lajków" za ten komentarz bo w opinii wielu internautów wolność powinna być absolutna - jak w stadzie małp ... choć w zasadzie przecież u małp nawet nie ma takiej absolutnej wolności. która jest ograniczana przez normy społeczne - to stan dostępny jedynie prymitywnym drobnoustrojom. Blokada cenzury - tzn każdej cenzury -  jest antywychowawcza i destrukcyjna społecznie. Blokada cenzury niewolniczej jest słuszna. Obawiam się że Geneva będzie też wykorzystywana np. przez patostreamerów.

Edytowane przez Ergo Sum

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
45 minut temu, Ergo Sum napisał:

Blokada cenzury - tzn każdej cenzury -  jest antywychowawcza i destrukcyjna społecznie. Blokada cenzury niewolniczej jest słuszna.

Autorytaryzm lubi to. Jak już przyzwyczaimy ludzi, że można zakazać tego i owego, to zupełnie naturalny będzie zakaz jedzenia pierogów, bo aktualnie panujący nam watażka nie lubi pierogów.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
59 minut temu, Ergo Sum napisał:

Wolność nieograniczona jest atakiem na społeczeństwo.

Zależy w jakim społeczeństwie chcesz żyć. Jeśli chcesz żyć w scentralizowanym systemie to zgadza się. Cenzura jest atakiem na taki ład. Jednak jeśli chcesz żyć w społeczeństwie wolnym i tworzonym przez wszystkich jego członków to żadna cenzura nie jest pożyteczna, ani potrzebna.

  • Pozytyw (+1) 2

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Kiedyś słyszałem, że ludzie wcale nie wiedzą czego chcą i trzeba ich nakierować na ich realne potrzeby. Nie wierzyłem w to, ale z biegiem lat chyba zaczynam się do tego przekonywać. Spójrzmy na media. Robią z nami co chcą jeśli nie ma cenzury i wcale nie oznacza to, że poszukują prawdy, jak można to z biegiem czasu zrozumieć. Z resztą politycy robią to samo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, rozan napisał:

Kiedyś słyszałem, że ludzie wcale nie wiedzą czego chcą i trzeba ich nakierować na ich realne potrzeby. Nie wierzyłem w to, ale z biegiem lat chyba zaczynam się do tego przekonywać. Spójrzmy na media. Robią z nami co chcą jeśli nie ma cenzury i wcale nie oznacza to, że poszukują prawdy, jak można to z biegiem czasu zrozumieć. Z resztą politycy robią to samo.

Nawet jeśli to prawda to cenzura w tym raczej nie pomoże, wręcz przeciwnie. Wiele osób ma problemy ze zrozumieniem siebie i swojego miejsca na świecie. Tak właściwie to kto nie ma? Raczej wątpię żeby ktoś kiedykolwiek stosował cenzurę żeby uszczęśliwić ludzi którzy nie potrafią sami tego zrobić ;) 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jakoś nie widzę, żeby ogólnie Rosjanie bardzo narzekali na swoje życie, to samo w Niemczech. Są bardziej stabilni niż my, chociaż tam w telewizji nie można pokazywać negatywnych rzeczy. Dzięki temu jest mniej zamieszania o pieniądze, protestów, a chociaż postawione są pewne granice to ludziom żyje się tam lepiej niż u nas w sensie mentalnym i poczucia bezpieczeństwa.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, rozan napisał:

Jakoś nie widzę, żeby ogólnie Rosjanie bardzo narzekali na swoje życie, to samo w Niemczech. Są bardziej stabilni niż my, chociaż tam w telewizji nie można pokazywać negatywnych rzeczy. Dzięki temu jest mniej zamieszania o pieniądze, protestów, a chociaż postawione są pewne granice to ludziom żyje się tam lepiej niż u nas w sensie mentalnym i poczucia bezpieczeństwa.

Rosja raczej nie jest krajem w którym chciałbym żyć. Bardzo sobie cenię brak cenzury. Świadomość że mam całkiem niezły dostęp do informacji jest dla mnie przyjemna. Nie wyobrażam sobie jak mógłbym być bez tego naprawdę szczęśliwy. Może wielu Rosjan nie wie że jest nieszczęśliwa? ;) Jeśli na tym ma polegać szczęście to ja podziękuję. Natomiast w Niemczech to wygląda raczej śmiesznie, prawda? Trochę jak gry komputerowe do 18 roku życia, albo filmy po 22. Nie ma znaczenia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale prawda jest taka, że z jednej strony masz więcej informacji (to źródło wybiera te informacje i niekoniecznie pełne) z drugiej strony denerwujesz się tym, że ktoś zarabia więcej niż powinien i poddajesz się emocjom sprzyjającym rosnącemu popytowi na źródło informacji niekoniecznie z korzyścią dla twojego portfela

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, rozan napisał:

ale prawda jest taka, że z jednej strony masz więcej informacji (to źródło wybiera te informacje i niekoniecznie pełne) z drugiej strony denerwujesz się tym, że ktoś zarabia więcej niż powinien i poddajesz się emocjom sprzyjającym rosnącemu popytowi na źródło informacji niekoniecznie z korzyścią dla twojego portfela

Nie zrezygnuję z wolności tylko dlatego że nie zawsze potrafię ją dobrze wykorzystać. Nie zrezygnuję z prawa do własnej oceny tylko dlatego że może być błędna. Nie zrezygnuje z myślenia tylko dlatego że mogę się pomylić. Może niektórzy wolą ignorować problemy i udawać że ich nie ma. Jestem szczęśliwszy ze świadomością że jestem chociaż o krok bliżej prawdy, mimo tego że czasami może być gorzka.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

hmmm, niestety jest to najgorszy rodzaj "niewolnictwa", "niewolnicy nie wiedzą, że są niewolnikami", w tym przypadku cenzury.

To tak a propos tego, kto z czego (nie)zrezygnuje.

O ile zgadzam się z Tobą gooostaw, o tyle zastanawia mnie, co jest gorsze, żyć ze świadomością cenzury i w razie czego próbować ją obchodzić, czy żyć w nieświadomości i... w związku z czym być manipulowanym?

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
8 godzin temu, radar napisał:

zastanawia mnie, co jest gorsze, żyć ze świadomością cenzury i w razie czego próbować ją obchodzić, czy żyć w nieświadomości i... w związku z czym być manipulowanym?

Niektórzy pragną poznać nawet najgorszą prawdę, a dla innych tak jak przytoczył @Astro "niewiedza jest błogosławieństwem".

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 19.11.2019 o 09:53, Ergo Sum napisał:

Wolność nieograniczona jest atakiem na społeczeństwo. Cenzura powinna istnieć.

Możesz to rozwinąć?  Podać jakiś przykład ? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
On 11/18/2019 at 11:16 AM, riyader said:

Z PDFu wynika, że rozwiązanie nie polega na szyfrowaniu połączenia jak robi to VPN, tylko manipulowaniu protokołem TCP żeby zmylić algorytm nasłuchujący połączenia. Nie są wymagane implementacje po stronie serwera.

 

Klient przed pobraniem treści jej nie zna i nie jest w stanie podyktować fragmentacji przez TCP. Dlatego komponent po stronie serwera jest potrzebny. Moim zdaniem ciężko będzie wygrać cenzurą w Chinach ze względu na nieograniczone zasoby ich rządu. Ale na pewno pomoże to w innych przypadkach.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 minuty temu, cyjanobakteria napisał:

Moim zdaniem ciężko będzie wygrać cenzurą w Chinach ze względu na nieograniczone zasoby ich rządu.

Mam nadzieję że jednak się mylisz. Mam nadzieję że mimo tego że mają praktycznie nieograniczone środkim, to nie będą ich w stanie wykorzystać tak dobrze jak ludzie walczący o swoją wolność. Historia pokazuje że jest to możliwe. Może nawet prawie nieuniknione? Już teraz do pewnego stopnia się to udaje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 minutes ago, gooostaw said:

Mam nadzieję że jednak się mylisz. Mam nadzieję że mimo tego że mają praktycznie nieograniczone środkim, to nie będą ich w stanie wykorzystać tak dobrze jak ludzie walczący o swoją wolność. Historia pokazuje że jest to możliwe. Może nawet prawie nieuniknione? Już teraz do pewnego stopnia się to udaje.

Chiny mają bardzo dobre AI, które stoi za GFW (Great Firewall). Kilka lat temu czytałem artykuł i moją uwagę zwróciło to, że ich AI jest w stanie rozpoznać SSL/TLS handshake - zestawienie nowego szyfrowanego połączenia - w już zaszyfrowanym tunelu. Wszystko na podstawie algorytmów i charakterystycznego timingu pakietów, mimo to, że były zaszyfrowane.

Moim zdaniem to będzie zawsze zabawa kotka i myszkę, przy czym to rząd jest w znacznie lepszej sytuacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, cyjanobakteria napisał:

Moim zdaniem to będzie zawsze zabawa kotka i myszkę, przy czym to rząd jest w znacznie lepszej sytuacji.

Nie jestem taki pewien. W końcu do szyfrowania nie potrzebujemy wielkich zasobów. Natomiast do łamania szyfrów potrzeba gigantycznej mocy. Być może matematyka jest po stronie kryptografii. Mam taką nadzieję, bo nawet Chiny nie wygrają z matematyką :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem w tym, że oni nie muszą nic łamać, wystarczy, że zablokują :)

W Chinach VPN jest blokowane, ale jest szereg dostawców VPN, którzy działają bez problemów. Daje to do myślenia. Pamiętam, że w zeszłym roku (?) przynajmniej jeden z nich używał jeszcze 1024 bitowego klucza. To bardzo mało bitów i 1024 jest z zasięgu, ale atakowanie kryptografii nadal jest zbyt drogie i są prostsze metody.

Edytowane przez cyjanobakteria
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 minutę temu, cyjanobakteria napisał:

Problem w tym, że oni nie muszą nic łamać, wystarczy, że zablokują

Niestety to może być prawda. Na szczęście pozostaje jeszcze możliwość tworzenia zdecentralizowanych sieci. Wydajność takich rozwiązań jest kiepska, ale do swobodnej komunikacji wystarczy. Poza tym, jestem ciekawy czy "kosmiczny internet" Elona Muska coś zmieni ;) Pewnie zakażą jego używania na terenie Chin i będą polowali na nielegalnych użytkowników.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wraz z rozwojem coraz doskonalszych generatorów tekstu, takich jak ChatGPT, coraz częściej pojawiają się głosy o potrzebie opracowania metod wykrywania tekstów stworzonych przez sztuczną inteligencję. Metody takie przydałyby się nauczycielom czy wykładowcom akademickim, którzy mogliby identyfikować prace pisemne przyniesione przez nieuczciwych uczniów i studentów, przedstawiających wygenerowany przez komputer tekst jako własne dzieło. Mówi się o kursach z wykrywania oszustw i o tworzeniu odpowiednich narzędzi. Takie narzędzia – bazujące na sztucznej inteligencji – już powstają. Problem w tym, że nie są one zbyt wiarygodne.
      Naukowcy z Uniwersytetu Stanforda przyjrzeli się kilku algorytmom sztucznej inteligencji, które mają określać, czy zaprezentowany tekst został stworzony przez człowieka czy też przez inną sztuczną inteligencję. O ile jednak takie algorytmy sprawdzają się „niemal doskonale” podczas analizy tekstów pisanych przez 13-14-latków urodzonych w USA, to już zawodzą tam, gdzie mają do czynienia z angielskim tekstem napisanym przez osobę, dla której angielski nie jest językiem ojczystym. Okazało się bowiem, że gdy systemy te miały ocenić, kto jest autorem tekstu napisanego w ramach egzaminu TOEFL (Test of English as a Foreign Language), w aż 61,22% uznały, że to SI stworzyła tekst, który został napisany przez człowieka. W rzeczywistości jest jednak jeszcze gorzej. Aż 19% prac napisanych przez nastolatków, dla których angielski nie jest językiem ojczystym, zostało uznanych za stworzone przez SI przez wszystkie 7 badanych narzędzi do wykrywania fałszywek. A aż 97% napisanych przez ludzi prac zostało uznane za fałszywe przez co najmniej jeden z systemów.
      Problem tkwi tutaj w sposobie pracy systemów wykrywających tekst napisany przez Si. Opierają się one bowiem na złożoności użytego języka. Oczywistym jest, że przeciętna osoba, która nie jest rodzimym użytkownikiem języka angielskiego ma mniejszy zasób słownictwa, a tworzone przez nią zdania są prostsze pod względem gramatycznym i składniowym od zdań rodzimego użytkownika angielskiego. Sztuczna inteligencja, próbując wykryć fałszywki, uznaje ten niższy poziom złożoności za znak, że tekst został stworzony przez sztuczną inteligencję. To poważny problem, gdyż uczeń czy student, który urodził się poza USA, może w ten sposób zostać uznany przez nauczyciela za oszusta, mimo że sam napisał pracę.
      Co więcej, naukowcy ze Stanforda zauważyli, że takie systemy łatwo jest oszukać nawet rodzimemu użytkownikowi angielskiego. Okazuje się bowiem, że wystarczy wygenerować tekst za pomocą ChataGPT, a następnie wydać maszynie polecenie, by poprawiła ten tekst dodając doń słownictwo literackie.
      Obecne wykrywacze są niewiarygodne i łatwo je oszukać, dlatego też należy używać ich bardzo ostrożnie w roli remedium na oszukiwanie za pomocą sztucznej inteligencji, mówi jeden z autorów badań, profesor James Zou.
      Uczony uważa, że w najbliższej przyszłości nie należy ufać takim wykrywaczom, szczególnie w tych szkołach i uczelniach, gdzie mamy dużo uczniów, dla których angielski nie jest językiem macierzystym. Po drugie, twórcy narzędzi do wykrywania muszą zrezygnować ze złożoności jako głównego wyznacznika analizy tekstu i opracować bardziej zaawansowane techniki. Ponadto ich systemy powinny być bardziej odporne na obejście. Być może rozwiązanie problemu leży po stronie twórców takich systemów jak ChatGPT. Zou sugeruje, że tego typu generatory mogłyby dodawać do tekstu rodzaj znaku wodnego, którym byłyby subtelne sygnały, oczywiste dla systemów wykrywających, stanowiące niejako podpis generatora i wskazujące, że to on jest autorem.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...