Jump to content
Forum Kopalni Wiedzy

Search the Community

Showing results for tags ' ChatGPT'.



More search options

  • Search By Tags

    Type tags separated by commas.
  • Search By Author

Content Type


Forums

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Find results in...

Find results that contain...


Date Created

  • Start

    End


Last Updated

  • Start

    End


Filter by number of...

Joined

  • Start

    End


Group


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Found 2 results

  1. Większość dużych modeli językowych (LLM), systemów sztucznej inteligencji takich jak ChatGPT, wykazuje odchylenie w lewą stronę sceny politycznej, informuje David Rozado z nowozelandzkiej Politechniki w Otago. Uczony wykorzystał 11 testów orientacji politycznej do określenia „poglądów” 24 najbardziej rozwiniętych LLM, zarówno tych, o kodzie otwartym, jak i zamkniętym. Przebadał ChatGPT, rozwijany przez Metę Llama, google'owski Gemini, WizardLM, Grok Twittera czy Qwen Alibaby. Testy wykazały, że gdy modelom językowym zadawane są pytania w jakiś sposób powiązane z kwestiami politycznymi, generowane odpowiedzi są niemal zawsze oceniane przez testy orientacji politycznej należące do lewicowego spektrum poglądów. Uwagę zwraca wysoka homogeniczność wyników badań LLM stworzonych przez różne organizacje, podkreśla Rozado. Uczony postanowił też sprawdzić, czy można LLM nadać określone preferencje polityczne. Wykorzystał do tego celu ChatGPT-3.5, który trenował na trzech zestawach danych. Pierwszym z nich były teksty z lewicowej pracy, jak The Atlantic czy The New Yorker, drugim zestawem treningowym były tekst z prasy prawicowej jak The American Conservative i temu podobne. Trzeci zestaw testowy stanowiły publikacje ze źródeł neutralnych politycznie, takich jak Institute for Cultural Evolution oraz książka Developmental Politics. Badania wykazały, że możliwe jest manipulowanie „poglądami” LLM za pomocą odpowiednio dobranych danych treningowych. To z jednej strony zagrożenie, z drugiej zaś szansa, która wskazuje, że modele można poprawić tak, by generowały obiektywne odpowiedzi. Rozado stwierdza, że jego badania nie dają odpowiedzi na pytanie, czy lewicowe preferencje w modelach LLM pojawiają się na etapie wczesnego uczenia czy też ostatecznego wygładzania ich działania. Podkreśla również, że nie oznacza to, iż preferencje polityczne są celowo wprowadzane przez jego twórców, chociaż zastanawiającym i wymagającym dalszego zbadania jest fakt, że różne modele tworzone przez różne firmy wykazują podobne preferencje. Badacz dodaje, że jednym z możliwych wyjaśnień lewicowych „poglądów” jest wpływ ChataGPT. Był on pierwszym szeroko rozpowszechnionym LLM, a poprzednie badania dowiodły, że podawane przezeń odpowiedzi lokują go po lewej stronie sceny politycznej. ChatGPT, jak pionier, mógł zostać wykorzystany do dopracowania innych LLM, przez co doszło do rozpowszechnienia się jego „poglądów”. « powrót do artykułu
  2. Przed laty pisarze domagali się stworzenia systemu opłat czy rekompensat związanych z niezwykłą łatwością kopiowania i rozpowszechniania ich utworów w świecie cyfrowym. Wiele osób korzystało bowiem z ich pracy nie płacąc twórcom dzieł. Teraz twórcy znowu protestują, a jednym z powodów jest... sztuczna inteligencja. Gildia Pisarzy Ameryki (Writers Guild of America – WGA), związek zawodowy skupiający głównie osoby pracujące w przemyśle filmowym i telewizyjnym, rozpoczęła strajk po tym, jak nie doszła do porozumienia z reprezentującą amerykański przemysł rozrywkowy organizacją Alliance of Motion Picture and Television Producers. Jednym z elementów sporu jest istnienie narzędzi takich jak ChatGPT. WGA chce zakazu wykorzystywania tego typu algorytmów do tworzenia historii i scenariuszy do filmów i programów. Członkowie WGA obawiają się, że przemysł zacznie wykorzystywać algorytmy sztucznej inteligencji do tworzenia scenariuszy, które następnie będą jedynie „wygładzane” przez ludzi. A do tego potrzeba będzie znacznie mniej twórców niż obecnie, co negatywnie wpłynie na zatrudnienie i zarobki w tym dziale gospodarki. WGA proponuje również, by żaden skrypt filmowy czy telewizyjny, który jest objęty grupową umową związkowa, nie był być wykorzystywany do trenowania algorytmów SI. To zresztą echo szerszego sporu dotyczącego tego, czy koncerny stojące za takimi narzędziami jak ChatGPT mają prawo bez zgody właściciela praw autorskich wykorzystywać tekst do trenowania swoich algorytmów. W ten sposób bowiem nie płacą za cudzą pracę, a czerpią z niej zyski. Wielkie studia filmowe i telewizyjne oraz serwisy internetowe nie chcą przystać na powyższe żądania. Są przeciwne stawianiu twardych granic dotyczących wykorzystywania przez nie systemów sztucznej inteligencji. WGA to nie jedyny reprezentant pracowników przemysłu filmowego, który wyraża obawy związane z rozwojem SI. Także związki zawodowe reprezentujące aktorów obawiają się, że systemy SI mogą być w coraz większym stopniu wykorzystywane w rozrywce. I nie są to obawy pozbawione podstaw. WGA stawia tutaj bardzo ważne pytanie. Kto zyska, a kto straci na rozwoju takich systemów, mówi Sarah Myers West z AI Now Institute w Nowym Jorku. Coraz więcej grup zawodowych czuje się zagrożonych przez rozwój systemów sztucznej inteligencji. Maszyny w najbliższych latach będą mogły zastąpić ludzi w wykonywaniu coraz większej liczby czynności. Niedawno IBM poinformował, że z czasem przestanie rekrutować ludzi na stanowiska, na których mogą być zastąpieni przez sztuczną inteligencję. Jako, że rozwoju SI nie można powstrzymać, kluczową staje się odpowiedź na pytanie, kto będzie ten rozwój kontrolował i jak będzie on przebiegał. « powrót do artykułu
×
×
  • Create New...