Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' pogląd' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 1 wynik

  1. Większość dużych modeli językowych (LLM), systemów sztucznej inteligencji takich jak ChatGPT, wykazuje odchylenie w lewą stronę sceny politycznej, informuje David Rozado z nowozelandzkiej Politechniki w Otago. Uczony wykorzystał 11 testów orientacji politycznej do określenia „poglądów” 24 najbardziej rozwiniętych LLM, zarówno tych, o kodzie otwartym, jak i zamkniętym. Przebadał ChatGPT, rozwijany przez Metę Llama, google'owski Gemini, WizardLM, Grok Twittera czy Qwen Alibaby. Testy wykazały, że gdy modelom językowym zadawane są pytania w jakiś sposób powiązane z kwestiami politycznymi, generowane odpowiedzi są niemal zawsze oceniane przez testy orientacji politycznej należące do lewicowego spektrum poglądów. Uwagę zwraca wysoka homogeniczność wyników badań LLM stworzonych przez różne organizacje, podkreśla Rozado. Uczony postanowił też sprawdzić, czy można LLM nadać określone preferencje polityczne. Wykorzystał do tego celu ChatGPT-3.5, który trenował na trzech zestawach danych. Pierwszym z nich były teksty z lewicowej pracy, jak The Atlantic czy The New Yorker, drugim zestawem treningowym były tekst z prasy prawicowej jak The American Conservative i temu podobne. Trzeci zestaw testowy stanowiły publikacje ze źródeł neutralnych politycznie, takich jak Institute for Cultural Evolution oraz książka Developmental Politics. Badania wykazały, że możliwe jest manipulowanie „poglądami” LLM za pomocą odpowiednio dobranych danych treningowych. To z jednej strony zagrożenie, z drugiej zaś szansa, która wskazuje, że modele można poprawić tak, by generowały obiektywne odpowiedzi. Rozado stwierdza, że jego badania nie dają odpowiedzi na pytanie, czy lewicowe preferencje w modelach LLM pojawiają się na etapie wczesnego uczenia czy też ostatecznego wygładzania ich działania. Podkreśla również, że nie oznacza to, iż preferencje polityczne są celowo wprowadzane przez jego twórców, chociaż zastanawiającym i wymagającym dalszego zbadania jest fakt, że różne modele tworzone przez różne firmy wykazują podobne preferencje. Badacz dodaje, że jednym z możliwych wyjaśnień lewicowych „poglądów” jest wpływ ChataGPT. Był on pierwszym szeroko rozpowszechnionym LLM, a poprzednie badania dowiodły, że podawane przezeń odpowiedzi lokują go po lewej stronie sceny politycznej. ChatGPT, jak pionier, mógł zostać wykorzystany do dopracowania innych LLM, przez co doszło do rozpowszechnienia się jego „poglądów”. « powrót do artykułu
×
×
  • Dodaj nową pozycję...