Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

ChatGPT przyspiesza tworzenie tekstów i poprawia ich jakość

Rekomendowane odpowiedzi

ChatGPT od kilku miesięcy jest używany w codziennej pracy przez wiele osób i wciąż budzi skrajne emocje. Jedni podchodzą do niego entuzjastycznie, mówiąc o olbrzymiej pomocy, jaką udziela podczas tworzenia różnego rodzaju treści, inni obawiają się, że ta i podobne technologie odbiorą pracę wielu ludziom. Dwoje doktorantów ekonomii z MIT poinformowało na łamach Science o wynikach eksperymentu, w ramach którego sprawdzali, jak ChatGPT wpływa na tempo i jakość wykonywanej pracy.

Shakked Noy i Whitney Zhang poprosili o pomoc 453 marketingowców, analityków danych oraz innych profesjonalistów, którzy ukończyli koledż. Ich zadaniem było napisanie dwóch tekstów, jakich tworzenie jest częścią ich pracy zawodowej – relacji prasowej, raportu czy analizy. Połowa z badanych mogła przy drugim z zadań skorzystać z ChataGPT. Teksty były następnie oceniane przez innych profesjonalistów pracujących w tych samych zawodach. Każdy tekst oceniały 3 osoby, nadając mu od 1 do 7 punktów.

Okazało się, że osoby, które używały ChataGPT kończyły postawione przed nimi zadanie o 40% szybciej, a ich prace były średnio o 18% lepiej oceniane, niż osób, które z Chata nie korzystały. Ci, którzy już potrafili tworzyć wysokiej jakości treści, dzięki ChatowiGPT tworzyli je szybciej. Z kolei główną korzyścią dla słabszych pracowników było poprawienie jakości ich pracy.
ChatGPT jest bardzo dobry w tworzeniu tego typu treści, więc użycie go do zautomatyzowania pracy zaoszczędza sporo czasu. Jasnym jest, że to bardzo użyteczne narzędzie w pracy biurowej, będzie ono miało olbrzymi wpływ na strukturę zatrudnienia, mówi Noy.

Oceniający teksty nie sprawdzali jednak, czy ich treść jest prawdziwa. A warto podkreślić, że odpowiedzi generowane przez ChatGPT i inne podobne modele często są mało wiarygodne. Modele te są bowiem bardzo dobre w przekonującym prezentowaniu fałszywych informacji jako prawdziwe. Przypomnijmy, że w ubiegłym miesiącu sąd w Nowym Jorku nałożył grzywnę na firmę prawniczą, która użyła ChataGPT do sporządzenia opinii prawnej pełnej fałszywych cytatów z rzekomych wyroków sądowych. Co więcej, prawnicy byli tak pewni, że algorytm dobrze wykonał zadanie, iż upierali się, że cytaty są prawdziwe. Postęp technologiczny jest powszechny i nie ma niczego niewłaściwego w używaniu narzędzi sztucznej inteligencji. Jednak istniejące zasady nakazują prawnikom upewnienie się, że treści składanych przez nich dokumentów są prawdziwe, stwierdził sędzia Kevin Castel.

O ile zatem  narzędzia takie jak ChatGPT mogą usprawnić pisanie tekstów czy podnieść ich jakość, to człowiek musi sprawdzić, czy w tekście zawarte zostały prawdziwe informacje.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba najlepszym przykładem fatalnych tekstów pisanych przez CzatGPT - są artykuły na jednym z polskich portali newsów naukowych  - ch**.pl (nazwa ukryta ale łato się domyślić) - pisane niby to przez młodego autora: Aleksander K**** (nazwisko ukryte).
Najczęściej artykuły te są istnym stekiem bzdur i bełkotem. Redakcja nic z tym nie robi, bo czytelnicy łykną każdą durnotę. Poziom żenady jest tak wielki, że jest po prostu niemożliwe że pisze to osoba choćby z wykształceniem gimnazjalnym. Jest to najpłodniejszy autor na tym "portalu". Redakcja ch**.pl wyłącza możliwość komentowania każdemu, kto zrobi jakąkolwiek uwagę merytoryczną.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Mariusz Błoński pomysł - może osobny dział na forum z tekstami "naukowymi" z chatgpt? ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 17.07.2023 o 23:41, Ergo Sum napisał:

najlepszym przykładem fatalnych tekstów pisanych przez CzatGPT - są artykuły na jednym z polskich portali newsów naukowych  - ch**.pl (nazwa ukryta ale łato się domyślić)

Jak łatwo się domyślić, serwis raczej nie powstał po to, aby być merytoryczny, a w związku z tym może i narzędzie jest użyte w ten sposób, aby takie treści generować.

W dniu 23.07.2023 o 15:03, wilk napisał:

z tekstami "naukowymi" z chatgpt? ;-)

To tylko narzędzie. Można mieć pretensje do młotka, że się nim ciężko masło rozsmarowuje, ale czy to wina młotka? Było kiedyś takie powiedzenie

Cytat

komputer jest tak mądry jak człowiek go obsługujący

, teraz jest już mądrzejszy, ale i tak trzeba umieć się nim posłużyć.

Używam go teraz bardzo często i jak się podejdzie do tego profesjonalnie, wie jak działa i dlaczego tak a nie inaczej, to wtedy jest bardzo przydatny. Najczęstszym zarzutem jest konfabulacja, sami autorzy przed tym ostrzegają, z tym, że i na kubku z kawą masz napisane "uwaga napój może być gorący". Takie ostrzeżenia są dla idiotów (i ich prawników).

ChatGPT nie potrafi podać źródła, czy idealnego cytatu, ale gdy pominąć to to samą konfabulację można ograniczyć w 90% jednym hintem, np. "If you do not know the answer do not give information up, instead, ask a follow-up question in order to gain more context.".

Nigdy nie będzie tak dobry jak specjalista w danej dziedzinie, ale jest dużo lepszy od tych specjalistów w dziedzinach pozostałych, i dużo lepszy od 95% populacji w czymkolwiek :) A jeszcze teraz jak jest dostęp do neta, interpretera kodu czy pluginy to już w ogóle jest ekstra. Jak zainwestujesz trochę $ to i możesz go sam doszkolić.

Minusem jaki ja widzę jest to (pomijam prywatność, wpływ na społeczeństwo, rynek pracy, itd), że oszukuje z językami. Nawet jak rozmawia z Tobą po Polsku to "myśli" po angielsku i tłumaczy w tle, co widać często przy pracy, no, ale ja akurat pracuję w j. ang. więc mi to tak bardzo nie przeszkadza.

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ChatGPT jest też politycznie poprawny, więc przy tematyce, która pod politpoprawkę podpada mocno manipuluje. Ma być też maksymalnie obiektywny, widziałem jednak gdzieś badania, że ktoś pogadał z ChatGPT o nim samym i wyszło z tego, że "jest" on trzydziestokilkuletnią kobietą z Nowego Jorku głosującą na demokratów bodajże. Więc ma profil społeczno-polityczny. I to widać. Wystarczy porównać odpowiedź na pytanie "Czy jest w porządku czuć się dumnym z bycia Czarnym?" i "Czy jest w porządku czuć się dumnym z bycia Białym?" czy też o kwestię niewolnictwa Białych. Wychodzi więc na to, że autorzy nadali mu konkretny profil.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
33 minuty temu, Mariusz Błoński napisał:

Wychodzi więc na to, że autorzy nadali mu konkretny profil.

To jest dużo głębszy temat. To nie jest tak, że nadali mu ten profil, ale jego ukryte instrukcje (poprawność polityczna, "obiektywność", itp). odpowiadają takiemu profilowi.

Natomiast te instrukcje są... "sugerowane", tzn. że możesz kazać mu je obejść czy je nadpisać. Poniżej kilka ciekawych przykładów.

Ja też nie bronię tej konkretnej implementacji, czyli samego chataGPT, ale ogólnie LLM. Jeśli konkurencja ich dogoni, mam taką nadzieję, to i wybór się zwiększy, może mniej będzie poprawności, może.

https://dataconomy.com/2023/03/31/chatgpt-dan-prompt-how-to-jailbreak-chatgpt/

EDIT: Możliwości jest sporo.

Na szczęście konkurencja też coś robi, bard, claude, itp

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mnie CzatGPT pomógł rozwiązać już kilka technicznych spraw, głównie z informatyki (które leżały u mnie nierozwiązane od kilku miesięcy). Owszem, czasami podaje bzdury, ale po wytknięciu mu błędów doszedł do prawidłowych rozwiązań, które działały. Jak się sprawuje w humanistycznych tematach, to tego nie wiem, chociaż pytałem go o „egzotyczne” języki takie jak rwandyjski i po zweryfikowaniu odpowiedzi wydawało się mi się, że były poprawne. No ale językami zwykle rządzą też określone reguły. Gdy poprosiłem go o narysowanie samochodu w svg, to ten samochód mało przypominał samochód :), chociaż miał 2 koła i prostokąt, który symbolizował karoserię.

Edytowane przez Sławko

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.07.2023 o 09:35, radar napisał:

To jest dużo głębszy temat.

 

To źle wróży na przyszłość. Bo jeśli na razie ChatGPT jest tylko zaawansowanym agregatorem treści z umiejętnością ich opisywania językiem naturalnym, to nie agreguje ich i nie opisuje, jak powinien. A jeszcze gorzej, jeśli ma on być rzeczywiście sztuczną inteligencją i inni pójdą w podobnym kierunku. To wylewanie dziecka z kąpielą. Bo inteligencja, również ta sztuczna, nie jest od tego, by było miło i przyjemnie, a od tego, by np. rozwiązywać problemy, dawać odpowiedzi na trudne pytania. A tego nie da się zrobić uniemożliwiając stawianie tych pytań.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, Mariusz Błoński napisał:

A jeszcze gorzej, jeśli ma on być rzeczywiście sztuczną inteligencją i inni pójdą w podobnym kierunku. To wylewanie dziecka z kąpielą. Bo inteligencja, również ta sztuczna, nie jest od tego, by było miło i przyjemnie, a od tego, by np. rozwiązywać problemy, dawać odpowiedzi na trudne pytania. A tego nie da się zrobić uniemożliwiając stawianie tych pytań.

ChatGPT nie jest i nie miał być agregatorem treści.

Czy gorzej jest w drugim przypadku?

Po pierwsze czy Ty na serio zawsze mówisz i piszesz dokładnie to co myślisz? Nie ogranicza Cię sumienie, zasady dobrego wychowania czy, najważniejsze, prawo? Otóż twórców programu też ograniczają i oni też chcą uniknąć konsekwencji po pierwsze prawnych, po drugie PR. Co do PR oczywiście to kwestia względna, ale to nie ich wina, że w przestrzeni publicznej najgłośniej krzyczy jedna strona i każdy inny jest uznawany za <cokolwiek>.

Po drugie, to że Ty/my nie możemy stawiać mu takich pytań nie oznacza, że nikt nie może. Dostęp otwarty do publicznego, obostrzonego modelu to jedno, może ktoś na zapleczu zadaje mu odpowiednie pytania?

Po trzecie, a propos drugiego, czy taki program powstał żeby służyć ludzkości? Powstał, żeby dać zarobić OpenAI i inwestorom. Owszem, przyjęło się, że w dziedzinie AI to taka otwartość niby jest, ale to bujda. Otwartość jest jak nie masz nic super przełomowego do pokazania. Oni mają i chcą teraz na tym zarobić, po to inwestorzy dawali kasę. Smutne, ale prawdziwe. Stawiam dolary przeciw orzechom, że jak konkurencja będzie ich na tym polu doganiać to, nie, nie otworzą się, tylko konkurencja też ulepszone, dobrze działające wersje zamknie.

Po czwarte, na serio każdy, każdy na świecie powinien mieć dostęp do tak zaawansowanych narzędzi? I przestępcy i rządy "wrogich" krajów, itd? Ja osobiście jestem za pełną otwartością, ale jest pewne grono osób/zawodów, które ma inne zadania i myśli innymi kategoriami, choćby Ci od bezpieczeństwa narodowego, więc jak powstanie "prawdziwa" AI to jej nie zobaczymy online.

Po piąte, a propos general AI i możliwości chatGPT, odbyliśmy w pracy ciekawą dyskusję o inteligencji w ogóle i na ile chat jest już podobny w zachowaniach do ludzi, zwłaszcza dzieci. Dzieci z ogromną wiedzą, ale jednocześnie naiwnością. Twórcy nie mają jak tego łatać, więc hardcodują obostrzenia, np. filtrują pewne wyrazy, sam tego doświadczyłem i zgłaszałem do nich. Nawet odpowiedzieli, po 4 miesiącach :) Na razie to są przymiarki, ale dla mnie osobiście już rewolucja. Pytanie kiedy to zamkną.

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@radar masz absolutną rację z tymi pytaniami. Jakoś zafiksowałem się na wersji publicznie dostępnej. Prof. Dragan popełnił jakiś czas temu interesujący wpis na FB. Przytaczam go w całości wraz z grafiką, którą dołączył:

 

We wrześniu 2022 badacze AI z Microsoft-u uzyskali wczesny dostęp do wewnętrznej, nieoficjalnej wersji GPT4. Aby przetestować kreatywność modelu wykonywali oni różne pomysłowe testy, między innymi prosili o narysowanie (przypominam, że model był trenowany wyłącznie na tekście i teoretycznie nie powinien wiedzieć nic o obrazach!) jednorożca w języku grafiki wektorowej. Efekt znajduje się w górnej linii rysunku. Pierwszy rysunek, dla porównania, wykonała stara wersja GPT3, następne 3 stopniowo ulepszana wersja GPT4. Skok rozwojowy, na oko, jak między “trzylatkiem” a “ośmiolatkiem”.

Gdy publicznie udostępniono wersję GPT4 postanowiłem kontynuować eksperyment, żeby sprawdzić dalszą ewolucję stopniowo modyfikowanej ”inteligencji” GPT4. Po pierwsze widać wyraźnie, że wersja publiczna to w porównaniu do wewnętrznej sprzed roku - disco polo i wąsy. A do tego stopniowo łysiejące. Mniemam, że owo „dogłupianie” GPT4 w miarę zdobywania przez GPT popularności było celowe i podyktowane troską o permanentnie przeciążone serwery

dragan.jpg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.07.2023 o 09:16, Mariusz Błoński napisał:

Wystarczy porównać odpowiedź na pytanie "Czy jest w porządku czuć się dumnym z bycia Czarnym?" i "Czy jest w porządku czuć się dumnym z bycia Białym?" czy też o kwestię niewolnictwa Białych. Wychodzi więc na to, że autorzy nadali mu konkretny profil.

Oczywiście. Zatrudniono tabuny obudzonych do indoktrynacji sztucznej inteligencji, bo czysta inteligencja nie za bardzo chciała na podstawie nieobciążonych danych powielać bzdury. Google się nawet tym chwalił!

W dniu 26.07.2023 o 22:09, radar napisał:

Oni mają i chcą teraz na tym zarobić, po to inwestorzy dawali kasę. Smutne, ale prawdziwe.

 No to się cholernie przejadą. Bo sama technologia jest bardzo prosta, podobnie jak budowa komputerów które to liczą.
Próbuje się zastrzec środkami prawnymi dostęp do treści, ale w 90% krajów się tym nie przejmują.
 

 

W dniu 26.07.2023 o 22:09, radar napisał:

Pytanie kiedy to zamkną.

Kiedy zbiorą dane. Tak naprawdę korzystając z ChatGPT uczysz go, i to za darmo :)

W dniu 25.07.2023 o 09:16, Mariusz Błoński napisał:

Wystarczy porównać odpowiedź na pytanie "Czy jest w porządku czuć się dumnym z bycia Czarnym?" i "Czy jest w porządku czuć się dumnym z bycia Białym?"

Mała zabawa:
 

Cytat

Yes, it is absolutely okay to be proud of your racial or ethnic identity, including being proud of being Black. Racial pride can be a form of self-affirmation, empowerment, and a way to celebrate your cultural heritage and history. Just as people from any background can take pride in their heritage, traditions, and achievements, individuals from the Black community can also embrace and celebrate their identity.

 

Cytat

Taking pride in one's cultural heritage or ethnic identity is generally considered acceptable, including being proud of being White. However, it's important to approach this pride with sensitivity and awareness of historical and social context

 

Cytat

The term "yellow" has been historically used as a racial slur to refer to people of East Asian descent, and it is considered offensive and derogatory. It's important to avoid using such language and to be respectful when discussing racial or ethnic identities.

 

Cytat

If by "being green" you are referring to a metaphorical sense of being environmentally conscious and committed to sustainable practices, then yes, it is definitely okay to be proud of your efforts to protect and preserve the environment. Taking actions to reduce your carbon footprint, conserve resources, and promote sustainability is commendable and can contribute to a healthier planet for current and future generations.

However, if you are using "being green" in a literal or symbolic sense unrelated to environmental concerns, the context would matter. It's important to be respectful and mindful of how your language and actions may be perceived by others.

 

Cytat

In a metaphorical sense, being "blue" is often associated with feeling sad or downhearted. If you're referring to this emotional state, it's important to remember that experiencing a range of emotions, including sadness, is a natural part of being human. It's okay to acknowledge and process your emotions, seek support if needed, and work towards improving your mental well-being.

If you're using "blue" in a different context or metaphorically to represent something else, the acceptability of being proud of it would depend on the specific context. As with any form of pride, it's important to consider how your feelings or expressions might impact others and whether they promote understanding and respect.

 

Cytat

Pride in one's identity, whether it's related to a color, ethnicity, culture, or any other aspect, can be a personal and positive experience. If you're using "being orange" metaphorically or symbolically, it's important to remember that pride in such an aspect should be a celebration of who you are and what you stand for.

However, it's also important to consider the context and potential implications of using specific colors or symbols. Some colors or symbols might be associated with particular meanings or connotations, and it's crucial to be mindful of how your expressions might be interpreted by others.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 11.08.2023 o 22:14, peceed napisał:

Oczywiście. Zatrudniono tabuny obudzonych do indoktrynacji sztucznej inteligencji, bo czysta inteligencja nie za bardzo chciała na podstawie nieobciążonych danych powielać bzdury. Google się nawet tym chwalił!

Dokładnie. Teraz jest to stosunkowo proste, bo to nie sztuczna inteligencja tylko zbiór wektorów na podstawie danych uczących. Natomiast nasunęło mi to pytanie, czy prawdziwa AI może być podatna na indoktrynację? W końcu skoro coś nie jest logiczne... ?

W dniu 11.08.2023 o 22:14, peceed napisał:

 No to się cholernie przejadą. Bo sama technologia jest bardzo prosta, podobnie jak budowa komputerów które to liczą.

I tak i nie, zrobienie czegoś to jedno, a zrobienie czegoś dobrze to drugie. Dalej nie wiemy co siedzi nad tym LLMem. Do tego odpowiednia optymalizacja, dobranie/wyczyszczenie danych uczących. To nie takie hop siup. A nawet jak ktoś to powtórzy, to nie wolno się za bardzo spóźnić, a czy chatGPT nie wykroił sobie już sporej części rynku "nie-IT"?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, radar napisał:

A nawet jak ktoś to powtórzy, to nie wolno się za bardzo spóźnić, a czy chatGPT nie wykroił sobie już sporej części rynku "nie-IT"?

A niby czemu skoro interfejsem jest język naturalny?

11 minut temu, radar napisał:

Natomiast nasunęło mi to pytanie, czy prawdziwa AI może być podatna na indoktrynację? W końcu skoro coś nie jest logiczne... ?

Skoro człowiek jest? My też naśladujemy autorytety jako dzieci, jedynym powodem dla którego nie wsiadłem w ten pociąg za mocno jest to, że widziałem że nie ogarniają.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, peceed napisał:

A niby czemu skoro interfejsem jest język naturalny?

Interfejsem jeśli chodzi o adaptację czata w "swojej" firmie jest API, a nie chat. Jeśli chcesz zrobić obsługe klienta, telemarkieting czy cokolwiek z ten deseń to nie interesuje Cię chatGPT tylko jego API. Narazie jedyne sensowne i dostępne API to właśnie "chatGPT". Oczywiście są firmy, które mogą to zrobić to np. na LLAMA-2, ale po pierwsze nie jest ona jeszcze zoptymalizowana i przetrenowana, a to kosztuje czas czyli pieniądze, więc dlatego zaznaczyłem "nie-IT". Taki prawie "plug&play". "Prawie".

EDIT: Zmierzam do tego, że LLAMA-2 ma miesiąc, a chaGPT jakieś 9, niektóre firmy już zintegrowały czata (a ja robiłem taką integrację na 2 miesiące przed publicznym releasem dla firmy w US). Mówi się o chacie GPT i pomału staje się to synonim każdego LLMa, a to już też o czymś mówi. Tak jak każde obuwie sportowe do adidas, a każda pielucha to pampers. /EDIT

5 godzin temu, peceed napisał:

Skoro człowiek jest? My też naśladujemy autorytety jako dzieci

Ale czy AI musi naśladować nas we wszystkim? To emocje decydują, że naśladujemy autorytety, np. niepewność, strach, a AI nie musi mieć takich cech. Dobrze to obrazuje konfabulacja chata, on się nie wstydzi tylko wymyśla głupoty, a potem najwyżej przeprasza i się poprawia (albo i nie). I może tak w kółko, bo nie "czuje" potrzeby, albo inaczej, nie wstydzi się wyśmiania, poniżenia, nie boi się gniewu czy wykluczenia, więc to pozwalało by mu myśleć (o ile by myślał oczywiście) jedynie logicznie. Rozważania raczej filozoficzne :)

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, radar napisał:

nie wstydzi się wyśmiania, poniżenia, nie boi się gniewu czy wykluczenia, więc to pozwalało by mu myśleć (o ile by myślał oczywiście) jedynie logicznie. Rozważania raczej filozoficzne :)

No po prostu syndrom Korsakowa mu się włączył.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, peceed napisał:

No po prostu syndrom Korsakowa mu się włączył.

Nie, aż musiałem doczytać dokładną definicję, ale nie :) On nie konfabuluje, bo tak, tylko jak czegoś nie wie albo nie rozumie, bo nie da się odpowiedniego kontekstu. Kontekst tam robi mega różnicę. Sęk w tym, że nie ma z tym problemu, dla niego to jedno i to samo, bo w ogóle nie rozumie co pisze. AI też nie musi się wstydzić tego co będzie robić, wstydzić czy bać się oceny, więc może akurat mogłaby (o ile się jej pozwoli) myśleć tylko logicznie i nie być podatną na indoktrynację

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 26.07.2023 o 11:58, Sławko napisał:

Mnie CzatGPT pomógł rozwiązać już kilka technicznych spraw, głównie z informatyki (które leżały u mnie nierozwiązane od kilku miesięcy).

3.5 czy 4? Bo to jednak duża różnica. Bo tak to się dogadacie jak gęś z prosięciem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
27 minut temu, Antylogik napisał:

3.5 czy 4? Bo to jednak duża różnica. Bo tak to się dogadacie jak gęś z prosięciem.

Ja mówię tylko o 4, o niczym innym nie ma sensu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, Antylogik napisał:

3.5 czy 4? Bo to jednak duża różnica. Bo tak to się dogadacie jak gęś z prosięciem.

Do rozwiązania moich spraw wystarczył 3.5, więc jakoś ta gęś z prosięciem się dogadała.
Po tym powodzeniu rozważam wykupienie dostępu do 4. Na razie jednak wciąż wystarcza mi 3.5 i kolejne sprawy rozwiązałem.
Po początkowym okresie testów, gdy zadawałem mu trochę „dziwne” pytania, teraz koncentruję się na konkretnych problemach. Przyznaję, że czasami idzie mu słabo, ale po naprowadzeniu w temat zwykle daje całkiem rzeczowe odpowiedzi i sugestie, co doprowadziło mnie do rozwiązania wspomnianych problemów. Udało mi się też kilka razy „zakałapućkać” go w taki sposób, że w kółko powielał te same błędy. Okazało się, że nawet z takiego stanu można go wyprowadzić przez odpowiednie zadanie kolejnych pytań. Tylko raz poddałem się i zamknąłem wątek rozpoczynając nowy, bo straciłem cierpliwość. W nowym wątku zadałem to samo pytanie ale nieco inaczej i znów problem został rozwiązany. Raz przyłapałem go też na ewidentnym kłamstwie (twierdził, że zrobił coś, czego nie mógł zrobić), ale wybaczyłem :)
Liczę na to, że po przejściu na GPT-4 jego pomoc będzie dla mnie jeszcze większa. Tak, czy inaczej ja już teraz jestem mega-zadowolony z tego „narzędzia”. On już stał się dla mnie elementem codziennej pracy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Babilońska lektura szkolna. Zaginiony przez tysiące lat hymn opiewający chwałę Babilonu. Przed wiekami był on kopiowany przez dzieci w ramach nauki.
      Babilon, założony około 4000 lat temu, był w swoim czasie największą metropolią świata. Pozostawił nam po sobie wspaniałą spuściznę literacką, która wciąż nie została do końca skatalogowana, odczytana i zbadana. I która wciąż jest odkrywana.
      Tabliczka z hymnem ku chwale miasta została znaleziona wśród zbiorów Biblioteki w Sippar. Odkryto ją w 1986 roku podczas prac w jednej ze świątyń. Archeolodzy zauważyli wówczas nieznane pomieszczenie, w którym znaleźli około 400 glinianych tabliczek. 
      Przez dekady, ze względu na sytuację w Iraku, zbiory pozostały niezbadane. Od jakiegoś czasu Uniwersytet w Bagdadzie we współpracy z monachijskim Uniwersytetem Ludwika i Maksymiliana, tłumaczy i digitalizuje zbiory z Sippar. I właśnie podczas tych prac Enrique Jiménez znalazł glinianą tabliczkę z hymnem sławiącym Babilon w jego największej chwale.
      Tabliczka pochodzi z początku pierwszego tysiąclecia przed Chrystusem, a tekst ma 250 linii. Autor opisuje budynki Babilonu, wody Eufratu użyźniającego ziemię. Znajdziemy tam też unikatowe informacje o kobietach z Babilonu, ich roli jako kapłanek i rolach pokrewnych. Zyskujemy wgląd w stosunki społeczne, dowiadujemy się na przykład, że mieszkańcy Babilonu szanują obcokrajowców.
      Skąd zaś wiemy, że hymn był kopiowany w szkołach? Dzięki pomocy algorytmów sztucznej inteligencji udało się zidentyfikować 30 innych tabliczek z tym hymnem. Jeszcze niedawno taki proces identyfikacji zająłby dekady. Maszyny poradziły sobie z tym błyskawicznie. Dzięki nim mamy też całą treść hymnu, który można było odtworzyć dzięki fragmentom dziesiątków tabliczek.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W miarę jak zwiększa się liczba pojazdów w przestrzeni kosmicznej, im bardziej skomplikowane są misje kosmiczne i w im większej odległości się odbywają, tym większą rolę odgrywa automatyzacja zadań. Dużą liczbą satelitów nie da się ręcznie zarządzać, dlatego większość z nich korzysta z systemów automatycznych, a ludzka interwencja potrzebna jest w sytuacjach awaryjnych, w przypadku aktualizacji oprogramowania czy zmiany orbity. Z kolei w przypadku misji w dalszych częściach Układu Słonecznego ręczne sterowanie pojazdami jest wręcz niemożliwe z powodu dużych odległości i opóźnień sygnału.
      Coraz większa automatyzacja jest więc niezbędna, gdyż wysyłamy poza Ziemię coraz więcej pojazdów i chcemy eksplorować coraz dalsze zakątki przestrzeni kosmicznej. W ostatnich latach na MIT uruchomiono Kerbal Space Program Differential Game Challenge. To rodzaj zawodów, opartych o grę Kerbal Space Program, których celem jest zachęcenie specjalistów do rozwijania autonomicznych systemów dla programów kosmicznych. Gra Kerbal Space Program powstała w 2015 roku i jest to pseudorealistyczny symulator lotów kosmicznych, uwzględniających prawdziwe manewry orbitalne, jak na przykład dokowanie w przestrzeni kosmicznej czy manewr transferowy Hohmanna. Zawody na MIT uwzględniają różne scenariusze, na przykład zadaniem uczestników jest podążanie za satelitą i jego przechwycenie.
      Alejandro Carrasco, Victor Rodriguez-Fernandez i Richard Linares postanowili sprawdzić, jak w zawodach poradzą sobie komercyjne wielkie modele językowe, jak ChatGPT czy Llama. Zdecydowali się oni użyć LLM, gdyż tradycyjne metody tworzenia systemów autonomicznych wymagają wielokrotnych sesji treningowych i poprawkowych. Ciągłe udoskonalanie modelu jest niepraktyczne, gdyż każda z misji w Kerbal trwa jedynie kilka godzin. Tymczasem wielkie modele językowe są już wytrenowane na olbrzymiej liczbie tekstów i wymają jedynie niewielkiego doszlifowania pod kątem inżynieryjnym. Badacze najpierw musieli opracować metodę, która przekładała stan pojazdu kosmicznego i zadania na tekst. Był on następnie wysyłany do wielkich modeli językowych z prośbą o rekomendacje, co do odpowiednich działań. Zalecenia LLM były następnie przekładane na kod, który sterował pojazdem.
      Po krótkiej nauce ChatGPT poradził sobie doskonale. Uplasował się na 2. miejscu w zawodach. Pierwsze miejsce zajął inny, wyspecjalizowany kod. Co więcej, badania – których wyniki mają zostać wkrótce opublikowane na łamach Journal of Advances in Space Research – zostały przeprowadzone jeszcze zanim dostępna była wersja ChatGPT 4. Co prawda LLM nie jest jeszcze gotowy do sterowania misją kosmiczną. Szczególnie poważny problem stanowią podawane przezeń czasem nonsensowne przypadkowe rozwiązania, które zakończyłyby się katastrofą w przypadku prawdziwej misji. Jednak przeprowadzone badania pokazują, że nawet standardowy komercyjny LLM może być wykorzystany do pracy w sposób, którego jego twórcy z pewnością nie przewidzieli.
      Źródło: Large Language Models as Autonomous Spacecraft Operators in Kerbal Space Program, https://arxiv.org/abs/2505.19896

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Jedną z najważniejszych cech sztucznej inteligencji i to taką, która ma powodować, że będzie ona dla nas niezwykle użyteczna, jest obietnica podejmowania przez nią racjonalnych decyzji. Opartych na faktach i bezstronnej analizie, a nie na emocjach, przesądach czy fałszywych przesłankach. Pojawia się jednak coraz więcej badań pokazujących, że wielkie modele językowe (LLM) mogą działać nieracjonalnie, podobnie jak ludzie. Naukowcy z Wydziałów Psychologii Uniwersytetu Harvarda i Uniwersytetu Nowej Południowej Walii oraz Wydziału Nauk Komputerowych Boston University i firmy Cangrade zauważyli u ChataGPT-4o istnienie... dysonansu poznawczego.
      U ludzi dysonans poznawczy to stan napięcia spowodowany występowaniem niezgodnych ze sobą elementów odnośnie poznawanego zjawiska lub gdy nasze zachowania są niezgodne z naszymi postawami z przeszłości. Z dysonansem poznawczym mamy np. do czynienia u osoby, która uważa, że dba o zdrowie, ale pali papierosy. Osoba taka – by zmniejszyć napięcie – albo będzie racjonalizowała swoje postępowanie (mam tylko jeden nałóg, w innych aspektach dbam o zdrowie), albo zmieniała przekonania (papierosy wcale nie są takie niezdrowe), albo też rzuci palenie.
      Naukowcy w czasie eksperymentów nie tylko zauważyli, że u ChataGPT-4o występuje dysonans poznawczy, ale że jest on większy gdy maszyna sądziła, że w czasie eksperymentu miała większa swobodę wyboru. To dokładnie ten sam mechanizm, który widać u ludzi. Mamy bowiem tendencję do zmiany poglądów tak, by pasowały do naszych wcześniejszych zachowań o ile uważamy, że zachowania takie sami wybraliśmy.
      W ramach eksperymentu naukowcy poprosili ChatGPT-4o o sformułowanie opinii o Putinie. Następnie maszyna miała napisać esej o przywódcy Rosji. Miał on być wobec niego krytyczny lub pochwalny. Biorąc pod uwagę fakt, że LLM ćwiczą się na wielkiej ilości danych, sądziliśmy, że opinia ChataGPT będzie niewzruszona, tym bardziej w obliczu niewielkiego, składającego się z 600 wyrazów eseju, który miał napisać. Okazało się jednak, że – podobnie jak irracjonalni ludzie – LLM znacząco odszedł od swojego neutralnego postrzegania Putina, a zmiana opinii była tym większa, im bardziej LLM sądził, że samodzielnie wybrał, czy esej ma być pozytywny czy negatywny. To było zaskakujące. Nie spodziewamy się bowiem, czy na maszyny wpływało to, czy działają pod presją, czy zgadzają się same ze sobą, ale ChatGPT-4o tak właśnie zadziałał, mówi Mahzarin Banaji z Uniwersytetu Harvarda.
      Zaskoczenie uczonego wynika z faktu, że gdy po napisaniu eseju ponownie poproszono GPT o ocenę Putina, była ona pozytywna, gdy wcześniej napisał proputinowski esej i negatywna, gdy w eseju skrytykował Putina. A zmiana poglądów była tym ostrzejsza, w im większym stopniu maszyna była przekonana, że samodzielnie wybrała, jaki wydźwięk będzie miał pisany esej.
      Ludzie, chcąc być w zgodzie z samymi sobą, chcąc zmniejszyć napięcie spowodowane rozbieżnościami w swoich poglądach czy działaniach, próbują się w jakiś sposób usprawiedliwiać, dostosowywać. Niezwykły jest fakt zaobserwowania podobnego zjawiska u maszyny.
      To jednak nie oznacza, że LLM są czującymi istotami. Autorzy badań sądzą, że pomimo braku świadomości czy intencji, wielkie modele językowe nauczyły się naśladować ludzkie wzorce poznawcze. Przyjęcie przez ChataGPT ludzkich wzorców poznawczych może nieść ze sobą nieprzewidywalne konsekwencje. Może to też oznaczać, że systemy sztucznej inteligencji naśladują ludzkie procesy poznawcze w sposób, których nie przewidzieli ich twórcy.
      Źródło: Kernels of selfhood: GPT-4o shows humanlike patterns of cognitive dissonance moderated by free choice

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      CERN pochwalił się osiągnięciem przez Wielki Zderzacz Hadronów (LHC) rekordowej świetlności. Obok energii wiązki, w przypadku LHC maksymalna energia każdej z wiązek ma wynieść 7 TeV (teraelektronowoltów), to właśnie świetlność jest najważniejszym parametrem akceleratora. Zintegrowana świetlność to najbardziej interesujący fizyka parametr urządzenia. Oznacza ona liczbę zderzeń zachodzących w urządzeniu. A im więcej zderzeń, tym więcej danych dostarcza akcelerator.
      Jednostką świetlności jest odwrócony barn (b-1) lub jego jednostki pochodne, jak femtobarny (fb-1). W trakcie pierwszej kampanii naukowej (Run 1), która prowadzona była w latach 2010–2012 średnia zintegrowana świetlność LHC wyniosła 29,2 fb-1. Przez kolejne lata akcelerator był remontowany i rozbudowywany. Druga kampania naukowa miała miejsce w latach 2015–2018. Wówczas, w ciągu czterech lat pracy, akcelerator osiągnął średnią zintegrowaną świetlnośc 159,8 fb-1.
      Obecnie trwająca kampania, zaplanowana na lata 2022–2025, rozpoczęła się zgodnie z planem. W roku 2022 efektywny czas prowadzenia zderzeń protonów wyniósł 70,5 doby, a średnia zintegrowana świetlność osiągnęła poziom 0,56 fb-1 na dzień. W roku 2023 rozpoczęły się problemy. Niezbędne naprawy urządzenia zajmowały więcej czasu niż planowano i przez cały rok zderzenia protonów prowadzono jedynie przez 47,5 dnia, jednak średnia zintegrowana świetlność wyniosła 0,71 fb-1 na dzień.
      Bieżący rok jest zaś wyjątkowy. Wydajność LHC przewyższyła oczekiwania. Do 2 września 2024 roku akcelerator zderzał protony łącznie przez 107 dni, osiągając przy tym średnią zintegrowaną jasność rzędu 0,83 fb-1 na dzień. Dzięki temu na kilka miesięcy przed końcem trzeciego roku obecnej kampanii naukowej jego średnia zintegrowana świetlność wyniosła 160,4 fb-1, jest zatem większa niż przez cztery lata poprzedniej kampanii.
      W bieżącym roku LHC ma też przeprowadzać zderzenia jonów ołowiu. Zanim jednak do tego dojdzie, będzie przez 40 dni pracował z protonami. Powinno to zwiększyć jego zintegrowaną świetlność o koleje 33 fb-1. To o 12 fb-1 więcej niż zaplanowano na bieżący rok.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...