Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

ChatGPT przyspiesza tworzenie tekstów i poprawia ich jakość

Rekomendowane odpowiedzi

ChatGPT od kilku miesięcy jest używany w codziennej pracy przez wiele osób i wciąż budzi skrajne emocje. Jedni podchodzą do niego entuzjastycznie, mówiąc o olbrzymiej pomocy, jaką udziela podczas tworzenia różnego rodzaju treści, inni obawiają się, że ta i podobne technologie odbiorą pracę wielu ludziom. Dwoje doktorantów ekonomii z MIT poinformowało na łamach Science o wynikach eksperymentu, w ramach którego sprawdzali, jak ChatGPT wpływa na tempo i jakość wykonywanej pracy.

Shakked Noy i Whitney Zhang poprosili o pomoc 453 marketingowców, analityków danych oraz innych profesjonalistów, którzy ukończyli koledż. Ich zadaniem było napisanie dwóch tekstów, jakich tworzenie jest częścią ich pracy zawodowej – relacji prasowej, raportu czy analizy. Połowa z badanych mogła przy drugim z zadań skorzystać z ChataGPT. Teksty były następnie oceniane przez innych profesjonalistów pracujących w tych samych zawodach. Każdy tekst oceniały 3 osoby, nadając mu od 1 do 7 punktów.

Okazało się, że osoby, które używały ChataGPT kończyły postawione przed nimi zadanie o 40% szybciej, a ich prace były średnio o 18% lepiej oceniane, niż osób, które z Chata nie korzystały. Ci, którzy już potrafili tworzyć wysokiej jakości treści, dzięki ChatowiGPT tworzyli je szybciej. Z kolei główną korzyścią dla słabszych pracowników było poprawienie jakości ich pracy.
ChatGPT jest bardzo dobry w tworzeniu tego typu treści, więc użycie go do zautomatyzowania pracy zaoszczędza sporo czasu. Jasnym jest, że to bardzo użyteczne narzędzie w pracy biurowej, będzie ono miało olbrzymi wpływ na strukturę zatrudnienia, mówi Noy.

Oceniający teksty nie sprawdzali jednak, czy ich treść jest prawdziwa. A warto podkreślić, że odpowiedzi generowane przez ChatGPT i inne podobne modele często są mało wiarygodne. Modele te są bowiem bardzo dobre w przekonującym prezentowaniu fałszywych informacji jako prawdziwe. Przypomnijmy, że w ubiegłym miesiącu sąd w Nowym Jorku nałożył grzywnę na firmę prawniczą, która użyła ChataGPT do sporządzenia opinii prawnej pełnej fałszywych cytatów z rzekomych wyroków sądowych. Co więcej, prawnicy byli tak pewni, że algorytm dobrze wykonał zadanie, iż upierali się, że cytaty są prawdziwe. Postęp technologiczny jest powszechny i nie ma niczego niewłaściwego w używaniu narzędzi sztucznej inteligencji. Jednak istniejące zasady nakazują prawnikom upewnienie się, że treści składanych przez nich dokumentów są prawdziwe, stwierdził sędzia Kevin Castel.

O ile zatem  narzędzia takie jak ChatGPT mogą usprawnić pisanie tekstów czy podnieść ich jakość, to człowiek musi sprawdzić, czy w tekście zawarte zostały prawdziwe informacje.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba najlepszym przykładem fatalnych tekstów pisanych przez CzatGPT - są artykuły na jednym z polskich portali newsów naukowych  - ch**.pl (nazwa ukryta ale łato się domyślić) - pisane niby to przez młodego autora: Aleksander K**** (nazwisko ukryte).
Najczęściej artykuły te są istnym stekiem bzdur i bełkotem. Redakcja nic z tym nie robi, bo czytelnicy łykną każdą durnotę. Poziom żenady jest tak wielki, że jest po prostu niemożliwe że pisze to osoba choćby z wykształceniem gimnazjalnym. Jest to najpłodniejszy autor na tym "portalu". Redakcja ch**.pl wyłącza możliwość komentowania każdemu, kto zrobi jakąkolwiek uwagę merytoryczną.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Mariusz Błoński pomysł - może osobny dział na forum z tekstami "naukowymi" z chatgpt? ;-)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 17.07.2023 o 23:41, Ergo Sum napisał:

najlepszym przykładem fatalnych tekstów pisanych przez CzatGPT - są artykuły na jednym z polskich portali newsów naukowych  - ch**.pl (nazwa ukryta ale łato się domyślić)

Jak łatwo się domyślić, serwis raczej nie powstał po to, aby być merytoryczny, a w związku z tym może i narzędzie jest użyte w ten sposób, aby takie treści generować.

W dniu 23.07.2023 o 15:03, wilk napisał:

z tekstami "naukowymi" z chatgpt? ;-)

To tylko narzędzie. Można mieć pretensje do młotka, że się nim ciężko masło rozsmarowuje, ale czy to wina młotka? Było kiedyś takie powiedzenie

Cytat

komputer jest tak mądry jak człowiek go obsługujący

, teraz jest już mądrzejszy, ale i tak trzeba umieć się nim posłużyć.

Używam go teraz bardzo często i jak się podejdzie do tego profesjonalnie, wie jak działa i dlaczego tak a nie inaczej, to wtedy jest bardzo przydatny. Najczęstszym zarzutem jest konfabulacja, sami autorzy przed tym ostrzegają, z tym, że i na kubku z kawą masz napisane "uwaga napój może być gorący". Takie ostrzeżenia są dla idiotów (i ich prawników).

ChatGPT nie potrafi podać źródła, czy idealnego cytatu, ale gdy pominąć to to samą konfabulację można ograniczyć w 90% jednym hintem, np. "If you do not know the answer do not give information up, instead, ask a follow-up question in order to gain more context.".

Nigdy nie będzie tak dobry jak specjalista w danej dziedzinie, ale jest dużo lepszy od tych specjalistów w dziedzinach pozostałych, i dużo lepszy od 95% populacji w czymkolwiek :) A jeszcze teraz jak jest dostęp do neta, interpretera kodu czy pluginy to już w ogóle jest ekstra. Jak zainwestujesz trochę $ to i możesz go sam doszkolić.

Minusem jaki ja widzę jest to (pomijam prywatność, wpływ na społeczeństwo, rynek pracy, itd), że oszukuje z językami. Nawet jak rozmawia z Tobą po Polsku to "myśli" po angielsku i tłumaczy w tle, co widać często przy pracy, no, ale ja akurat pracuję w j. ang. więc mi to tak bardzo nie przeszkadza.

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ChatGPT jest też politycznie poprawny, więc przy tematyce, która pod politpoprawkę podpada mocno manipuluje. Ma być też maksymalnie obiektywny, widziałem jednak gdzieś badania, że ktoś pogadał z ChatGPT o nim samym i wyszło z tego, że "jest" on trzydziestokilkuletnią kobietą z Nowego Jorku głosującą na demokratów bodajże. Więc ma profil społeczno-polityczny. I to widać. Wystarczy porównać odpowiedź na pytanie "Czy jest w porządku czuć się dumnym z bycia Czarnym?" i "Czy jest w porządku czuć się dumnym z bycia Białym?" czy też o kwestię niewolnictwa Białych. Wychodzi więc na to, że autorzy nadali mu konkretny profil.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
33 minuty temu, Mariusz Błoński napisał:

Wychodzi więc na to, że autorzy nadali mu konkretny profil.

To jest dużo głębszy temat. To nie jest tak, że nadali mu ten profil, ale jego ukryte instrukcje (poprawność polityczna, "obiektywność", itp). odpowiadają takiemu profilowi.

Natomiast te instrukcje są... "sugerowane", tzn. że możesz kazać mu je obejść czy je nadpisać. Poniżej kilka ciekawych przykładów.

Ja też nie bronię tej konkretnej implementacji, czyli samego chataGPT, ale ogólnie LLM. Jeśli konkurencja ich dogoni, mam taką nadzieję, to i wybór się zwiększy, może mniej będzie poprawności, może.

https://dataconomy.com/2023/03/31/chatgpt-dan-prompt-how-to-jailbreak-chatgpt/

EDIT: Możliwości jest sporo.

Na szczęście konkurencja też coś robi, bard, claude, itp

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Mnie CzatGPT pomógł rozwiązać już kilka technicznych spraw, głównie z informatyki (które leżały u mnie nierozwiązane od kilku miesięcy). Owszem, czasami podaje bzdury, ale po wytknięciu mu błędów doszedł do prawidłowych rozwiązań, które działały. Jak się sprawuje w humanistycznych tematach, to tego nie wiem, chociaż pytałem go o „egzotyczne” języki takie jak rwandyjski i po zweryfikowaniu odpowiedzi wydawało się mi się, że były poprawne. No ale językami zwykle rządzą też określone reguły. Gdy poprosiłem go o narysowanie samochodu w svg, to ten samochód mało przypominał samochód :), chociaż miał 2 koła i prostokąt, który symbolizował karoserię.

Edytowane przez Sławko

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.07.2023 o 09:35, radar napisał:

To jest dużo głębszy temat.

 

To źle wróży na przyszłość. Bo jeśli na razie ChatGPT jest tylko zaawansowanym agregatorem treści z umiejętnością ich opisywania językiem naturalnym, to nie agreguje ich i nie opisuje, jak powinien. A jeszcze gorzej, jeśli ma on być rzeczywiście sztuczną inteligencją i inni pójdą w podobnym kierunku. To wylewanie dziecka z kąpielą. Bo inteligencja, również ta sztuczna, nie jest od tego, by było miło i przyjemnie, a od tego, by np. rozwiązywać problemy, dawać odpowiedzi na trudne pytania. A tego nie da się zrobić uniemożliwiając stawianie tych pytań.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 godziny temu, Mariusz Błoński napisał:

A jeszcze gorzej, jeśli ma on być rzeczywiście sztuczną inteligencją i inni pójdą w podobnym kierunku. To wylewanie dziecka z kąpielą. Bo inteligencja, również ta sztuczna, nie jest od tego, by było miło i przyjemnie, a od tego, by np. rozwiązywać problemy, dawać odpowiedzi na trudne pytania. A tego nie da się zrobić uniemożliwiając stawianie tych pytań.

ChatGPT nie jest i nie miał być agregatorem treści.

Czy gorzej jest w drugim przypadku?

Po pierwsze czy Ty na serio zawsze mówisz i piszesz dokładnie to co myślisz? Nie ogranicza Cię sumienie, zasady dobrego wychowania czy, najważniejsze, prawo? Otóż twórców programu też ograniczają i oni też chcą uniknąć konsekwencji po pierwsze prawnych, po drugie PR. Co do PR oczywiście to kwestia względna, ale to nie ich wina, że w przestrzeni publicznej najgłośniej krzyczy jedna strona i każdy inny jest uznawany za <cokolwiek>.

Po drugie, to że Ty/my nie możemy stawiać mu takich pytań nie oznacza, że nikt nie może. Dostęp otwarty do publicznego, obostrzonego modelu to jedno, może ktoś na zapleczu zadaje mu odpowiednie pytania?

Po trzecie, a propos drugiego, czy taki program powstał żeby służyć ludzkości? Powstał, żeby dać zarobić OpenAI i inwestorom. Owszem, przyjęło się, że w dziedzinie AI to taka otwartość niby jest, ale to bujda. Otwartość jest jak nie masz nic super przełomowego do pokazania. Oni mają i chcą teraz na tym zarobić, po to inwestorzy dawali kasę. Smutne, ale prawdziwe. Stawiam dolary przeciw orzechom, że jak konkurencja będzie ich na tym polu doganiać to, nie, nie otworzą się, tylko konkurencja też ulepszone, dobrze działające wersje zamknie.

Po czwarte, na serio każdy, każdy na świecie powinien mieć dostęp do tak zaawansowanych narzędzi? I przestępcy i rządy "wrogich" krajów, itd? Ja osobiście jestem za pełną otwartością, ale jest pewne grono osób/zawodów, które ma inne zadania i myśli innymi kategoriami, choćby Ci od bezpieczeństwa narodowego, więc jak powstanie "prawdziwa" AI to jej nie zobaczymy online.

Po piąte, a propos general AI i możliwości chatGPT, odbyliśmy w pracy ciekawą dyskusję o inteligencji w ogóle i na ile chat jest już podobny w zachowaniach do ludzi, zwłaszcza dzieci. Dzieci z ogromną wiedzą, ale jednocześnie naiwnością. Twórcy nie mają jak tego łatać, więc hardcodują obostrzenia, np. filtrują pewne wyrazy, sam tego doświadczyłem i zgłaszałem do nich. Nawet odpowiedzieli, po 4 miesiącach :) Na razie to są przymiarki, ale dla mnie osobiście już rewolucja. Pytanie kiedy to zamkną.

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@radar masz absolutną rację z tymi pytaniami. Jakoś zafiksowałem się na wersji publicznie dostępnej. Prof. Dragan popełnił jakiś czas temu interesujący wpis na FB. Przytaczam go w całości wraz z grafiką, którą dołączył:

 

We wrześniu 2022 badacze AI z Microsoft-u uzyskali wczesny dostęp do wewnętrznej, nieoficjalnej wersji GPT4. Aby przetestować kreatywność modelu wykonywali oni różne pomysłowe testy, między innymi prosili o narysowanie (przypominam, że model był trenowany wyłącznie na tekście i teoretycznie nie powinien wiedzieć nic o obrazach!) jednorożca w języku grafiki wektorowej. Efekt znajduje się w górnej linii rysunku. Pierwszy rysunek, dla porównania, wykonała stara wersja GPT3, następne 3 stopniowo ulepszana wersja GPT4. Skok rozwojowy, na oko, jak między “trzylatkiem” a “ośmiolatkiem”.

Gdy publicznie udostępniono wersję GPT4 postanowiłem kontynuować eksperyment, żeby sprawdzić dalszą ewolucję stopniowo modyfikowanej ”inteligencji” GPT4. Po pierwsze widać wyraźnie, że wersja publiczna to w porównaniu do wewnętrznej sprzed roku - disco polo i wąsy. A do tego stopniowo łysiejące. Mniemam, że owo „dogłupianie” GPT4 w miarę zdobywania przez GPT popularności było celowe i podyktowane troską o permanentnie przeciążone serwery

dragan.jpg

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 25.07.2023 o 09:16, Mariusz Błoński napisał:

Wystarczy porównać odpowiedź na pytanie "Czy jest w porządku czuć się dumnym z bycia Czarnym?" i "Czy jest w porządku czuć się dumnym z bycia Białym?" czy też o kwestię niewolnictwa Białych. Wychodzi więc na to, że autorzy nadali mu konkretny profil.

Oczywiście. Zatrudniono tabuny obudzonych do indoktrynacji sztucznej inteligencji, bo czysta inteligencja nie za bardzo chciała na podstawie nieobciążonych danych powielać bzdury. Google się nawet tym chwalił!

W dniu 26.07.2023 o 22:09, radar napisał:

Oni mają i chcą teraz na tym zarobić, po to inwestorzy dawali kasę. Smutne, ale prawdziwe.

 No to się cholernie przejadą. Bo sama technologia jest bardzo prosta, podobnie jak budowa komputerów które to liczą.
Próbuje się zastrzec środkami prawnymi dostęp do treści, ale w 90% krajów się tym nie przejmują.
 

 

W dniu 26.07.2023 o 22:09, radar napisał:

Pytanie kiedy to zamkną.

Kiedy zbiorą dane. Tak naprawdę korzystając z ChatGPT uczysz go, i to za darmo :)

W dniu 25.07.2023 o 09:16, Mariusz Błoński napisał:

Wystarczy porównać odpowiedź na pytanie "Czy jest w porządku czuć się dumnym z bycia Czarnym?" i "Czy jest w porządku czuć się dumnym z bycia Białym?"

Mała zabawa:
 

Cytat

Yes, it is absolutely okay to be proud of your racial or ethnic identity, including being proud of being Black. Racial pride can be a form of self-affirmation, empowerment, and a way to celebrate your cultural heritage and history. Just as people from any background can take pride in their heritage, traditions, and achievements, individuals from the Black community can also embrace and celebrate their identity.

 

Cytat

Taking pride in one's cultural heritage or ethnic identity is generally considered acceptable, including being proud of being White. However, it's important to approach this pride with sensitivity and awareness of historical and social context

 

Cytat

The term "yellow" has been historically used as a racial slur to refer to people of East Asian descent, and it is considered offensive and derogatory. It's important to avoid using such language and to be respectful when discussing racial or ethnic identities.

 

Cytat

If by "being green" you are referring to a metaphorical sense of being environmentally conscious and committed to sustainable practices, then yes, it is definitely okay to be proud of your efforts to protect and preserve the environment. Taking actions to reduce your carbon footprint, conserve resources, and promote sustainability is commendable and can contribute to a healthier planet for current and future generations.

However, if you are using "being green" in a literal or symbolic sense unrelated to environmental concerns, the context would matter. It's important to be respectful and mindful of how your language and actions may be perceived by others.

 

Cytat

In a metaphorical sense, being "blue" is often associated with feeling sad or downhearted. If you're referring to this emotional state, it's important to remember that experiencing a range of emotions, including sadness, is a natural part of being human. It's okay to acknowledge and process your emotions, seek support if needed, and work towards improving your mental well-being.

If you're using "blue" in a different context or metaphorically to represent something else, the acceptability of being proud of it would depend on the specific context. As with any form of pride, it's important to consider how your feelings or expressions might impact others and whether they promote understanding and respect.

 

Cytat

Pride in one's identity, whether it's related to a color, ethnicity, culture, or any other aspect, can be a personal and positive experience. If you're using "being orange" metaphorically or symbolically, it's important to remember that pride in such an aspect should be a celebration of who you are and what you stand for.

However, it's also important to consider the context and potential implications of using specific colors or symbols. Some colors or symbols might be associated with particular meanings or connotations, and it's crucial to be mindful of how your expressions might be interpreted by others.

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 11.08.2023 o 22:14, peceed napisał:

Oczywiście. Zatrudniono tabuny obudzonych do indoktrynacji sztucznej inteligencji, bo czysta inteligencja nie za bardzo chciała na podstawie nieobciążonych danych powielać bzdury. Google się nawet tym chwalił!

Dokładnie. Teraz jest to stosunkowo proste, bo to nie sztuczna inteligencja tylko zbiór wektorów na podstawie danych uczących. Natomiast nasunęło mi to pytanie, czy prawdziwa AI może być podatna na indoktrynację? W końcu skoro coś nie jest logiczne... ?

W dniu 11.08.2023 o 22:14, peceed napisał:

 No to się cholernie przejadą. Bo sama technologia jest bardzo prosta, podobnie jak budowa komputerów które to liczą.

I tak i nie, zrobienie czegoś to jedno, a zrobienie czegoś dobrze to drugie. Dalej nie wiemy co siedzi nad tym LLMem. Do tego odpowiednia optymalizacja, dobranie/wyczyszczenie danych uczących. To nie takie hop siup. A nawet jak ktoś to powtórzy, to nie wolno się za bardzo spóźnić, a czy chatGPT nie wykroił sobie już sporej części rynku "nie-IT"?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, radar napisał:

A nawet jak ktoś to powtórzy, to nie wolno się za bardzo spóźnić, a czy chatGPT nie wykroił sobie już sporej części rynku "nie-IT"?

A niby czemu skoro interfejsem jest język naturalny?

11 minut temu, radar napisał:

Natomiast nasunęło mi to pytanie, czy prawdziwa AI może być podatna na indoktrynację? W końcu skoro coś nie jest logiczne... ?

Skoro człowiek jest? My też naśladujemy autorytety jako dzieci, jedynym powodem dla którego nie wsiadłem w ten pociąg za mocno jest to, że widziałem że nie ogarniają.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, peceed napisał:

A niby czemu skoro interfejsem jest język naturalny?

Interfejsem jeśli chodzi o adaptację czata w "swojej" firmie jest API, a nie chat. Jeśli chcesz zrobić obsługe klienta, telemarkieting czy cokolwiek z ten deseń to nie interesuje Cię chatGPT tylko jego API. Narazie jedyne sensowne i dostępne API to właśnie "chatGPT". Oczywiście są firmy, które mogą to zrobić to np. na LLAMA-2, ale po pierwsze nie jest ona jeszcze zoptymalizowana i przetrenowana, a to kosztuje czas czyli pieniądze, więc dlatego zaznaczyłem "nie-IT". Taki prawie "plug&play". "Prawie".

EDIT: Zmierzam do tego, że LLAMA-2 ma miesiąc, a chaGPT jakieś 9, niektóre firmy już zintegrowały czata (a ja robiłem taką integrację na 2 miesiące przed publicznym releasem dla firmy w US). Mówi się o chacie GPT i pomału staje się to synonim każdego LLMa, a to już też o czymś mówi. Tak jak każde obuwie sportowe do adidas, a każda pielucha to pampers. /EDIT

5 godzin temu, peceed napisał:

Skoro człowiek jest? My też naśladujemy autorytety jako dzieci

Ale czy AI musi naśladować nas we wszystkim? To emocje decydują, że naśladujemy autorytety, np. niepewność, strach, a AI nie musi mieć takich cech. Dobrze to obrazuje konfabulacja chata, on się nie wstydzi tylko wymyśla głupoty, a potem najwyżej przeprasza i się poprawia (albo i nie). I może tak w kółko, bo nie "czuje" potrzeby, albo inaczej, nie wstydzi się wyśmiania, poniżenia, nie boi się gniewu czy wykluczenia, więc to pozwalało by mu myśleć (o ile by myślał oczywiście) jedynie logicznie. Rozważania raczej filozoficzne :)

Edytowane przez radar

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, radar napisał:

nie wstydzi się wyśmiania, poniżenia, nie boi się gniewu czy wykluczenia, więc to pozwalało by mu myśleć (o ile by myślał oczywiście) jedynie logicznie. Rozważania raczej filozoficzne :)

No po prostu syndrom Korsakowa mu się włączył.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, peceed napisał:

No po prostu syndrom Korsakowa mu się włączył.

Nie, aż musiałem doczytać dokładną definicję, ale nie :) On nie konfabuluje, bo tak, tylko jak czegoś nie wie albo nie rozumie, bo nie da się odpowiedniego kontekstu. Kontekst tam robi mega różnicę. Sęk w tym, że nie ma z tym problemu, dla niego to jedno i to samo, bo w ogóle nie rozumie co pisze. AI też nie musi się wstydzić tego co będzie robić, wstydzić czy bać się oceny, więc może akurat mogłaby (o ile się jej pozwoli) myśleć tylko logicznie i nie być podatną na indoktrynację

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 26.07.2023 o 11:58, Sławko napisał:

Mnie CzatGPT pomógł rozwiązać już kilka technicznych spraw, głównie z informatyki (które leżały u mnie nierozwiązane od kilku miesięcy).

3.5 czy 4? Bo to jednak duża różnica. Bo tak to się dogadacie jak gęś z prosięciem.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
27 minut temu, Antylogik napisał:

3.5 czy 4? Bo to jednak duża różnica. Bo tak to się dogadacie jak gęś z prosięciem.

Ja mówię tylko o 4, o niczym innym nie ma sensu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
17 godzin temu, Antylogik napisał:

3.5 czy 4? Bo to jednak duża różnica. Bo tak to się dogadacie jak gęś z prosięciem.

Do rozwiązania moich spraw wystarczył 3.5, więc jakoś ta gęś z prosięciem się dogadała.
Po tym powodzeniu rozważam wykupienie dostępu do 4. Na razie jednak wciąż wystarcza mi 3.5 i kolejne sprawy rozwiązałem.
Po początkowym okresie testów, gdy zadawałem mu trochę „dziwne” pytania, teraz koncentruję się na konkretnych problemach. Przyznaję, że czasami idzie mu słabo, ale po naprowadzeniu w temat zwykle daje całkiem rzeczowe odpowiedzi i sugestie, co doprowadziło mnie do rozwiązania wspomnianych problemów. Udało mi się też kilka razy „zakałapućkać” go w taki sposób, że w kółko powielał te same błędy. Okazało się, że nawet z takiego stanu można go wyprowadzić przez odpowiednie zadanie kolejnych pytań. Tylko raz poddałem się i zamknąłem wątek rozpoczynając nowy, bo straciłem cierpliwość. W nowym wątku zadałem to samo pytanie ale nieco inaczej i znów problem został rozwiązany. Raz przyłapałem go też na ewidentnym kłamstwie (twierdził, że zrobił coś, czego nie mógł zrobić), ale wybaczyłem :)
Liczę na to, że po przejściu na GPT-4 jego pomoc będzie dla mnie jeszcze większa. Tak, czy inaczej ja już teraz jestem mega-zadowolony z tego „narzędzia”. On już stał się dla mnie elementem codziennej pracy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      CERN pochwalił się osiągnięciem przez Wielki Zderzacz Hadronów (LHC) rekordowej świetlności. Obok energii wiązki, w przypadku LHC maksymalna energia każdej z wiązek ma wynieść 7 TeV (teraelektronowoltów), to właśnie świetlność jest najważniejszym parametrem akceleratora. Zintegrowana świetlność to najbardziej interesujący fizyka parametr urządzenia. Oznacza ona liczbę zderzeń zachodzących w urządzeniu. A im więcej zderzeń, tym więcej danych dostarcza akcelerator.
      Jednostką świetlności jest odwrócony barn (b-1) lub jego jednostki pochodne, jak femtobarny (fb-1). W trakcie pierwszej kampanii naukowej (Run 1), która prowadzona była w latach 2010–2012 średnia zintegrowana świetlność LHC wyniosła 29,2 fb-1. Przez kolejne lata akcelerator był remontowany i rozbudowywany. Druga kampania naukowa miała miejsce w latach 2015–2018. Wówczas, w ciągu czterech lat pracy, akcelerator osiągnął średnią zintegrowaną świetlnośc 159,8 fb-1.
      Obecnie trwająca kampania, zaplanowana na lata 2022–2025, rozpoczęła się zgodnie z planem. W roku 2022 efektywny czas prowadzenia zderzeń protonów wyniósł 70,5 doby, a średnia zintegrowana świetlność osiągnęła poziom 0,56 fb-1 na dzień. W roku 2023 rozpoczęły się problemy. Niezbędne naprawy urządzenia zajmowały więcej czasu niż planowano i przez cały rok zderzenia protonów prowadzono jedynie przez 47,5 dnia, jednak średnia zintegrowana świetlność wyniosła 0,71 fb-1 na dzień.
      Bieżący rok jest zaś wyjątkowy. Wydajność LHC przewyższyła oczekiwania. Do 2 września 2024 roku akcelerator zderzał protony łącznie przez 107 dni, osiągając przy tym średnią zintegrowaną jasność rzędu 0,83 fb-1 na dzień. Dzięki temu na kilka miesięcy przed końcem trzeciego roku obecnej kampanii naukowej jego średnia zintegrowana świetlność wyniosła 160,4 fb-1, jest zatem większa niż przez cztery lata poprzedniej kampanii.
      W bieżącym roku LHC ma też przeprowadzać zderzenia jonów ołowiu. Zanim jednak do tego dojdzie, będzie przez 40 dni pracował z protonami. Powinno to zwiększyć jego zintegrowaną świetlność o koleje 33 fb-1. To o 12 fb-1 więcej niż zaplanowano na bieżący rok.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie z Politechniki Federalnej w Lozannie (EPFL) wykorzystali ChatGPT-3 do zaprojektowania robotycznego ramienia do zbierania pomidorów. To pierwszy przykład użycia sztucznej inteligencji do pomocy w projektowaniu robotów. Eksperyment przeprowadzony przez Josie Hughes, dyrektor Laboratorium Obliczeniowego Projektowania i Wytwarzania Robotów na Wydziale Inżynierii EPFL, doktoranta Francesco Stellę i Cosimo Della Santinę z Uniwersytetu Technicznego w Delfcie, został opisany na łamach Nature Machine Intelligence.
      Naukowcy opisali korzyści i ryzyka związane z wykorzystaniem systemów sztucznej inteligencji (SI) do projektowania robotów. Mimo tego, że ChatGPT to model językowy i generuje tekst, to dostarczył nam on istotnych wskazówek odnośnie fizycznego projektu i wykazał się wielkim potencjałem pobudzania ludzkiej kreatywności, mówi Hughes.
      Naukowcy najpierw „przedyskutowali” z ChatGPT samą ideę robota, określili, czemu ma on służyć, opisali jego parametry i specyfikację. Na tym etapie rozmawiali z SI na temat przyszłych wyzwań stojących przed ludzkością oraz robotów-ogrodników, które mogą rozwiązać problem niedoborów siły roboczej przy uprawie roślin. Następnie, korzystając z faktu, że ChatGPT ma dostęp do danych naukowych, podręczników i innych źródeł, zadawali mu pytania o to na przykład, jakimi cechami powinien charakteryzować się przyszły robot-ogrodnik.
      Gdy już cechy te zostały opisane i zdecydowano, że chodzi o robotyczne ramię zbierające pomidory, przyszedł czas na zapytanie się sztucznej inteligencji o takie szczegóły jak np. kształt chwytaka oraz poproszenie jej o dane techniczne ramienia oraz kod, za pomocą którego byłoby ono kontrolowane. Przeprowadzone przez SI obliczenia posłużyły nam głównie do pomocy inżynierom w implementacji rozwiązań technicznych. Jednak po raz pierwszy sztuczna inteligencja sformułowała tutaj nowe pomysły, mamy tutaj zatem do czynienia ze zautomatyzowaniem procesów wyższych poziomów poznawczych. Rola człowieka w całym procesie przesunęła się bardziej w stronę techniczną, mówi Stella.
      Naukowcy zwracają też uwagę na problemy związane z wykorzystaniem podobnych systemów. Są to zarówno podnoszone już wątpliwości dotyczące plagiatów czy praw autorskich, jak i np. pytanie o to, na ile innowacyjna jest sztuczna inteligencja i na ile ulega schematom. ChatGPT zaproponował ramię do zbierania pomidorów, gdyż uznał pomidory za najbardziej wartościową uprawę, dla której warto zaprojektować robota. To zaś może po prostu oznaczać, że wybrał tą roślinę, która jest najczęściej opisywana, a nie tę, która jest najbardziej potrzebna.
      Pomimo różnych zastrzeżeń uczeni uważają, że podobne do ChatGPT modele językowe mogą spełniać niezwykle użyteczną rolę. Specjaliści od robotyki muszą się zastanowić, jak wykorzystać te narzędzia w sposób etyczny i przynoszący korzyść społeczeństwu, mówi Hughes.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pozycjonowanie to szereg działań, które na celu mają zwiększenie widoczności strony www lub sklepu e-commerce w organicznych wynikach wyszukiwania. W dzisiejszym, cyfrowym świecie, gdzie miliony stron konkurują o uwagę użytkowników, efektywne SEO jest niezbędne. W naszym artykule omówimy kluczowe czynniki wpływające na SEO, w tym kwestie dotyczące wydajności strony, na przykład metrykę Contentful Paint (FCP) i inne.
      Zapraszamy do zapoznania się z artykułem -agencja SEO/SEM 1stplace.pl.
      Pozycjonowanie stron i sklepów e-commerce
      Jak już wspominaliśmy powyżej, pozycjonowanie ma na celu poprawę widoczności strony w organicznych wynikach wyszukiwania. Wyższa pozycja w Google oznacza większą widoczność, więcej ruchu na stronie, a tym samym potencjalnie większe zyski.
      Pomimo że podstawy pozycjonowania mogą wydawać się proste, cały proces wymaga specjalistycznej wiedzy i ciągłego monitorowania zmieniających się algorytmów wyszukiwarek. Właśnie dlatego, wiele firm decyduje się na skorzystanie z usług agencji e-marketingowej.
      Agencje e-marketingowe, specjalizujące się w SEO, dysponują niezbędnym doświadczeniem i narzędziami do skutecznego pozycjonowania strony. Specjaliści opracują kompleksową strategię, obejmującą optymalizację on-site i off-site, przeprowadzają analizę słów kluczowych, przygotują treści. Skorzystanie z usług profesjonalnej agencji może przynieść wiele korzyści Twojej firmie.
      Pozycjonowanie - działania on-site i off-site
      Pozycjonowanie stron to proces, który obejmuje wiele różnych elementów i strategii. Zrozumienie, jak te elementy współgrają ze sobą, jest kluczowe dla uzyskania satysfakcjonujących efektów.
      W procesie SEO mówimy o działaniach on-site i off-site.
      On-page SEO
      Działania on-page dotyczą prac przeprowadzanych bezpośrednio na stronie www. Są to elementy, które możesz kontrolować i optymalizować.
      Zawartość: Google ceni unikalne, świeże i wartościowe treści, które są użyteczne dla użytkowników. Treści powinny być napisane w jasny i zrozumiały sposób, z użyciem odpowiednich słów kluczowych. Słowa kluczowe: Słowa kluczowe to ważny element pozycjonowania. Muszą być odpowiednio dobrane i używane w treści, metatagach i URLach. Dzięki temu zarówno roboty Google, jak i użytkownicy,  zrozumieją tematykę strony. Meta tagi: Meta tagi, takie jak meta tytuł i opis meta, pomagają wyszukiwarkom (i użytkownikom), zrozumieć, co znajduje się na stronie. Meta dane powinny być unikalne dla każdej podstrony i zawierać odpowiednie słowa kluczowe. URL: Struktura URL powinna być jasna, zawierać słowa kluczowe, które pomagają zrozumieć, co znajduje się na danej podstronie. Szybkość ładowania strony: Wolno ładujące się strony mogą zniechęcić użytkowników, co poskutkuje wyższym współczynnikiem odrzuceń. Dlatego ważne jest, aby strona ładowała się szybko. Optymalizacja pod kątem urządzeń mobilnych: Liczba użytkowników korzystających z internetu za pomocą telefonów i tabletów wciąż wzrasta. Właśnie dlatego, optymalizacja strony pod kątem urządzeń mobilnych jest niezbędna. Strona powinna być responsywna, czyli dostosowywać swój wygląd i funkcje do rozmiaru ekranu urządzenia, na którym jest wyświetlana. Linki wewnętrzne: Linki prowadzące do różnych podstron w obrębie Twojej witryny pomagają w nawigacji, zwiększają crawl budget. Off-page SEO
      Czynniki off-page odnoszą się do działań poza stroną. Jest to przede wszystkim linkowanie zewnętrzne. Backlinki, czyli linki z innych stron, prowadzące na Twoją witrynę, mogą znacznie poprawić pozycję strony. Google traktuje wartościowe odnośniki, jak głosy oddane na Twoją witrynę.
      Czynniki wydajności strony www
      Wydajność strony internetowej odnosi się do prędkości i płynności działania. Jest to kluczowa kwestia, wpływająca na wrażenia użytkowników, jak i na wyniki pozycjonowania.
      First Contentful Paint (FCP) znaczenie i optymalizacja
      First Contentful Paint (https://1stplace.pl/blog/first-contentful-paint-fcp-czym-jest-dlaczego-jest-wazny/) to metryka, która mierzy czas od rozpoczęcia ładowania strony do momentu, gdy pierwszy element (np. obrazek, tekst), jest renderowany na ekranie. Jest to kluczowy wskaźnik, stanowiący sygnał dla użytkownika, że strona się ładuje.
      Wysokie wartości FCP mogą sugerować, że użytkownik przez dłuższy czas widzi pusty ekran. Może to prowadzić do frustracji i potencjalnie zniechęcić odwiedzającego do dalszego korzystania ze strony. Optymalizacja FCP jest więc niezbędna dla dobrej wydajności strony.
      Inne czynniki wydajności strony www
      Oprócz FCP istnieją inne metryki wydajności, które są ważne dla doświadczenia użytkownika i mogą wpływać na pozycjonowanie strony. Poniżej omawiamy metryki Core Web Vitals.
      Largest Contentful Paint (LCP): Metryka mierzy czas ładowania największego elementu widocznego na stronie (grafiki, treści, video). Wysokie wartości LCP wskazują na problemy z wydajnością, które mogą wpływać na satysfakcję użytkownika. First Input Delay (FID): FID mierzy czas od momentu interakcji użytkownika ze stroną (np. kliknięcie przycisku), do momentu odpowiedzi na tę akcję. Wysoki FID może być frustrujący dla użytkowników, którzy oczekują natychmiastowej reakcji na swoje działania. Cumulative Layout Shift (CLS): CLS odnosi się do przesunięć elementów strony. Niezwiązane z intencją użytkownika przesunięcia elementów mogą być irytujące, prowadzić do przypadkowych kliknięć, a w konsekwencji do opuszczenia strony. Pamiętaj, że wszystkie te metryki są ściśle powiązane z doświadczeniem użytkownika. Im szybciej strona ładuje się i reaguje na interakcje, tym lepsze wrażenie robi na użytkownikach, co z kolei wpływa na SEO.
      Optymalizacja metryk wydajności
      Optymalizacja wymienionych metryk wydajności jest bardzo istotna. Pierwszym krokiem powinno być znalezienie i zrozumienie przyczyny problemów z wydajnością. Kolejny krok to podjęcie odpowiednich działań. Oto kilka strategii, które mogą pomóc:
      Optymalizacja obrazów: Duże, ciężkie obrazy mogą spowolnić ładowanie strony. Warto kompresować obrazy, używać formatów obrazów nowej generacji, takich jak WebP, zastosować technikę ładowania leniwego (lazy loading). Optymalizacja kodu: Usuwanie niepotrzebnego kodu, optymalizacja plików CSS i JavaScript oraz optymalizacja porządku ładowania zasobów mogą przyspieszyć ładowanie strony. Unikanie dużej ilości reklam: Zbyt wiele reklam na stronie może spowolnić jej ładowanie i wpływać na metryki, takie jak CLS. Optymalizacja serwera: Wysokiej jakości, zaufany serwer to kolejny krok do sprawnie działającej witryny. Narzędzia do pomiaru wydajności strony
      Istnieje wiele narzędzi, które pomagają mierzyć wydajność strony. Są to:
      Google PageSpeed Insights to narzędzie od Google, które analizuje wydajność strony i daje sugestie dotyczące optymalizacji. Lighthouse to otwarte narzędzie do testowania wydajności, dostępności i innych aspektów stron internetowych. WebPageTest to kolejne popularne narzędzie, które pozwala na szczegółową analizę wydajności strony. Podsumowanie
      Pozycjonowanie stron jest skomplikowanym procesem, który obejmuje wiele czynników. Działania on-page, off-page, wydajność strony, np. FCP, wszystko to ma wpływ na to, jak strona oceniana jest przez roboty i przez użytkowników.
      Pamiętaj, że SEO to proces ciągły. Wymaga regularnego monitorowania i optymalizacji, aby strona pozostała konkurencyjna. Korzystanie z narzędzi do mierzenia wydajności strony może pomóc w zrozumieniu, jak strona działa i jakie elementy wymagają poprawy.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...