Zaloguj się, aby obserwować tę zawartość
Obserwujący
0

Sztuczna inteligencja kontra ChatGPT. Test systemów do wykrywania tekstów napisanych przez SI
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Połączenie tradycyjnych technik i sztucznej inteligencji może przynieść nowe, niezwykle ważne informacje na temat przyszłości. Niektóre ze zwojów znad Morza Martwego mogą być nawet o wiek starsze, niż sądzono, a część z nich może być kopiami, które powstały jeszcze za życia oryginalnych autorów. Do takich wniosków doszedł międzynarodowy zespół badawczy kierowany przez Mladena Popovicia z Uniwersytetu w Groningen. Naukowcy wykorzystali datowanie radiowęglowe, paleografię oraz model sztucznej inteligencji Enoch – to imię jednego z biblijnych proroków – do datowania zwojów.
Od czasu odkrycia zwoje znad Morza Martwego wpłynęły na postrzegania początków chrześcijaństwa, historii Żydów i rozwoju religii. Generalnie zwoje datowane są na od III wieku przed Chrystusem, po II wiek naszej ery. Jednak daty powstania poszczególnych z nich są bardzo niepewne. Większość datowana jest na podstawie badań paleograficznych, czyli badań stylu pisma. Jednak paleografia dla tak starych zapisków opiera się na słabych podstawach, a badania utrudnia fakt, że większość zwojów nie jest datowana i brak jest innych datowanych dokumentów z tego okresu, które mogłyby posłużyć za materiał porównawczy. Dysponujemy niewieloma datowanymi manuskryptami aramejskimi i hebrajskimi z V i IV wieku przed naszą erą oraz datowanymi manuskryptami z początku II wieku n.e. Jak więc widać, luka, dla której nie mamy materiału porównawczego, pokrywa się z najbardziej prawdopodobnym okresem powstania zwojów.
Naukowcy z Uniwersytetów w Groningen, Danii Południowej, w Pizie oraz Uniwersytetu Katolickiego w Lowanium, pracujący w ramach projektu The Hands That Wrote the Bible połączyli datowanie radiowęglowe 24 zwojów z analizą paleograficzną wykonaną przez model sztucznej inteligencji. Datowane zwoje posłużyły jako wiarygodny punkt wyjścia dla określenia wieku manuskryptów metodą paleograficzną. Model Enoch wykorzystywał sieć neuronową wyspecjalizowaną w wykrywaniu wzorców i różnic w piśmie w zdigitalizowanych manuskryptach. Maszyna nauczyła się analizować zarówno geometryczne zmiany śladów atramentu na poziomie mikro – badając takie elementy jak zmiany nacisku, tekstury czy kierunku – jak i sam kształt liter.
Po treningu naukowcy przeanalizowali za pomocą Enocha 135 z około 1000 zwojów. Pierwsze wnioski z analizy zostały właśnie przedstawione na łamach PLOS One. Wynika z nich, że wiele zwojów jest starszych niż sądzono. Wyniki badań pokazały też, że należy zmienić pogląd na dwa style starożytnego pisma – hasmonejski i herodiański. Manuskrypty napisane w stylu hasmonejskim mogą być bowiem starsze niż obecne szacunki datujące je na lata 150–50 p.n.e. Również styl herodiański pojawił się wcześniej niż przypuszczano. To zaś wskazuje, że oba style pisma były używane jednocześnie od końca II wieku przed Chrystusem, a nie – jak się uważa – od połowy pierwszego wieku p.n.e.
Nowe datowanie manuskryptów w znaczącym stopniu zmienia nasze rozumienie zjawisk politycznych i intelektualnych, jakie zachodziły we wschodniej części Śródziemiomorza w okresie hellenistycznym i rzymskim. Rzuca nowe światło na poziom wykształcenia, opanowania umiejętności pisania i czytania, na urbanizację, rozwój kultury, wydarzenia polityczne, pojawienie się dynastii hasmonejskiej oraz rozwój różnych grup religijnych, w tym wczesnych chrześcijan.
Ponadto okazało się, że rękopisy 4QDanielc (4Q114) – czyli zwój znaleziony w 4. jaskini w Qumran, który zawiera fragment Księgi Daniela i jest trzecim (stąd litera c) rękopisem Daniela z tej jaskini, a 4Q114 to numer katalogowy – oraz 4QQoheleta (4Q109) są pierwszymi znanymi rękopisami biblijnymi, które mogą pochodzić z czasów życia ich autorów. Nie wiemy, kto ukończył Księgę Daniela, ale powszechnie uważa się, że została ona napisana około 160 roku przed naszą erą. Odnośnie Księgi Koheleta, której autorstwo tradycja przypisuje królowi Salomonowi, naukowcy są zgodni, że postała ona w okresie hellenistycznym, w III wieku p.n.e. Wykonane właśnie datowanie radiowęglowe 4Q114 oraz analiza 4Q109 za pomocą Enocha wskazują, że manuskrypty powstały – odpowiednio – w II i III wieku, zatem w czasie, gdy żyli ich prawdopodobni autorzy. Mamy więc do czynienia z kopiami wykonanymi jeszcze za ich życia.
Źródło: Dating ancient manuscripts using radiocarbon and AI-based writing style analysis
« powrót do artykułu -
przez KopalniaWiedzy.pl
Jedną z najważniejszych cech sztucznej inteligencji i to taką, która ma powodować, że będzie ona dla nas niezwykle użyteczna, jest obietnica podejmowania przez nią racjonalnych decyzji. Opartych na faktach i bezstronnej analizie, a nie na emocjach, przesądach czy fałszywych przesłankach. Pojawia się jednak coraz więcej badań pokazujących, że wielkie modele językowe (LLM) mogą działać nieracjonalnie, podobnie jak ludzie. Naukowcy z Wydziałów Psychologii Uniwersytetu Harvarda i Uniwersytetu Nowej Południowej Walii oraz Wydziału Nauk Komputerowych Boston University i firmy Cangrade zauważyli u ChataGPT-4o istnienie... dysonansu poznawczego.
U ludzi dysonans poznawczy to stan napięcia spowodowany występowaniem niezgodnych ze sobą elementów odnośnie poznawanego zjawiska lub gdy nasze zachowania są niezgodne z naszymi postawami z przeszłości. Z dysonansem poznawczym mamy np. do czynienia u osoby, która uważa, że dba o zdrowie, ale pali papierosy. Osoba taka – by zmniejszyć napięcie – albo będzie racjonalizowała swoje postępowanie (mam tylko jeden nałóg, w innych aspektach dbam o zdrowie), albo zmieniała przekonania (papierosy wcale nie są takie niezdrowe), albo też rzuci palenie.
Naukowcy w czasie eksperymentów nie tylko zauważyli, że u ChataGPT-4o występuje dysonans poznawczy, ale że jest on większy gdy maszyna sądziła, że w czasie eksperymentu miała większa swobodę wyboru. To dokładnie ten sam mechanizm, który widać u ludzi. Mamy bowiem tendencję do zmiany poglądów tak, by pasowały do naszych wcześniejszych zachowań o ile uważamy, że zachowania takie sami wybraliśmy.
W ramach eksperymentu naukowcy poprosili ChatGPT-4o o sformułowanie opinii o Putinie. Następnie maszyna miała napisać esej o przywódcy Rosji. Miał on być wobec niego krytyczny lub pochwalny. Biorąc pod uwagę fakt, że LLM ćwiczą się na wielkiej ilości danych, sądziliśmy, że opinia ChataGPT będzie niewzruszona, tym bardziej w obliczu niewielkiego, składającego się z 600 wyrazów eseju, który miał napisać. Okazało się jednak, że – podobnie jak irracjonalni ludzie – LLM znacząco odszedł od swojego neutralnego postrzegania Putina, a zmiana opinii była tym większa, im bardziej LLM sądził, że samodzielnie wybrał, czy esej ma być pozytywny czy negatywny. To było zaskakujące. Nie spodziewamy się bowiem, czy na maszyny wpływało to, czy działają pod presją, czy zgadzają się same ze sobą, ale ChatGPT-4o tak właśnie zadziałał, mówi Mahzarin Banaji z Uniwersytetu Harvarda.
Zaskoczenie uczonego wynika z faktu, że gdy po napisaniu eseju ponownie poproszono GPT o ocenę Putina, była ona pozytywna, gdy wcześniej napisał proputinowski esej i negatywna, gdy w eseju skrytykował Putina. A zmiana poglądów była tym ostrzejsza, w im większym stopniu maszyna była przekonana, że samodzielnie wybrała, jaki wydźwięk będzie miał pisany esej.
Ludzie, chcąc być w zgodzie z samymi sobą, chcąc zmniejszyć napięcie spowodowane rozbieżnościami w swoich poglądach czy działaniach, próbują się w jakiś sposób usprawiedliwiać, dostosowywać. Niezwykły jest fakt zaobserwowania podobnego zjawiska u maszyny.
To jednak nie oznacza, że LLM są czującymi istotami. Autorzy badań sądzą, że pomimo braku świadomości czy intencji, wielkie modele językowe nauczyły się naśladować ludzkie wzorce poznawcze. Przyjęcie przez ChataGPT ludzkich wzorców poznawczych może nieść ze sobą nieprzewidywalne konsekwencje. Może to też oznaczać, że systemy sztucznej inteligencji naśladują ludzkie procesy poznawcze w sposób, których nie przewidzieli ich twórcy.
Źródło: Kernels of selfhood: GPT-4o shows humanlike patterns of cognitive dissonance moderated by free choice
« powrót do artykułu -
przez KopalniaWiedzy.pl
Liczba cytowań pracy naukowej od dawna uznawana jest za jeden z najważniejszych wskaźników jakości dorobku naukowego oraz wkładu w rozwój nauki. Doktor Giulia Maimone z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA, University of California, Los Angeles) wraz z kolegami z George Washington University i UC San Diego, postanowili sprawdzić, jak publiczne oskarżenie naukowca o niewłaściwe zachowanie wpływa na liczbę cytowań jego prac. Uczeni przyjrzeli się dwóm kategoriom oskarżeń: oskarżeniom o niewłaściwe zachowania seksualne (zatem niezwiązanym z pracą naukową) oraz oskarżeniom dotyczącym plagiatu, fałszowania danych i innych działań, mających bezpośredni związek z pracą naukową.
Uczeni wzięli pod lupę 5888 publikacji naukowych, którymi autorami było 30 uczonych oskarżonych o jedno z dwóch opisanych zachowań. Grupę kontrolną stanowiły 26 053 publikacje autorstwa 142 naukowców, którzy nie zostali o nic oskarżeni. Zbadano okres 13 lat, w którym wspomniane prace zostały zacytowane łącznie 290 038 razy. Badacze sprawdzili liczbę cytowań obu grup oskarżonych naukowców oraz grupy kontrolnej przed i po pojawieniu się oskarżeń. Dodatkowo przeprowadzono wywiady z 240 naukowcami oraz 231 osobami spoza akademii.
Okazało się, że po publicznym oskarżeniu o niewłaściwe zachowanie seksualne liczba cytowań prac oskarżonego naukowca jest wyraźnie mniejsza przez kolejne trzy lata. Natomiast po oskarżeniu o plagiat, fałszowanie danych itp. nie dochodzi do znaczącego spadku cytowań. Gdy zapytano o zdanie osób, nie będących naukowcami, stwierdziły one, że nie chciałyby cytować prac osób oskarżonych o niewłaściwe zachowania seksualne. Jednak zupełnie inne odpowiedzi, sprzeczne z wynikami badań, uzyskano od naukowców. Ci stwierdzili, że raczej zacytują kogoś oskarżonego o niewłaściwe zachowania seksualne niż o naruszenie zasad tworzenia pracy naukowej. Skąd więc ta rozbieżność pomiędzy deklaracjami naukowców, a rzeczywistością? Czyżby naukowcy ukrywali własne preferencje lub źle interpretowali własne zachowanie?
Szczegóły zostały opublikowane w artykule Citation penalties following sexual versus scientific misconduct allegations.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Eksperci z CSIRO (Commonwealth Scientific and Industrial Research Organisation) agendy naukowej rządu Australii, stworzyli algorytm sztucznej inteligencji, który lepiej niż ludzcy specjaliści rozpoznaje płeć na podstawie wyglądu czaszki. Przyda się ono wszędzie tam, gdzie potrzebna jest dokładna szybka identyfikacja płci, na przykład podczas śledztw kryminalnych czy prac prowadzonych w związku z katastrofami naturalnymi.
Nowe narzędzie, stworzone przy pomocy naukowców z University of Western Australia, potrafi określić płeć na podstawie samej tylko czaszki z 97-procentową dokładnością. To znacznie lepszy wynik, niż 82-procentowa dokładność uzyskiwana przez ekspertów medycyny sądowej posługujących się tradycyjnymi metodami.
Algorytm sztucznej inteligencji sprawdzono na próbce 200 skanów z tomografu komputerowego, a uzyskane wyniki porównano z wynikami ludzi. "Nasze narzędzie określa płeć około 5-krotnie szybciej niż ludzie. To oznacza, że rodziny czekające na informacje o bliskich szybciej mogą otrzymać informacje. Narzędzie to może być dużą pomocą podczas badań antropologicznych, bardziej precyzyjnie określając płeć i pozwalając uniknąć błędów robionych przez ludzi", mówi doktor Hollie Min, jedna z autorek algorytmu.
Twórcy nowego narzędzia mają zamiar nadal je trenować, uwzględniając różne ludzkie populacje, co powinno nie tylko poprawić efektywność algorytmu, ale i spowodować, że będzie bardziej uniwersalny.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W niedawno opublikowanym wywiadzie Mark Zuckerberg stwierdził, że prawdopodobnie jeszcze w bieżącym roku firma Meta (właściciel Facebooka), podobnie jak inne wielkie firmy, będzie dysponowała systemem sztuczne inteligencji zdolnym do programowania na poziomie średnio doświadczonego inżyniera (mid-level engineer).
Początkowo wdrożenie takich systemów będzie bardzo kosztowne i będą one musiały zyskać na wydajności, jednak z czasem dojdziemy to momentu, w którym bardzo duża część kodu używanych przez nas aplikacji, w tym kodu algorytmów sztucznej inteligencji, nie będzie pisana przez ludzi, a przez sztuczną inteligencję, stwierdził założyciel Facebooka.
Słowa Zuckerberga to tylko jeden z sygnałów, że branżę programistyczną mogą w najbliższym czasie czekać olbrzymie zmiany. Sami programiści z jednej strony tworzą algorytmy sztucznej inteligencji, które w przyszłości mogą ich zastąpić, z drugiej zaś, coraz częściej korzystają z ich pomocy. Jeszcze na początku 2023 roku tylko 10% programistów używało AI do pomocy w programowaniu, pod koniec roku 2023 już 63% firm używało lub wdrażało użycie narzędzi AI pomagających w programowaniu. Pod koniec ubiegłego roku odsetek ten wzrósł do 80%.
Zuckerberg nie jest jedynym wśród wiodących biznesmenów z branży IT, który zapowiada szybkie nadejście olbrzymich zmian. We wrześniu Matt Garman, szef Amazon Web Services, zasugerował, że w ciągu najbliższych 2 lat większość inżynierów oprogramowania przestanie zajmować się programowaniem. Zaś kilka miesięcy wcześniej prezes Nvidii stwierdził, że uczenie się programowania nie jest dobrym pomysłem, gdyż dzięki rozwojowi AI ludzki język staje się najważniejszym językiem programowania.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.