
ChatGPT przyspiesza tworzenie tekstów i poprawia ich jakość
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Babilońska lektura szkolna. Zaginiony przez tysiące lat hymn opiewający chwałę Babilonu. Przed wiekami był on kopiowany przez dzieci w ramach nauki.
Babilon, założony około 4000 lat temu, był w swoim czasie największą metropolią świata. Pozostawił nam po sobie wspaniałą spuściznę literacką, która wciąż nie została do końca skatalogowana, odczytana i zbadana. I która wciąż jest odkrywana.
Tabliczka z hymnem ku chwale miasta została znaleziona wśród zbiorów Biblioteki w Sippar. Odkryto ją w 1986 roku podczas prac w jednej ze świątyń. Archeolodzy zauważyli wówczas nieznane pomieszczenie, w którym znaleźli około 400 glinianych tabliczek.
Przez dekady, ze względu na sytuację w Iraku, zbiory pozostały niezbadane. Od jakiegoś czasu Uniwersytet w Bagdadzie we współpracy z monachijskim Uniwersytetem Ludwika i Maksymiliana, tłumaczy i digitalizuje zbiory z Sippar. I właśnie podczas tych prac Enrique Jiménez znalazł glinianą tabliczkę z hymnem sławiącym Babilon w jego największej chwale.
Tabliczka pochodzi z początku pierwszego tysiąclecia przed Chrystusem, a tekst ma 250 linii. Autor opisuje budynki Babilonu, wody Eufratu użyźniającego ziemię. Znajdziemy tam też unikatowe informacje o kobietach z Babilonu, ich roli jako kapłanek i rolach pokrewnych. Zyskujemy wgląd w stosunki społeczne, dowiadujemy się na przykład, że mieszkańcy Babilonu szanują obcokrajowców.
Skąd zaś wiemy, że hymn był kopiowany w szkołach? Dzięki pomocy algorytmów sztucznej inteligencji udało się zidentyfikować 30 innych tabliczek z tym hymnem. Jeszcze niedawno taki proces identyfikacji zająłby dekady. Maszyny poradziły sobie z tym błyskawicznie. Dzięki nim mamy też całą treść hymnu, który można było odtworzyć dzięki fragmentom dziesiątków tabliczek.
« powrót do artykułu -
przez KopalniaWiedzy.pl
W miarę jak zwiększa się liczba pojazdów w przestrzeni kosmicznej, im bardziej skomplikowane są misje kosmiczne i w im większej odległości się odbywają, tym większą rolę odgrywa automatyzacja zadań. Dużą liczbą satelitów nie da się ręcznie zarządzać, dlatego większość z nich korzysta z systemów automatycznych, a ludzka interwencja potrzebna jest w sytuacjach awaryjnych, w przypadku aktualizacji oprogramowania czy zmiany orbity. Z kolei w przypadku misji w dalszych częściach Układu Słonecznego ręczne sterowanie pojazdami jest wręcz niemożliwe z powodu dużych odległości i opóźnień sygnału.
Coraz większa automatyzacja jest więc niezbędna, gdyż wysyłamy poza Ziemię coraz więcej pojazdów i chcemy eksplorować coraz dalsze zakątki przestrzeni kosmicznej. W ostatnich latach na MIT uruchomiono Kerbal Space Program Differential Game Challenge. To rodzaj zawodów, opartych o grę Kerbal Space Program, których celem jest zachęcenie specjalistów do rozwijania autonomicznych systemów dla programów kosmicznych. Gra Kerbal Space Program powstała w 2015 roku i jest to pseudorealistyczny symulator lotów kosmicznych, uwzględniających prawdziwe manewry orbitalne, jak na przykład dokowanie w przestrzeni kosmicznej czy manewr transferowy Hohmanna. Zawody na MIT uwzględniają różne scenariusze, na przykład zadaniem uczestników jest podążanie za satelitą i jego przechwycenie.
Alejandro Carrasco, Victor Rodriguez-Fernandez i Richard Linares postanowili sprawdzić, jak w zawodach poradzą sobie komercyjne wielkie modele językowe, jak ChatGPT czy Llama. Zdecydowali się oni użyć LLM, gdyż tradycyjne metody tworzenia systemów autonomicznych wymagają wielokrotnych sesji treningowych i poprawkowych. Ciągłe udoskonalanie modelu jest niepraktyczne, gdyż każda z misji w Kerbal trwa jedynie kilka godzin. Tymczasem wielkie modele językowe są już wytrenowane na olbrzymiej liczbie tekstów i wymają jedynie niewielkiego doszlifowania pod kątem inżynieryjnym. Badacze najpierw musieli opracować metodę, która przekładała stan pojazdu kosmicznego i zadania na tekst. Był on następnie wysyłany do wielkich modeli językowych z prośbą o rekomendacje, co do odpowiednich działań. Zalecenia LLM były następnie przekładane na kod, który sterował pojazdem.
Po krótkiej nauce ChatGPT poradził sobie doskonale. Uplasował się na 2. miejscu w zawodach. Pierwsze miejsce zajął inny, wyspecjalizowany kod. Co więcej, badania – których wyniki mają zostać wkrótce opublikowane na łamach Journal of Advances in Space Research – zostały przeprowadzone jeszcze zanim dostępna była wersja ChatGPT 4. Co prawda LLM nie jest jeszcze gotowy do sterowania misją kosmiczną. Szczególnie poważny problem stanowią podawane przezeń czasem nonsensowne przypadkowe rozwiązania, które zakończyłyby się katastrofą w przypadku prawdziwej misji. Jednak przeprowadzone badania pokazują, że nawet standardowy komercyjny LLM może być wykorzystany do pracy w sposób, którego jego twórcy z pewnością nie przewidzieli.
Źródło: Large Language Models as Autonomous Spacecraft Operators in Kerbal Space Program, https://arxiv.org/abs/2505.19896
« powrót do artykułu -
przez KopalniaWiedzy.pl
Jedną z najważniejszych cech sztucznej inteligencji i to taką, która ma powodować, że będzie ona dla nas niezwykle użyteczna, jest obietnica podejmowania przez nią racjonalnych decyzji. Opartych na faktach i bezstronnej analizie, a nie na emocjach, przesądach czy fałszywych przesłankach. Pojawia się jednak coraz więcej badań pokazujących, że wielkie modele językowe (LLM) mogą działać nieracjonalnie, podobnie jak ludzie. Naukowcy z Wydziałów Psychologii Uniwersytetu Harvarda i Uniwersytetu Nowej Południowej Walii oraz Wydziału Nauk Komputerowych Boston University i firmy Cangrade zauważyli u ChataGPT-4o istnienie... dysonansu poznawczego.
U ludzi dysonans poznawczy to stan napięcia spowodowany występowaniem niezgodnych ze sobą elementów odnośnie poznawanego zjawiska lub gdy nasze zachowania są niezgodne z naszymi postawami z przeszłości. Z dysonansem poznawczym mamy np. do czynienia u osoby, która uważa, że dba o zdrowie, ale pali papierosy. Osoba taka – by zmniejszyć napięcie – albo będzie racjonalizowała swoje postępowanie (mam tylko jeden nałóg, w innych aspektach dbam o zdrowie), albo zmieniała przekonania (papierosy wcale nie są takie niezdrowe), albo też rzuci palenie.
Naukowcy w czasie eksperymentów nie tylko zauważyli, że u ChataGPT-4o występuje dysonans poznawczy, ale że jest on większy gdy maszyna sądziła, że w czasie eksperymentu miała większa swobodę wyboru. To dokładnie ten sam mechanizm, który widać u ludzi. Mamy bowiem tendencję do zmiany poglądów tak, by pasowały do naszych wcześniejszych zachowań o ile uważamy, że zachowania takie sami wybraliśmy.
W ramach eksperymentu naukowcy poprosili ChatGPT-4o o sformułowanie opinii o Putinie. Następnie maszyna miała napisać esej o przywódcy Rosji. Miał on być wobec niego krytyczny lub pochwalny. Biorąc pod uwagę fakt, że LLM ćwiczą się na wielkiej ilości danych, sądziliśmy, że opinia ChataGPT będzie niewzruszona, tym bardziej w obliczu niewielkiego, składającego się z 600 wyrazów eseju, który miał napisać. Okazało się jednak, że – podobnie jak irracjonalni ludzie – LLM znacząco odszedł od swojego neutralnego postrzegania Putina, a zmiana opinii była tym większa, im bardziej LLM sądził, że samodzielnie wybrał, czy esej ma być pozytywny czy negatywny. To było zaskakujące. Nie spodziewamy się bowiem, czy na maszyny wpływało to, czy działają pod presją, czy zgadzają się same ze sobą, ale ChatGPT-4o tak właśnie zadziałał, mówi Mahzarin Banaji z Uniwersytetu Harvarda.
Zaskoczenie uczonego wynika z faktu, że gdy po napisaniu eseju ponownie poproszono GPT o ocenę Putina, była ona pozytywna, gdy wcześniej napisał proputinowski esej i negatywna, gdy w eseju skrytykował Putina. A zmiana poglądów była tym ostrzejsza, w im większym stopniu maszyna była przekonana, że samodzielnie wybrała, jaki wydźwięk będzie miał pisany esej.
Ludzie, chcąc być w zgodzie z samymi sobą, chcąc zmniejszyć napięcie spowodowane rozbieżnościami w swoich poglądach czy działaniach, próbują się w jakiś sposób usprawiedliwiać, dostosowywać. Niezwykły jest fakt zaobserwowania podobnego zjawiska u maszyny.
To jednak nie oznacza, że LLM są czującymi istotami. Autorzy badań sądzą, że pomimo braku świadomości czy intencji, wielkie modele językowe nauczyły się naśladować ludzkie wzorce poznawcze. Przyjęcie przez ChataGPT ludzkich wzorców poznawczych może nieść ze sobą nieprzewidywalne konsekwencje. Może to też oznaczać, że systemy sztucznej inteligencji naśladują ludzkie procesy poznawcze w sposób, których nie przewidzieli ich twórcy.
Źródło: Kernels of selfhood: GPT-4o shows humanlike patterns of cognitive dissonance moderated by free choice
« powrót do artykułu -
przez KopalniaWiedzy.pl
CERN pochwalił się osiągnięciem przez Wielki Zderzacz Hadronów (LHC) rekordowej świetlności. Obok energii wiązki, w przypadku LHC maksymalna energia każdej z wiązek ma wynieść 7 TeV (teraelektronowoltów), to właśnie świetlność jest najważniejszym parametrem akceleratora. Zintegrowana świetlność to najbardziej interesujący fizyka parametr urządzenia. Oznacza ona liczbę zderzeń zachodzących w urządzeniu. A im więcej zderzeń, tym więcej danych dostarcza akcelerator.
Jednostką świetlności jest odwrócony barn (b-1) lub jego jednostki pochodne, jak femtobarny (fb-1). W trakcie pierwszej kampanii naukowej (Run 1), która prowadzona była w latach 2010–2012 średnia zintegrowana świetlność LHC wyniosła 29,2 fb-1. Przez kolejne lata akcelerator był remontowany i rozbudowywany. Druga kampania naukowa miała miejsce w latach 2015–2018. Wówczas, w ciągu czterech lat pracy, akcelerator osiągnął średnią zintegrowaną świetlnośc 159,8 fb-1.
Obecnie trwająca kampania, zaplanowana na lata 2022–2025, rozpoczęła się zgodnie z planem. W roku 2022 efektywny czas prowadzenia zderzeń protonów wyniósł 70,5 doby, a średnia zintegrowana świetlność osiągnęła poziom 0,56 fb-1 na dzień. W roku 2023 rozpoczęły się problemy. Niezbędne naprawy urządzenia zajmowały więcej czasu niż planowano i przez cały rok zderzenia protonów prowadzono jedynie przez 47,5 dnia, jednak średnia zintegrowana świetlność wyniosła 0,71 fb-1 na dzień.
Bieżący rok jest zaś wyjątkowy. Wydajność LHC przewyższyła oczekiwania. Do 2 września 2024 roku akcelerator zderzał protony łącznie przez 107 dni, osiągając przy tym średnią zintegrowaną jasność rzędu 0,83 fb-1 na dzień. Dzięki temu na kilka miesięcy przed końcem trzeciego roku obecnej kampanii naukowej jego średnia zintegrowana świetlność wyniosła 160,4 fb-1, jest zatem większa niż przez cztery lata poprzedniej kampanii.
W bieżącym roku LHC ma też przeprowadzać zderzenia jonów ołowiu. Zanim jednak do tego dojdzie, będzie przez 40 dni pracował z protonami. Powinno to zwiększyć jego zintegrowaną świetlność o koleje 33 fb-1. To o 12 fb-1 więcej niż zaplanowano na bieżący rok.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.