Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Programowanie przez człowieka powoli odchodzi do lamusa?

Rekomendowane odpowiedzi

W niedawno opublikowanym wywiadzie Mark Zuckerberg stwierdził, że prawdopodobnie jeszcze w bieżącym roku firma Meta (właściciel Facebooka), podobnie jak inne wielkie firmy, będzie dysponowała systemem sztuczne inteligencji zdolnym do programowania na poziomie średnio doświadczonego inżyniera (mid-level engineer).

Początkowo wdrożenie takich systemów będzie bardzo kosztowne i będą one musiały zyskać na wydajności, jednak z czasem dojdziemy to momentu, w którym bardzo duża część kodu używanych przez nas aplikacji, w tym kodu algorytmów sztucznej inteligencji, nie będzie pisana przez ludzi, a przez sztuczną inteligencję, stwierdził założyciel Facebooka.

Słowa Zuckerberga to tylko jeden z sygnałów, że branżę programistyczną mogą w najbliższym czasie czekać olbrzymie zmiany. Sami programiści z jednej strony tworzą algorytmy sztucznej inteligencji, które w przyszłości mogą ich zastąpić, z drugiej zaś, coraz częściej korzystają z ich pomocy. Jeszcze na początku 2023 roku tylko 10% programistów używało AI do pomocy w programowaniu, pod koniec roku 2023 już 63% firm używało lub wdrażało użycie narzędzi AI pomagających w programowaniu. Pod koniec ubiegłego roku odsetek ten wzrósł do 80%.

Zuckerberg nie jest jedynym wśród wiodących biznesmenów z branży IT, który zapowiada szybkie nadejście olbrzymich zmian. We wrześniu Matt Garman, szef Amazon Web Services, zasugerował, że w ciągu najbliższych 2 lat większość inżynierów oprogramowania przestanie zajmować się programowaniem. Zaś kilka miesięcy wcześniej prezes Nvidii stwierdził, że uczenie się programowania nie jest dobrym pomysłem, gdyż dzięki rozwojowi AI ludzki język staje się najważniejszym językiem programowania.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Napisano (edytowane)

Dla porównania głos sceptyka: https://www.youtube.com/watch?v=0KmbDSvOjJ0

Niezależnie od tego, kto ma rację (a może się okazać także, że żaden, albo obaj tylko częściowo), za jakiś czas będziemy mogli się pośmiać, że nic nie zmienia się tak szybko jak przyszłość :) 

P.S. Szef Nvidii od jakiegoś czasu zdaje się już nie powtarza, tego co mówił dawniej?

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Po pierwsze primo, gość chyba jednak nie do końca ogarnia na czym to polega.

Po drugie primo, nie do końca ogarnia skalę postępu w przeciągu ostatnich 2 lat. Mało tego, właściwie nawet roku.

Po trzecie, dodatkowo oprócz zamkniętych modeli SOTA wychodzi sporo modeli (czasami tylko prawie) open source, darmowych, które w ten czy inny sposób będzie mógł przetrenować.

Po czwarte, o ile sytuacja, w które nie będzie kodu wcale, a AI będzie wykonywało całą pracę (jak computer use) jest jeszcze pewnie daleko, to sytuacja, gdzie AI generuje zaawansowany kod, który wymaga niewiele lub nie wymaga uwagi wcale JEST coraz bliżej. I nie, nie tak jak w latach 90 tych, i nie po 2000. W ciągu 2 lat przeszliśmy dekady postępu, który był wcześniej. Więc programiści, w tym i ja, stracimy w większości pracę.

Dość powiedzieć, że 2 lata temu prompt engineer miał być nowym zawodem przyszłości... i to już jest właściwie nieaktualne.

Jedyne co będzie hamować, na razie, postęp w tej kwestii to koszty, wnioskowanie i iteracyjne dochodzenie do rezultatu zużywa ogromne ilości tokenów, które kosztują. Lub prądu własnej infrastruktury (plus jej koszty). Ewentualnie ograniczenia prawne itp. Ale już jesteśmy na równi pochyłej i nie ma odwrotu.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 21.01.2025 o 13:26, darekp napisał:

Dla porównania głos sceptyka: https://www.youtube.com/watch?v=0KmbDSvOjJ0

Nie sceptyka, tylko tendencyjnie bagatelizującego AI, bo pan szkolenia z podstaw oprogramowania prowadzi, do czego na końcu zachęca.

12 godzin temu, radar napisał:

Więc programiści, w tym i ja, stracimy w większości pracę.

Wow, jak już Senior tak to widzi, to ewidentny przykład urodzenia potwora, który pożarł własnych rodziców.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

To ja was dzieci pogodzę. Sytuacja jest prosta. Klasyczni programiści oczywiście będą zbędni, ale nauka programowania będzie zawsze istnieć. Do końca świata. Wbijcie sobie to do głów. Zatrudniony programista będzie zawsze musiał znać zasady programowania co najmniej z dwóch powodów:

1. musi operować precyzyjnym językiem, żeby dogadać się z maszyną. Język naturalny ze swojej natury JEST NIEPRECYZYJNY, a przez to człowiek może inaczej rozumieć coś co inny człowiek czy maszyna. Gdy chodzi o jakieś tam zakupy, to sprawy nie ma. ale gdy wchodzą w grę specjalistyczne zagadnienia, to już inna para kaloszy. I to już się zaczyna na poziomie terminologii. Laik powie coś swoimi słowami, ale specjalista wie, że trzeba to powiedzieć inaczej, aby dostać to czego się wymaga.

2. to działa też w drugą stronę - muszą rozumieć na pewnym poziomie szczegółowości co maszyna robi, bo jeśli maszyna opowie to w języku naturalnym, to człowiek niewiele z tego zrozumie, jeśli sam tego nie użyje. A jeśli nie rozumie, to jedynie co mu pozostało, to testować na wszystkie możliwe sposoby. To się jednak okaże skrajnie nieefektywne, bo błędów będzie za dużo i będą się piętrzyć. Dlatego potrzebny jest programista, który zrozumie, co komputer robi.

To jest analogiczne do sytuacji naukowców wynajmowanych przez firmy, by tworzyli jakieś programy. Kiedyś zatrudniano matematyków do obliczeń, później matematycy stali się zbędni w tych firmach, ale nie znaczy to, że zatrudnieni naukowcy nie musieli znać się na matematyce. Nie musieli tak bardzo się znać, skoro program im sam wyliczy co tam chcą, ale już kiedy np. dostawali niezrozumiałe wyniki, to musieli wrócić do podstaw, tzn. jaką metodą komputer oblicza równania. Muszą wiedzieć, jakie założenia stoją za daną metodą. Wymaga to specjalistycznej wiedzy. 

Programowanie będzie się rozwijać na tej samej zasadzie. Żeby naprawdę dogadać się z komputerem, trzeba już teraz operować dokładnym językiem, żeby nie popaść we frustrację. Ale język naturalny to wyklucza. I to jest problem. I powtarzam - dopóki zadania są proste, to język naturalny wystarczy. Ale im bardziej specjalistyczna dziedzina, im więcej szczegółów, tym przestaje być efektywny. 

Weźmy taki przykład. Chcę zrobić program albo stronę www i mówię maszynie: zrób to, to, to, ale to pod warunkiem, że tamto, a tamto pod warunkiem, że tamto. Kiedy komputer zrobi to co chciałem, dociera do mnie, że nie zauważyłem jednego założenia, którego brak powoduje niepożądany efekt. Więc musze mu dołożyć. Ale zobaczyłem to dopiero, gdy zobaczyłem, że jest źle. Dopóki projekt jest w miarę liniowy i prosty, to można tak się bawić, ale w pewnym momencie złożoność doprowadza do nakładających się błędów, których wcześniej nie zauważyliśmy, a one się ciągle piętrzą wraz ze wzrostem złożoności. W ten sposób popadniemy we frustrację, bo się okaże szybciej byłoby samemu większość zaprojektować...

A to dlatego, że gdy sami zapisujemy coś, uruchamiamy automatycznie myślenie i rozumienie. Planowanie, organizowanie, dostrzeganie kolejnych niuansów. A szczegóły, którymi nie musimy się specjalnie zajmować, zostawiamy właśnie maszynie.

Krótko mówiąc, język naturalny jest dla ludzi, nie dla maszyn. Klasyczni programiści znikną, ale będą potrzebni coraz bardziej wyspecjalizowani - w zasadzie o tej samej wiedzy co "klasyczni", ale dodatkowo współpracujący z AI. Być może aby móc swobodnie porozumiewać się z AI w sensie, ze zrobi wszystko co mu powiemy, będzie potrzebny język pośredni - naturalny, ale taki, gdzie każde słowo ma jedno, określone znaczenie i nie można używać synonimów, bo takie nie będą istnieć. Tak samo złożenie słów musi miec określony porządek, a nie jak w polskim, gdzie można przestawiać słowa w zdaniu i każdy i tak rozumie o co chodzi. Będzie to więc język specjalistyczny, wymagający wiedzy. Teraz raczej te prompty to jest zwyczajny język naturalny, więc to się dopiero rodzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 godzinę temu, Antylogik napisał:

o ja was dzieci pogodzę. Sytuacja jest prosta. Klasyczni programiści oczywiście będą zbędni, ale nauka programowania będzie zawsze istnieć. Do końca świata. Wbijcie sobie to do głów. Zatrudniony programista będzie zawsze musiał znać zasady programowania

Ale to truizm.

Przeoczyłeś istotne wyrażenie przyimkowe:

18 godzin temu, radar napisał:

Więc programiści, w tym i ja, stracimy w większości pracę.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
24 minuty temu, KONTO USUNIĘTE napisał:

Przeoczyłeś istotne wyrażenie przyimkowe:

Gdzie pominąłem, po prostu nie doczytałeś. Musi rozwijać kompetencje. AI zabierze pracę prostym programistom, ale da innym o dodatkowych kompetencjach. Naiwnością jest twierdzenie, że przeciętny przedsiębiorca sam wszystko zrobi dzięki AI, a w przypadku większej firmy, że wystarczy jeden programista, który dzięki AI wszystko zrobi na czas. Pokazałem powyżej, że tak nie będzie. Bo jeśli taki programista będzie musiał operować specjalistycznym językiem pseudo-naturalnym, to nadal zrobienie złożonych rzeczy zajmie kupę czasu. Bedą potrzebni kolejni programiści, np. do testowania. Firma może zwolnić zwykłych programistów, ale za te pieniądze zatrudni nowych, którzy będą zajmowac się kolejnymi częściami projektu / programu. Praca z AI, jak każda inna, będzie podlegać normalnie podziałowi pracy, czyli specjalizacji, a to wynika z tego, że programy są coraz bardziej skomplikowane, a nie coraz mniej. Tak jak dziedziny naukowe coraz bardziej sie specjalizują i dziś już jeden matematyk zupełnie nie rozumie drugiego matematyka, bo zajmuje się inną teorią, a niby ta sama dziedzina. I tak samo w biznesie i programowaniu.

Przyszła mi jeszcze taka myśl do głowy. Ludziom często się coś wydaje, bo mają wyobraźnie i używają heurystyk. Mają więc w wyobraźni robota, który wszystko za człowieka samodzielnie. Dopiero gdy przychodzi co do czego, okazuje się, że to nie jest takie proste. Wyobrazić i pomyśleć ogólnie jest łatwo, ale opowiedzieć to - krok po kroku - okazuje się, że brakuje im słów, nie potrafią precyzyjnie tego nazwać, albo wymaga od nich zbyt dużego wysiłku. A specjaliści potrafią. Bo się tymi szczegółami zajmują. Terminologia jest ważna. Język naturalny to praktycznie jej przeciwieństwo.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Skoro swarliwy styknął ze swarliwcem, to grożba konfliktu o kropkę nad i wisi nad tym wątkiem.

Spoko.

Będzie redukcja w branży? Będzie. 

Obejdzie się bez programistów? Nie obejdzie.

Będą musieli przeprogramować swoje kompetencje? Będą.

Streściłem Twoje wywody prawdy oczywistej? .............

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Pomiędzy lipcem 2021 roku a lutym 2023 roku 12 centrów mammograficznych w Niemczech brało udział w programie, w którym badania mammograficzne były wspomagane przez system sztucznej inteligencji. Radiolodzy sami decydowali, kiedy wykorzystać AI, a kiedy wykonać badania tradycyjnymi metodami. W tym czasie we wspomnianych centrach 119 radiologów przebadało 463 094 kobiety w wieku 50–69 lat. W przypadku 260 739 z nich diagnoza była wspomagana przez sztuczną inteligencję, pozostała część stanowiła grupę kontrolną.
      W grupie, w której badania wspomagane były przez AI, odsetek wykrytych nowotworów piersi wyniósł 0,67%, podczas gdy w grupie badanej tradycyjnymi metodami było to 0,57%. Ponadto tam, gdzie do badania użyto AI odsetek pań poddanych pogłębionej diagnostyce wyniósł 3,74%, a w grupie kontrolnej – 3,83%. Wartość predykcyjna dodatnia (PPV) dla grupy badanej przez AI wynosiła 17,9%, dla grupy kontrolnej – 14,9%. PPV pokazuje tę część podejrzanych wyników mammografii, które w pogłębionej diagnostyce rzeczywiście reprezentują chorobę.
      Najważniejszym wskaźnikiem przydatności algorytmu sztucznej inteligencji w badaniach mammograficznych jest fakt, że zwiększył on wykrywalność choroby bez zwiększania potrzeby przeprowadzenia pogłębionej diagnostyki. To już kolejne badania, które pokazały, że algorytmy sztucznej inteligencji rzeczywiście wspomagają pracę radiologów i mogą ratować życie kobiet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W latach 1967–1978 roku Włoska Wyprawa Archeologiczna ISMEO prowadziła pierwsze badania w Shahr-i Sokhta (SiS) w Iranie. Szybko okazało się, że miasto składało się z trzech obszarów: mieszkalnego, cmentarza i przemysłowego. Jego największy rozkwit przypadł na połowę III tysiąclecia przed naszą erą, gdy obszar mieszkalny zajmował 80 hektarów. Miasto uznano za jeden z najważniejszych ośrodków na wschodzie Wyżyny Irańskiej. Zidentyfikowano tam cztery okresy kulturowe podzielone na 10 faz konstrukcyjnych, które datowano na od 2. połowy IV tysiąclecia do połowy III tysiąclecia. W południowej części miasta znaleziono duży cmentarz o powierzchni około 20 hektarów, a w jednym z grobów planszę do gry i bierki.
      Datowanie wykazało, że gra pochodzi z lat 2600–2700 p.n.e. W grobie nie znaleziono żadnej innej planszy, założono więc, że wszystkie bierki pochodzą z tej jednej gry i że jest ona kompletna. Planszę do gry złożono w pobliżu głowy zmarłej osoby, w pobliżu zaś stał koszyk z bierkami i kostkami. Plansza jest podobna do wcześniej znajdowanych plansz, ale istnieją między nimi też duże różnice. Kształt planszy z SiS jest niezwykle podobny do słynnej Królewskiej Gry z Ur, jednak gra z SiS ma więcej bierek i nie ma na niej rozety, która wydaje się bardzo ważnym elementem tego typu gier, znanych pod zbiorową nazwą „gier na 20 kwadratach”.
      Z Bliskiego Wschodu i spoza niego znamy ponad 100 plansz, w pewnej mierze do siebie podobnych, a w wielu aspektach różnych, które klasyfikowane są pod tą nazwą. Znaleziono je w Turkmenistanie czy Indiach. Podobnej gry używali Egipcjanie ok. 1580 roku p.n.e. Prawdopodobnie zapoznali się z nią za pośrednictwem Hyksosów. Podobne gry były popularne przez około 2000 lat.
      Autorzy nowych badań zaprzęgli algorytmy sztucznej inteligencji, do pracy nad odgadnięciem zasad gry. Wykorzystanie metod obliczeniowych do badań starożytnych gier, pozwala na symulowanie tysięcy możliwych zestawów zasad i wybranie tych najbardziej prawdopodobnych czy pasujących do gry i bierek.
      Gra z Shahr-i Sokhta wydaje się grą strategiczną – rodzajem wyścigu – podobną do Królewskiej Gry z Ur, ale bardziej złożoną. Zdaniem naukowców, mamy tutaj do czynienia z grą 2-osobową, a celem gracza jest przesunięcie przez pola planszy wszystkich 10 swoich bierek, zanim zrobi to przeciwnik. W grze gracze posługują się kostką i mogą wykorzystywać swoje bierki zarówno do jak najszybszego dotarcia do celu, jak i do blokowania ruchów przeciwnika. Badacze sugerują, że dodatkowe bierki, dzięki którym gra różni się np. od gry z Ur, dodawały jej złożoności. Widzimy wśród nich na przykład rozety, podobne do rozet, które w grze w Ur narysowane są na planszy. W przeciwieństwie do Królewskiej Gry z Ur, w przypadku gry z SiS losowość odgrywa mniejszą rolę, a większa rolę gra strategia.
      Po określeniu najbardziej prawdopodobnych zasad, grę z SIS przetestowało 50 doświadczonych graczy, który ocenili ją i porównali z Królewską Grą z Ur. Przyznali, że gra z SiS jest bardziej wymagająca pod względem strategii niż gra z Ur.
      Szczegóły badań zostały opublikowane na łamach Journal of the British Institute of Persian Studies. Gra z Shahr-i Sokhta została znaleziona w bogato wyposażonym grobie, ale nie był to grób królewski, co wskazuje, że była bardziej dostępna niż gra dla najwyższej elity.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Troje naukowców – Elizabeth A Barnes z Colorado State University, Noah S Diffenbaugh z Uniwersytetu Stanforda oraz Sonia I Seneviratne z EHT Zurich – zebrało dane z 10 modeli klimatycznych i przeanalizowało je za pomocą algorytmów sztucznej inteligencji. Na łamach Environmental Research Letters poinformowali, że z tak przeprowadzonych badań wynika, iż globalne temperatury będą rosły szybciej niż zakładano, a jeszcze za naszego życia niektóre regiony doświadczą średniego wzrostu temperatury przekraczającego 3 stopnie Celsjusza.
      Autorzy badań stwierdzili, że w 34 ze zdefiniowanych przez IPCC 43 regionów lądowych Ziemi średni wzrost temperatury przekroczy 1,5 stopnia Celsjusza do roku 2040. W 31 z tych 34 regionów należy spodziewać się wzrostu o 2 stopnie do roku 2040. Natomiast do roku 2060 w 26 regionach średnia temperatura wzrośnie o ponad 3 stopnie.
      Regionami narażonymi na szybszy niż przeciętny wzrost temperatur są południowa Azja, region Morza Śródziemnego, Europa Środkowa i niektóre części Afryki Subsaharyjskiej.
      Profesor Diffenbaugh zauważył, że ważne jest, by nie skupiać się tylko na temperaturach globalnych, ale zwracać uwagę na temperatury lokalne i regionalne. Badając, jak rośnie temperatura w poszczególnych regionach, będziemy mogli określić, kiedy i jakie skutki będą odczuwalne dla społeczności i ekosystemów tam żyjących. Problem w tym, że regionalne zmiany klimatyczne są trudniejsze do przewidzenia. Dzieje się tak dlatego, że zjawiska klimatyczne są bardziej chaotyczne w mniejszej skali oraz dlatego, że trudno powiedzieć, jak dany obszar będzie reagował na ocieplenie w skali całej planety.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      „Ala ma kota” to pierwsze i – prawdę mówiąc – jedyne zdanie, jakie pamiętam z elementarza. I właśnie to zdanie, które kolejne pokolenia poznają dzięki legendarnemu „Elementarzowi” Falskiego prowadzi nas przez „Prosto o AI. Jak działa i myśli sztuczna inteligencja” autorstwa Roberta Trypuza. Niewielki format książeczki sugeruje, że znajdziemy w niej niezbyt wiele informacji. Nic bardziej mylnego. To elementarz, skoncentrowana skarbnica wiedzy o technologii, która już teraz w znaczącym stopniu zmienia ludzkie życie.
      Robert Trypuz jest praktykiem. To specjalista w dziedzinie Semnatic Web i inżynierii danych. Doktorat z informatyki i telekomunikacji uzyskał na Uniwersytecie w Trydencie, jest też doktorem habilitowanym filozofii z KUL. I, co widać w książce, jest entuzjastą sztucznej inteligencji, o której potrafi bardzo ciekawie pisać.
      Z „Prosto o AI” dowiemy się na przykład jak wygląda programowanie AI w porównaniu z programowaniem klasycznym, jak AI rozumie tekst, czym jest osadzanie słów oraz jakie rewolucyjne podejście pozwoliło na skonstruowanie dużych modeli językowych, w tym najbardziej znanego z nich ChataGPT. Przeczytamy o sieciach konwolucyjnych w medycynie, uczeniu ze wzmacnianiem, autor – pamiętajmy, że jest również filozofem – opisuje, czym jest sztuczna wolna wola, zatem czy AI ma wolną wolę.
      W ostatnim zaś odcinku znajdziemy rozważania na temat wpływu sztucznej inteligencji na proces edukacji. Nie ma w tym zdaniu pomyłki, odcinku, a nie rozdziale. Historia jest mianowicie taka, że treści zawarte w tej książce nie zostały napisane do tej książki. Pisałem je jako scenariusze odcinków programu, który nigdy nie powstał, pisze Robert Trypuz we wstępie. I może właśnie pochodzenie tekstu, który zamienił się w książkę, powoduje, że tak łatwo można przyswoić zawarte w niej informacje.
      Dla kogo jest zatem „Prosto o AI”? Dla każdego z nas, kto nigdy bardziej nie zagłębił się w tajniki sztucznej inteligencji. Tutaj znajdzie jej podstawy wyjaśnione w prosty sposób. Większości czytelników pogłębienie wiedzy do tego stopnia w zupełności wystarczy, jakąś zaś część zachęci, by sięgnąć po kolejne, bardziej szczegółowe i specjalistyczne pozycje. Ja czytałem książkę Trypuza z olbrzymim zainteresowaniem i przyjemnością.
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...