Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

IBM przygotowuje się do zastąpienia części miejsc pracy sztuczną inteligencją

Rekomendowane odpowiedzi

Dyrektor wykonawczy IBM-a Arvind Krishna poinformował, że jego firma przestanie rekrutować ludzi na stanowiska, na których w najbliższych latach mogą być oni zastąpieni przez sztuczną inteligencję. W wywiadzie dla Bloomberga menedżer stwierdził, że rekrutacja na stanowiska biurowe, na przykład w dziale HR, może zostać znacznie spowolniona lub całkowicie wstrzymana. Obecnie na tego typu stanowiskach – gdzie nie ma kontaktu z klientem – IBM zatrudnia 26 000 osób.

Zdaniem Krishny, w ciągu najbliższych 5 lat sztuczna inteligencja może zastąpić 30% z nich. To oznacza, że w samym tylko IBM-ie maszyny zastąpią 7800 osób. Stąd też pomysł na spowolnienie lub wstrzymanie rekrutacji, dzięki czemu uniknie się zwalniania ludzi.

Krishna mówi, że takie zadania, jak pisanie listów referencyjnych czy przesuwanie pracowników pomiędzy poszczególnymi wydziałami, prawdopodobnie zostaną całkowicie zautomatyzowane. Inne zaś, takie jak analizy produktywności czy struktury zatrudnienia, ludzie będą wykonywali jeszcze przez kolejną dekadę.

Błękitny Gigant zatrudnia obecnie około 260 000 osób i wciąż zwiększa zatrudnienie. Potrzebuje pracowników przede wszystkim do rozwoju oprogramowania oraz osób pracujących z klientem. Na początku bieżącego roku firma ogłosiła, że planuje zwolnienia, które w sumie obejmą 5000 osób, ale jednocześnie w I kwartale zatrudniła 7000 osób.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No, w końcu. Ale i tak czekam na czasy, jak sobie wydrukuję robota, który mi naprawi kibel, bo elyty hydraulików za dużo kasy żądają za max 2 godziny roboty. Dopóki tego nie będzie, to taki robol będzie zaraz więcej żądał od zwykłego programisty, którego nikt już nie chce.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja czekam na razie na AI które faktycznie myśli a nie tylko tworzy odpowiedzi które udają inteligentne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Rekonstrukcja zasiedlania Balearów przez ludzi nie jest łatwa ze względu na skromny materiał archeologiczny. Dotychczas przyjmowano, że pierwsi ludzie pojawili się na wyspach około 4400 lat temu. Teraz jednak naukowcy z University of South Florida, rumuńskiego Uniwersytetu Babeșa i Bolyaia, Uniwersytetu Harvarda oraz Universitat de les Illes Balears stwierdzili – na podstawie badań zatopionego kamiennego mostu – że ludzie mieszkali na Balearach co najmniej 5600, a może nawet wcześniej niż 6000 lat temu.
      Majorka, największa wyspa Balearów, była jedną z najpóźniej zasiedlonych wysp. Od dawna jednak trwają spory odnośnie daty przybycia ludzi na Majorkę. Już 40 lat temu datowano fragment kości, uznany za ludzki, na 7000 lat, a dwa lata później jedno ze znalezisk, mające świadczyć o obecności ludzi, datowano na 9000 lat. Jednak specjaliści wyrażali wątpliwości odnośnie tych prac. Sugerowali, że fragment kości należał do bydła, a drugi z datowanych przedmiotów pochodzi z warstwy, która jest źle zachowana, a jej istnienia nie można jednoznacznie powiązać z obecnością człowieka.
      Bogdan P. Onac i jego zespół postanowili rozwiązać kwestię obecności człowieka na Majorce na podstawie... różnic w poziomie morza. Przez cztery lata gromadzili niezbędne dane, badając poziom morza na innych wyspach oraz ślady, jakie pozostawił wzrost poziomu wód. Posłużyło im to do badań zatopionego kamiennego mostu, który znajduje się w Jaskini Genovesa na Majorce. Naukowcy przyjrzeli się jasno zabarwionemu pasowi widocznemu na kamieniach oraz warstwy kalcytu, który osadzał się na kamieniach. Warstwy te, nacieki krasowe, powstają w jaskiniach w wyniku wytrącania się substancji mineralnej z roztworu wodnego.
      Naukowcy zrekonstruowali lokalny poziom morza w przeszłości, przeanalizowali nacieki oraz jasny pas na skałach tworzących most i stwierdzili, że most mógł zostać zbudowany nawet 6000 lat temu. Jasny pas oraz nacieki powstały, gdy poziom morza był stały. To wskazuje, że most powstał co najmniej 5600 lat temu. Był używany prawdopodobnie przez 400-500 lat zanim wzrost poziomu morza nie spowodował, że znalazł się pod wodą.
      Naukowcy znaleźli też kości wymarłego gatunku kozy Myotragus balearicus oraz ceramikę. Na tej podstawie wysunęli przypuszczenie, że ludzie mieszkali w jaskini w pobliżu wejścia do niej, a most nad znajdującym się w jaskini jeziorem zbudowali, by dostać się na drugą stronę. Potrzeba, dla której chcieli przekroczyć jezioro, nie jest jasna. Być może chronili się tam w razie niebezpieczeństwa, może było tam miejsce odbywania rytuałów lub też schowek na żywność, zapewniający niższą temperaturę niż okolice wejścia dla jaskini, mówi Onac. Uczony przypomina, że na Majorce znaleziono dotychczas pozostałości po niewielkich kamiennych domach oraz innych kamiennych strukturach, datowane na 2000–4500 lat temu. Być może most był prekursorem bardziej złożonych budowli.
      Naukowcy wciąż nie wiedzą, dlaczego Majorka została zasiedlona później niż inne duże wyspy. Być może zdecydował o tym jej niegościnny klimat, ziemia niezbyt nadająca się do uprawy oraz brak – poza rybami i wspomnianym gatunkiem kozy – zasobów naturalnych. Inne wyspy więcej oferowały osadnikom.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wielkie modele językowe (LLM) – takie jak osławiony ChatGPT – nie są w stanie samodzielnie się uczyć i nabierać nowych umiejętności, a tym samym nie stanowią egzystencjalnego zagrożenia dla ludzkości, uważają autorzy badań opublikowanych w ramach 62nd Annual Meeting of the Association for Computational Linguistics, głównej międzynarodowej konferencji dotyczącej komputerowego przetwarzania języków naturalnych.
      Naukowcy z Uniwersytetu Technicznego w Darmstadt i Uniwersytetu w Bath stwierdzają, że LLM potrafią uczyć się, jeśli zostaną odpowiednio poinstruowane. To zaś oznacza, że można je w pełni kontrolować, przewidzieć ich działania, a tym samym są dla nas bezpieczne. Bezpieczeństwo ludzkości nie jest więc powodem, dla którego możemy się ich obawiać. Chociaż, jak zauważają badacze, wciąż można je wykorzystać w sposób niepożądany.
      W miarę rozwoju modele te będą prawdopodobnie w stanie udzielać coraz bardziej złożonych odpowiedzi i posługiwać się coraz doskonalszym językiem, ale jest wysoce nieprawdopodobne, by nabyły umiejętności złożonego rozumowania. Co więcej, jak stwierdza doktor Harish Tayyar Madabushi, jeden z autorów badań, dyskusja o egzystencjalnych zagrożeniach ze strony LLM odwraca naszą uwagę od rzeczywistych problemów i zagrożeń z nimi związanych.
      Uczeni z Wielkiej Brytanii i Niemiec przeprowadzili serię eksperymentów, w ramach których badali zdolność LLM do radzenia sobie z zadaniami, z którymi wcześniej nigdy się nie spotkały. Ilustracją problemu może być na przykład fakt, że od LLM można uzyskać odpowiedzi dotyczące sytuacji społecznej, mimo że modele nigdy nie były ćwiczone w takich odpowiedziach, ani zaprogramowane do ich udzielania. Badacze wykazali jednak, że nie nabywają one w żaden tajemny sposób odpowiedniej wiedzy, a korzystają ze znanych wbudowanych mechanizmów tworzenia odpowiedzi na podstawie analizy niewielkiej liczby znanych im przykładów.
      Tysiące eksperymentów, za pomocą których brytyjsko-niemiecki zespół przebadał LLM wykazało, że zarówno wszystkie ich umiejętności, jak i wszystkie ograniczenia, można wyjaśnić zdolnością do przetwarzania instrukcji, rozumienia języka naturalnego oraz umiejętnościom odpowiedniego wykorzystania pamięci.
      Obawiano się, że w miarę, jak modele te stają się coraz większe, będą w stanie odpowiadać na pytania, których obecnie sobie nawet nie wyobrażamy, co może doprowadzić do sytuacji, ze nabiorą niebezpiecznych dla nas umiejętności rozumowania i planowania. Nasze badania wykazały, że strach, iż modele te zrobią coś niespodziewanego, innowacyjnego i niebezpiecznego jest całkowicie bezpodstawny, dodaje Madabushi.
      Główna autorka badań, profesor Iryna Gurevych wyjaśnia, że wyniki badań nie oznaczają, iż AI w ogóle nie stanowi zagrożenia. Wykazaliśmy, że domniemane pojawienie się zdolności do złożonego myślenia powiązanych ze specyficznymi zagrożeniami nie jest wsparte dowodami i możemy bardzo dobrze kontrolować proces uczenia się LLM. Przyszłe badania powinny zatem koncentrować się na innych ryzykach stwarzanych przez wielkie modele językowe, takie jak możliwość wykorzystania ich do tworzenia fałszywych informacji.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia.
      Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii.
      Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych.
      W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy.
      Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler.
      Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pojawienie się pierwszych miast doprowadziło do znacznego zwiększenia przypadków przemocy pomiędzy ich mieszkańcami, informują naukowcy z Uniwersytetu Warszawskiego, Uniwersytetu w Tybindze i Uniwersytetu w Barcelonie. Arkadiusz Sołtysiak, Joerg Baten i Giacomo Benati przeanalizowali ponad 3500 czaszek z Bliskiego Wschodu, pochodzących z okresu od 12 000 do 400 lat przed naszą erą. Szukali na nich śladów celowych urazów. I wykazali, że gdy w Mezopotamii i na Bliskim Wschodzie zaczęły powstawać pierwsze miasta, znacząco zwiększyła się liczba przypadków przemocy. Tysiące lat później, we wczesnej i środkowej epoce brązu, dzięki wprowadzaniu praw, rozwojowi kultury i handlu, przemoc była coraz mniej powszechna.
      Uczeni przyjrzeli się 3539 szkieletom z obszaru obejmującego dzisiejszy Iran, Irak, Jordanię, Syrię, Liban, Izrael i Turcję. Badane szkielety należały do osób, które zmarły pomiędzy 12 000 a 400 lat przed Chrystusem. To okres wielkich zmian w dziejach ludzkości. Pojawiło się rolnictwo, ludzie zaczęli porzucać koczowniczy tryb życia, z czasem powstawały pierwsze miasta i państwa. Poziom przemocy międzyludzkiej, na przykład morderstw, osiągnął swój szczyt pomiędzy rokiem 4500 a 3300 p.n.e., a następnie spadał przez kolejnych 2000 lat, mówi Joerg Baten z Uniwersytetu w Tybindze. Później, wraz z nadejściem kryzysu klimatycznego, rosnącymi nierównościami i upadkiem ważnych państw w okresie późnej epoki brązu i wczesnej epoki żelaza (1500–400 p.n.e.) ponownie obserwujemy wzrost przypadków przemocy, dodaje uczony.
      Dotychczas w nauce dominowały dwa poglądy na temat historii przemocy wśród H. sapiens. Wedle jednego z nich od czasów łowców-zbieraczy ma miejsce stopniowe zmniejszanie się przemocy wśród ludzi. Wedle drugiego, to rozwój miast i scentralizowanych państw napędza wojny i masową przemoc, z którymi ciągle mamy do czynienia. Tymczasem badania naukowców z Warszawy, Tybingi i Barcelony pokazują, że obraz ten jest bardziej zróżnicowany.
      Sołtysiak, Baten i Benati uważają, że za wzrost przemocy w 5. i 4. tysiącleciu przed naszą erą odpowiada gromadzenie się ludzi w pierwszych słabo zorganizowanych miastach. Przemoc zaczęła się zmniejszać, gdy powstały systemy prawne, centralnie kontrolowane armie oraz instytucje religijne. Do jej zmniejszenia przyczynił się też handel, którego rozwój pomagał kompensował niedobory występujące na konkretnych obszarach.
      Jednak około 1200 roku p.n.e. doszło do upadku wielu państw, na co nałożyły się też zmiany klimatyczne. To doprowadziło do niedoborów, zwiększenia nierówności oraz fal migracji, co z kolei miało swoje konsekwencje w postaci ponownego wzrostu liczby aktów przemocy pomiędzy ludźmi.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Journal of Medical Internet Research ukazał się opis eksperymentu, w ramach którego ChatGPT miał stawiać diagnozy medyczne i proponować dalsze działania na podstawie opisanych objawów. Algorytm poradził sobie naprawdę nieźle. Udzielił prawidłowych odpowiedzi w 71,7% przypadków. Najlepiej wypadł przy ostatecznych diagnozach, gdzie trafność wyniosła 76,9%, najgorzej poradził sobie z diagnozą różnicową. Tutaj jego trafność spadła do 60,3%.
      Autorzy eksperymentu wykorzystali 36 fikcyjnych przypadków klinicznych opisanych w Merck Manual. Przypadki te są wykorzystywane podczas szkoleń lekarzy i innego personelu medycznego. Naukowcy z Harvard Medical School, Brigham and Women'a Hospital oraz Mass General Brigham wprowadzili do ChataGPT opisy tych przypadków, a następnie zadawali maszynie pytanie, dołączone w podręczniku do każdego z przypadków. Wykluczyli z badań pytania dotyczące analizy obrazów, gdyż ChatGPT bazuje na tekście.
      Najpierw sztuczna inteligencja miała za zadanie wymienić wszystkie możliwe diagnozy, jakie można postawić na podstawie każdego z opisów. Następnie poproszono ją, by stwierdziła, jaki dodatkowe badania należy przeprowadzić, później zaś ChatGPT miał postawić ostateczną diagnozę. Na koniec zadaniem komputera było opisanie metod leczenia.
      Średnia trafność odpowiedzi wynosiła 72%, jednak różniła się w zależności od zadania. Sztuczna inteligencja najlepiej wypadła podczas podawania ostatecznej diagnozy, którą stawiała na podstawie początkowego opisu przypadku oraz wyników dodatkowych badań. Trafność odpowiedzi wyniosła tutaj 76,9%. Podobnie, bo z 76-procentową trafnością, ChatGPT podawał dodatkowe informacje medyczne na temat każdego z przypadków. W zadaniach dotyczących zlecenia dodatkowych badań oraz metod leczenia czy opieki, trafność spadała do 69%. Najgorzej maszyna wypadła w diagnozie różnicowej (60,3% trafnych odpowiedzi). Autorzy badań mówią, że nie są tym zaskoczeni, gdyż diagnoza różnicowa jest bardzo trudnym zadaniem. O nią tak naprawdę chodzi podczas nauki w akademiach medycznych i podczas rezydentury, by na podstawie niewielkiej ilości informacji dokonać dobrego rozróżnienia i postawić diagnozę, mówi Marc Succi z Harvard Medical School.
      Być może w przyszłości podobne programy będą pomagały lekarzom. Zapewne nie będzie to ChatGPT, ale rozwijane już systemy wyspecjalizowane właśnie w kwestiach medycznych. Zanim jednak trafią do służby zdrowia powinny przejść standardowe procedury dopuszczenia do użytku, w tym testy kliniczne. Przed nimi zatem jeszcze długa droga.
      Autorzy opisanych badań przyznają, że miały one ograniczenia. Jednym z nich było wykorzystanie fikcyjnych opisów przypadków, a nie rzeczywistych. Innym, niewielka próbka na której testowano ChatGPT. Kolejnym zaś ograniczeniem jest brak informacji o sposobie działania i treningu ChataGPT.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...