Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

W dniu 16.10.2018 o 08:03, mankomaniak napisał:

Niczego nie przyjęła, po prostu tak było dotychczas.

Masz jakieś informacje potwierdzające swoje słowa? Czyli sugerujesz, że to ludzie odrzucali z uwagi na ten termin? Też nie ma żadnych o tym informacji. Zasadniczo brak w artykule nawet informacji o proporcjach zatrudnień/odrzuceń kandydatów z podziałem na płeć. Jedynym podanym faktem jest to, że kobiety rzadziej ubiegały się o stanowiska. Zdajesz się przegapiać także informację o tym, że AI wybrało sobie 50 tysięcy fraz, którym przydzieliło wagi i „woman's” jest tylko jedną z nich. Nie wiemy ile % fraz było związanych z płcią, ani nawet jakie im przydzielono współczynniki. Jest tylko informacja, że temu jednemu AI bezczelnie przydzieliło za mało i o to cała afera. Bardziej „dyskryminowanych” terminów zapewne było więcej, ale kogo to obchodzi…

W dniu 16.10.2018 o 08:03, mankomaniak napisał:

Już sam fakt, że portal, którego jesteś administratorem nazwał artykuł "Sztuczny rekruter Amazona dyskryminował kobiety", a ty twierdzisz, że wcale nie dyskryminował

Jestem tylko administratorem forum, ale nawet i nie jest to pomysł Redakcji, a tak nazwał artykuł Reuters („Amazon scraps secret AI recruiting tool that showed bias against women”). Nie jestem zobligowany zgadzać się z nikim.

W dniu 16.10.2018 o 08:03, mankomaniak napisał:

Zapewne za chwilę zmienisz tytuł, żeby nie wyszło jak bardzo się w swoich poglądach mylisz.

Oczywiście, już klikam edit i ban. Gdzie te przyciski, ja mu zaraz pokażę. I kto tutaj jest fanatykiem/paranoikiem…

W dniu 16.10.2018 o 08:03, mankomaniak napisał:

Czyli to człowiek musi nadać znaczenie danemu czynnikowi, czy rzeczywiście jest istotny.

Dokładnie.

W dniu 16.10.2018 o 08:03, mankomaniak napisał:

Dlatego twoje uogólnianie jest z góry błędne i wynika z dwóch możliwych przyczyn:

Ja tylko wskazuję spaczenie w obiektywnym rozumowaniu. Jak widać moje kpiarskie wplecenie ideologii (trzy razy to zrobiłem) skutecznie uwypukliło ten problem, jak bardzo boli, gdy wzruszymy parę światopoglądów. Ty w dalszym ciągu zaś idziesz w zaparte, że (ludzcy) rekruterzy dokonywali jakiejś dyskryminacji, choć o niczym takim tutaj nie ma mowy („kandydatki mogą się poprawić” erm?). Kobiet było mniej wyłącznie dlatego, że nie były zainteresowane, co oczywiście przekłada się na próbkę, ale jak już pisałem AI nie przetwarzała informacji o płci. Nie posiadamy informacji o stosunku odrzuceń kobiet do mężczyzn, niemniej Ty skonstruowałeś wokół tego już całą teorię.

W dniu 16.10.2018 o 11:11, Afordancja napisał:

Czy uważasz, że dowolna kobieta, startująca tam, jeżeli jest kobietą (bo tak wychodzi z algorytmu) powinna być skreślona, bo jest kobietą?

Nie. Ani  nic takiego z algorytmu nie wychodzi.

Na zakończenie tego świętego oburzenia dodam tylko, że AI nie odrzucało żadnych kandydatów albowiem: „artificial intelligence to give job candidates scores ranging from one to five stars” oraz „Amazon’s recruiters looked at the recommendations generated by the tool when searching for new hires, but never relied solely on those rankings, they said.”.

Oraz „Instead, the technology favored candidates who described themselves using verbs more commonly found on male engineers’ resumes, such as “executed” and “captured,” one person said.”, które wybitnie podkreśla ideologiczną (a nie obiektywną) kobiecą dyskryminację, o której piszecie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
36 minutes ago, wilk said:

Nie wiemy ile % fraz było związanych z płcią, ani nawet jakie im przydzielono współczynniki. Jest tylko informacja, że temu jednemu AI bezczelnie przydzieliło za mało i o to cała afera.

Nie czytałem oryginalnego artykułu, ale z tego tutaj wynika, że sami testerzy poprawili algorytm. Więc poprawili czy dostosowali do swoich potrzeb? AI początkowo obiektywnie potraktowało każdy czynnik (słowo), tzn. po równo i na podstawie odpowiednich metod wyestymowało wagi. Potem być może wyeliminowano całkowicie słowa związane z płcią. To był błąd? Widzimisię? Zlewaczenie? Czy po prostu uznali, że płeć nie ma logicznego uzasadnienia w kryterium oceny kandydata?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, wilk napisał:

Na zakończenie tego świętego oburzenia dodam tylko, że AI nie odrzucało żadnych kandydatów

Ależ nie ma żadnego oburzenia, oburzenie jest z drugiej strony, bo jak mogą poprawić coś co źle działa, w maszynowym uczeniu robi się "eksprejny" aby móc zrozumieć jakie czynniki wpływają na wynik i czy są logiczne. Bo patrząc na powyższe mogło by wyjść.

 

Wyżsi i ludzie z krótszymi włosami są lepszymi hm..programistami logiczne? A no gdyby były te dane w danych uczących tak by wyszło.

Więc ok, nie będzie, że cię eliminuje, ale czy jest logicznym, że jeżeli masz dłuższe włosy, to powinieneś dostać mniej gwiazdek? 

Jak dla mnie do poprawy. Nie ma filozofii. 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
13 minutes ago, Afordancja said:

Wyżsi i ludzie z krótszymi włosami są lepszymi hm..programistami logiczne? A no gdyby były te dane w danych uczących tak by wyszło.

Mylenie korelacji z przyczynowością.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
38 minut temu, mankomaniak napisał:

Więc poprawili czy dostosowali do swoich potrzeb?

Nie znamy skali tego zjawiska. Czy faktycznie wszystko było rozjechane — raczej nie, skoro algorytm był niby stosowany jako przesłanka. Pytasz mnie o motywy działania programistów, a dobrze wiesz, że ich nie znam. Jest prawdopodobne, że polecenie przyszło „z góry”.

38 minut temu, mankomaniak napisał:

Potem być może wyeliminowano całkowicie słowa związane z płcią. To był błąd? Widzimisię? Zlewaczenie?

Nie wiemy w którym momencie powstał problem z „dyskryminacją”. Jest możliwe, że to w całości wymysł dziennikarzy opisujących temat - posiłkując się tym samym komiksem.

39 minut temu, mankomaniak napisał:

Czy po prostu uznali, że płeć nie ma logicznego uzasadnienia w kryterium oceny kandydata? 

No nie, znowu wracasz do samego początku… Taka to sensowna dyskusja. :)

28 minut temu, Afordancja napisał:

A no gdyby były te dane w danych uczących tak by wyszło. 

Ale nie były, tak samo jak nie było płci. No ile razy można to powtarzać.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 minut temu, wilk napisał:

Ale nie były, tak samo jak nie było płci. No ile razy można to powtarzać.

Nie było płci bezpośrednio.

12 minut temu, wilk napisał:

Nie wiemy w którym momencie powstał problem z „dyskryminacją”. Jest możliwe, że to w całości wymysł dziennikarzy opisujących temat - posiłkując się tym samym

A to akurat najbardziej sensowny scenariusz :D

53 minuty temu, mankomaniak napisał:

Mylenie korelacji z przyczynowością.

Oczywiście, ale maszynowe uczenie w żaden sposób tych rzeczy nie rozróżnia

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine.
      Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego.
      W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie.
      Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników.
      Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang.
      Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W czytniku Kindle brazylijskiej dziennikarki Mariany Lopes Vieiry zagnieździły się mrówki. Nie tylko znalazły tu nowy dom, ale i kupiły 2 e-booki.
      Na swoim blogu Brazylijka napisała, że odłożyła na jakiś czas Kindle'a, by poczytać papierowe wydanie „Atlasu chmur” Davida Mitchella. Gdy skończyła, chciała ponownie skorzystać z urządzenia. Wtedy okazało się, że władzę nad nim przejęły mrówki. Wchodziły do środka przez gniazdo do ładowania. Jak można się domyślić, czytnika nie dało się używać.
      Byłam zdesperowana. Miałam na nim kilka e-booków, w przypadku których wydania papierowe zostały wyprzedane. Myślałam, że wszystko przepadło.
      W pewnym momencie zaskoczona Viera dostała e-mailem powiadomienia, że kupiła 2 książki. Dziennikarka wyjaśnia, że wszystko przez opcję „one-click purchase”, która pozwala kupić książkę z Amazona za pomocą jednego kliknięcia. Przemieszczając się, mrówki niechcący z niej skorzystały. Kupiły „Roboty i imperium" Isaaca Asimova, a później „O anel de Giges: Uma fantasia ética” autorstwa brazylijskiego ekonomisty Eduarda Giannettiego. Niewiele myśląc, dziennikarka wyłączyła opcję „kup jednym kliknięciem”.
      Przyjaciółka Vieiry pisarka Fabiane Guimarães wspomniała o całym zdarzeniu na swoim profilu na Twitterze. Jej post wywołał bardzo dużo reakcji.
      Ostatecznie pomogła rada, by włożyć owinięty folią czytnik do zamrażarki.
      Niektóre gatunki mrówek, np. mrówki Rasberry'ego, lubią się ukrywać w niewielkich przestrzeniach generujących ciepło. Z tego względu zdarza im się budować gniazda w urządzeniach elektronicznych. Prąd, który przepływa przez ich ciała, zakłóca pracę sprzętu; dzieje się tak również wówczas, gdy zginą porażone prądem.
      Kindle korzysta z pojemnościowego ekranu dotykowego, który działa dzięki zmianie pojemności elektrycznej. Ruch dużej liczby mrówek spowodował zmiany pojemności, co zostało zinterpretowane jako dotyk lub gest - wytłumaczył dziennikarzowi TecMundo inżynier mechatronik Rafael Rech di Muzio.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...