Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Sztuczny rekruter Amazona dyskryminował kobiety

Recommended Posts

Jak dowiedzieli się reporterzy Reutersa, Amazon stworzył algorytm sztucznej inteligencji, który miał pomóc w rekrutacji pracowników. Narzędzie zostało jednak porzucone gdy okazało się, że... dyskryminuje kobiety.

W 2014 roku w Amazonie powstał specjalny zespół, którego zadaniem było zbudowanie automatycznego asystenta biorącego udział w rekrutacji. Chcieli, by to działało w ten sposób, że dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych i tych ludzi się zatrudnia, mówi osoba zaznajomiona ze sprawą. Narzędzie miało przyznawać każdemu z kandydatów od 1 do 5 gwiazdek i na tej podstawie wskazywać osobie prowadzącej rekrutację, na kogo warto zwrócić uwagę.

Amazon stworzył 500 modeli komputerowych, które przeanalizowały CV znajdujące się w bazie danych firmy i wybrały z nich 50 000 kluczowych terminów. W 2015 roku narzędzie było gotowe. Miało ono przeczesywać sieć w poszukiwaniu odpowiednich kandydatów. Okazało się jednak, że SI najwyraźniej nie lubi kobiet. Stało się tak prawdopodobnie dlatego, że było trenowane na CV kandydatów do Amazona z ostatnich 10 lat. A o pracę starli się tam głównie mężczyźni. Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły.

Inżynierowie Amazona naprawili te problemy, jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom.

Amazon twierdzi, że narzędzie nigdy nie zostało wdrożone. Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja. To tym większy problem, że coraz więcej firm chce automatyzować część procesu rekrutacji. W 2017 roku przeprowadzono badania, z których wynika, że 55% amerykańskich menedżerów HR uważa, iż w ciągu najbliższych pięciu lat SI będzie standardowo wykorzystywane w ich pracy.

Ze zdobytych przez Reutersa informacji wynika, że Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów.


« powrót do artykułu

Share this post


Link to post
Share on other sites
1 hour ago, KopalniaWiedzy.pl said:

pod kątem osiągnięcia jak największej różnorodności wśród kandydatów

To znaczy, że tych nieróżnorodnych będą odstrzeliwać? (w końcu to jeszcze kandydaci, a nie pracownicy)

A tak w ogóle to tyle lat zastanawiano się, jak pokonać wszechmocne korporacje, a tu bach - będą niszczyć się same.

Share this post


Link to post
Share on other sites
2 godziny temu, KopalniaWiedzy.pl napisał:

dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych

2 godziny temu, KopalniaWiedzy.pl napisał:

o pracę starli się tam głównie mężczyźni

2 godziny temu, KopalniaWiedzy.pl napisał:

dyskryminuje kobiety

Gdzie tu sens, gdzie logika? A nie, zapomniałem, że to wirusowe zlewaczczenie zachodu. Wnioski są wyłącznie jednoznaczne — winni są ci ohydni zbyt inteligentni i ambitni mężczyźni. Koniecznym jest natychmiastowe wprowadzenie rozwiązań z „Harrisona Bergerona”.

2 godziny temu, KopalniaWiedzy.pl napisał:

Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja

Oj, Mariuszu… :(

2 godziny temu, KopalniaWiedzy.pl napisał:

Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów.

Tak jest, parytety dla karłów i rudych. Zawsze o tym mówię.

Share this post


Link to post
Share on other sites

Ja patrzyłem dalej w przyszłość i uważam że powinien być parytet na stanowiskach profesorskich i dla tych co nie ukończyli podstawówki :)

A pracodawca powinien zatrudniać połowę pracowników pracowitych a połowę leniwych.
Nie można dyskryminować leniwych i głupich.

Złodzieje i bandyci nie powinni być dyskryminowani w pracach w agencjach ochroniarskich czy w Policji.

No i pedofile nie powinni być dyskryminowani w dostępie do dzieci.

A teraz czekam która z poprawności wzbudzi największe kontrowersje :D

BTW. Przypomina mi się wywiad z uczestnikiem marszu równości, coś ala (piszę z pamięci):

po co tu jesteś?

chcę obniżenia wieku od którego można seks uprawiać.

chcesz ru... 12-stolatki?

Tak.

3 godziny temu, KopalniaWiedzy.pl napisał:

jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom.

LOL

 

Share this post


Link to post
Share on other sites
2 hours ago, Przemek Kobel said:

To znaczy, że tych nieróżnorodnych będą odstrzeliwać? (w końcu to jeszcze kandydaci, a nie pracownicy)

Dopóki (a) to firma prywatna i (b) nie ma to związku z przepisami prawa, to mogą sobie odstrzeliwać kogo pragną. Mogą zatrudniać więcej pedofili, bo potrafią rozmawiać z dziećmi i je przyciągać, cokolwiek, ich sprawa. Jeśli państwo się wtrynia, to już problem, wtedy władzę trzeba zmienić.

Share this post


Link to post
Share on other sites
2 hours ago, mankomaniak said:

Dopóki (a) to firma prywatna i (b) nie ma to związku z przepisami prawa, to mogą sobie odstrzeliwać kogo pragną. Mogą zatrudniać więcej pedofili, bo potrafią rozmawiać z dziećmi i je przyciągać, cokolwiek, ich sprawa. Jeśli państwo się wtrynia, to już problem, wtedy władzę trzeba zmienić.

Ja nie lubię robić łopatą, ale tym razem będzie wyjątek:

KANDYDAT to osoba, która zobaczyła ogłoszenie o pracę i złożyła papiery jako ktoś zainteresowany ofertą. Jakim niby sposobem doprowadzić do parytetu w tej grupie? Bo jeśli okaże się, że do pracy przy rozładunku węgla było 30 chętnych facetów i pięć kobiet, to jeszcze można zorganizować szwadron i 25 seksistów posłać w niebyt. Będzie 5 kobiet i 5 podludzi. Ale jeśli zgłosi się 30 facetów i ani jednej niewiasty? To już nawet odstrzał nie pomoże. Może przymusowa terapia hormonalna. Hm...

Share this post


Link to post
Share on other sites

Ale o co ci chodzi? O jakim ty parytecie mówisz, skoro firma prywatna nie chce facetów? Będziesz kazał mi jeść codziennie 2-3 jabłka, bo to np. optymalny parytet wg naukowców, chociaż ja nie chcę jeść jabłek? 

Share this post


Link to post
Share on other sites

ale o czym w ogóle tutaj rozmowa? O odstrzeliwaniu i celowym zwiększaniu różnorodności przy przyjmowaniu i o parytetach to zapewne wasza i dziennikarska fantazja.

Źle dobrano próbkę uczącą, być może modele, na skutek tego model przyjął, że kobiety nie są pożądane a to ewidentnie błędne podejście, bo na pewno nie o to chodziło bo przyjdzie powiedzmy twarda kobieta specjalista i zostanie zdyskwalifikowana za to, że jest kobietą, no słabe.

 Tutaj przerysowana analogia.

 

Zapewne chodzi aby uwzględnić różnorodność w danych wejściowych, aby nie wychodziły na wyjściu bzdury w postaci "kobieta -> odpada"

Share this post


Link to post
Share on other sites
21 godzin temu, Afordancja napisał:

Źle dobrano próbkę uczącą,

O, taka metodologia badań jest intrygująca. Trzeba dobierać próbkę tak długo, aż uzyskamy oczekiwane rezultaty.

Próbka nie została dobrana źle. Po prostu kobiety tak jak i unikają kierunków STEM, tak samo nie kwapią się, jak widać, do stanowisk w Amazonie lub zwyczajnie kandydatki były słabsze. Zauważ, że algorytm analizował CV (przyjęte i odrzucone). Czyli co, to jednak nie algorytm był błędny, a HR mizoginiczne?

 

Tutaj chyba też trzeba by dobierać inne próbki (och wait, przecież to statystyka!):

https://www.theguardian.com/us-news/2018/oct/11/washington-state-supreme-court-strikes-down-death-penalty

Cytat

Five justices on the state supreme court said the “death penalty is invalid because it is imposed in an arbitrary and racially biased manner”.

To jest właśnie goniące własny ogon lewicowe podejście naginające rzeczywistość tak, aby odpowiadała ideologii.

Share this post


Link to post
Share on other sites
W dniu ‎11‎.‎10‎.‎2018 o 14:50, wilk napisał:

Gdzie tu sens, gdzie logika? A nie, zapomniałem, że to wirusowe zlewaczczenie zachodu.

Jak się nie widzi sensu i logiki, to po co te przytyki do ruchów postępowych?  

Trenowała SI na facetach? No to wdrukowała sobie, że preferowanym  hobby musi być piłka nożna, MMA czy wyścigi po Słowacji, ulubionym  napojem piwko a w danych antropometrycznych kobietom wychodził anormalny;) stosunek obwodu klatki piersiowej do talii. 

W dniu ‎11‎.‎10‎.‎2018 o 15:23, thikim napisał:

, coś ala (piszę z pamięci):

Typowe : niedowidzi, niedosłyszy ale bzdurkę napisać musi.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
19 hours ago, wilk said:

To jest właśnie goniące własny ogon lewicowe podejście naginające rzeczywistość tak, aby odpowiadała ideologii.

Czyli... no tego... prawica jest niej zideologizowana i mniej nagina rzeczywistość do ideologii? Jaja sobie robisz, aboco? :huh:

Coby jasność była: wszelkie ideologie, -izmy i inne takie mam... no dokładnie w tym samym miejscu.

Share this post


Link to post
Share on other sites
5 godzin temu, 3grosze napisał:

Trenowała SI na facetach?

A widzisz, sęk w tym, że właśnie nie tylko. Po prostu kobiety stanowiły mniejszość. Niestety nie podali procentów, w źródle jest „most”. Nazwijmy to — błędem, było to, że nie obrobili tych danych przed nakarmieniem nimi AI. Zakładam, że „płeć” nie była jawnie podana, więc fuzzy-logic sobie wybrało optymalne kryteria. Akurat język angielski jest szczególnie neutralny płciowo, więc mogli skorygować pozostałe określenia w CV. Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców. I co teraz? Ktoś nie goni własnego ogona?

5 godzin temu, 3grosze napisał:

przytyki do ruchów postępowych?

Nie sposób tak nazwać ideologię, która tworzy problemy, by bohatersko z nimi walczyć.

3 godziny temu, ex nihilo napisał:

prawica jest niej zideologizowana i mniej nagina rzeczywistość do ideologii?

Nic nie pisałem o prawicy. W kwestii zrównywania niezrównywalnego ponad wszelką logikę i korzyści prym wiedzie wspomniana ze stron.

Odetnijmy się jednak faktycznie od ideologii, by nie robić offtopu. Niepotrzebnie ją do tego wmieszałem. Zdanie na ten temat mam jasne, uznajmy jednak neutralnie, że mamy inną ocenę sytuacji. (to AI zostało zdyskryminowane za zbyt dobre robienie tego, co miało robić :>)

Share this post


Link to post
Share on other sites
7 hours ago, wilk said:

Nazwijmy to — błędem, było to, że nie obrobili tych danych przed nakarmieniem nimi AI. Zakładam, że „płeć” nie była jawnie podana, więc fuzzy-logic sobie wybrało optymalne kryteria. Akurat język angielski jest szczególnie neutralny płciowo, więc mogli skorygować pozostałe określenia w CV.

Jak nie była, jak była? Chyba wyraźnie jest w artykule napisane

On 10/11/2018 at 11:50 AM, KopalniaWiedzy.pl said:

Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły.

Więc co to za brednie.

7 hours ago, wilk said:

Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców.

Oczywiście to ma sens: zła uczelnia -> odrzucamy, dobra uczelnia -> przyjmujemy. I stąd logiczny wniosek: kobieta -> odrzucamy. Facet -> przyjmujemy.

Share this post


Link to post
Share on other sites
15 godzin temu, mankomaniak napisał:

Jak nie była, jak była? Chyba wyraźnie jest w artykule napisane

No nie była. W artykule nie widzę informacji, aby w CV było podane, że to a to należy do kobiety. AI wywnioskowała sobie „coś” na podstawie pojawiających się słów. W tym przypadku na podstawie jednego słowa przed terminem „klub szachowy”. Władze Amazonu doszły zaś do wniosku, że owe „coś” jest dyskryminacją. Jestem dość przekonany, że w podobny sposób potraktowani mogli zostać mężczyźni, którzy wpisali iż chodzą na aerobik i są mistrzami w dzierganiu. Podobnież kandydaci mogliby pisać, że są „glutaminian sodu chess club captain”. Efekt byłby ten sam, ale afery by nie było.

15 godzin temu, mankomaniak napisał:

zła uczelnia -> odrzucamy, dobra uczelnia -> przyjmujemy

Nie ma żadnej informacji jakoby AI posiłkowało się zewnętrznymi rankingami uczelni. Tabula rasa nie wie co to dobra/zła uczelnia. W podobny sposób j.w.

Może prościej: AI nie stało się dyskryminującym rasistowskim Skynetem, a jedynie ujednoliciło preferencje zatrudnieniowe na dane stanowiska w tej firmie. Hint: statystyka. Ta sama, która okazała się rasistowska, bo jedna z ras ma statystyczną skłonność popełniać najcięższe przestępstwa. Która? Odpowiem jak Tadeusz Sznuk: nie wiem, choć się domyślam.

Share this post


Link to post
Share on other sites
23 hours ago, wilk said:

W kwestii zrównywania niezrównywalnego ponad wszelką logikę i korzyści prym wiedzie wspomniana ze stron.

Różne rodzaje dyskryminacji były i są faktem. Niektóre mogą być obiektywnie uzasadnione (w sensie "słuszne/usprawiedliwone/...") przyczyny, inne nie - np. wynikają z uprzedzeń, ideologii itp. pierdół. Jest - chyba całkiem sensowna - tendencja do likwidacji dyskryminacji z powodu uprzedzeń, ideologii, i też takich, które może kiedyś miały obiektywne uzasadnienie, ale teraz je straciły.

Nic dziwnego w tej sytuacji, że układ szuka nowego położenia równowagi odchylając się w różne strony. "Lewica" działa w tym przypadku jak czynik przyspieszający, "prawica" hamujący. To socjofizyka, o której wspominał tu parę dni temu Jarek.

1 hour ago, wilk said:

jedna z ras ma statystyczną skłonność popełniać najcięższe przestępstwa.

No tu jest pytanie, czy faktycznie jest to zależne od cech razowych, czy może od jakichś zewnętrznych w stosunku do rasy warunków - np. istniejącej przez wiele pokoleń dyskryminacji.

Edycja: "rasowych" oczywiście miało być, a nie "razowych".

Edited by ex nihilo
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Godzinę temu, ex nihilo napisał:

które może kiedyś miały obiektywne uzasadnienie, ale teraz je straciły.

Jeśli je utraciły i stały się przesądem, to jak najbardziej tak. Oczywiście nie można uznawać tego układu jako trwale stabilnego i od wyznaczonej chwili wymuszać w przyszłość absolutny zakaz wszelkiego podważania pod straszakiem rychłej kary. Niektóre przyczyny wynikały z ciemnych zaułków ewolucji społeczeństw, dominacji pewnych ideologii, inne z historycznych konfliktów, a jeszcze inne z nastrojów — obaw, niechęci lub agresji. Problem w tym, że wypuszczanie walca i zrównywanie wszystkiego dla niektórych jest narzędziem do osiągania konkretnych egoistycznych celów, czasem kolokwialnie mówiąc — głupich, a walec jest elastyczny, by pasował do światopoglądu naszego, a nie walcowanych, a przy okazji omijał wybrane wyjątki. Gorzej, gdy walec jest używany zamiast koparki lub spychacza, jako lewar, by przeforsować coś zupełnie innego zastraszając nierozwalcowanymi jeszcze wybojami.

Godzinę temu, ex nihilo napisał:

No tu jest pytanie, czy faktycznie jest to zależne od cech razowych, czy może od jakichś zewnętrznych w stosunku do rasy warunków - np. istniejącej przez wiele pokoleń dyskryminacji.

Statystyki nie obchodzi rasa, nie jest rasistowska (a może jest…). Fakt jest faktem, powód jest irrelewantny (tak samo pracodawcy nie obchodzi, że chciałeś iść na Harvard, ale nie udało się i poszedłeś na zwykłą stanówkę, faktem może być jednak to, że ukończyłeś ją na najlepszej lokacie). Tutaj zaś użyto walca anty-dyskryminacji jako lewara, spychacza, by usunąć z góry upatrzoną pewną przeszkodę (kara śmierci jest be), ale z której problem w ogóle nie wynikał. Kierowców tego walca nie obchodził faktyczny problem, a przeszkoda.

Godzinę temu, ex nihilo napisał:

"Lewica" działa w tym przypadku jak czynik przyspieszający, "prawica" hamujący.

Gorzej, gdy bieg do przodu jest biegiem na oślep ku przepaści. Zresztą samo określenie co jest postępowe, a co hamulcowe jest wybitnie nacechowane ideologicznie. Istotna jest rozwaga, a nie populistyczne podchwytywanie mody, która często bywa upodobaniami mniejszości.

Share this post


Link to post
Share on other sites
6 hours ago, wilk said:

No nie była. W artykule nie widzę informacji, aby w CV było podane, że to a to należy do kobiety

Jak nie była jak była. Pośrednio to wynika, dla AI nie trzeba formalnego nazewnictwa. W kobiecych zawodach szachowych mogły brać teoretycznie udział też osoby trans-płciowe, transseksualiści, którzy czuli się kobietami. Zamiast przyznać się do błędu, brniesz w swój fanatyzm.

6 hours ago, wilk said:

Nie ma żadnej informacji jakoby AI posiłkowało się zewnętrznymi rankingami uczelni.

Nie zrozumiałeś mojej uwagi. Miałem na myśli to, że o ile ukończenie dobrej uczelni może stanowić obiektywny sygnał, żeby kogoś przyjąć, o tyle generalizowanie tego na płeć jest totalną bzdurą. Przeszłość danej osoby ma wpływ na jej przyszłość (a więc też wykonywanie pracy), natomiast fakt, że w przeszłości było niewiele kobiet na danym stanowisku, nie oznacza przecież ich brak w przyszłości będzie pogarszać efektywność firmy.

Oczywiście można tak jak ty ze swoim fanatyzmem kontynuować trend firmy bez kobiet, tylko że to jest tak jakby się chciało kupować tylko akcje danej firmy, bo przez ostatnie 10 lat jej kurs tylko rósł, a więc się zakłada, że tak będzie dalej. Niestety w ten sposób wielu topi majątek.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
5 godzin temu, wilk napisał:

Gorzej, gdy bieg do przodu jest biegiem na oślep ku przepaści.

O tak;), to już da się ocenić a priori. Pamiętam:D, że wspólnota pierwotna też mocno oponowała przeciwko wszelkim zmianom ustrojowym. Mamy demokracji nie ulepszać, czy mamy  cofnąć się znów do jakiegoś autorytaryzmu?

OK.Kończę OT

Jeszcze tylko:

5 godzin temu, wilk napisał:

Istotna jest rozwaga, a nie populistyczne podchwytywanie mody, która często bywa upodobaniami mniejszości.

To już manipulacja: nie o upodobania mniejszości przecież chodzi, tylko o niedyskryminowanie mniejszości.

  • Upvote (+1) 1

Share this post


Link to post
Share on other sites

Na podstawie tego, co przeczytałem, sądzę, że ten rekruter jednak działał źle. Jeśli było mało kobiet zatrudnionych względem mężczyzn, i zaczął powiązywać tę dysproporcję z byciem kobietą, to zapewne problemem jest to, że odrzucał też te kobiety, które były lepsze od przynajmniej części zatrudnionych mężczyzn.

Share this post


Link to post
Share on other sites
6 minut temu, 3grosze napisał:

A propos, miło Mr Vocabulary widzieć.:)

Dzięki – niestety, życiowy galimatias zamienił mnie z uczestnika w podglądacza forumowych debat ;)

I ja się cieszę, że nie uległeś denominacji ;)

Share this post


Link to post
Share on other sites
16 godzin temu, mankomaniak napisał:

Jak nie była jak była.

Cały czas wysnuwasz błędne wnioski na podstawie tego, jak ludzie nadają znaczenie słowom. AI nie została poinformowana o płci, nie wie czym jest płeć, rasa itd. Koniec i kropka. Przyjęła założenie, iż termin „woman's” pojawiał się najczęściej u odrzucanych kandydatów, zatem jest on w jakiś sposób niepożądany i przypasowała mu niski lub negatywny współczynnik, który powodował spadek oceny całego CV. To absolutnie nie znaczy, że dyskryminuje kobiety, a wyłącznie oznacza, że uznaje takich kandydatów za mniej adekwatnych, bo tak robili ludzie (statystycznie). Zresztą skoro AI zostało wytrenowane na danej próbce, to stosowało się do takiego właśnie wzorca (człowiekowi trudno byłoby wyciągnąć wnioski z tysięcy CV, dla maszyny to ułamki sekund). A to, że dla ludzie widzą w tym dyskryminację, to trzeba zastanowić się gdzie leży ich problem. Za dużo naoglądaliście się Hollywoodzkich SF. ;-)

16 godzin temu, mankomaniak napisał:

W kobiecych zawodach szachowych mogły brać teoretycznie udział też osoby trans-płciowe, transseksualiści, którzy czuli się kobietami.

Tak, pisałem o tym przecież w aluzji o szydełkowaniu. Ale co to zmienia, skoro takie osoby okazywały się statystycznie gorsze i odpadały? Czy firma musi zacząć zatrudniać kapitanów klubów szachowych za ich sekretne talenty czy ogólną ocenę pożytku dla firmy? Mój fanatyzm kazał pozdrowić Twój fanatyzm.

16 godzin temu, mankomaniak napisał:

o tyle generalizowanie tego na płeć jest totalną bzdurą.

Ty za to nie rozumiesz z tego co tu zaszło ni w ząb. Dla AI NIE ma czegoś takiego jak płeć. AI operowało na leksemach, na zależnościach między nimi. Gdybyś zadał temu AI, by rozdzieliło kandydatów według płci, to by tego nie zrobiło, bo nie w tym celu zostało stworzone. Zostało stworzone, by podzielić na tych, co się nadają i tych co się nie nadają.

16 godzin temu, mankomaniak napisał:

ukończenie dobrej uczelni może stanowić obiektywny sygnał

Tak, dla człowieka. I tak też na podstawie historycznych ewaluacji dokonało AI.

16 godzin temu, mankomaniak napisał:

Oczywiście można tak jak ty ze swoim fanatyzmem kontynuować trend firmy bez kobiet

Brednie. Zaprzestań pomówień. „A o pracę starli się tam głównie mężczyźni.” — dysproporcja wynika wyłącznie z decyzji kobiet, nie rekruterów.

16 godzin temu, mankomaniak napisał:

tak jakby się chciało kupować tylko akcje danej firmy, bo przez ostatnie 10 lat jej kurs tylko rósł, a więc się zakłada, że tak będzie dalej.

Nieadekwatne, bez związku z tym o czym traktuje artykuł. Podobnie jak o AI, nie masz pojęcia o giełdzie.

16 godzin temu, 3grosze napisał:

nie o upodobania mniejszości przecież chodzi, tylko o niedyskryminowanie mniejszości.

Niedyskryminowanie — jak najbardziej, to raczej oczywiste. Forsowanie każdych zachcianek, by się przypodobać lub pod naciskiem „walca” — absolutnie nie.

7 godzin temu, MrVocabulary (WhizzKid) napisał:

że odrzucał też te kobiety, które były lepsze od przynajmniej części zatrudnionych mężczyzn

Dokładnie tak, ale nie do końca. Tak samo jak szydełkujących mężczyzn. Widocznie odkrył pewne zależności, które powodują pieczenie pewnej części ciała przez niektórych. Samo pojęcie „lepszości” w tym przypadku jest trochę niewłaściwe, bo to właśnie lepszość jest informacją wyjściową, wnioskiem. Natomiast jak widzę wszyscy rozmówcy tutaj zakładają, że lepszość jest jedną z informacji na wejściu. Algorytm opierał się na uśrednionych trendach zatrudnień wyznaczonych przez ludzi. Rozwiązania tego sztucznego „problemu” są banalne: czarne listy, sztuczne przydzielanie wag czy używanie tylko dodatnich współczynników, co też dokona nowy wspaniały zespół, by na wyjściu nie wychodziła „lepszość”, a „różnorodność”.

Edit: To, że dokonałem edycji posta po godzinie i dopisałem «„A o pracę starli się tam głównie mężczyźni.” — dysproporcja wynika wyłącznie z decyzji kobiet, nie rekruterów.» ktoś o progresywnych poglądach także może uznać za dyskryminacją. Przepraszam, zachowałem się jak szowinistyczny, ksenofobiczny, rasistowski, mizoginiczny administrator.

Share this post


Link to post
Share on other sites
6 hours ago, wilk said:

Przyjęła założenie, iż termin „woman's” pojawiał się najczęściej u odrzucanych kandydatów, zatem jest on w jakiś sposób niepożądany i przypasowała mu niski lub negatywny współczynnik, który powodował spadek oceny całego CV.

Niczego nie przyjęła, po prostu tak było dotychczas.

6 hours ago, wilk said:

To absolutnie nie znaczy, że dyskryminuje kobiety

Z logiką na bakier. Już sam fakt, że portal, którego jesteś administratorem nazwał artykuł "Sztuczny rekruter Amazona dyskryminował kobiety", a ty twierdzisz, że wcale nie dyskryminował. Zapewne za chwilę zmienisz tytuł, żeby nie wyszło jak bardzo się w swoich poglądach mylisz.

6 hours ago, wilk said:

A to, że dla ludzie widzą w tym dyskryminację, to trzeba zastanowić się gdzie leży ich problem. Za dużo naoglądaliście się Hollywoodzkich SF

Wszyscy dobrze rozumiemy, że AI nie ma emocji,  nie jest seksistowskie, nie kieruje się ideologią prawicową itp. i nie musisz tych oczywizów tłumaczyć jak dzieciom. To z czym mamy tutaj do czynienia to jest po prostu rodzaj analizy dyskryminacyjnej, bardzo często stosowanej w finansach, gdzie odrzuca się, czyli dyskryminuje, firmy czy klientów, którzy nie spełniają określonych kryteriów. Jeśli np. klientem banku będzie matka wychowująca samotnie dziecko, to może być to jeden z negatywnych czynników przy przyznawaniu kredytu, bo ma mniejsze źródło finansów. I jest to zupełnie obiektywne, bo wytłumaczalne. Widać, że ty nawet nie słyszałeś o tym specjalistycznym przecież terminie, skoro mieszasz potoczne rozumienie dyskryminacji z formalną metodą odrzucania elementów zbiorów. Dodatkową przesłanką, że mam rację, będzie twoje pytanie "Gdzie tu sens, gdzie logika? " o sformułowanie, że algorytm dyskryminuje kobiety.

6 hours ago, wilk said:

Ty za to nie rozumiesz z tego co tu zaszło ni w ząb. Dla AI NIE ma czegoś takiego jak płeć.

Ni w ząb ty nie rozumiesz o czym mowa. Ja tylko zacytowałem twoje słowa:

On 10/14/2018 at 4:06 AM, wilk said:

Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców.

Nie mówię więc, że AI coś generalizuje, tylko że ty generalizuesz. Stwierdziłem, że o ile uczelnia jest obiektywnym sygnałem dla pracodawcy, o tyle z płcią już tak nie jest. To dlatego niektóre czynniki należy pozostawić, bo są obiektywnie zrozumiałe, a niektóre można cenzurować, jeśli nie mają żadnych logicznych podstaw. Czyli to człowiek musi nadać znaczenie danemu czynnikowi, czy rzeczywiście jest istotny. Dlatego twoje uogólnianie jest z góry błędne i wynika z dwóch możliwych przyczyn:

a) ideologicznych. Przesłanką będzie tu np. zdanie: "wirusowe zlewaczczenie zachodu.  Wnioski są wyłącznie jednoznaczne — winni są ci ohydni zbyt inteligentni i ambitni mężczyźni ".

b) nierozumienie, że działanie na danej próbie z przeszłości może obciążać wynik, jeśli się je stosuje do danych w przyszłości (kandydatki mogą się poprawić, tak jak giełda może się zmienić). Formalnie chodzi tu więc o podział badania na in-sample i out-of-sample, a także data snooping bias. Dla ciebie to są rzeczy obce, a robisz z siebie eksperta w tej dziedzinie.

 

Share this post


Link to post
Share on other sites
W dniu 13.10.2018 o 03:54, wilk napisał:

Próbka nie została dobrana źle. Po prostu kobiety tak jak i unikają kierunków STEM, tak samo nie kwapią się, jak widać, do stanowisk w Amazonie lub zwyczajnie kandydatki były słabsze. Zauważ, że algorytm analizował CV (przyjęte i odrzucone). Czyli co, to jednak nie algorytm był błędny, a HR mizoginiczne?

Jesne, z tą uwagą, że celem algorytmu nie jest dobieranie popularności kwapienia się, a to osiągnięto. 

Czy uważasz, że dowolna kobieta, startująca tam, jeżeli jest kobietą (bo tak wychodzi z algorytmu) powinna być skreślona, bo jest kobietą?

 

To zwykły błąd predykcji/klasyfikacji w zasadzie.

I nie chodzi o to aby w wynikach częściej wypadały kobiety, tylko aby jeżeli byłby by lepsze to powinny wypaść.

Dorabiacie filozofię do zwykłych błędów

 

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine.
      Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego.
      W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie.
      Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników.
      Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang.
      Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W czytniku Kindle brazylijskiej dziennikarki Mariany Lopes Vieiry zagnieździły się mrówki. Nie tylko znalazły tu nowy dom, ale i kupiły 2 e-booki.
      Na swoim blogu Brazylijka napisała, że odłożyła na jakiś czas Kindle'a, by poczytać papierowe wydanie „Atlasu chmur” Davida Mitchella. Gdy skończyła, chciała ponownie skorzystać z urządzenia. Wtedy okazało się, że władzę nad nim przejęły mrówki. Wchodziły do środka przez gniazdo do ładowania. Jak można się domyślić, czytnika nie dało się używać.
      Byłam zdesperowana. Miałam na nim kilka e-booków, w przypadku których wydania papierowe zostały wyprzedane. Myślałam, że wszystko przepadło.
      W pewnym momencie zaskoczona Viera dostała e-mailem powiadomienia, że kupiła 2 książki. Dziennikarka wyjaśnia, że wszystko przez opcję „one-click purchase”, która pozwala kupić książkę z Amazona za pomocą jednego kliknięcia. Przemieszczając się, mrówki niechcący z niej skorzystały. Kupiły „Roboty i imperium" Isaaca Asimova, a później „O anel de Giges: Uma fantasia ética” autorstwa brazylijskiego ekonomisty Eduarda Giannettiego. Niewiele myśląc, dziennikarka wyłączyła opcję „kup jednym kliknięciem”.
      Przyjaciółka Vieiry pisarka Fabiane Guimarães wspomniała o całym zdarzeniu na swoim profilu na Twitterze. Jej post wywołał bardzo dużo reakcji.
      Ostatecznie pomogła rada, by włożyć owinięty folią czytnik do zamrażarki.
      Niektóre gatunki mrówek, np. mrówki Rasberry'ego, lubią się ukrywać w niewielkich przestrzeniach generujących ciepło. Z tego względu zdarza im się budować gniazda w urządzeniach elektronicznych. Prąd, który przepływa przez ich ciała, zakłóca pracę sprzętu; dzieje się tak również wówczas, gdy zginą porażone prądem.
      Kindle korzysta z pojemnościowego ekranu dotykowego, który działa dzięki zmianie pojemności elektrycznej. Ruch dużej liczby mrówek spowodował zmiany pojemności, co zostało zinterpretowane jako dotyk lub gest - wytłumaczył dziennikarzowi TecMundo inżynier mechatronik Rafael Rech di Muzio.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...