Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Jak dowiedzieli się reporterzy Reutersa, Amazon stworzył algorytm sztucznej inteligencji, który miał pomóc w rekrutacji pracowników. Narzędzie zostało jednak porzucone gdy okazało się, że... dyskryminuje kobiety.

W 2014 roku w Amazonie powstał specjalny zespół, którego zadaniem było zbudowanie automatycznego asystenta biorącego udział w rekrutacji. Chcieli, by to działało w ten sposób, że dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych i tych ludzi się zatrudnia, mówi osoba zaznajomiona ze sprawą. Narzędzie miało przyznawać każdemu z kandydatów od 1 do 5 gwiazdek i na tej podstawie wskazywać osobie prowadzącej rekrutację, na kogo warto zwrócić uwagę.

Amazon stworzył 500 modeli komputerowych, które przeanalizowały CV znajdujące się w bazie danych firmy i wybrały z nich 50 000 kluczowych terminów. W 2015 roku narzędzie było gotowe. Miało ono przeczesywać sieć w poszukiwaniu odpowiednich kandydatów. Okazało się jednak, że SI najwyraźniej nie lubi kobiet. Stało się tak prawdopodobnie dlatego, że było trenowane na CV kandydatów do Amazona z ostatnich 10 lat. A o pracę starli się tam głównie mężczyźni. Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły.

Inżynierowie Amazona naprawili te problemy, jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom.

Amazon twierdzi, że narzędzie nigdy nie zostało wdrożone. Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja. To tym większy problem, że coraz więcej firm chce automatyzować część procesu rekrutacji. W 2017 roku przeprowadzono badania, z których wynika, że 55% amerykańskich menedżerów HR uważa, iż w ciągu najbliższych pięciu lat SI będzie standardowo wykorzystywane w ich pracy.

Ze zdobytych przez Reutersa informacji wynika, że Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, KopalniaWiedzy.pl said:

pod kątem osiągnięcia jak największej różnorodności wśród kandydatów

To znaczy, że tych nieróżnorodnych będą odstrzeliwać? (w końcu to jeszcze kandydaci, a nie pracownicy)

A tak w ogóle to tyle lat zastanawiano się, jak pokonać wszechmocne korporacje, a tu bach - będą niszczyć się same.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, KopalniaWiedzy.pl napisał:

dajesz mu do analizy 100 życiorysów, on wybiera 5 najlepszych

2 godziny temu, KopalniaWiedzy.pl napisał:

o pracę starli się tam głównie mężczyźni

2 godziny temu, KopalniaWiedzy.pl napisał:

dyskryminuje kobiety

Gdzie tu sens, gdzie logika? A nie, zapomniałem, że to wirusowe zlewaczczenie zachodu. Wnioski są wyłącznie jednoznaczne — winni są ci ohydni zbyt inteligentni i ambitni mężczyźni. Koniecznym jest natychmiastowe wprowadzenie rozwiązań z „Harrisona Bergerona”.

2 godziny temu, KopalniaWiedzy.pl napisał:

Nieudana próba pokazuje jednak, jak niedoskonała jest sztuczna inteligencja

Oj, Mariuszu… :(

2 godziny temu, KopalniaWiedzy.pl napisał:

Amazon powołał nowy zespół, który tym razem ma stworzyć narzędzie wspomagające rekrutację pod kątem osiągnięcia jak największej różnorodności wśród kandydatów.

Tak jest, parytety dla karłów i rudych. Zawsze o tym mówię.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ja patrzyłem dalej w przyszłość i uważam że powinien być parytet na stanowiskach profesorskich i dla tych co nie ukończyli podstawówki :)

A pracodawca powinien zatrudniać połowę pracowników pracowitych a połowę leniwych.
Nie można dyskryminować leniwych i głupich.

Złodzieje i bandyci nie powinni być dyskryminowani w pracach w agencjach ochroniarskich czy w Policji.

No i pedofile nie powinni być dyskryminowani w dostępie do dzieci.

A teraz czekam która z poprawności wzbudzi największe kontrowersje :D

BTW. Przypomina mi się wywiad z uczestnikiem marszu równości, coś ala (piszę z pamięci):

po co tu jesteś?

chcę obniżenia wieku od którego można seks uprawiać.

chcesz ru... 12-stolatki?

Tak.

3 godziny temu, KopalniaWiedzy.pl napisał:

jednak postanowiono nie wdrażać narzędzia w obawie, że istnieją jeszcze inne elementy, które powodują, że przyznaje ono mniej punktów kobietom.

LOL

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, Przemek Kobel said:

To znaczy, że tych nieróżnorodnych będą odstrzeliwać? (w końcu to jeszcze kandydaci, a nie pracownicy)

Dopóki (a) to firma prywatna i (b) nie ma to związku z przepisami prawa, to mogą sobie odstrzeliwać kogo pragną. Mogą zatrudniać więcej pedofili, bo potrafią rozmawiać z dziećmi i je przyciągać, cokolwiek, ich sprawa. Jeśli państwo się wtrynia, to już problem, wtedy władzę trzeba zmienić.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 hours ago, mankomaniak said:

Dopóki (a) to firma prywatna i (b) nie ma to związku z przepisami prawa, to mogą sobie odstrzeliwać kogo pragną. Mogą zatrudniać więcej pedofili, bo potrafią rozmawiać z dziećmi i je przyciągać, cokolwiek, ich sprawa. Jeśli państwo się wtrynia, to już problem, wtedy władzę trzeba zmienić.

Ja nie lubię robić łopatą, ale tym razem będzie wyjątek:

KANDYDAT to osoba, która zobaczyła ogłoszenie o pracę i złożyła papiery jako ktoś zainteresowany ofertą. Jakim niby sposobem doprowadzić do parytetu w tej grupie? Bo jeśli okaże się, że do pracy przy rozładunku węgla było 30 chętnych facetów i pięć kobiet, to jeszcze można zorganizować szwadron i 25 seksistów posłać w niebyt. Będzie 5 kobiet i 5 podludzi. Ale jeśli zgłosi się 30 facetów i ani jednej niewiasty? To już nawet odstrzał nie pomoże. Może przymusowa terapia hormonalna. Hm...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ale o co ci chodzi? O jakim ty parytecie mówisz, skoro firma prywatna nie chce facetów? Będziesz kazał mi jeść codziennie 2-3 jabłka, bo to np. optymalny parytet wg naukowców, chociaż ja nie chcę jeść jabłek? 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ale o czym w ogóle tutaj rozmowa? O odstrzeliwaniu i celowym zwiększaniu różnorodności przy przyjmowaniu i o parytetach to zapewne wasza i dziennikarska fantazja.

Źle dobrano próbkę uczącą, być może modele, na skutek tego model przyjął, że kobiety nie są pożądane a to ewidentnie błędne podejście, bo na pewno nie o to chodziło bo przyjdzie powiedzmy twarda kobieta specjalista i zostanie zdyskwalifikowana za to, że jest kobietą, no słabe.

 Tutaj przerysowana analogia.

 

Zapewne chodzi aby uwzględnić różnorodność w danych wejściowych, aby nie wychodziły na wyjściu bzdury w postaci "kobieta -> odpada"

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
21 godzin temu, Afordancja napisał:

Źle dobrano próbkę uczącą,

O, taka metodologia badań jest intrygująca. Trzeba dobierać próbkę tak długo, aż uzyskamy oczekiwane rezultaty.

Próbka nie została dobrana źle. Po prostu kobiety tak jak i unikają kierunków STEM, tak samo nie kwapią się, jak widać, do stanowisk w Amazonie lub zwyczajnie kandydatki były słabsze. Zauważ, że algorytm analizował CV (przyjęte i odrzucone). Czyli co, to jednak nie algorytm był błędny, a HR mizoginiczne?

 

Tutaj chyba też trzeba by dobierać inne próbki (och wait, przecież to statystyka!):

https://www.theguardian.com/us-news/2018/oct/11/washington-state-supreme-court-strikes-down-death-penalty

Cytat

Five justices on the state supreme court said the “death penalty is invalid because it is imposed in an arbitrary and racially biased manner”.

To jest właśnie goniące własny ogon lewicowe podejście naginające rzeczywistość tak, aby odpowiadała ideologii.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu ‎11‎.‎10‎.‎2018 o 14:50, wilk napisał:

Gdzie tu sens, gdzie logika? A nie, zapomniałem, że to wirusowe zlewaczczenie zachodu.

Jak się nie widzi sensu i logiki, to po co te przytyki do ruchów postępowych?  

Trenowała SI na facetach? No to wdrukowała sobie, że preferowanym  hobby musi być piłka nożna, MMA czy wyścigi po Słowacji, ulubionym  napojem piwko a w danych antropometrycznych kobietom wychodził anormalny;) stosunek obwodu klatki piersiowej do talii. 

W dniu ‎11‎.‎10‎.‎2018 o 15:23, thikim napisał:

, coś ala (piszę z pamięci):

Typowe : niedowidzi, niedosłyszy ale bzdurkę napisać musi.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
19 hours ago, wilk said:

To jest właśnie goniące własny ogon lewicowe podejście naginające rzeczywistość tak, aby odpowiadała ideologii.

Czyli... no tego... prawica jest niej zideologizowana i mniej nagina rzeczywistość do ideologii? Jaja sobie robisz, aboco? :huh:

Coby jasność była: wszelkie ideologie, -izmy i inne takie mam... no dokładnie w tym samym miejscu.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, 3grosze napisał:

Trenowała SI na facetach?

A widzisz, sęk w tym, że właśnie nie tylko. Po prostu kobiety stanowiły mniejszość. Niestety nie podali procentów, w źródle jest „most”. Nazwijmy to — błędem, było to, że nie obrobili tych danych przed nakarmieniem nimi AI. Zakładam, że „płeć” nie była jawnie podana, więc fuzzy-logic sobie wybrało optymalne kryteria. Akurat język angielski jest szczególnie neutralny płciowo, więc mogli skorygować pozostałe określenia w CV. Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców. I co teraz? Ktoś nie goni własnego ogona?

5 godzin temu, 3grosze napisał:

przytyki do ruchów postępowych?

Nie sposób tak nazwać ideologię, która tworzy problemy, by bohatersko z nimi walczyć.

3 godziny temu, ex nihilo napisał:

prawica jest niej zideologizowana i mniej nagina rzeczywistość do ideologii?

Nic nie pisałem o prawicy. W kwestii zrównywania niezrównywalnego ponad wszelką logikę i korzyści prym wiedzie wspomniana ze stron.

Odetnijmy się jednak faktycznie od ideologii, by nie robić offtopu. Niepotrzebnie ją do tego wmieszałem. Zdanie na ten temat mam jasne, uznajmy jednak neutralnie, że mamy inną ocenę sytuacji. (to AI zostało zdyskryminowane za zbyt dobre robienie tego, co miało robić :>)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 hours ago, wilk said:

Nazwijmy to — błędem, było to, że nie obrobili tych danych przed nakarmieniem nimi AI. Zakładam, że „płeć” nie była jawnie podana, więc fuzzy-logic sobie wybrało optymalne kryteria. Akurat język angielski jest szczególnie neutralny płciowo, więc mogli skorygować pozostałe określenia w CV.

Jak nie była, jak była? Chyba wyraźnie jest w artykule napisane

On 10/11/2018 at 11:50 AM, KopalniaWiedzy.pl said:

Sztuczna inteligencja doszła więc do wniosku, że to mężczyźni są preferowani i przyznawała mniej punktów tym CV, w których pojawiały się takie słowa jak "women's" (np. w stwierdzeniu women's chess club capitan), odfiltrowywała też kandydatki, które ukończyły dwie żeńskie szkoły.

Więc co to za brednie.

7 hours ago, wilk said:

Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców.

Oczywiście to ma sens: zła uczelnia -> odrzucamy, dobra uczelnia -> przyjmujemy. I stąd logiczny wniosek: kobieta -> odrzucamy. Facet -> przyjmujemy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
15 godzin temu, mankomaniak napisał:

Jak nie była, jak była? Chyba wyraźnie jest w artykule napisane

No nie była. W artykule nie widzę informacji, aby w CV było podane, że to a to należy do kobiety. AI wywnioskowała sobie „coś” na podstawie pojawiających się słów. W tym przypadku na podstawie jednego słowa przed terminem „klub szachowy”. Władze Amazonu doszły zaś do wniosku, że owe „coś” jest dyskryminacją. Jestem dość przekonany, że w podobny sposób potraktowani mogli zostać mężczyźni, którzy wpisali iż chodzą na aerobik i są mistrzami w dzierganiu. Podobnież kandydaci mogliby pisać, że są „glutaminian sodu chess club captain”. Efekt byłby ten sam, ale afery by nie było.

15 godzin temu, mankomaniak napisał:

zła uczelnia -> odrzucamy, dobra uczelnia -> przyjmujemy

Nie ma żadnej informacji jakoby AI posiłkowało się zewnętrznymi rankingami uczelni. Tabula rasa nie wie co to dobra/zła uczelnia. W podobny sposób j.w.

Może prościej: AI nie stało się dyskryminującym rasistowskim Skynetem, a jedynie ujednoliciło preferencje zatrudnieniowe na dane stanowiska w tej firmie. Hint: statystyka. Ta sama, która okazała się rasistowska, bo jedna z ras ma statystyczną skłonność popełniać najcięższe przestępstwa. Która? Odpowiem jak Tadeusz Sznuk: nie wiem, choć się domyślam.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
23 hours ago, wilk said:

W kwestii zrównywania niezrównywalnego ponad wszelką logikę i korzyści prym wiedzie wspomniana ze stron.

Różne rodzaje dyskryminacji były i są faktem. Niektóre mogą być obiektywnie uzasadnione (w sensie "słuszne/usprawiedliwone/...") przyczyny, inne nie - np. wynikają z uprzedzeń, ideologii itp. pierdół. Jest - chyba całkiem sensowna - tendencja do likwidacji dyskryminacji z powodu uprzedzeń, ideologii, i też takich, które może kiedyś miały obiektywne uzasadnienie, ale teraz je straciły.

Nic dziwnego w tej sytuacji, że układ szuka nowego położenia równowagi odchylając się w różne strony. "Lewica" działa w tym przypadku jak czynik przyspieszający, "prawica" hamujący. To socjofizyka, o której wspominał tu parę dni temu Jarek.

1 hour ago, wilk said:

jedna z ras ma statystyczną skłonność popełniać najcięższe przestępstwa.

No tu jest pytanie, czy faktycznie jest to zależne od cech razowych, czy może od jakichś zewnętrznych w stosunku do rasy warunków - np. istniejącej przez wiele pokoleń dyskryminacji.

Edycja: "rasowych" oczywiście miało być, a nie "razowych".

Edytowane przez ex nihilo
  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Godzinę temu, ex nihilo napisał:

które może kiedyś miały obiektywne uzasadnienie, ale teraz je straciły.

Jeśli je utraciły i stały się przesądem, to jak najbardziej tak. Oczywiście nie można uznawać tego układu jako trwale stabilnego i od wyznaczonej chwili wymuszać w przyszłość absolutny zakaz wszelkiego podważania pod straszakiem rychłej kary. Niektóre przyczyny wynikały z ciemnych zaułków ewolucji społeczeństw, dominacji pewnych ideologii, inne z historycznych konfliktów, a jeszcze inne z nastrojów — obaw, niechęci lub agresji. Problem w tym, że wypuszczanie walca i zrównywanie wszystkiego dla niektórych jest narzędziem do osiągania konkretnych egoistycznych celów, czasem kolokwialnie mówiąc — głupich, a walec jest elastyczny, by pasował do światopoglądu naszego, a nie walcowanych, a przy okazji omijał wybrane wyjątki. Gorzej, gdy walec jest używany zamiast koparki lub spychacza, jako lewar, by przeforsować coś zupełnie innego zastraszając nierozwalcowanymi jeszcze wybojami.

Godzinę temu, ex nihilo napisał:

No tu jest pytanie, czy faktycznie jest to zależne od cech razowych, czy może od jakichś zewnętrznych w stosunku do rasy warunków - np. istniejącej przez wiele pokoleń dyskryminacji.

Statystyki nie obchodzi rasa, nie jest rasistowska (a może jest…). Fakt jest faktem, powód jest irrelewantny (tak samo pracodawcy nie obchodzi, że chciałeś iść na Harvard, ale nie udało się i poszedłeś na zwykłą stanówkę, faktem może być jednak to, że ukończyłeś ją na najlepszej lokacie). Tutaj zaś użyto walca anty-dyskryminacji jako lewara, spychacza, by usunąć z góry upatrzoną pewną przeszkodę (kara śmierci jest be), ale z której problem w ogóle nie wynikał. Kierowców tego walca nie obchodził faktyczny problem, a przeszkoda.

Godzinę temu, ex nihilo napisał:

"Lewica" działa w tym przypadku jak czynik przyspieszający, "prawica" hamujący.

Gorzej, gdy bieg do przodu jest biegiem na oślep ku przepaści. Zresztą samo określenie co jest postępowe, a co hamulcowe jest wybitnie nacechowane ideologicznie. Istotna jest rozwaga, a nie populistyczne podchwytywanie mody, która często bywa upodobaniami mniejszości.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 hours ago, wilk said:

No nie była. W artykule nie widzę informacji, aby w CV było podane, że to a to należy do kobiety

Jak nie była jak była. Pośrednio to wynika, dla AI nie trzeba formalnego nazewnictwa. W kobiecych zawodach szachowych mogły brać teoretycznie udział też osoby trans-płciowe, transseksualiści, którzy czuli się kobietami. Zamiast przyznać się do błędu, brniesz w swój fanatyzm.

6 hours ago, wilk said:

Nie ma żadnej informacji jakoby AI posiłkowało się zewnętrznymi rankingami uczelni.

Nie zrozumiałeś mojej uwagi. Miałem na myśli to, że o ile ukończenie dobrej uczelni może stanowić obiektywny sygnał, żeby kogoś przyjąć, o tyle generalizowanie tego na płeć jest totalną bzdurą. Przeszłość danej osoby ma wpływ na jej przyszłość (a więc też wykonywanie pracy), natomiast fakt, że w przeszłości było niewiele kobiet na danym stanowisku, nie oznacza przecież ich brak w przyszłości będzie pogarszać efektywność firmy.

Oczywiście można tak jak ty ze swoim fanatyzmem kontynuować trend firmy bez kobiet, tylko że to jest tak jakby się chciało kupować tylko akcje danej firmy, bo przez ostatnie 10 lat jej kurs tylko rósł, a więc się zakłada, że tak będzie dalej. Niestety w ten sposób wielu topi majątek.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, wilk napisał:

Gorzej, gdy bieg do przodu jest biegiem na oślep ku przepaści.

O tak;), to już da się ocenić a priori. Pamiętam:D, że wspólnota pierwotna też mocno oponowała przeciwko wszelkim zmianom ustrojowym. Mamy demokracji nie ulepszać, czy mamy  cofnąć się znów do jakiegoś autorytaryzmu?

OK.Kończę OT

Jeszcze tylko:

5 godzin temu, wilk napisał:

Istotna jest rozwaga, a nie populistyczne podchwytywanie mody, która często bywa upodobaniami mniejszości.

To już manipulacja: nie o upodobania mniejszości przecież chodzi, tylko o niedyskryminowanie mniejszości.

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na podstawie tego, co przeczytałem, sądzę, że ten rekruter jednak działał źle. Jeśli było mało kobiet zatrudnionych względem mężczyzn, i zaczął powiązywać tę dysproporcję z byciem kobietą, to zapewne problemem jest to, że odrzucał też te kobiety, które były lepsze od przynajmniej części zatrudnionych mężczyzn.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, 3grosze napisał:

A propos, miło Mr Vocabulary widzieć.:)

Dzięki – niestety, życiowy galimatias zamienił mnie z uczestnika w podglądacza forumowych debat ;)

I ja się cieszę, że nie uległeś denominacji ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
16 godzin temu, mankomaniak napisał:

Jak nie była jak była.

Cały czas wysnuwasz błędne wnioski na podstawie tego, jak ludzie nadają znaczenie słowom. AI nie została poinformowana o płci, nie wie czym jest płeć, rasa itd. Koniec i kropka. Przyjęła założenie, iż termin „woman's” pojawiał się najczęściej u odrzucanych kandydatów, zatem jest on w jakiś sposób niepożądany i przypasowała mu niski lub negatywny współczynnik, który powodował spadek oceny całego CV. To absolutnie nie znaczy, że dyskryminuje kobiety, a wyłącznie oznacza, że uznaje takich kandydatów za mniej adekwatnych, bo tak robili ludzie (statystycznie). Zresztą skoro AI zostało wytrenowane na danej próbce, to stosowało się do takiego właśnie wzorca (człowiekowi trudno byłoby wyciągnąć wnioski z tysięcy CV, dla maszyny to ułamki sekund). A to, że dla ludzie widzą w tym dyskryminację, to trzeba zastanowić się gdzie leży ich problem. Za dużo naoglądaliście się Hollywoodzkich SF. ;-)

16 godzin temu, mankomaniak napisał:

W kobiecych zawodach szachowych mogły brać teoretycznie udział też osoby trans-płciowe, transseksualiści, którzy czuli się kobietami.

Tak, pisałem o tym przecież w aluzji o szydełkowaniu. Ale co to zmienia, skoro takie osoby okazywały się statystycznie gorsze i odpadały? Czy firma musi zacząć zatrudniać kapitanów klubów szachowych za ich sekretne talenty czy ogólną ocenę pożytku dla firmy? Mój fanatyzm kazał pozdrowić Twój fanatyzm.

16 godzin temu, mankomaniak napisał:

o tyle generalizowanie tego na płeć jest totalną bzdurą.

Ty za to nie rozumiesz z tego co tu zaszło ni w ząb. Dla AI NIE ma czegoś takiego jak płeć. AI operowało na leksemach, na zależnościach między nimi. Gdybyś zadał temu AI, by rozdzieliło kandydatów według płci, to by tego nie zrobiło, bo nie w tym celu zostało stworzone. Zostało stworzone, by podzielić na tych, co się nadają i tych co się nie nadają.

16 godzin temu, mankomaniak napisał:

ukończenie dobrej uczelni może stanowić obiektywny sygnał

Tak, dla człowieka. I tak też na podstawie historycznych ewaluacji dokonało AI.

16 godzin temu, mankomaniak napisał:

Oczywiście można tak jak ty ze swoim fanatyzmem kontynuować trend firmy bez kobiet

Brednie. Zaprzestań pomówień. „A o pracę starli się tam głównie mężczyźni.” — dysproporcja wynika wyłącznie z decyzji kobiet, nie rekruterów.

16 godzin temu, mankomaniak napisał:

tak jakby się chciało kupować tylko akcje danej firmy, bo przez ostatnie 10 lat jej kurs tylko rósł, a więc się zakłada, że tak będzie dalej.

Nieadekwatne, bez związku z tym o czym traktuje artykuł. Podobnie jak o AI, nie masz pojęcia o giełdzie.

16 godzin temu, 3grosze napisał:

nie o upodobania mniejszości przecież chodzi, tylko o niedyskryminowanie mniejszości.

Niedyskryminowanie — jak najbardziej, to raczej oczywiste. Forsowanie każdych zachcianek, by się przypodobać lub pod naciskiem „walca” — absolutnie nie.

7 godzin temu, MrVocabulary (WhizzKid) napisał:

że odrzucał też te kobiety, które były lepsze od przynajmniej części zatrudnionych mężczyzn

Dokładnie tak, ale nie do końca. Tak samo jak szydełkujących mężczyzn. Widocznie odkrył pewne zależności, które powodują pieczenie pewnej części ciała przez niektórych. Samo pojęcie „lepszości” w tym przypadku jest trochę niewłaściwe, bo to właśnie lepszość jest informacją wyjściową, wnioskiem. Natomiast jak widzę wszyscy rozmówcy tutaj zakładają, że lepszość jest jedną z informacji na wejściu. Algorytm opierał się na uśrednionych trendach zatrudnień wyznaczonych przez ludzi. Rozwiązania tego sztucznego „problemu” są banalne: czarne listy, sztuczne przydzielanie wag czy używanie tylko dodatnich współczynników, co też dokona nowy wspaniały zespół, by na wyjściu nie wychodziła „lepszość”, a „różnorodność”.

Edit: To, że dokonałem edycji posta po godzinie i dopisałem «„A o pracę starli się tam głównie mężczyźni.” — dysproporcja wynika wyłącznie z decyzji kobiet, nie rekruterów.» ktoś o progresywnych poglądach także może uznać za dyskryminacją. Przepraszam, zachowałem się jak szowinistyczny, ksenofobiczny, rasistowski, mizoginiczny administrator.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 hours ago, wilk said:

Przyjęła założenie, iż termin „woman's” pojawiał się najczęściej u odrzucanych kandydatów, zatem jest on w jakiś sposób niepożądany i przypasowała mu niski lub negatywny współczynnik, który powodował spadek oceny całego CV.

Niczego nie przyjęła, po prostu tak było dotychczas.

6 hours ago, wilk said:

To absolutnie nie znaczy, że dyskryminuje kobiety

Z logiką na bakier. Już sam fakt, że portal, którego jesteś administratorem nazwał artykuł "Sztuczny rekruter Amazona dyskryminował kobiety", a ty twierdzisz, że wcale nie dyskryminował. Zapewne za chwilę zmienisz tytuł, żeby nie wyszło jak bardzo się w swoich poglądach mylisz.

6 hours ago, wilk said:

A to, że dla ludzie widzą w tym dyskryminację, to trzeba zastanowić się gdzie leży ich problem. Za dużo naoglądaliście się Hollywoodzkich SF

Wszyscy dobrze rozumiemy, że AI nie ma emocji,  nie jest seksistowskie, nie kieruje się ideologią prawicową itp. i nie musisz tych oczywizów tłumaczyć jak dzieciom. To z czym mamy tutaj do czynienia to jest po prostu rodzaj analizy dyskryminacyjnej, bardzo często stosowanej w finansach, gdzie odrzuca się, czyli dyskryminuje, firmy czy klientów, którzy nie spełniają określonych kryteriów. Jeśli np. klientem banku będzie matka wychowująca samotnie dziecko, to może być to jeden z negatywnych czynników przy przyznawaniu kredytu, bo ma mniejsze źródło finansów. I jest to zupełnie obiektywne, bo wytłumaczalne. Widać, że ty nawet nie słyszałeś o tym specjalistycznym przecież terminie, skoro mieszasz potoczne rozumienie dyskryminacji z formalną metodą odrzucania elementów zbiorów. Dodatkową przesłanką, że mam rację, będzie twoje pytanie "Gdzie tu sens, gdzie logika? " o sformułowanie, że algorytm dyskryminuje kobiety.

6 hours ago, wilk said:

Ty za to nie rozumiesz z tego co tu zaszło ni w ząb. Dla AI NIE ma czegoś takiego jak płeć.

Ni w ząb ty nie rozumiesz o czym mowa. Ja tylko zacytowałem twoje słowa:

On 10/14/2018 at 4:06 AM, wilk said:

Niemniej na czymś i tak musi się AI skupić, więc jak myślisz? Zapewne wówczas zacznie „dyskryminować” wybrane uczelnie, kierunki lub poprzednich pracodawców.

Nie mówię więc, że AI coś generalizuje, tylko że ty generalizuesz. Stwierdziłem, że o ile uczelnia jest obiektywnym sygnałem dla pracodawcy, o tyle z płcią już tak nie jest. To dlatego niektóre czynniki należy pozostawić, bo są obiektywnie zrozumiałe, a niektóre można cenzurować, jeśli nie mają żadnych logicznych podstaw. Czyli to człowiek musi nadać znaczenie danemu czynnikowi, czy rzeczywiście jest istotny. Dlatego twoje uogólnianie jest z góry błędne i wynika z dwóch możliwych przyczyn:

a) ideologicznych. Przesłanką będzie tu np. zdanie: "wirusowe zlewaczczenie zachodu.  Wnioski są wyłącznie jednoznaczne — winni są ci ohydni zbyt inteligentni i ambitni mężczyźni ".

b) nierozumienie, że działanie na danej próbie z przeszłości może obciążać wynik, jeśli się je stosuje do danych w przyszłości (kandydatki mogą się poprawić, tak jak giełda może się zmienić). Formalnie chodzi tu więc o podział badania na in-sample i out-of-sample, a także data snooping bias. Dla ciebie to są rzeczy obce, a robisz z siebie eksperta w tej dziedzinie.

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 13.10.2018 o 03:54, wilk napisał:

Próbka nie została dobrana źle. Po prostu kobiety tak jak i unikają kierunków STEM, tak samo nie kwapią się, jak widać, do stanowisk w Amazonie lub zwyczajnie kandydatki były słabsze. Zauważ, że algorytm analizował CV (przyjęte i odrzucone). Czyli co, to jednak nie algorytm był błędny, a HR mizoginiczne?

Jesne, z tą uwagą, że celem algorytmu nie jest dobieranie popularności kwapienia się, a to osiągnięto. 

Czy uważasz, że dowolna kobieta, startująca tam, jeżeli jest kobietą (bo tak wychodzi z algorytmu) powinna być skreślona, bo jest kobietą?

 

To zwykły błąd predykcji/klasyfikacji w zasadzie.

I nie chodzi o to aby w wynikach częściej wypadały kobiety, tylko aby jeżeli byłby by lepsze to powinny wypaść.

Dorabiacie filozofię do zwykłych błędów

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Teksty informacyjne automatycznie generowane przez algorytmy sztucznej inteligencji są trudniejsze do zrozumienia, a czytelnicy oceniają je gorzej niż teksty napisane przez człowieka. Takie wnioski płyną z badań przeprowadzonych przez naukowców z Uniwersytetu Ludwika i Maksymiliana w Monachium, którzy przeprowadzili badania na próbce ponad 3000 osób z Wielkiej Brytanii. Wyniki badan zostały opublikowane w piśmie Journalism: Theory, Practice, and Criticism.
      Badanym dano do przeczytania 24 informacje prasowe, z których połowa została wygenerowana automatycznie. Użytkownicy ocenili, że te 12 stworzonych przez automat tekstów jest trudniejszych do zrozumienia, mówi główna autorka badań Sina Thäsler-Kordonouri. Teksty autorstwa AI były gorzej ocenione, mimo że przed publikacją edytowali je dziennikarze.
      Jednym z problemów z automatycznie generowanymi tekstami okazał się dobór słów. Zdaniem badanych, artykuły takie w zbyt dużej mierze stworzone zostały za pomocą niepasującego, skomplikowanego lub dziwacznego języka. Czytelnicy stwierdzili też, że nawet liczby i konkretne dane były w tekstach AI podane w mniej przystępny sposób. To właśnie sposób podawania liczb oraz dobór słów stanowił największy problem w automatycznych tekstach.
      Podczas tworzenia i edytowania automatycznych tekstów, dziennikarze i programiści powinni postarać się, by w tekście było mniej liczb, lepiej wyjaśnić trudne wyrazy i poprawić strukturę językową tak, by czytelnik lepiej wiedział, o czym jest tekst, mówi profesor Neil Thurman.
      Ze szczegółami eksperymentu można zapoznać się w artykule Too many numbers and worse word choice: Why readers find data-driven news articles produced with automation harder to understand.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Deep Blue wygrał w szachy z Garri Kasparowem, a w 2016 roku AlphaGo pokonał w go Lee Sedola wiedzieliśmy, że jesteśmy świadkami ważnych wydarzeń. Były one kamieniami milowymi w rozwoju sztucznej inteligencji. Teraz system sztucznej inteligencji „Swift” stworzony na Uniwersytecie w Zurychu pokonał mistrzów świata w wyścigu dronów.
      Swift stanął do rywalizacji z trzema światowej klasy zawodnikami w wyścigu, podczas którego zawodnicy mają założone na głowy specjalne wyświetlacze do których przekazywany jest obraz z kamery drona i pilotują drony lecące z prędkością przekraczającą 100 km/h.
      Sport jest bardziej wymagający dla sztucznej inteligencji, gdyż jest mniej przewidywalny niż gra planszowa niż gra wideo. Nie mamy idealnej wiedzy o dronie i środowisku, zatem sztuczna inteligencja musi uczyć się podczas interakcji ze światem fizycznym, mówi Davide Scaramuzza z Robotik- und Wahrnehmungsgruppe  na Uniwersytecie w Zurychu.
      Jeszcze do niedawna autonomiczne drony potrzebowały nawet dwukrotnie więcej czasu by pokonać tor przeszkód, niż drony pilotowane przez ludzi. Lepiej radziły sobie jedynie w sytuacji, gdy były wspomagane zewnętrznym systemem naprowadzania, który precyzyjne kontrolował ich lot. Swift reaguje w czasie rzeczywistym na dane przekazywane przez kamerę, zatem działa podobnie jak ludzie. Zintegrowana jednostka inercyjna mierzy przyspieszenie i prędkość, a sztuczna sieć neuronowa, na podstawie obrazu z kamery lokalizuje położenie drona i wykrywa kolejne punkty toru przeszkód, przez które dron musi przelecieć. Dane z obu tych jednostek trafiają do jednostki centralnej – również sieci neuronowej – która decyduje o działaniach, jakie należy podjąć, by jak najszybciej pokonać tor przeszkód.
      Swift był trenowany metodą prób i błędów w symulowanym środowisku. To pozwoliło na zaoszczędzenie fizycznych urządzeń, które ulegałyby uszkodzeniom, gdyby trening prowadzony był na prawdziwym torze. Po miesięcznym treningu Swift był gotowy do rywalizacji z ludźmi. Przeciwko niemu stanęli Alex Vanover, zwycięzca Drone Racing League z 2019 roku, Thomas Bitmatta lider klasyfikacji 2019 MultiGP Drone Racing oraz trzykroty mistrz Szwajcarii Marvin Schaepper.
      Seria wyścigów odbyła się w hangarze lotniska Dübendorf w pobliżu Zurychu. Tor ułożony był na powierzchni 25 na 25 metrów i składał się z 7 bramek, przez które należało przelecieć w odpowiedniej kolejności, by ukończyć wyścig. W międzyczasie należało wykonać złożone manewry, w tym wywrót, czyli wykonanie półbeczki (odwrócenie drona na plecy) i wyprowadzenie go półpętlą w dół do lotu normalnego.
      Dron kontrolowany przez Swift pokonał swoje najlepsze okrążenie o pół sekundy szybciej, niż najszybszy z ludzi. Jednak z drugiej strony ludzie znacznie lepiej adaptowali się do warunków zewnętrznych. Swift miał problemy, gdy warunki oświetleniowe były inne niż te, w których trenował.
      Można się zastanawiać, po co drony mają latać bardzo szybko i sprawnie manewrować. W końcu szybki lot wymaga większej ilości energii, więc taki dron krócej pozostanie w powietrzu. Jednak szybkość lotu i sprawne manewrowanie są niezwykle istotne przy monitorowaniu pożarów lasów, poszukiwaniu osób w płonących budynkach czy też kręcenia scen filmowych.
      Warto tutaj przypomnieć, że systemy sztucznej inteligencji pokonały podczas symulowanych walk doświadczonego wykładowcę taktyki walki powietrznej oraz jednego z najlepszych amerykańskich pilotów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W przypadku sztucznej inteligencji z Osaki powiedzenie „wyglądasz na swój wiek” odnosi się nie do twarzy, a do... klatki piersiowej. Naukowcy z Osaka Metropolitan University opracowali zaawansowany model sztucznej inteligencji, który ocenia wiek człowieka na podstawie zdjęć rentgenowskich klatki piersiowej. Jednak, co znacznie ważniejsze, jeśli SI odnotuje różnicę pomiędzy rzeczywistym wiekiem, a wiekiem wynikającym ze zdjęcia, może to wskazywać na chroniczną chorobę. System z Osaki może zatem przydać się do wczesnego wykrywania chorób.
      Zespół naukowy, na którego czele stali Yasuhito Mitsuyama oraz doktor Daiju Ueda z Wwydziału Radiologii Diagnostycznej i Interwencyjnej, najpierw opracował model sztucznej inteligencji, który na podstawie prześwietleń klatki piersiowej oceniał wiek zdrowych osób. Następnie model swój wykorzystali do badania osób chorych.
      W sumie naukowcy wykorzystali 67 009 zdjęć od 36 051 zdrowych osób. Okazało się, że współczynnik korelacji pomiędzy wiekiem ocenianym przez SI, a rzeczywistym wiekiem badanych wynosił 0,95. Współczynnik powyżej 0,90 uznawany jest za bardzo silny.
      Uczeni z Osaki postanowili sprawdzić, na ile ich system może być stosowany jako biomarker chorób. W tym celu wykorzystali 34 197 zdjęć rentgenowskich od chorych osób. Okazało się, że różnica pomiędzy oceną wieku pacjenta przez AI, a wiekiem rzeczywistym jest silnie skorelowana z różnymi chorobami, jak np. nadciśnienie, hiperurykemia czy przewlekła obturacyjna choroba płuc. Im więcej lat dawała pacjentowi sztuczna inteligencja w porównaniu z jego rzeczywistym wiekiem, tym większe było prawdopodobieństwo, że cierpi on na jedną z tych chorób.
      Wiek chronologiczny to jeden z najważniejszych czynników w medycynie. Nasze badania sugerują, że wiek oceniany na podstawie prześwietlenia klatki piersiowej może oddawać rzeczywisty stan zdrowia. Będziemy nadal prowadzili nasze badania. Chcemy sprawdzić, czy system ten nadaje się do oceny zaawansowania choroby, przewidzenia długości życia czy możliwych komplikacji pooperacyjnych, mówi Mitsuyama.
      Szczegóły badań opublikowano na łamach The Lancet.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Sztuczna inteligencja lepiej niż technik-elektroradiolog ocenia i diagnozuje funkcjonowanie serca na podstawie badań ultrasonograficznych, wynika z badań przeprowadzonych przez naukowców z Cedars-Sinai Medical Center. Randomizowane testy prowadzili specjaliści ze Smidt Heart Institute i Division of Articifial Intelligence in Medicine.
      Uzyskane wyniki będą miały natychmiastowy wpływ na obrazowanie funkcji serca oraz szerszy wpływ na całe pole badań obrazowych serca, mówi główny autor badań, kardiolog David Ouyang. Pokazują bowiem, że wykorzystanie sztucznej inteligencji na tym polu poprawi jakość i efektywność obrazowania echokardiograficznego.
      W 2020 roku eksperci ze Smidt Heart Institute i Uniwersytetu Stanforda stworzyli jeden z pierwszych systemów sztucznej inteligencji wyspecjalizowany w ocenie pracy serca, a w szczególności w ocenie frakcji wyrzutowej lewej komory. To kluczowy parametr służący ocenie pracy mięśnia sercowego. Teraz, bazując na swoich wcześniejszych badaniach, przeprowadzili eksperymenty, w ramach których wykorzystali opisy 3495 echokardiografii przezklatkowych. Część badań została opisana przez techników, część przez sztuczną inteligencję. Wyniki badań wraz z ich opisami otrzymali kardiolodzy, którzy mieli poddać je ocenie.
      Okazało się, że kardiolodzy częściej zgadzali się z opisem wykonanym przez sztuczną inteligencję niż przez człowieka. W przypadku SI poprawy wymagało 16,8% opisów, natomiast kardiolodzy wprowadzili poprawki do 27,2% opisów wykonanych przez techników. Lekarze nie byli też w stanie stwierdzić, które opisy zostały wykonane przez techników, a które przez sztuczą inteligencję. Badania wykazały również, że wykorzystanie AI zaoszczędza czas zarówno kardiologów, jak i techników.
      Poprosiliśmy naszych kardiologów, by powiedzieli, które z opisów wykonała sztuczna inteligencja, a które technicy. Okazało się, że lekarze nie są w stanie zauważyć różnicy. To pokazuje, jak dobrze radzi sobie sztuczna inteligencja i że można ją bezproblemowo wdrożyć do praktyki klinicznej. Uważamy to za dobry prognostyk dla dalszych testów na wykorzystaniem SI na tym polu, mówi Ouyang.
      Badacze uważają, że wykorzystanie AI pozwoli na szybszą i sprawniejszą diagnostykę. Oczywiście o ostatecznym opisie badań obrazowych nie będzie decydował algorytm, a kardiolog. Tego typu badania, kolejne testy i artykuły naukowe powinny przyczynić się do szerszego dopuszczenia systemów AI do pracy w opiece zdrowotnej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W czytniku Kindle brazylijskiej dziennikarki Mariany Lopes Vieiry zagnieździły się mrówki. Nie tylko znalazły tu nowy dom, ale i kupiły 2 e-booki.
      Na swoim blogu Brazylijka napisała, że odłożyła na jakiś czas Kindle'a, by poczytać papierowe wydanie „Atlasu chmur” Davida Mitchella. Gdy skończyła, chciała ponownie skorzystać z urządzenia. Wtedy okazało się, że władzę nad nim przejęły mrówki. Wchodziły do środka przez gniazdo do ładowania. Jak można się domyślić, czytnika nie dało się używać.
      Byłam zdesperowana. Miałam na nim kilka e-booków, w przypadku których wydania papierowe zostały wyprzedane. Myślałam, że wszystko przepadło.
      W pewnym momencie zaskoczona Viera dostała e-mailem powiadomienia, że kupiła 2 książki. Dziennikarka wyjaśnia, że wszystko przez opcję „one-click purchase”, która pozwala kupić książkę z Amazona za pomocą jednego kliknięcia. Przemieszczając się, mrówki niechcący z niej skorzystały. Kupiły „Roboty i imperium" Isaaca Asimova, a później „O anel de Giges: Uma fantasia ética” autorstwa brazylijskiego ekonomisty Eduarda Giannettiego. Niewiele myśląc, dziennikarka wyłączyła opcję „kup jednym kliknięciem”.
      Przyjaciółka Vieiry pisarka Fabiane Guimarães wspomniała o całym zdarzeniu na swoim profilu na Twitterze. Jej post wywołał bardzo dużo reakcji.
      Ostatecznie pomogła rada, by włożyć owinięty folią czytnik do zamrażarki.
      Niektóre gatunki mrówek, np. mrówki Rasberry'ego, lubią się ukrywać w niewielkich przestrzeniach generujących ciepło. Z tego względu zdarza im się budować gniazda w urządzeniach elektronicznych. Prąd, który przepływa przez ich ciała, zakłóca pracę sprzętu; dzieje się tak również wówczas, gdy zginą porażone prądem.
      Kindle korzysta z pojemnościowego ekranu dotykowego, który działa dzięki zmianie pojemności elektrycznej. Ruch dużej liczby mrówek spowodował zmiany pojemności, co zostało zinterpretowane jako dotyk lub gest - wytłumaczył dziennikarzowi TecMundo inżynier mechatronik Rafael Rech di Muzio.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...